Vous êtes sur la page 1sur 274

INTRODUCTION 1

Collection « Recherches »
LA COLLECTION « RECHERCHES » À LA DÉCOUVERTE
Un nouvel espace pour les sciences humaines et sociales

Depuis le début des années 1980, on a assisté à un redéploiement considérable de


la recherche en sciences humaines et sociales : la remise en cause des grands systèmes
théoriques qui dominaient jusquʼalors a conduit à un éclatement des recherches en
de multiples champs disciplinaires indépendants, mais elle a aussi permis dʼouvrir
de nouveaux chantiers théoriques. Aujourdʼhui, ces travaux commencent à porter
leurs fruits : des paradigmes novateurs sʼélaborent, des liens inédits sont établis
entre les disciplines, des débats passionnants se font jour.
Mais ce renouvellement en profondeur reste encore dans une large mesure peu
visible, car il emprunte des voies dont la production éditoriale traditionnelle rend
difficilement compte. Lʼambition de la collection « Recherches » est précisément
dʼaccueillir les résultats de cette « recherche de pointe » en sciences humaines et
sociales : grâce à une sélection éditoriale rigoureuse (qui sʼappuie notamment sur
lʼexpérience acquise par les directeurs de collection de La Découverte), elle publie des
ouvrages de toutes disciplines, en privilégiant les travaux trans et multidisciplinaires.
Il sʼagit principalement de livres collectifs résultant de programmes à long terme,
car cette approche est incontestablement la mieux à même de rendre compte de la
recherche vivante. Mais on y trouve aussi des ouvrages dʼauteurs (thèses remaniées,
essais théoriques, traductions), pour se faire lʼécho de certains travaux singuliers.

Lʼéditeur
SOUS LA DIRECTION DE

Amy Dahan Dalmedico

Les modèles du futur


Changement climatique et scénarios économiques :
enjeux scientifiques et politiques

Publié avec le concours du CNRS et du ministère


de l’Enseignement supérieur et de la Recherche

LA DÉCOUVERTE
2007
ISBN : 978-2-7071-5013-4

Le logo qui figure sur la couverture de ce livre mérite une explication. Son objet est dʼalerter le
lecteur sur la menace que représente pour lʼavenir de lʼécrit, tout particulièrement dans le domaine
des sciences humaines et sociales, le développement massif du photocopillage.
Le Code de la propriété intellectuelle interdit en effet expressément, sous peine des sanctions
pénales réprimant la contrefaçon, la photocopie à usage collectif sans autorisation des ayants droit.
Or, cette pratique est généralisée dans les établissements dʼenseignement et à lʼuniversité, provoquant
une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer
des œuvres nouvelles et de les faire éditer correctement est aujourdʼhui menacée.
Nous rappelons donc quʼaux termes des articles L. 122-10 à L. 122-12 du Code de la propriété
intellectuelle toute photocopie à usage collectif, intégrale ou partielle, est interdite sans autori-
sation du Centre français dʼexploitation du droit de copie (CFC, 20, rue des Grands-Augustins,
75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans
lʼautorisation de lʼéditeur.

Si vous désirez être tenu régulièrement informé de nos parutions, il vous suffit dʼenvoyer vos
nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez
gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver lʼensemble
de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr

© Éditions La Découverte, Paris, 2007.


Sommaire

Introduction
Modèles et fabrications du futur : du débat sur la croissance au débat
climatique et retour
par Amy Dahan Dalmedico 7

I. Le débat sur la croissance


des années 1970 et ses outils

1. Croissance ou stabilité ? Lʼentreprise du Club de Rome et le débat autour


des modèles
par Élodie Vieille Blanchard 21
2. La construction historique des paradigmes de modélisation intégrés :
William Nordhaus, Alan Manne et lʼapport de la Cowles Commission
par Pierre Matarasso 44
3. Les économistes face au long terme : lʼascension de la notion de scénario
par Michel Armatte 63

II. L’alerte climatique, la gouvernance


mondiale du régime climatique

4. Les modèles numériques de climat


par Hélène Guillemot 93
5. Le régime climatique, entre science, expertise et politique
par Amy Dahan Dalmedico 113
6. Les modèles dans les débats de politique climatique : entre le Capitole
et la Roche tarpéienne ?
par Jean-Charles Hourcade 140
III. Fabrication des futurs : batailles
de représentation et délibération publique

7. Les émissions optimales de CO2 le sont-elles vraiment ?


par Christian Azar 167
8. Modèles mondiaux et représentation des pays en développement
par Emilio Lèbre La Rovère, Vincent Gitz, André Santos Pereira 184
9. Pour une morale de la modélisation économique des enjeux climatiques
en contexte dʼexpertise
par Olivier Godard 203
10. Les couloirs de la persuasion. Usages de la communication, tissu
associatif et lobbies du changement climatique
par Emmanuel Paris 227

Les auteurs 245


Introduction

Modèles et fabrications du futur :


du débat sur la croissance au débat climatique et retour

Amy Dahan Dalmedico

Parmi les dégradations environnementales et les risques apparus au cours


de ces dernières décennies, la question de lʼeffet de serre anthropique1 et des
changements climatiques qui devraient en résulter est certainement lʼune des
plus complexes à saisir collectivement. La menace est-elle vraiment si grave ?
Quelles sont les modalités de son évaluation ? Selon quelles procédures, à
partir de quels savoirs envisage-t-on des réponses politiques et sociales à la
hauteur du péril ? Vastes questions qui mobilisent, toutes, lʼétude des régimes
de production des savoirs scientifiques (sciences de la nature et/ou sciences
économiques et sociales) dans leurs interactions avec le politique2 et que cet
ouvrage a pour ambition de contribuer à éclairer.
Considérons en premier lieu le point de vue de la science du climat :
comment les climatologues en arrivent-ils à affirmer que le climat va chan-
ger, et avec telle ou telle ampleur ? Quels sont les outils et les méthodes des
chercheurs engagés dans ce domaine ? Quʼen est-il des incertitudes relatives
à ces assertions ? Pour toutes ces questions, les modèles numériques sont
lʼoutil privilégié de la discipline, ils jouent un rôle fondamental tant dans la
connaissance du climat présent et passé que dans les projections à long terme
ou encore dans la mesure de la « sensibilité » à lʼeffet anthropique. Le besoin de
confronter et de valider les résultats des modèles, la nécessité dʼévaluer lʼétat
des connaissances et des réponses possibles ont dʼailleurs conduit, dès 1988, à
la constitution de formes singulières et inédites dʼexpertise – avec notamment
la création du Groupe dʼexperts intergouvernemental sur lʼévolution du climat
(le GIEC3) – qui méritent notre attention.

1. Cʼest-à-dire lié aux activités humaines.


2. Pour une mise en perspective historique de cette question, voir le livre de Dominique Pestre,
Science, argent et politique, publié aux Éditions de lʼINRA en 2003.
3. En anglais, IPCC : Intergovernmental Panel on Climate Change.
8 LES MODÈLES DU FUTUR

En raison des caractéristiques globales et planétaires de la question, de


lʼampleur des dégâts possibles et des implications considérables quʼaurait
pour nos sociétés la réduction des émissions de gaz à effet de serre, le réchauf-
fement climatique pose, en second lieu, une question inédite aux sciences
économiques : aider à définir les actions à entreprendre face au phénomène.
Et contribuer, à ce titre, à élaborer des réponses qui devront être acceptées
depuis le niveau mondial jusquʼau niveau local. Or, il sʼavère là aussi que les
sciences économiques ne savent traiter la complexité de ce problème quʼen
recourant à des modèles. Il importe donc de mettre à plat ces derniers, de savoir
comment ils sont élaborés, partagés, perfectionnés par la communauté des
économistes. Mais aussi de comprendre dʼoù ils viennent, ce quʼils ignorent
ou charrient implicitement. Il nous faut saisir le rôle que ces modèles jouent
dans dʼautres arènes que les milieux académiques – forums de négociations
internationales, organismes de décisions dans des cadres nationaux, espace
public ou médias – et les malentendus éventuels qui en résultent.
Les modèles ont donc un statut hégémonique dans deux ensembles (au
moins) de communautés de chercheurs (des sciences de la nature et des
sciences économiques) engagés dans le domaine du changement climatique.
Mais une autre notion joue également un rôle prééminent : celle de scénario.
En effet, pour tous ceux qui cherchent à fournir des prédictions numériques
et des savoirs quantitatifs sur le futur éloigné de notre planète et celui de nos
sociétés, les scénarios dʼévolution socio-économique sont incontournables ;
ils entrent en inputs des modèles proprement climatiques et ils interviennent
dans la nouvelle génération des modèles dits intégrés qui couplent modèles
dʼactivités humaines (évolution énergétique, usage des sols…) et modèles
« de lʼunivers ». Ainsi, dans la fabrication des futurs, une relation incestueuse
entre modèle et scénario tend à sʼétablir : le scénario intervient dans les modè-
les et le modèle permet de produire des scénarios. Il nous a semblé que cette
relation méritait dʼêtre auscultée.
En troisième lieu, enfin, la dimension proprement géopolitique caractérise
massivement le changement climatique. Après la convention de Rio en 1992,
des Conférences des Parties (les COP4) se réunissent annuellement sous lʼégide
de la Convention-cadre des Nations unies sur les changements climatiques
(CCNUCC5) et deviennent des arènes de négociation internationale sur la
politique climatique. En moins de dix ans, le sujet est passé dʼune préoccu-
pation scientifique complexe à un thème politique qui divise la diplomatie
internationale, met en compétition les intérêts économiques, voit sʼaffronter

4. COP : Conference of Parties. « La Conférence des Parties est lʼorgane suprême de la convention
[la Convention-cadre des Nations unies sur les changements climatiques, CCNUCC]. Elle prend, dans
les limites de son mandat, les décisions nécessaires pour en promouvoir la mise en œuvre effective »
(article 22 de la convention Climat, point 2).
5. En anglais, UNFCCC : United Nations Framework Convention on Climate Change.
INTRODUCTION 9

les conceptions du droit, fait diverger les choix politiques et reconfigure les
alliances. La négociation sur le climat et la politique climatique se confirme
comme lʼune des plus difficiles, en particulier parce quʼelle exige une avancée
déterminante de la gouvernance mondiale. Une course paraît engagée entre
la dégradation du climat et la capacité de décision politique des pays de la
planète. Son moteur est puissant : cʼest notre communauté de destin sur cette
terre. Derrière la question du multilatéralisme et au-delà des inégalités Nord-
Sud quʼil faut affronter, se profile une question autrement cruciale : celle de
la capacité de lʼhumanité à faire face collectivement à son avenir. Lʼalerte
sur lʼeffet de serre a puissamment relancé les efforts de production dʼimages
du futur. La production de ces divers scénarios du futur, associés à lʼémer-
gence de la notion de développement durable, devient dʼailleurs un enjeu
suffisamment critique dans les débats de politique internationale pour être
soumise à une « évaluation par les pairs » dans le cadre du Groupe dʼexperts
intergouvernemental sur lʼévolution du climat.
Sur les questions politiques, notre objectif nʼa pas été – car ce nʼétait
pas exactement notre compétence – dʼétudier dans le détail le processus des
négociations ayant conduit au protocole de Kyoto et dʼen faire le bilan à
lʼheure où les perspectives dʼengagement pour la période qui va au-delà de
2012 sont fort peu claires6. Nous avons abordé la dimension géopolitique du
problème climatique plutôt du point de vue des science studies que de celui
des sciences politiques, en insistant sur les questions suivantes : comment les
enjeux géopolitiques croisent-ils, dans ce contexte, les enjeux scientifiques ?
Comment fonctionne la fabrication de consensus scientifiques pour la décision
politique, et quel est lʼimpact de cette fabrique sur la vie scientifique elle-
même ? Peut-on évaluer le poids de la communauté scientifique et la qualité
du travail effectué par les organismes dʼexpertise, notamment le GIEC, dans
le processus politique ? Lʼétude dʼautres controverses scientifico-techniques
contemporaines a montré que les logiques scientifique et politique ne se déve-
loppent pas séparément ; au contraire, elles interagissent et sʼhybrident parfois
étroitement. Quʼen est-il dans le domaine du changement climatique ?

6. Au bénéfice du processus, on pourrait inscrire lʼémergence dʼun cadre relativement « éthique »


permettant la fixation dʼengagements de résultats quantifiés concernant les émissions des pays
industrialisés, lʼascension dʼune opinion publique mondiale douée dʼune conscience planétaire
(ONG, médias), la réouverture de la négociation Nord-Sud et lʼinvention de mesures de flexibilité.
Parmi les insuffisances notoires, il faut souligner lʼabsence de débat sur les modes de vie, la faiblesse
des politiques effectivement conduites dans les pays industrialisés, la confiance excessive dans les
mécanismes régulateurs de marché et sans doute la lourdeur des règles de lʼONU. Voir lʼarticle de
Pierre Radanne, « Les négociations à venir sur les changements climatiques », Études prospectives,
n° 1 (publications de lʼIEPF, Montréal, 2004) et la thèse en sciences politiques de Benjamin Denis,
La politique internationale du climat. Analyse du processus de construction du cadre international
de lutte contre le réchauffement global, soutenue à lʼUniversité libre de Bruxelles en 2006.
10 LES MODÈLES DU FUTUR

En résumé, modèles, scénarios, expertise, interactions entre le scientifique


et le politique, fabrication des futurs sont les questions, tant conceptuelles
que pratiques, privilégiées dans cet ouvrage. Nous avons voulu les aborder
de différents points de vue : méthodologique, historique, épistémologique
et politique. Avec cette pluralité dʼangles dʼanalyse qui se superposent et se
combinent au fil des chapitres, notre objectif était de promouvoir et dʼencou-
rager une attitude réflexive et critique à leur égard.

La première partie de lʼouvrage est une mise en perspective historique


dʼun certain nombre dʼoutils – modèle mathématique global, modèle intégré,
scénario – devenus récurrents dans le débat climatique. Ces outils ont acquis
dès les années 1970 une importance déterminante dans lʼétude du futur à la
suite du manifeste lancé par le Club de Rome contre la croissance. En effet,
la publication du célèbre Limits to Growth7 en 1972 et du modèle World de
Forrester initie une large discussion, tant académique que publique, sur la viabi-
lité de notre société de croissance et lʼépuisement des ressources de la planète.
Ce débat sʼarticule également autour dʼautres modèles globaux, mis en place
progressivement au cours de la décennie, qui apportent chacun un éclairage et
des conclusions spécifiques sur cette question de la croissance. Élodie Vieille
Blanchard revisite cette époque, tant les modèles que les controverses – notam-
ment la critique féroce de lʼéconomiste William Nordhaus, qui va construire
le modèle DICE (Dynamic Integrated Model of Climate and Economy) en
réaction à World. Elle cherche à mettre en lumière la manière dont chaque
modèle est porteur de présupposés idéologiques implicites, en particulier un
rapport spécifique à la technologie et à la nature. Ces cosmologies concourent,
dit-elle, avec le choix dʼune méthodologie propre de modélisation, à construire
une image du futur et à énoncer certaines prescriptions sur les meilleurs choix
présents à faire pour nos sociétés dans la perspective de ce futur.
Les avocats de la croissance zéro, quʼils aient été critiqués ou approuvés,
ont suscité à leur époque un grand intérêt, y compris dans le milieu académi-
que. Ce nʼest plus le cas de nos jours, pourquoi ? Dans son étude sur la genèse
de la modélisation intégrée, Pierre Matarasso propose une explication et une
réponse à cette interrogation. Deux structures de modèle économique jouent un
rôle particulièrement important dans la modélisation intégrée du changement
climatique : les modèles de « croissance optimale » et les modèles « dʼana-
lyse dʼactivités ». Les premiers sont à la base des approches dites top-down
(approche globale et généralement agrégée de lʼéconomie), les seconds sont au
cœur des approches bottom-up (approche par les technologies). Deux auteurs
importants sʼillustrent dans chacune de ces approches : William Nordhaus avec

7. Rapport au Club de Rome traduit en français sous le titre Halte à la croissance ! et paru aux
éditions Fayard en 1972.
INTRODUCTION 11

son modèle DICE de croissance optimale ; Alan Manne et le modèle MARKAL


(Market Allocation Model) dʼanalyse dʼactivités. Ces deux modèles ont fait
école, ont été déclinés par de très nombreux auteurs ; ils ont suscité un effort
coopératif international, aujourdʼhui repris par le G8. Grâce aux archives de
la Cowles Foundation, lʼun des centres américains les plus importants de la
mathématisation des sciences économiques, Pierre Matarasso propose un récit
des origines, à la fois intellectuelles et politiques, de ces paradigmes de modé-
lisation à travers les travaux de Ramsey et de von Neumann, lʼémergence de
la recherche opérationnelle et la critique du Club de Rome. Cette inscription
dans le mainstream de la science économique expliquerait ainsi, pour lui, la
suprématie des modèles de croissance à la Nordhaus et la marginalisation de
la tradition issue du Club de Rome.
Dans les années 1970, la construction des représentations du futur éner-
gétique se fonde sur des modèles économétriques très simples de prévision
de croissance des consommations par extrapolation du passé sur de grands
agrégats. La croissance énergétique est ainsi rigidement liée à la croissance
économique ; la prolongation des tendances à vingt ou trente ans laisse imagi-
ner une convergence vers le mode de vie américain. La technologie nucléaire
est souvent là pour répondre à la raréfaction des ressources de combustibles,
avec son cortège de filières dont le développement est censé sʼenchaîner
harmonieusement pour mettre fin à notre assujettissement aux ressources
épuisables et sauver le rêve dʼune société opulente. Des représentations uto-
piques concurrentes émergent simultanément, révélant un optimisme similaire
mais opposé pour des solutions technologiques alternatives, mobilisant les
énergies renouvelables à grande échelle et témoignant dʼune efficacité éner-
gétique jamais atteinte. Cʼest notamment de cette confrontation que va naître
lʼapproche exploratoire du futur énergétique de moyen-long terme par scénario
pour balayer le champ des futurs possibles, en ouvrant les boîtes noires des
dynamiques macroéconomiques et des comportements agrégés.
Cʼest à une étude en profondeur de lʼattitude des économistes face au long
terme que se livre Michel Armatte. Après avoir passé en revue les différents
temps de lʼéconomie et les méthodes qui y sont associées (la conjoncture, les
budgets, la planification), il souligne que la méthodologie privilégiée des éco-
nomistes pour les raisonnements de long terme est le recours aux modèles théo-
riques de croissance. Lʼun des plus célèbres, le modèle de Solow, a dʼailleurs
inspiré Nordhaus pour son modèle DICE. Or la démarche prospective – dont
Michel Armatte évoque les moments forts et les principaux lieux (français et
américains) – sʼen distingue nettement. Ses principales caractéristiques – le
volontarisme des projections et surtout la pluralité des futurs – la rendent a
priori suspecte aux yeux des économistes. Michel Armatte sʼarrête alors sur
la méthode des scénarios au centre de la démarche prospective. Lʼexamen
de plusieurs cas historiques de construction de scénarios – « scénarios de
12 LES MODÈLES DU FUTUR

lʼinacceptable » (DATAR), scénario « Interfuturs » (OCDE), Scanning the


Future (scénario néerlandais)… – lui permet dʼexplorer les articulations pos-
sibles entre modèle et scénario, en particulier dans le cas des scénarios SRES8
utilisés par le GIEC dans le domaine du changement climatique. Il met ainsi
en évidence le double caractère des scénarios : quantification rattachée à la tra-
dition des modèles intégrés et forme qualitative (narrative storyline) dʼimage
ou de récit qui restitue une cohérence et permet une large diffusion.
Vers la fin des années 1980, la question du réchauffement climatique global
fait irruption sur la scène tant scientifique que géopolitique et médiatique.
La deuxième partie de cet ouvrage est principalement consacrée à lʼalerte
climatique, considérée dans ses rapports au politique : fonctionnement de
lʼexpertise, définition des politiques climatiques. À lʼheure où un certain
« anarchisme épistémologique » se manifeste9, nous avons souhaité fournir
au lecteur une introduction à la modélisation numérique globale du climat.
Domaine de longue tradition scientifique, développé depuis les années 1960, la
modélisation du climat a été stimulée par plusieurs dynamiques. Premièrement,
des dynamiques instrumentales : dʼune part, la puissance croissante des ordi-
nateurs a été un élément moteur du développement des modèles ; dʼautre part,
les technologies spatiales ont permis dʼengranger une quantité croissante de
mesures et de données dʼobservation, sans lesquelles aucun modèle ne pour-
rait exister. Deuxièmement, une dynamique opérationnelle, car la prévision
météorologique a revêtu depuis les années 1950 une importance stratégique
croissante. Sans omettre, évidemment, la logique des dynamiques proprement
scientifiques. Hélène Guillemot nous offre une description très informée
des pratiques de construction des modèles numériques de climat et de leurs
mutations sous lʼinfluence des problématiques du changement climatique. Ces
modèles se sont progressivement complexifiés depuis les premiers modèles
de circulation atmosphérique jusquʼaux modèles du « système Terre », qui
intègrent désormais un nombre croissant de milieux et dʼinteractions entre
eux (océans, sols, hydrologie, végétation, pollutions chimiques, cycle du
carbone, etc.). Lʼintroduction des sols, par exemple, a entraîné lʼintroduction
de tout un ensemble de savoirs, de pratiques, dʼacteurs et de modèles nou-
veaux. Non seulement elle sʼinscrit dans la tendance irrésistible d’intégration
dʼéléments de plus en plus hétérogènes, de mécanismes et de rétroactions de
plus en plus complexes – intégration indissociable de lʼeffort de réduction
des incertitudes –, mais lʼintervention des surfaces amorce un mouvement de

8. Abréviation consacrée pour le Special Report on Emissions Scenarios publié par lʼIPCC
(Intergovermental Panel on Climate Change, dénomination anglo-saxonne du GIEC) en 2000.
9. Nous faisons référence ici à la critique de Claude Allègre, grand scientifique mais extérieur
au domaine de la climatologie, déclarant avec arrogance : « Je doute et jʼai le droit de douter ! » Cet
anarchisme nʼa rien à voir avec les controverses instruites entre spécialistes et chercheurs engagés
dans le domaine qui sont le lot ordinaire de la recherche.
INTRODUCTION 13

retour vers des questions et des préoccupations plus locales. Hélène Guillemot
accompagne ses descriptions dʼune réflexion épistémologique sur les princi-
pales méthodologies à lʼœuvre, le souci de validation des modèles, la néces-
sité des « traductions » et le caractère pluridisciplinaire des pratiques que
lʼordinateur favorise. Modèles, simulations, paramétrisations, couplage de
modèles, intégration, complexité sont les notions principales (ou les concepts)
qui y jouent un rôle clé.
En moins de dix ans, on lʼa dit, le changement climatique est passé du
statut de sujet scientifique complexe à celui dʼun thème politique aux enjeux
majeurs. La structuration du GIEC en trois groupes de travail, les études
quʼil suscite, lʼagenda quʼil définit ont contribué à reconfigurer lʼensemble
du champ. À partir de 1995, les Conférences des Parties réunies annuelle-
ment deviennent des arènes de négociations internationales sur le sujet en
même temps que des forums hybrides où se croisent des groupes de plus en
plus variés. Progressivement, les préoccupations centrales de la recherche
se modifient, de nouvelles pratiques apparaissent ; les enjeux géopolitiques
croisent les questions scientifiques. Un seul exemple ici suffira à lʼillustrer.
La question posée dans la convention de Rio était celle dʼune inflexion des
trajectoires dʼémissions des pays industrialisés, cʼest-à-dire passer dʼune
croissance continue à une stabilisation, puis à une réduction de ces émissions.
Depuis, les travaux scientifiques du GIEC ont introduit une question concrète
déterminante : quelle dégradation du climat acceptons-nous ? Cette question
en a amené dʼautres en cascade : vers quelle concentration en carbone se
stabiliser ? Quelles sont les trajectoires dʼémissions qui conduisent à cette
concentration ? Vers quelle répartition des émissions entre les pays industria-
lisés et les pays en développement doit-on aller ? Lʼobjectif principal dʼAmy
Dahan est de revenir sur cette évolution, sur le rôle déterminant quʼy ont
joué le GIEC et dʼautres institutions du régime. À partir du point de vue des
études sociales des sciences, elle propose une réflexion sur les relations entre
science, politique et expertise dans ce domaine. Elle accorde une attention
privilégiée aux liens entre expertise scientifique et gouvernance globale,
marquée en particulier par la tension des rapports Nord-Sud. En revenant sur
la cartographie des communautés scientifiques, des institutions et des acteurs,
elle sʼattache à mettre en évidence lʼhybridation croissante des dynamiques
scientifiques et des politiques. Elle analyse notamment le fonctionnement et le
positionnement du GIEC, véritable fer de lance du régime climatique qui, dʼun
côté, revendique un modèle traditionnel dʼexpertise scientifique et, de lʼautre,
joue un rôle déterminant dans lʼarticulation avec le politique. Afin de réfléchir
à ce que cet exemple nous enseigne sur les liens entre science et politique à
lʼéchelle internationale, sur les questions de construction et de fonctionnement,
à cette échelle, de lʼexpertise, prise entre normes de scientificité et exigences
de délibération démocratique.
14 LES MODÈLES DU FUTUR

Jean-Charles Hourcade prend acte de lʼambiguïté qui préside à toute


convocation des modèles économiques dans la détermination des politiques
climatiques qui pourraient être préconisées. Dans ce contexte, souligne-t-il,
les modèles peuvent être vus comme un langage de communication entre
disciplines, comme un langage de négociation entre acteurs séparés par des
divergences dʼintérêts et de visions du monde et, aussi, comme un outil de
détermination des paramètres « objectifs » permettant de définir les bonnes
politiques. Il décortique lʼutilisation – nécessaire et inévitable, dit-il – de
métaphores par les modélisateurs pour rendre compte en langage « naturel »
de la syntaxe interne de leurs outils ; et de la manière dont ces métaphores
débouchent souvent sur des jeux sémantiques qui ont un effet structurant sur
la délibération publique, précisément parce que les notions utilisées repren-
nent alors un sens commun en partie dissocié de celui quʼelles revêtent dans
la communication interne entre modélisateurs. Jean-Charles Hourcade étudie
ce mécanisme autour de trois groupes de notions qui ont eu et continueront
dʼavoir un impact réel sur les débats stratégiques : les notions dʼéquilibre et
dʼoptimum (de quel scénario de base parle-t-on ?), les coûts et les bénéfices
des politiques climatiques (faut-il agir ou pas ?), « lʼévidence » du prix unique
du carbone comme garant de lʼefficacité. Techniques de modélisation à lʼori-
gine, lʼéquilibre général, le sentier optimal ou les anticipations rationnelles se
révèlent ainsi être également des métaphores qui véhiculent des perceptions
du fonctionnement de lʼéconomie, ce qui les empêche de jouer leur rôle de
clarificateur du débat. Jean-Charles Hourcade sʼinterroge sur lʼexistence dʼune
matrice commune entre les constructeurs de modèles et leurs « clients », voire
leurs critiques, permettant de comprendre les effets de croyance et dʼhypnose
qui ont pu contribuer à des blocages décisionnels ; matrice nécessairement
complexe et dont le fonctionnement ne peut quʼêtre historiquement situé. Il
suggère cependant quʼelle comporte trois dimensions structurantes : le rap-
port à lʼincertitude et à la controverse, lʼimpression de « tangibilité » et de
transparence versus lʼopacité des artefacts et, enfin, une confrontation à portée
idéologique plus fondamentale autour de la question du « constructivisme »,
du type de la position dʼHayek, cʼest-à-dire contestant la possibilité même de
définir des politiques climatiques.
La troisième partie de lʼouvrage laisse place à plusieurs études qui soit
approfondissent, sous certains angles, lʼanalyse critique des modèles écono-
miques de changement climatique engagée dans les chapitres précédents, soit
abordent leurs dimensions éthiques ou communicationnelles. Par exemple,
le cadre tant des modèles de croissance optimale que des modèles dʼanalyse
dʼactivités est fondé sur le concept dʼoptimalité. Cʼest ce concept même quʼin-
terroge Christian Azar. Quoique lʼeffet de serre soit considéré comme lʼun des
problèmes environnementaux les plus sérieux, certaines études économiques
– dont le célèbre modèle DICE de Nordhaus – continuent à dire quʼil serait
INTRODUCTION 15

optimal de laisser les émissions de gaz à effet de serre être multipliées par trois
au cours du siècle à venir. Dʼautres études, en revanche, concluent que des
réductions considérables seraient justifiées par les seuls motifs économiques.
Christian Azar cherche à cerner précisément les raisons de ces divergences,
et il se concentre sur quatre questions cruciales qui interviennent dans les
analyses économiques de lʼeffet de serre : les « surprises » climatiques catas-
trophiques (événements de faible probabilité, mais aux conséquences énor-
mes), les méthodes dʼévaluation des coûts, le choix du taux dʼactualisation et,
enfin, le choix des critères de décision. Il met en lumière le rôle décisif de ces
questions dans les conclusions politiques tirées des modèles économiques du
changement climatique, et en particulier comment elles impliquent, chacune,
des choix éthiques significatifs. Cette conclusion simple de la présence de
choix éthiques et de jugements de valeur dans les modélisations économi-
ques doit être reconnue très largement, plaide Christian Azar, car lʼéconomie
est trop souvent perçue comme un outil neutre, apte à fournir les politiques
« optimales » aux décideurs.
Emilio Lèbre La Rovere, Vincent Gitz et André Santos Pereira discutent
les principales difficultés de représentation, par les modèles mondiaux, du
système de lʼéconomie, du système énergétique et de lʼusage des sols dans
les pays en développement. Ils passent en revue différents obstacles : dis-
ponibilité et qualité des données, imperfection des marchés, spécificité des
ressources dʼénergies renouvelables, dynamiques dʼoccupation du territoire,
etc. La question fondamentale quʼils soulèvent – celle de lʼidentification des
limites de lʼexercice de modélisation dans le cas des pays en développement
– est finalement très représentative de la problématique générale de limitation
des émissions de gaz à effet de serre face au défi du changement climatique.
Ces émissions ont un lien direct avec le niveau dʼactivité économique dʼun
pays, sa façon de produire et de consommer lʼénergie, mais aussi sa manière
dʼutiliser les sols. Or, les secteurs traditionnels et informels de lʼéconomie
dans les pays en développement sont un exemple privilégié de lʼintersection
entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs
correspondent à une partie importante de la production agricole, de la consom-
mation énergétique des ménages et de lʼusage des sols. Paradoxalement, ces
secteurs contribuent dʼautant plus fortement aux émissions de gaz à effet de
serre que leur représentation par des modèles mathématiques est plus complexe
et limitée. Les auteurs attendent des équipes de modélisation travaillant dans les
pays en développement quʼelles rendent mieux compte de ces problèmes.
La densité des travaux de prévision et de prospective énergétique ne
supprime pas le sentiment de grande incertitude que nous éprouvons vis-
à-vis de lʼavenir ; elle tend même à imposer lʼimage dʼun avenir joué très
largement sans nous. Olivier Godard nous invite à réfléchir à la manière dont
la conception de la modélisation à long terme, dans le champ de lʼénergie
16 LES MODÈLES DU FUTUR

et du climat, pourrait servir ou desservir la liberté collective. Il sʼappuie en


particulier sur deux épisodes précis de lʼhistoire de la modélisation dans ce
domaine : lʼusage en 1992 du modèle Global 2100 par Alan Manne et Richard
Richels pour évaluer lʼimpact du projet européen de taxation des émissions
de carbone et les travaux menés en France en 1996-1998 par le groupe
Énergie 2010-2020 du Commissariat général du Plan. Plusieurs questions
émergent de ces deux exemples. La modélisation utilisée en contexte dʼex-
pertise nʼa-t-elle pas souvent pour enjeu, plus ou moins tacite, de façonner
les représentations et les anticipations, voire dʼexciter des réflexes, plutôt que
de susciter la réflexion et dʼêtre un vecteur de lumière permettant dʼéclairer
les consciences ? Olivier Godard aborde aussi les modalités dʼune prise en
charge explicite de la pluralité des avenirs possibles. Mais lʼinscription dʼune
telle pluralité au cœur de la modélisation est-elle vraiment souhaitée, tant
par les décideurs que par les modélisateurs ? Nʼest-elle pas contradictoire
avec le projet dʼune modélisation intégrée, qui aurait internalisé toutes les
variables humaines et naturelles ? Il sʼinterroge également sur les hypothèses
normatives qui assignent aux « générations futures » une forme de repré-
sentation identique à celle des générations actuelles, sans sʼembarrasser des
problèmes nombreux que pose le statut éthique de ces générations éloignées.
Un utilitarisme simpliste lui paraît le substrat implicite de ces modèles éco-
nomiques à long terme.
Cʼest sous un autre angle quʼEmmanuel Paris, spécialiste des sciences de
lʼinformation et de la communication, explore également la question des rap-
ports entre liberté collective et maîtrise du futur. « Le futur nous appartient. »
On peut comprendre cette formule ainsi : dans une société démocratique, la
voix de chacun compte pour dire de quoi demain doit être fait, et comment
sʼy prendre. Dans cette acception, la définition collective du futur prendrait
consistance sous deux conditions : la conscience partagée par tous de lʼintérêt
de prendre connaissance de lʼavis de chacun au sujet de ce que doit être le
futur et lʼexistence dʼun système capable dʼorganiser de manière « pure et
parfaite » lʼéchange des points de vue à ce sujet. Emmanuel Paris explore la
validité dʼune telle interprétation, selon laquelle le futur nous appartiendrait
effectivement, la communication des paroles exprimées à ce sujet en faisant
foi. Quel rôle joue alors lʼactualité dans la communication du changement
climatique ? En effet, au fil des semaines se succèdent dans les médias les
descriptions de crises durant lesquelles le problème posé à la société par ce
phénomène environnemental est redéfini. Ces traductions incessantes sont
le fait dʼindividus et de collectifs poursuivant dans lʼespace public un même
double objectif : modifier les représentations sociales du phénomène et mener
le processus de résolution collective des problèmes quʼil pose.
INTRODUCTION 17

Les auteurs réunis ici ne se revendiquent pas, on lʼaura compris, dʼun


même point de vue ou dʼune approche identique. Historiens et sociologues
des sciences, économistes ou spécialistes des sciences de lʼinformation et
de la communication nʼont pas les mêmes méthodes ni les mêmes traditions
intellectuelles ; ils ne se posent généralement pas les mêmes questions. De
plus, il subsiste toujours, dans les échanges, des chocs entre visions du monde
distinctes, entre points de vue optimistes et pessimistes, qui sont le produit
dʼhistoires idiosyncrasiques complexes.
Cet ouvrage est le résultat dʼun projet de recherche interdisciplinaire10 qui
sʼest déroulé pendant quatre ans (2003-2006). Et de très nombreux séminai-
res, ateliers de travail et journées dʼétudes, ouverts à des chercheurs et des
doctorants de diverses disciplines, ont offert lʼopportunité de confrontations
approfondies11. Par ce retour répété sur les notions et les énoncés les plus
courants, nous avons été, en un sens, contraints à la réflexivité. Cʼest celle-ci
que nous nous sommes attachés à transmettre.
Réflexivité ne signifie pas manque de conviction ou indifférence. Le
débat sur la croissance des années 1970 a suscité un courant intellectuel qui
a forgé les outils du débat climatique. Aujourdʼhui, ce débat nous renvoie,
via les questions énergétiques et environnementales, aux questions posées par
lʼépuisement des ressources et la durabilité du développement, donc au débat
sur la croissance. La boucle semble bouclée.
Pourtant, la qualité du débat sur le changement climatique dans lʼopinion
publique reste insatisfaisante. Or, aucune négociation sur la réduction des
émissions ne peut déboucher sur des résultats significatifs si elle nʼest pas
fondée sur un large débat public. La première bataille est culturelle : il nous
faut construire un imaginaire de long terme concernant les politiques, les modes
de vie et les futurs. Et il faut souhaiter évidemment que cette construction
intervienne par une avancée de culture collective et non par la pression de

10. Ce projet a été soutenu financièrement par le ministère de lʼEnseignement supérieur et de


la Recherche dans le cadre dʼune ACI « Travail, techniques, théories. Travail interdisciplinaire en
sciences humaines et sociales ». Saluons ici quelques participants actifs du projet qui ne figurent
pas comme contributeurs de lʼouvrage : Jean-Yves Grandpeix, Jean-Louis Dufresne, Hubert Kieken,
Venance Journé, Kostas Chatzis, Gilles Crague et un jeune doctorant, Stefan Aykut. Remercions
également Julie Koskas et Patrick Mabire pour leur aide dans la traduction et la mise au point des
articles de nos collègues étrangers. Je suis aussi très reconnaissante à Dominique Caillé pour sa
collaboration rigoureuse dans la préparation finale du manuscrit.
11. Celles-ci se sont encore élargies à des anthropologues, des politistes, des écologues…, et
elles ont culminé au cours dʼun colloque international qui sʼest tenu à lʼÉcole nationale des ponts et
chaussées (Paris) en mars 2006, coorganisé par Amy Dahan et Jean-Charles Hourcade.
18 LES MODÈLES DU FUTUR

contraintes institutionnelles ou, pire, par des violences armées et guerrières12.


La question de la lutte contre le changement climatique jette un défi inédit à
notre société, à notre civilisation. Lʼefficacité de lʼensemble nécessite lʼen-
gagement de chacun. La vitalité démocratique, la qualité des comportements
démocratiques pourraient bien devenir des facteurs déterminants pour maîtriser
lʼeffet de serre. Un débat public est à construire ; une parole collective doit
émerger. Puisse cet ouvrage issu dʼun effort de recherche lui-même collectif
et interdisciplinaire y contribuer !

12. Voir le dossier de la revue Le Débat (n° 13, janvier-février 2005) : « La démocratie peut-elle
faire face à une catastrophe climatique ? »
INTRODUCTION 19

I.

Le débat sur la croissance


des années 1970 et ses outils
1

Croissance ou stabilité ? Lʼentreprise du Club de Rome


et le débat autour des modèles

Élodie Vieille Blanchard

À la fin des années 1960, un groupe international, composé principalement


de personnalités du monde des affaires et de la politique, se forme à lʼinitiative
dʼun industriel italien, Aurelio Peccei. Son objectif est dʼétudier « les dangers
globaux qui menac[ent] lʼhumanité », comme « la surpopulation, la dégra-
dation de lʼenvironnement, la pauvreté dʼenvergure mondiale et le mauvais
usage de la technologie ». Ce groupe, dont la constitution est officielle depuis
septembre 1968, et qui a pris pour nom « le Club de Rome » suite à une réunion
fondatrice dans la capitale italienne, fait appel à des personnalités du monde
scientifique et de la planification pour mener des recherches sur ces questions.
Le premier résultat dʼun travail de modélisation réalisé dans ce cadre est la
publication, en 1972, dʼun rapport sur les « limites de la croissance ».
Ce rapport, en anglais The Limits to Growth, présente diverses simulations
effectuées avec un modèle mathématique, et porte un message politiquement
radical : il préconise dʼarrêter la croissance économique et démographique glo-
bale, sans quoi, annonce-t-il, le monde devra faire les frais dʼun effondrement
généralisé – de la production, du niveau de vie et, de fait, de la population.
Suite à la sortie de ce livre, un débat sur « lʼavenir global » de nos sociétés
sʼengage, et il sʼarticule autour de la mise en place dʼun certain nombre de
« modèles mathématiques ». Dans les années qui précèdent, un certain nombre
dʼouvrages avaient déjà soulevé le problème des implications du « progrès »
dans le long terme, et appelé à ralentir lʼempreinte technologique sur la nature.
Silent Spring, de Rachel Carson, ouvrage fondateur du mouvement écolo-
giste américain, en est un exemple significatif [Carson, 1962]. Il condamne
lʼapplication obsessionnelle de la technologie chimique à la lutte contre les
insectes et appelle à une maîtrise des populations fondée au contraire sur une
connaissance des écosystèmes, sʼappuyant sur leurs mécanismes naturels. Par
ailleurs, au cours des années 1960, plusieurs économistes hétérodoxes avaient
déjà développé une critique de la croissance économique, et appelé à la mise en
22 LES MODÈLES DU FUTUR

place dʼune « société de stabilité » [Boulding, 1966 ; Daly, 1971 ; Georgescu-


Roegen, 1971]. Le Club de Rome nʼa donc pas inventé la « croissance zéro ».
En revanche, la question de la viabilité du chemin que suit notre société glo-
bale est exprimée, pour la première fois, en des termes mathématiques, les
données du problème étant mises en relation au sein dʼun modèle, et lʼappel
à un mode de vie plus stable, en équilibre avec la nature, se voit investi de
lʼautorité dʼun ordinateur, celui sur lequel les simulations ont été effectuées.
Le débat autour de la croissance, initié par la parution des Limits to Growth,
porte en lui des enjeux philosophiques et politiques majeurs. Il donne lieu
à lʼexpression de diverses représentations du lien entre société et environ-
nement naturel, et laisse transparaître toute une variété de positionnements
concernant les priorités pour notre société globale dans le long terme. Nous
souhaitons retracer ici ce débat dans ses grandes lignes et saisir la spécificité
de lʼobjet « modèle » comme instrument dʼinvestigation, dʼargumentation et
de communication. Après avoir décrit lʼémergence du projet du Club de Rome
et sa mise en place, nous brosserons le tableau des modèles et des groupes
participant au débat. Nous tenterons alors de comprendre comment, au sein
de chacun dʼentre eux, sʼarticulent une méthodologie et un système de valeurs
bien particuliers, qui concourent à en faire les porteurs de voix diverses sur le
sujet de la croissance, témoins dʼintérêts sociaux et économiques variés.

DES MODÈLES POUR APPRÉHENDER LE FUTUR

Aurelio Peccei, le fondateur du Club de Rome, est paradoxalement issu du


milieu de lʼindustrie, dans lequel la croissance est vue comme une bénédiction
plutôt que comme un danger. Pour lʼentreprise FIAT notamment, il a assumé
des responsabilités importantes dans le cadre de projets censés « développer »
le tiers monde et visant à diffuser dans ces pays nos modes de production et
de consommation. Mais dès le milieu des années 1960, son discours sʼest
teinté dʼinquiétude à propos du « progrès », de ses conséquences sur lʼenvi-
ronnement et sur les êtres humains, avec une insistance sur la nécessité de
le comprendre et de le maîtriser. Cʼest dans ce souci que Peccei a fondé le
Club de Rome à la fin des années 1960, avec Alexander King, alors directeur
des affaires scientifiques à lʼOCDE. Dès lʼorigine, il sʼest agi de mobiliser
les méthodologies systémiques issues du domaine militaire pour essayer de
mieux comprendre les « grands problèmes de lʼépoque ».

Le Club de Rome et la modélisation

Erich Jantsch, consultant auprès de lʼOCDE pour les questions de prévision


technologique, et Hasan Ozbekhan, cybernéticien, ont participé à lʼélaboration
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 23

des premiers projets. Ce dernier a développé le concept de « problémati-


que mondiale », qui est présenté aujourdʼhui encore comme la raison dʼêtre
du Club de Rome. Pour Peccei et ses collègues, les profondes transformations
de notre monde technologique créent un faisceau de problèmes dʼéchelle glo-
bale, dans des domaines aussi variés que lʼécologie, lʼéducation, la pauvreté
ou les institutions politiques, et ces problèmes sont inextricablement liés les
uns aux autres. Cʼest ce complexe de problèmes quʼil faut comprendre sous
le terme de « problématique ». Initialement, le projet du Club de Rome a été
de créer la méthodologie entièrement nouvelle requise par le caractère inédit
des questions émergeant dʼun monde en profonde mutation technologique.
Mais la réalité en a décidé autrement et le modèle qui a été fondé a abordé
les choses dʼune manière bien plus restrictive que prévu : cʼest une métho-
dologie existante, la dynamique des systèmes, qui a été mise au service du
projet du Club de Rome. Cette méthodologie avait été élaborée au début
des années 1960 au MIT (le Massachusetts Institute of Technology), par
Jay Forrester, une figure importante du complexe militaro-industriel de la
Seconde Guerre mondiale puis de la guerre froide. Ingénieur électrique de
formation, celui-ci sʼétait investi dʼabord dans lʼ« effort de guerre » en déve-
loppant des appareils techniques militaires, des radars par exemple. Il avait
ensuite œuvré à la mise en place de dispositifs plus larges et complexes, en
participant notamment au projet SAGE pendant la guerre froide, qui visait à
développer un réseau automatisé de contrôle et de commandement (avec des
radars disséminés sur lʼintégralité du sol des États-Unis) destiné à détecter
lʼarrivée dʼéventuels missiles soviétiques. Un tel projet supposait une double
élaboration : celle dʼune infrastructure matérielle et celle dʼun programme de
fonctionnement, détaillant en particulier la manière dont lʼinformation devait
circuler entre les unités. En 1956, Forrester, nouvellement installé à la Sloan
School de Management du MIT, avait alors recyclé ses compétences dʼana-
lyse et de gestion des systèmes au service du management, en développant
une méthodologie appelée « dynamique industrielle », puis « dynamique des
systèmes ». Cette méthodologie, conçue dʼabord pour résoudre des problèmes
de gestion des entreprises, a ensuite été appliquée aux problèmes de lʼévo-
lution des villes et de divers systèmes biologiques et sociaux. Elle conçoit
un système comme un ensemble dʼéléments, liés les uns aux autres par des
relations de cause à effet, quʼelle représente sur un schéma comportant des
boucles de rétroaction, dans une perspective cybernétique. La programma-
tion informatique des modèles de dynamique des systèmes repose sur des
équations qui détaillent plus précisément ces relations. Elle donne lieu à des
simulations qui présentent lʼévolution discrète du système dans un intervalle
de temps donné.
Pour répondre à la demande du Club de Rome, formulée à lʼoccasion
dʼune rencontre à Berne en juin 1970, Forrester a dʼabord conçu seul, en trois
24 LES MODÈLES DU FUTUR

FIGURE 1. – STRUCTURE DU SYSTÈME MONDIAL POUR WORLD 2

Source : World Dynamics, J. Forrester [1971].

semaines, la première version dʼun modèle mondial, World 1, comprenant près


de 40 équations non linéaires, nourrie avec les données chiffrées de lʼouvrage
de Peccei, The Chasm Ahead [1969] et de quelques autres articles du même
auteur. Ce modèle devient ensuite World 2 avec lʼimplication du System
Dynamics Group, formé autour de Dennis Meadows – un jeune chercheur de
28 ans, qui a obtenu son doctorat en management au MIT –, puis World 3, le
modèle présenté dans les Limits to Growth.
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 25

Lʼéquipe qui développe ce dernier modèle est pluridisciplinaire, interna-


tionale, formée de 17 chercheurs, souvent jeunes, en majorité américains, et
issus plutôt des sciences de la nature et du management. Il nʼy a aucun éco-
nomiste. La structure de base du modèle global reste pratiquement inchangée
entre les différentes versions. Elle sʼarticule autour de 5 variables clés : popu-
lation, industrie, agriculture, ressources et pollution, la variable population
étant centrale et les autres variables affectant son évolution par le biais de
26 LES MODÈLES DU FUTUR

coefficients multiplicateurs de la natalité, ou de la mortalité. Par exemple, une


plus grande pollution fait augmenter le taux de mortalité, tandis quʼune plus
grande abondance de nourriture fait croître le taux de natalité. Les simulations
effectuées avec World 2 et World 3 seront présentées dans des rapports desti-
nés au grand public, respectivement World Dynamics [1971] et The Limits to
Growth [1972], ce dernier ayant un retentissement public considérable. World
Dynamics est lʼœuvre de Forrester seul, tandis que The Limits to Growth
est cosigné par quatre auteurs : Donella Meadows, la rédactrice principale,
biophysicienne, épouse de Dennis Meadows ; Dennis Meadows lui-même,
qui a dirigé le travail de modélisation ; Jørgen Randers, un Norvégien alors
doctorant en management au MIT ; William Behrens qui a travaillé sur la
partie « ressources » du modèle.
Dans chacun des deux rapports, la structure du modèle est présentée sous la
forme dʼun schéma qui montre comment ses éléments, décrits par des variables
(population, état des ressources…), dépendent les uns des autres, formant des
« boucles de rétroaction » (cf. figure 1, pages précédentes).
À ce schéma correspond un système dʼéquations, chacune donnant lʼétat
dʼune variable à la date t + 1 en fonction de lʼétat dʼautres variables à la
date t.
Les rapports présentent lʼévolution des variables pour un certain nombre
de scénarios : le scénario de base suppose que les tendances présentes se pour-
suivront, et le système y expose un comportement overshoot and collapse :
FIGURE 2. – LE COMPORTEMENT OVERSHOOT AND COLLAPSE DU MODÈLE WORLD 2

Source : World Dynamics, J. Forrester [1971].


CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 27

la population et la pollution croissent jusquʼà atteindre une valeur limite, à


partir de laquelle elles sʼeffondrent. La qualité de vie décroît également assez
rapidement. Les scénarios suivants examinent les conséquences de progrès
technologiques dans le domaine de la production, permettant à lʼindustrie
dʼêtre moins polluante, ou moins gourmande en ressources naturelles. Ces
hypothèses sont traduites par des variations de paramètres du modèle, comme
celui qui correspond à la valeur « ressources naturelles à lʼorigine ». Leurs
conséquences sont présentées sous la forme dʼun jeu de graphiques comme
celui qui apparaît ci-contre (figure 2). On y voit apparaître lʼévolution des
variables clés, avec en plus celle de la variable « niveau de vie ».
Dans chacun de ces scénarios, on assiste au bout dʼun certain temps à un
effondrement du système : les variables « qualité de vie », « population » et
« production » croissent puis chutent. Les progrès technologiques ne modifient
pas ce schéma comportemental, ils ne font que repousser lʼeffondrement plus
loin dans le temps. Les seuls scénarios qui conduisent à un comportement dif-
férent sont ceux où lʼon choisit de stabiliser la population et la production, ce
à quoi le Club de Rome appelle dans ses rapports. Les simulations présentées
dans World Dynamics et The Limits to Growth sont pratiquement les mêmes,
mais lʼargumentation autour des simulations est beaucoup plus détaillée dans
le second ouvrage. Donella Meadows y mène toute une réflexion sur le bien-
fondé dʼune société de stabilité, en sʼappuyant sur des écrits philosophiques
et économiques. La bibliographie de World Dynamics, en revanche, est quasi
inexistante.

L’événement des Limits to Growth

La publication des Limits to Growth est un événement médiatique de


grande envergure. Le magazine américain Time en propose une version syn-
thétisée ; les journaux et la télévision en diffusent les méthodes et les conclu-
sions, et donnent la parole à ses auteurs. En Europe, le futur président de la
Commission du Marché commun, Sicco Mansholt, est profondément ébranlé
par les conclusions du Club de Rome et propose de lancer immédiatement
en Europe un programme politique de mise en place dʼune « économie de
pénurie », contre lequel sʼinsurgent avec vigueur les hommes politiques de
tous les bords de lʼéchiquier (en France, Georges Marchais et Raymond Barre
protestent publiquement) [Reboul et Te Pass, 1972]. Chez les économistes,
qui nʼapprécient pas les méthodes de lʼétude et rejettent ses conclusions, on
assiste à une véritable levée de boucliers. La critique du modèle employé
par le Club de Rome va donner lieu à la mise en place dʼun certain nombre
dʼautres modèles, dans le but de contrer les conclusions des Limits…, en se
fondant sur le même type de méthodologie. Dans le milieu académique en
général, les réactions sont vives. John Maddox, lʼancien éditeur de Nature,
28 LES MODÈLES DU FUTUR

affirme que la trop grande simplicité du modèle World fait de lʼétude « une
absurdité ». Lʼéquipe de la Science Policy Research Unit de lʼuniversité du
Sussex, au Royaume-Uni, rédige collectivement une critique particulière-
ment détaillée [Cole, 1973]. Cette critique porte dʼabord sur la structure du
modèle, qui, selon elle, jette le discrédit sur la technologie comme moyen de
résoudre les grands problèmes de société. Elle sʼattaque aussi à la fiabilité
du modèle, en montrant que, lorsque lʼon fait tourner le modèle en arrière à
partir de 1900, les variables prennent des valeurs aberrantes par rapport à la
réalité historique. Enfin, elle dénonce lʼattitude « technocratique » du Club de
Rome qui prétend, depuis son centre de recherche déconnecté de la société,
dicter au monde la meilleure marche à suivre à partir de données chiffrées.
Herman Kahn, le « futurologue » qui a fondé le Hudson Institute – après des
années consacrées aux recherches militaires et en particulier à la question de
lʼarme nucléaire –, élabore quant à lui, en réponse aux Limits to Growth, un
« scénario pour les 200 prochaines années » [Kahn, 1976], où il cherche à
montrer que le projet volontariste dʼune croissance zéro nʼest pas pertinent,
en argumentant que la société mondiale est en train dʼeffectuer spontanément
un virage vers une ère de stabilité « post-industrielle », où la consommation
ne sera plus une fin en soi.

L’IIASA et la modélisation globale

Dès la présentation des premiers résultats des modèles World, et avant


même la parution des Limits to Growth, la méthodologie et les conclusions du
Club de Rome sont critiquées ; deux équipes décident de fonder chacune un
nouveau modèle « global » pour apporter de nouveaux éléments de réponse
à la question soulevée.
La première équipe sʼorganise à Hanovre autour dʼEduard Pestel (pro-
fesseur de mécanique à lʼorigine et lʼun des fondateurs du Club de Rome)
et à Cleveland autour de Mihajlo Mesarovic (fondateur de la théorie « des
systèmes hiérarchiques multiniveaux » qui sera appliquée dans le modèle).
Elle inclut des chercheurs en sciences politiques – Barry Hugues et John
Richardon Jr –, et sa critique porte principalement sur lʼabsence de prise en
compte des disparités régionales démographiques, industrielles et agricoles
dans les modèles World, pour lesquels le monde est décrit par un jeu unique
de variables globales [Mesarovic et Pestel, 1974].
La seconde équipe est composée principalement de chercheurs des pays
du Sud, avec une représentation importante de mathématiciens et dʼécologues,
et son étude se voit patronnée par la fondation Bariloche, en Argentine. Pour
ce groupe de recherche, les problèmes soulevés dans les Limits to Growth,
comme celui de lʼépuisement des ressources, sont essentiellement des problè-
mes de pays riches, et, par ailleurs, la catastrophe annoncée par le rapport est
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 29

déjà une réalité présente pour bien des pays du tiers monde. Lʼidée est donc
de créer un modèle pour déterminer sʼil est possible de satisfaire les besoins
fondamentaux de ces pays, et pour définir les meilleures mesures à prendre
pour y parvenir [Herrera, 1977].
Le premier modèle adopte la méthodologie mise en place par Mihajlo
Mesarovic à des fins de gestion des entreprises, qui met en évidence, pour un
système, la coordination entre différents niveaux de prise de décision et la
manière dont des décisions prises dans des secteurs particuliers du système
lʼaffectent au niveau global. Ce modèle a pour ambition de faire apparaître
lʼhétérogénéité des parties du monde et leur interdépendance. Dans le modèle,
les pays sont donc regroupés en 10 grandes régions. Ses résultats sont présentés
dans le second rapport au Club de Rome, publié en 1974, et qui diffère du
premier par plusieurs aspects. Tout dʼabord, la structure du modèle, vraisem-
blablement bien moins facile à schématiser que celle de World, nʼy apparaît
pas. Ensuite, chaque chapitre soutient un message particulier quʼil appuie en
mettant en avant le comportement de telle ou telle variable sous telle ou telle
hypothèse. Par exemple : il faut se mobiliser rapidement pour combler le fossé
entre pays riches et pays pauvres ; ou alors : il est bénéfique pour tous les
pays de coopérer afin de se partager au mieux les ressources naturelles plutôt
que de se battre pour se les approprier. La conclusion générale de lʼouvrage,
naturellement plus nuancée que celle du premier rapport au Club de Rome, ne
connaît pas de retentissement public. Elle prétend surtout dépasser la dichoto-
mie du débat soulevé par les Limits to Growth (pour ou contre la croissance ?)
et appelle à cultiver dans le monde une « croissance organique » – qui permette
à ses différentes parties de se développer harmonieusement – plutôt quʼune
« croissance indifférenciée », insoutenable dans le long terme.
Dans le « modèle Bariloche », le monde est découpé en 4 grandes régions :
monde développé, Afrique, Asie, Amérique latine. Le problème auquel le
modèle prétend répondre est celui de la satisfaction des besoins fondamentaux
de ces trois dernières régions. Ainsi, le rapport rédigé à lʼattention du grand
public [Herrera, 1977] commence par dessiner une société normative où des
niveaux acceptables de développement auraient été atteints dans les domaines
du logement, de lʼalimentation et de lʼéducation. Le modèle, introduit après,
prétend estimer la possibilité de réalisation dʼune telle société. La représenta-
tion de sa structure ressemble à celle des modèles World : elle fait apparaître
des boucles de rétroaction qui montrent comment les variables dépendent les
unes des autres. La variable « espérance de vie », qui dépend directement de
la satisfaction des besoins fondamentaux et indirectement du niveau de vie, y
joue un rôle central. La méthodologie de lʼétude consiste à la maximiser sur
chaque période dʼun an et à faire évoluer les autres variables en conséquence.
Plus précisément : au début de chaque année et pour chaque région, lʼétat des
variables du modèle détermine une quantité totale de ressources humaines et
30 LES MODÈLES DU FUTUR

financières disponibles. Lʼordinateur détermine alors la répartition optimale


de ces ressources entre différents secteurs dʼactivité : celle pour laquelle
lʼespérance de vie sera maximale à la fin de lʼannée. Ce choix de répartition
étant fixé, le modèle tourne alors sur la période suivante et détermine une
nouvelle quantité de ressources humaines et financières disponibles pour lʼan-
née suivante. Lʼoptimisation est réitérée de proche en proche. La conclusion
du rapport est quʼil est possible de parvenir assez rapidement à une situation
acceptable pour lʼAmérique latine, et à moyen terme pour lʼAfrique et lʼAsie.
Elle stipule aussi que les pays développés devront accepter de stabiliser leur
niveau de vie afin de permettre aux plus pauvres de sortir de la misère. Comme
chez Mesarovic et Pestel, il y a donc une prise en considération du monde
dans sa diversité, et lʼon ne peut envisager lʼévolution de lʼune de ses parties
sans tenir compte des autres.
Au cours de la décennie 1970, dans la continuité du débat, une petite
dizaine de modèles « globaux », à lʼinstar des trois que nous venons de pré-
senter, seront mis en place par des équipes situées en différents points du
monde. Ces modèles seront tous discutés et évalués au cours de conférences
organisées entre 1974 et 1980 par lʼIIASA (International Institute for Applied
Systems Analysis, un organisme fondé en 1972 dans les environs de Vienne, à
lʼinitiative de Peccei, dans lʼobjectif de rassembler pays de lʼEst et de lʼOuest
dans une recherche commune sur les « problèmes de nos sociétés avancées »)
[Meadows et alii, 1982]. Les conclusions de ces modèles, qui prétendent ser-
vir dʼoutils de décision autant que de réflexion, sont en général synthétisées
dans un rapport destiné au grand public. Nous avons vu que les modèles de
Mesarovic et Pestel et de la fondation Bariloche réagissaient directement aux
conclusions des Limits to Growth sur la question de la croissance globale du
monde. Le suivant, MOIRA, sʼinscrit encore dans cette thématique puisquʼil
pose la question de la production de nourriture dans un monde en expansion :
comment nourrir une population qui est en train de doubler ? En revanche,
les « modèles globaux » conçus par la suite, fondés sur une structure plus
classique de modèle économique, prétendent plutôt intégrer divers aspects
(économiques, démographiques…) dans un même cadre quʼapporter des
éléments nouveaux sur la question des limites de la croissance.
Si, pendant la décennie 1970, un certain nombre de personnalités du
milieu académique consacrent leur temps et leur énergie à la conception de
modèles globaux, ils délaissent pour la plupart cette activité à partir de 1980,
soit pour continuer à fonder des modèles « sectoriels » qui répondent à des
questions plus ciblées que celle du bien-fondé de la croissance économique
(comme Forrester qui se consacre à un modèle de lʼéconomie américaine
axé sur les questions dʼinflation et de chômage), soit pour occuper des postes
de responsabilité dans le milieu politique ou institutionnel (comme Gehrart
Bruckmann, lʼorganisateur des conférences de lʼIIASA, qui ne sʼoccupe
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 31

plus de modélisation globale à partir des années 1980, mais est élu député
conservateur au Parlement autrichien, où il sʼoccupe néanmoins de questions
environnementales).

L’économiste William Nordhaus

Du côté des économistes, William Nordhaus1, de la Cowles Foundation, est


celui qui réagit avec le plus de vigueur à la publication des Limits to Growth.
Sa critique va déboucher sur un travail de modélisation qui aboutira à la
mise en place du modèle DICE (Dynamic Integrated Model of Climate and
Economy) au début des années 1990 [Nordhaus, 1992]. Nordhaus sʼinsurge en
particulier contre lʼabsence de prise en compte des mécanismes économiques
dans World 2 et World 3, qui véhicule selon lui une vision figée des rapports
entre lʼhumain et la nature, et conduit à considérer le processus dʼépuisement
des ressources comme inéluctable. Il revendique tout dʼabord quʼun modèle de
gestion des ressources naturelles admette la possibilité de la « substitution »
entre matière, capital et travail, et entre différentes matières premières, ce qui
signifie que, dans la production dʼun bien, on peut remplacer lʼapport dʼune
matière première par celui dʼune autre, ou diminuer cette quantité de matière
première disponible en « améliorant » le processus de production. Nordhaus
considère également que les mécanismes de prix peuvent permettre de pré-
server efficacement les ressources : si une ressource devient excessivement
chère, sa demande va diminuer et son épuisement se ralentir.
En 1973, dans un article de la Cowles Foundation, Nordhaus [1973a]
propose un modèle de gestion des ressources énergétiques fondé sur un méca-
nisme dʼoptimisation intertemporelle, qui vise à minimiser dans le long terme
le coût lié à lʼextraction, au transport et au traitement des ressources. Cette
notion dʼoptimisation est au cœur du modèle DICE (mis en place au cours
des années 1980) qui consiste en une intégration de la contrainte climatique
au modèle de croissance optimale de Ramsey. Il sʼagit alors de minimiser,
dans le long terme, les coûts liés au changement climatique, de ses dégâts
aussi bien que de sa prévention. Alors que les modèles fondés pour le Club
de Rome sont aujourdʼhui tombés en désuétude et que les modèles thermo-
dynamiques du processus économique nʼont jamais été pris en considération
par les décideurs, ce modèle DICE a connu une véritable postérité. Il a donné
naissance à tout un courant de modélisation et ses résultats, qui encouragent
une attitude dʼattentisme par rapport au changement climatique, ont vraisem-
blablement influencé la prise de décisions (ou lʼabsence de prise de décisions)
de la part des autorités américaines dans la période récente [Sterman et Booth
Sweeney, 2002].

1. À propos de cet auteur, on pourra consulter ici même le chapitre rédigé par Pierre Matarasso.
32 LES MODÈLES DU FUTUR

DES MODÈLES QUI « FABRIQUENT LE FUTUR »

Le débat autour de la croissance sʼenracine dans les années 1960, qui


voient la montée en puissance du mouvement environnementaliste et les
premiers développements dʼune théorie « thermodynamique » du processus
économique chez Kenneth Boulding, Nicholas Georgescu-Roegen et Herman
Daly. Pour ces auteurs, la science économique classique, qui représente le
processus économique comme un cycle économique fermé, déconnecté de son
environnement physique, échoue profondément à représenter la transformation
irréversible que ce processus fait subir au monde : il faut mettre en place une
nouvelle science économique qui prenne en compte ces aspects.
Ces auteurs, ainsi que les autres participants au débat sur la croissance, sʼils
divergent quant à leurs points de vue, sʼaccordent sur lʼidée quʼà leur époque,
il devient nécessaire de « penser le futur », dʼy réfléchir de manière rationnelle,
puisque nos sociétés se trouvent à un moment charnière de leur évolution et
que lʼêtre humain a acquis des pouvoirs dʼune ampleur nouvelle qui peuvent
lui ouvrir les portes du paradis ou le mener à sa perte. Ainsi, Kenneth Boulding
évoque la « grande transition » que nos sociétés subissent, Herman Kahn le
passage vers la société « post-industrielle », Aurelio Peccei et le Club de Rome
la « problématique mondiale » qui émerge des grands changements de notre
époque. Si Herman Kahn juge que les problèmes évoqués par le Club de Rome
ne sont pas si graves quʼil y paraît, il a été le premier à étudier les dangers
liés à la guerre atomique, et à penser dans les détails un monde post-guerre
atomique afin que notre société ne soit pas prise au dépourvu dans le cas où
celle-ci surviendrait. Nordhaus lui-même a jugé nécessaire de mettre en place
un modèle global pour répondre à la question soulevée par le Club de Rome.
Dʼune manière générale, les modèles qui ont été conçus lʼont été dans cette
perspective de gestion du monde, pour servir dʼoutils aux décideurs plutôt
que pour simplement permettre la réflexion et la discussion.
Si on sʼintéresse maintenant à la réponse apportée par les modèles et les
protagonistes de notre débat à la question « la croissance peut-elle et doit-
elle continuer ? », nous observons un échantillon varié de positions : pour les
modèles World, la réponse est clairement non. Pour le modèle de Mesarovic
et Pestel, elle pourrait continuer, mais à condition de changer de nature et de
devenir « organique ». Pour le modèle Bariloche, elle peut et doit se pour-
suivre pour les pays du Sud, mais les pays du Nord doivent y renoncer. Pour
les modèles de Nordhaus, il nʼy a aucun problème pour que les États-Unis
continuent à augmenter leur consommation dʼénergie, à condition que la
gestion de cette énergie soit conduite rationnellement.
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 33

Méthodologie versus idéologie : une dichotomie à dépasser

Le débat autour des limites de la croissance a fait couler beaucoup dʼencre


dans le domaine de lʼétude des sciences dans les années 1980, la plupart des
textes écrits prenant parti pour ou contre le rapport au Club de Rome. Les
tentatives de placer ce rapport dans un cadre plus large, afin de comprendre ce
qui a contribué à former ses conclusions, nous semblent les plus intéressantes
(elles ne sont dʼailleurs pas nécessairement impartiales). Brian Bloomfield
[1986], sociologue des sciences britannique, a par exemple réalisé une étude
comparée du System Dynamics Group du MIT, à lʼorigine du modèle World 3,
et de la Science Policy Research Unit de lʼuniversité du Sussex, qui, comme
nous lʼavons vu, a proposé une critique très complète du rapport au Club de
Rome. Il sʼest intéressé aux méthodologies prisées par chacun de ces deux
groupes, en mettant à leur compte les divergences de position dans le débat
sur la croissance. Pour lui, le System Dynamics Group adoptait une position
plutôt pessimiste en affirmant que les sociétés humaines auraient à choisir
entre la stabilité et la catastrophe. La Science Policy Research Unit adoptait
au contraire une position plus optimiste, en affirmant que dʼautres alternatives
étaient possibles. En retraçant lʼhistoire de la dynamique des systèmes, à travers
ses applications à lʼindustrie puis à la gestion urbaine, Bloomfield essayait de
montrer que cette méthodologie portait en elle certaines rigidités structurelles
qui conditionnaient les conclusions du rapport au Club de Rome, tandis que
lʼéquipe du Sussex privilégiait une méthodologie plus souple qui le conduisait
à conclure à une plus grande variété dʼoptions pour appréhender lʼavenir.
Dans une autre veine, Philippe Braillard [1982] a replacé le premier rapport
au Club de Rome (The Limits to Growth) dans la série des rapports qui se sont
succédé pendant la décennie 1970, sans accorder beaucoup dʼintérêt au choix
de la dynamique des systèmes comme méthodologie. Il a cherché au contraire
à dégager lʼidéologie sous-jacente à ces rapports, qui ont porté sur des sujets
aussi variés que les déchets, les relations internationales ou lʼéducation, et
dont la plupart ne se sont pas appuyés sur un modèle mathématique. Pour
Braillard, tous ces rapports présentaient le devenir « naturel » de la société
comme catastrophique, dans quelque domaine que ce soit, et préconisaient
un virage radical au présent pour éviter cet avenir catastrophique. Une telle
approche consistait donc à ignorer la méthodologie du rapport au Club de
Rome, pour ne considérer que lʼidéologie véhiculée par ce groupe.
Dans une telle perspective, on pourrait être tenté de ne voir les modèles
utilisés par le Club de Rome et les autres groupes impliqués que comme des
outils rhétoriques venant appuyer telle ou telle idée préexistante. Certains
éléments pourraient nous encourager dans ce sens : lʼintroduction des Limits
to Growth présente le modèle comme un véritable outil dʼinvestigation,
mis en place pour répondre à une question ouverte. En revanche, des dis-
34 LES MODÈLES DU FUTUR

cours antérieurs énoncent que lʼobjectif du Club de Rome est dʼétudier la


manière dʼacheminer nos sociétés vers la stabilité. Le modèle serait donc
venu appuyer une option le précédant : il est préférable que nos sociétés
vivent en équilibre avec leur environnement plutôt que de subir une transfor-
mation permanente sous le signe du « progrès ». De même, si on sʼintéresse
au discours de Nordhaus avant la mise en place de ses modèles, on y décèle
une volonté dʼassurer pour son pays une augmentation continuelle de la
consommation dʼénergie, et les conclusions tirées de son modèle DICE en
1992 [Nordhaus, 1992] sʼinscrivent bien dans ce sens puisquʼelles affirment
quʼil est préférable de ne pas prendre de mesures trop drastiques contre le
changement climatique, lesquelles se révéleraient plus coûteuses que dʼen
réparer les dégâts2.
Dans notre étude historique, faut-il donc se désintéresser des modèles
au prétexte quʼils nʼapportent aucune conclusion nouvelle et se contentent
dʼappuyer des idées préexistantes, quʼils ne sont que les gages de rationalité
des orientations quʼils préconisent ? Il nous semble pertinent, au contraire,
de les étudier précisément afin dʼessayer de comprendre de quelle manière ils
parviennent à intégrer certaines préoccupations et certains choix de société
dans une forme prétendument objective et rationnelle.

Modèles et « cosmologies »

Venons-en à une étude comparative de trois modèles qui ont posé la question
de la croissance au niveau global, en y apportant des réponses différenciées :
le modèle World, le modèle Bariloche et le modèle DICE de Nordhaus. Nous
allons voir comment plusieurs thèmes y sont traités, dans les discours péri-
phériques comme dans la structure mathématique elle-même, afin de saisir de
quelle manière fond et forme sʼarticulent, et en quoi le traitement de ces thèmes
contribue à façonner des conclusions différentes en ce qui concerne la « crois-
sance ». Nous nous inspirerons du travail de Brian Bloomfield, qui, le premier,
a proposé dʼappliquer la notion de « cosmologie » à lʼétude des entreprises de
modélisation, dans le but de saisir comment des croyances partagées par des
groupes peuvent se trouver intégrées dans des équations mathématiques.
Le rapport à la polarité nature/technologie nous semble constituer une
dimension particulièrement pertinente pour éclairer la manière dont certaines
conceptions du monde façonnent la structure et les conclusions des modèles
qui nous intéressent. Dans les Limits to Growth, une certaine vision du progrès
technique se dégage du discours aussi bien que des équations. Le discours
présente la technologie comme un facteur ambivalent, source dʼun nouveau
pouvoir sur nous-mêmes, mais aussi lourde de menaces puisque nous sommes

2. Voir le chapitre rédigé par Christian Azar dans cet ouvrage.


CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 35

parfois impuissants à la mettre à notre service, quʼelle risque de nous échapper


et de se retourner contre nous. Les extraits qui suivent illustrent bien cette
conception : « La révolution industrielle […] a amené une explosion dʼacti-
visme, de laideur et dʼopulence » ; la science et la technique qui ont apporté
opulence et santé « furent aussi les agents principaux de la complexité de la
situation actuelle, […] ont permis lʼextraordinaire poussée démographique,
amené la pollution et autres nuisances et effets nocifs et annexes de lʼindustria-
lisation ». Par ailleurs, une vision déshumanisante de la technique se dégage
de certains passages : « la motorisation a allégé le poids du travail physique
mais lui a retiré toute signification » ; « un sentiment dʼangoisse commence
à se répandre devant une vie qui se vide de toute qualité ». Si la technologie
apparaît comme dangereuse dans les discours, dans le modèle, en revanche,
elle est représentée comme un facteur qui ne peut agir sur les problèmes que
de manière locale, sans résoudre la crise dans sa globalité.
Rappelons que le rapport sʼorganise autour de la présentation des résultats
de plusieurs simulations, portant sur lʼévolution du système tout entier. La
première simulation dégage les conséquences dʼune évolution « naturelle »
du système social global, cʼest-à-dire dʼune continuation de ses tendances
présentes. On y envisage des variables de population et de production croissant
exponentiellement dans un environnement où les ressources naturelles et la
capacité dʼabsorption de la pollution sont limitées. Cette simulation conduit
à un « effondrement » du système global. Les simulations suivantes étudient
les effets de divers progrès techniques sur lʼévolution du système. De lʼune
à lʼautre, certains paramètres constants du modèle subissent des variations.
Par exemple, dans lʼune des simulations, le paramètre « ressources naturel-
les dʼorigine » est multiplié par deux, ce qui correspond à lʼhypothèse que
de nouveaux gisements seront découverts, ou que le recyclage permettra à
chaque unité de matériau dʼêtre utilisée deux fois au lieu dʼune. Dans une
autre, cʼest le seuil maximal de tolérance de la pollution qui est multiplié par
deux. Le schéma évolutif du modèle sous ces hypothèses aboutit également
à un effondrement, la seule différence étant quʼil survient plus tard que dans
la simulation de base. La traduction du « progrès technique » dans le modèle
World révèle, selon ses détracteurs, un certain pessimisme concernant les
promesses de la technique ; pour eux, il aurait été plus judicieux de supposer
que le progrès permettrait aux ressources exploitables de croître aussi vite que
leur consommation, et lʼeffet dʼune telle hypothèse sur lʼévolution du système
aurait été tout à fait différent.

Technologie versus nature

Pessimisme ou réalisme ? Il est certain que la conception de la technologie


est un point essentiel de divergence entre le Club de Rome et ses critiques.
36 LES MODÈLES DU FUTUR

Pour ses critiques, la technologie est toujours plus forte que la nature, elle
peut résoudre tous les problèmes. Pour réfuter la conclusion des Limits to
Growth, ils abordent lʼune après lʼautre les menaces évoquées par le rapport,
afin de montrer que le progrès technologique permettra de les éviter : celle de
lʼépuisement des ressources minérales, puis celle du manque de nourriture,
puis celle de la pollution… Cʼest donc en abordant les problèmes soulevés
par le Club de Rome « tranche par tranche » que les critiques parviennent à
démonter les conclusions des Limits. Or, dans ce rapport où lʼêtre humain
est conçu comme un élément de la nature – dans laquelle il doit trouver une
juste place –, lʼactivité humaine est abordée de manière « systémique », et les
interactions entre les secteurs des modèles World font que, si la technologie
apporte son soutien à un secteur particulier (par exemple, en doublant les
ressources naturelles), alors des répercussions se feront sentir dans un autre
secteur du modèle (par exemple, dans celui de la pollution).
La représentation de la technologie dans les Limits to Growth est une source
de questionnement, compte tenu de lʼappartenance de la plupart des membres
du Club de Rome à lʼélite industrielle et/ou politique, peu encline a priori
à tenir un discours écologiste qui émanait alors surtout de la contre-culture,
compte tenu aussi de lʼenracinement de la dynamique des systèmes dans les
questions liées à la croissance des entreprises.
Il est certain que le projet du Club de Rome a impliqué des personnes de
milieux et dʼintérêts divers. Rappelons quʼAurelio Peccei a développé dès
les années 1960 un discours ambivalent à propos de la technologie, tantôt
idéalisée, tantôt perçue comme un facteur majeur de déstabilisation sociale et
morale. Par la suite, il est allé plus loin en critiquant lʼorientation majoritai-
rement matérialiste de nos sociétés et son désintérêt pour des questions plus
métaphysiques. Forrester a conçu la première version du modèle World, mais
il sʼest consacré avant et après ce projet à des modèles économiques privilé-
giant la croissance économique. Cela nous incite à penser que les hypothèses
fondatrices du modèle (croissance exponentielle dans un cadre fini, impliquant
nécessairement une saturation) émanaient de Peccei, sans doute influencé par
la pensée environnementaliste de son époque et marqué par son expérience du
« développement » dans les pays du tiers monde. Lʼéquipe pluridisciplinaire
qui a travaillé sur le modèle World 3, et en particulier Donella Meadows qui a
rédigé le rapport, a apporté une certaine coloration au texte, qui accompagne
lʼexposition des simulations de toute une réflexion sur la société de stabilité
quʼil convient de construire et ses avantages par rapport à la société existante.
Cette réflexion apparaît nourrie de lʼinfluence dʼéconomistes critiques du
progrès technique, comme Boulding et Daly, mentionnés plus haut. On sait
aussi que le couple Meadows revendiquait un mode de vie particulièrement
autosuffisant et écologiste, et que Donella Meadows, qui sʼest toujours présen-
tée comme « paysanne aussi bien que chercheuse », avait adopté un mode de
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 37

vie quʼon qualifierait aujourdʼhui de « décroissant », limitant par exemple ses


déplacements en avion au minimum en raison de leur impact sur le climat.
Chez Nordhaus, et pour la fondation Bariloche, le rapport à la technologie
est complètement différent. La technologie nʼest vue ni comme une menace
ni comme un outil limité. Au contraire, elle semble pouvoir résoudre tous
les problèmes posés par les Limits to Growth, à condition quʼon attende
le temps quʼil faut. Le discours de Nordhaus, dans sa critique des modèles
World, sʼattaque principalement à ce qui, dans ces modèles, traduit pour lui
un manque de confiance dans les technologies du futur. Pour lui lʼhypothèse
de la « substitution » devrait être acceptée, car elle exprime la confiance
quʼon accorde à la technologie pour dépasser les limites que la nature semble
poser : ce qui semble impossible aujourdʼhui en termes de production ne le
sera peut-être pas demain. Lorsquʼil fait tourner le modèle de Forrester pour
infirmer ses conclusions, il pose dʼabord lʼhypothèse de ressources naturelles
illimitées et suppose ensuite quʼil est possible de produire sans polluer du
tout. Évidemment, les résultats de ces simulations sont différents de ceux de
Forrester.
En 1973, Nordhaus part dʼune « contradiction apparente » pour mettre
en place un modèle de gestion des ressources énergétiques. Dʼun côté, nous
dit-il [Nordhaus, 1973a], ce sont les télévisions, les maisons surchauffées et
les transports aériens qui font la grandeur des États-Unis. De lʼautre, certains
« pessimistes » mettent en avant les problèmes posés par la consommation
croissante dʼénergie dans les pays industrialisés et souhaitent un arrêt de
cette croissance. Lʼhypothèse très forte quʼil énonce alors, pour résoudre
cette contradiction, consiste en lʼavènement dʼune technologie complètement
propre, puisant dans des ressources infinies pour produire de lʼénergie, et en
sa généralisation complète sous 150 ans. Il la nomme backstop technology.
Le modèle consiste alors à optimiser la gestion des ressources énergétiques
dans la période antérieure à la généralisation totale de cette backstop techno-
logy. Et cʼest ainsi quʼen 1973 Nordhaus évacue la question de lʼépuisement
des ressources énergétiques. Plus tard, vers 1976, il commence à prendre en
compte la question du changement climatique et à poser les premiers jalons de
son modèle DICE, un modèle dʼoptimisation intertemporelle de la fonction de
coût. Dans les articles qui marquent la construction de ce modèle, Nordhaus
se montre constamment préoccupé de ce que la consommation dʼénergie des
États-Unis puisse continuer à croître exponentiellement (il nʼévoque pas le
reste du monde), et fait lʼhypothèse dʼune technologie permettant de ne pas
dépasser une certaine concentration de CO2 dans lʼatmosphère, tout en autori-
sant une multiplication par 5 de la consommation énergétique des États-Unis
entre 1970 et 2100. Ces hypothèses technologiques sont donc précisément cel-
les qui amènent à la conclusion attendue. Elles seront vivement critiquées par
un chercheur du MIT, qui élaborera en 1996 un modèle alternatif à DICE : le
38 LES MODÈLES DU FUTUR

modèle FREE (Feedback Rich Energy Economy Model), qui intègre des hypo-
thèses tout à fait différentes et conclut à la nécessité dʼune action bien plus
drastique et urgente contre le changement climatique [Fiddaman, 1996]. Mais,
pour revenir à Nordhaus, on peut remarquer au passage que, le modèle quʼil
choisit pour y « greffer » la question du changement climatique étant un modèle
de « croissance optimale » (celui de Ramsey), il était a priori peu probable
que les conclusions de ses simulations sʼopposent à la croissance…

Le point de vue des pays en développement

Dans le rapport de la fondation Bariloche, le point de vue est celui des


pays en développement, et la question de départ est la possibilité de combler
le fossé économique entre ces pays et les pays riches. Les hypothèses sur la
technologie sont énoncées de manière explicite avant la présentation de la
structure du modèle. Dans tous les domaines évoqués, ces hypothèses sem-
blent incroyablement optimistes au regard de notre connaissance actuelle :
la technologie devrait nous permettre de disposer de ressources naturelles en
quantité toujours croissante, nous dit-on, et dans le modèle, la question de ces
ressources naturelles nʼest absolument pas prise en compte (à la différence
du modèle de gestion de Nordhaus où lʼon considère leur quantité comme
limitée, mais seulement pour un temps fini). La technologie est présentée
comme un outil contrôlable, qui peut avoir de bons ou de mauvais effets selon
lʼusage quʼon en fait. Ainsi, la technologie nucléaire est vue de façon tout
à fait positive, et lʼon considère quʼon doit pouvoir neutraliser aisément ses
dangers. La possibilité dʼun changement climatique est rapidement évacuée
comme une hypothèse vague et sans crédit. Les méthodes industrielles de
production agricole sont très valorisées, avec lʼidée que leurs conséquences
néfastes ne sont pas une fatalité mais découlent de mauvaises pratiques. Dʼune
manière générale, on a lʼimpression que la nature nʼest pas prise en compte
comme une entité vulnérable face aux activités humaines, et quʼaucune acti-
vité humaine ne peut avoir sur elle dʼimpact grave. Pour ce modèle, il sʼagit
donc dʼoptimiser une production agricole, industrielle et tertiaire sur une
période donnée, mais les limitations à cette production ne proviennent pas
de lʼenvironnement naturel.
Lʼétude conclut quʼil est possible pour les pays du tiers monde dʼat-
teindre un bon niveau de vie, même si les pays les plus riches doivent pour
cela diminuer un peu le leur. Si la croissance économique est au cœur des
modèles World et DICE (décriée dans un cas, valorisée dans lʼautre), elle
nʼest pas vraiment centrale pour le modèle Bariloche. La consommation nʼy
est pas valorisée pour elle-même au-delà du seuil où les besoins considérés
comme élémentaires sont satisfaits. Il est remarquable en tout cas que, si
les intérêts de Nordhaus et de la fondation Bariloche divergent dʼévidence,
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 39

leur représentation de la technologie, elle, soit aussi proche. On peut pen-


ser que, dans les deux cas, un « intérêt à la croissance » conditionne cette
représentation.

Le futur de Herman Kahn

Herman Kahn, qui, sans concevoir de modèle, participe au débat, développe


aussi sa propre « cosmologie » concernant les sujets qui nous intéressent dès
les années 1960. Sharon Ghamari-Tabrizi, qui a écrit un ouvrage biographique
sur le fondateur du Hudson Institute portant essentiellement sur sa période de
futurologie militaire, le décrit ainsi : « Il souhaitait évacuer les éléments non
sociaux de notre humanité, le terrestre et lʼhumblement biologique. Sous sa
cuirasse, lʼhumanité est emmaillotée dans la terre même, lʼair, le feu, lʼeau de
lʼExistence – Kahn voulait se débarrasser de cette dépendance » [Ghamari-
Tabrizi, 2005].
Dans son ouvrage L’An 2000, publié en 1967, Kahn envisage déjà la pos-
sibilité pour les sociétés humaines dʼétablir des colonies dans lʼespace avant
le tournant du millénaire. Dans The Next 200 years – sa réponse aux Limits
to Growth –, il évoque un certain nombre de possibilités pour dépasser ce
quʼil perçoit comme une dépendance pesante de lʼêtre humain à la nature : la
fabrication de nourriture synthétique pour couvrir les besoins dʼune population
en expansion, ou la production dʼénergie par fusion nucléaire. Son rapport à
la nature et à la technologie est donc plus proche de celui de Nordhaus que
de celui de lʼéquipe des Meadows.

Relations internationales et rapport au futur

Si la relation à la polarité nature/technologie est celle qui nous semble le


mieux caractériser les différences de vision du monde entre les modélisateurs,
qui se cristallisent au sein des modèles, dʼautres aspects sont également à
mentionner. En premier lieu, la manière dont les relations internationales sont
traitées. Il nʼen est pas question dans le modèle World, qui représente un monde
agrégé, ce qui a été critiqué (le modèle de Mesarovic et Pestel a été fondé pour
dépasser cette insuffisance). Dans le modèle de la fondation Bariloche, les
relations internationales sont représentées par différentes formes dʼéchange
entre des « blocs » de pays. On y considère que la satisfaction des besoins
essentiels pour tous les pays est primordiale. Une croissance continuelle pour
les pays riches nʼest donc pas valorisée. Il sʼagit, au contraire, que ces pays
riches adoptent des restrictions pour permettre aux plus pauvres dʼatteindre
un niveau de vie décent. Le monde est considéré comme un tout organique
dont une partie ne doit pas se développer aux dépens des autres parties. Chez
Nordhaus, il nʼest pas question de considérer le monde dans son ensemble, mais
40 LES MODÈLES DU FUTUR

de satisfaire les besoins de son pays ou dʼun groupe de pays : le monde « non
communiste ». Il nʼy a aucune prise en compte du monde dans sa diversité.
Le rapport au futur, quant à lui, diffère sensiblement dʼun modèle à lʼautre.
Pour le modèle World et ses différentes versions, il sʼagit, comme lʼa écrit
Philippe Braillard, dʼéchapper à un avenir catastrophique en infléchissant le
chemin suivi par lʼhumanité. Les simulations aboutissent à une multitude de
futurs en fonction des hypothèses initiales, et entre les divers scénarios simulés,
on opte pour celui qui aboutit à la situation la moins mauvaise. Dans les Limits
to Growth, cʼest cette situation finale qui importe plutôt que la trajectoire qui
va y conduire. Ce qui implique quʼon préfère des hypothèses conduisant à une
situation finale stable plutôt quʼà une oscillation continuelle du système. Dans
chaque simulation, on étudie lʼévolution sur lʼintervalle de temps global. Si le
système « survit », le scénario est validé. Sinon il est rejeté. Des analystes de
la méthode dite « dynamique des systèmes » ont montré par ailleurs que cette
méthodologie associait à chaque système un « comportement type » – parmi
trois ou quatre possibles –, et que le comportement overshoot and collapse
était lʼun dʼeux. Cela montre à quel point le discours (« nous allons droit dans
le mur ») du Club de Rome et son choix méthodologique concourent à délivrer
le message des limites de la croissance.
Pour les deux autres modèles, il nʼy a pas dʼenjeu vital de type « sauver
la planète », et pas de manichéisme « bons/mauvais scénarios ». Il sʼagit
dʼoptimiser un paramètre, pour chaque segment dʼune période donnée dans
le modèle de la fondation Bariloche, et sur la durée totale de la période pour
les modèles de Nordhaus. Le futur nʼest pas présenté comme une menace
potentielle. Pour le modèle Bariloche, il est vu comme le cadre potentiel de
lʼavènement dʼune société meilleure, et, pour Nordhaus, il nʼest présenté
ni comme positif ni comme négatif : cʼest simplement une période à gérer
intelligemment. Pour Herman Kahn, qui envisageait jusquʼà lʼexplosion dʼune
guerre nucléaire comme un phénomène gérable, les problèmes évoqués dans
les Limits to Growth ne se posent évidemment pas comme des questions cru-
ciales, dont la prise en charge urgente serait nécessaire pour que lʼhumanité
ait un avenir…

POSTÉRITÉ DES MODÈLES ET ÉLÉMENTS DE CONCLUSION

Nous avons abordé ici des modèles intégrant dans leur structure et leurs
équations des présupposés très différents sur la place de lʼhomme dans la nature
ou les possibilités de la technologie, déclinant la question de la croissance
mondiale de plusieurs manières et apportant tout un éventail de réponses à la
question initiée par le Club de Rome. Ces réponses semblent correspondre à
des positions sociales et culturelles ainsi quʼà des intérêts variés.
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 41

Dans le milieu académique contemporain, on discrédite en général lʼen-


treprise de modélisation du Club de Rome – au motif que le modèle créé
était beaucoup trop simpliste –, mais on admet quʼelle a permis de soulever
des problèmes essentiels et de montrer que les questions environnementales
devaient être vraiment prises au sérieux. Cette conclusion partielle et partiale
omet un point essentiel. Les avocats de la croissance zéro ont véritablement
pris part au débat académique dans les années 1970. On les a approuvés ou
critiqués, mais en tout cas, on leur a accordé de lʼintérêt, ce dont témoigne, à
lʼépoque, la publication de plusieurs livres destinés exclusivement à contrer
leurs affirmations. Aujourdʼhui, la nécessité dʼune société de décroissance ou
de stabilité économique nʼest plus reconnue, en général, comme une thèse
valide ; au contraire, le modèle DICE de Nordhaus a connu une grande postérité
et ses résultats ont été pris au sérieux par des instances politiques influentes.
Et pourtant ! Si le modèle World manquait à représenter certains aspects
essentiels de la situation mondiale comme les mécanismes économiques, on
décèle également, chez les promoteurs de la croissance économique (Nordhaus,
Bariloche, Kahn, Maddox…) quelques erreurs gravissimes dʼinterprétation
du réel, tel le déni du changement climatique ou la croyance en lʼavènement
imminent dʼune source dʼénergie infinie et non polluante.
En France, aujourdʼhui, le mouvement pour la décroissance sʼappuie sur
les écrits de quelques universitaires, mais cette orientation nʼest pas prise en
considération par la science économique, et aucun modèle mathématique
ne vient la soutenir [Bernard et alii, 2003]. Aux États-Unis, en revanche,
lʼ« économie écologique » a émergé à la fin des années 1980, avec la mise
en place dʼun organisme et dʼun journal, dans la continuation de la pensée
de Georgescu-Roegen ou Daly mais aussi de Donella Meadows : lʼun des
présupposés de ce courant de pensée est précisément lʼexistence de « limi-
tes » à notre expansion économique [Ropke, 2004]. La rédactrice des Limits
to Growth, décédée en 2001, laisse derrière elle des disciples, en particulier
au Sustainability Institute quʼelle a fondé dans le Vermont. Ce centre est à
la fois un lieu de recherche et de mise en pratique de la soutenabilité, avec
une ferme bio et un écovillage. Des recherches critiques sur la modélisation
y sont conduites.
Il est particulièrement intéressant, de nos jours, de revisiter le débat des
années 1970 sur la croissance zéro, pour y déceler lʼémergence de thèmes
cruciaux dans la discussion autour de la gestion du changement climatique,
comme le rapport entre pays du Nord et pays du Sud ou les possibilités de la
technologie du futur. Lʼintérêt dʼune approche historique et comparative de la
modélisation est quʼelle permet de dégager ce qui est implicite aux modèles
dʼaujourdʼhui et qui est considéré comme évident parce que commun à tous :
par exemple, cette absence de la thématique de la stabilité économique comme
choix de société pertinent.
42 LES MODÈLES DU FUTUR

Lʼavenir – lʼunique, pas celui des modèles – nous dira si la critique acadé-
mique de la croissance économique est bien morte, ou si, en ces temps troublés
de crise écologique, elle va renaître pour relayer lʼappel « altermondialiste »
et politique à une « décroissance soutenable », qui dénonce le dogme du
produit national brut comme indicateur ultime de la réussite dʼune société et
revendique la définition dʼobjectifs sociaux et écologiques plus concrets.

RÉFÉRENCES BIBLIOGRAPHIQUES

BERNARD M., CHEYNET V. et CLÉMENTIN B. (2003), Objectif décroissance, Parangon, Lyon.


BLOOMFIELD B. (1986), Modelling the World – The Social Constructions of System Scientists,
Blackwell, Oxford.
BOULDING K. (1966), « The economics of the coming spaceship earth », dans JARRETT H.
et HOPKINS J. (dir.), Environmental Quality in a Growing Economy, University Press,
Baltimore.
BRAILLARD P. (1982), L’Imposture du Club de Rome, PUF, Paris.
CARSON R. (1962), Silent Spring, Riverside Press, Cambridge.
COLE H. S. D. (1973), Thinking about the Future : a Critique of the Limits to Growth,
Chatto & Windus, Londres.
DALY H. (1971), « Toward a stationary-state economy », dans HARTE J. et SOCOLOW R. (dir.),
Patient Earth, Holt, Rinehart & Winston, New York.
FIDDAMAN T. (1996), Feedback Complexity in Integrated Climate-Economy Models, thèse
de doctorat, Sloan School of Management, MIT, Cambridge (disponible sur Internet :
home.earthlink.net/~tomfid).
FORRESTER J. (1971), World Dynamics, Wright-Allen Press, Cambridge.
GEORGESCU-ROEGEN N. (1971), The Entropy Law and the Economic Process, Harvard
University Press, Cambridge, Mass.
GHAMARI-TABRIZI S. (2005), The Worlds of Herman Kahn, Harvard University Press,
Cambridge, Mass.
KAHN H. (1976), The Next 200 years, William Morrow & Company, New York.
KAHN H. et WIENER A. (1967), L’An 2000. Un canevas de spéculations pour les 32 prochaines
années, Robert Laffont, Paris.
HERRERA A. (1977), Un monde pour tous, PUF, Paris.
MEADOWS D. et D., RANDERS J. et BEHRENS W. (1972), The Limits to Growth, New York
University Books, New York (traduction française : Halte à la croissance !, Fayard,
Paris, 1972).
MEADOWS D., RICHARDSON J. et BRUCKMANN G. (1982), Groping in the Dark, the First Decade
of Global Modelling, Wiley, New York.
MESAROVIC M. et PESTEL E. (1974), Stratégie pour demain, Le Seuil, Paris.
NORDHAUS W. (1973a), « The allocation of energy resources », Cowles Foundation Paper
n° 401.
– (1973b), « World dynamics : measurement without data », Cowles Foundation Paper
n° 399.
– (1977), « Economic growth and climate : the carbon dioxide problem », Cowles Foundation
Paper n° 443.
– (1992), « An optimal transition path for controlling greenhouse gases », Science, vol. 58,
p. 1315-1319.
CROISSANCE OU STABILITÉ ? LʼENTREPRISE DU CLUB DE ROME… 43

NORDHAUS W. et TOBIN J. (1972), « Is growth obsolete ? », Cowles Foundation Paper


n° 398 (accessible sur le site Internet de la Cowles Foundation http://cowles.econ.yale.
edu/P/).
PECCEI A. (1969), The Chasm Ahead, Collier-MacMillan, Londres.
REBOUL L. et TE PASS A. (1972), La Lettre Mansholt. Réactions et commentaires, J.-J. Pauvert,
Paris.
ROPKE I. (2004), « The early history of modern ecological economics », Ecological Economics,
n° 50, p. 293-314.
STERMAN J. D. et BOOTH SWEENEY L. (2002), « Cloudy skies : assessing public understanding
of global warming », System Dynamics Review, n° 18 (2).
44 LES MODÈLES DU FUTUR

La construction historique des paradigmes de modélisation


intégrée : William Nordhaus, Alan Manne et lʼapport
de la Cowles Commission

Pierre Matarasso

LʼÉMERGENCE DʼUNE NOUVELLE CONCEPTION DE « LʼÉCONOMIE-MONDE »

Au début des années 1970, le Club de Rome engage des recherches sur
lʼavenir planétaire. Ces recherches tentent de démontrer quʼune croissance
indéfinie est impossible en raison des ressources minières limitées et de lʼac-
cumulation de pollutions. À la vision traditionnelle de la science économique
qui sʼintéresse aux interactions entre des agents humains médiatisées par
des marchandises, le Club de Rome oppose la nécessité de rendre compte
de lʼinfluence des activités économiques sur la biosphère. Le rapport Limits
to Growth, basé sur les travaux de J. Forrester et D. Meadows [Meadows et
alii, 1972], sʼefforce de donner à cette approche un fondement scientifique.
À partir de cette époque, notre vision de lʼéconomie réelle commence donc à
sʼétendre de lʼanalyse des échanges et de la formation des prix vers lʼunivers
des phénomènes physiques, chimiques et biologiques de niveau planétaire qui
résultent des activités humaines. Par ailleurs, les visions du futur ne peuvent
plus se contenter dʼêtre des projections du passé en raison de la croissance
des populations, de la raréfaction de certaines ressources, de lʼévolution des
techniques et des transformations irréversibles de lʼenvironnement1.
La question du couplage de modèles économiques avec les modèles de
la climatologie et les modèles écologiques se pose. La nécessité dʼappréhen-
der le très long terme, bien au-delà des horizons envisagés jusque-là par la
« prévision » économique, sʼimpose également. En effet, les climatologues
introduisent un « temps long » dans lʼanalyse du climat du fait de lʼinertie
considérable (de lʼordre du siècle) des phénomènes géophysiques et géo-
chimiques. En termes économiques, la question du changement climatique
devient, à partir des années 1980, celle de la comparaison du coût des actions

1. Voir le chapitre précédent rédigé par Élodie Vieille Blanchard.


LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 45

de prévention limitant les émissions (passage à une société sobre en énergie)


avec le coût des impacts négatifs (les dommages) du changement climatique.
Il est donc nécessaire de mettre en balance des événements, des phénomènes,
des décisions et des dépenses qui sʼéchelonnent sur une échelle temporelle
étendue. Le surgissement dʼun problème nouveau et grave, la nécessité de
rendre compte physiquement de lʼimpact des activités humaines sur la bio-
sphère et de remonter aux décisions à prendre, va mobiliser de nombreux
économistes de talent et les pousser à réactualiser des formes de représentation
que lʼémergence des comptabilités nationales et le contexte régulier des Trente
Glorieuses avaient rendues temporairement caduques.
La science économique des années 1960-1970 croyait pouvoir se passer
dʼune étude détaillée de la base matérielle des processus économiques, grâce à
lʼéconométrie et aux comptabilités nationales généralisées à la planète entière.
La science du changement climatique va décevoir cet espoir et impliquer
un retour vers des formes de représentation économique plus anciennes et
surtout plus détaillées technologiquement et géographiquement pour le long
terme. Ces formes de représentation sʼincarnent dans les modèles de Frank
Plumpton Ramsey et de John von Neumann, qui concernent le long terme
pour le premier et des représentations élaborées de la production pour le
second. Ce retour nous permet de reprendre, à nouveaux frais, lʼhistoire de la
pensée économique, de relativiser la parenthèse macro-économétrique pour
aller vers des représentations moins inertielles (on passe de la « prévision »
à la recherche dʼun contrôle adéquat) et davantage centrées sur les aspects
matériels et technologiques (les modèles se développent sur deux plans :
celui des processus et des comptabilités physiques, et celui des contreparties
financières de ces processus).
La problématique des études économiques qui se développent à la suite des
préoccupations environnementales des années 1970 ne se construit donc pas à
partir de rien. Elle emprunte largement aux divers mouvements de pensée qui
ont éclos depuis la fin de la guerre et ont commencé à bouleverser les scien-
ces économiques. Ces mouvements de pensée sont marqués par la Seconde
Guerre mondiale et ses conséquences ; ils sʼancrent dans les préoccupations
de la reconstruction de lʼEurope et du développement des pays anciennement
colonisés – préoccupations qui ne sont dʼailleurs pas sans rapport avec celles
qui naissent avec le changement climatique. La tentative de résoudre ces
questions bénéficie largement des méthodologies déployées avec lʼeffort de
guerre (logistique militaire, commande des radars et engins, développement
des automatismes et de lʼinformatique). À la fin de la Seconde Guerre mon-
diale, des méthodologies et des questionnements nouveaux imprègnent peu à
peu la pensée économique. Von Neumann, dont la confiance immodérée en la
technique est bien connue, imagine dès les années 1950 la généralisation de
lʼénergie nucléaire, le geo-engineering (modification volontaire et contrôlée
46 LES MODÈLES DU FUTUR

du climat) et, probablement, la conquête dʼautres planètes. Son travail sur les
self-reproducing automata donnera naissance à la métaphore des Von Neumann
probes qui matérialisent une extension interplanétaire des machines ! Quelques
années plus tard, Kenneth E. Boulding, René Dubos et, après eux, Jay Forrester
et Dennis Meadows se préoccupent de la finitude des ressources fossiles et
de lʼaccumulation des pollutions ; leur optique est centrée sur lʼidée que la
planète Terre est le vaisseau spatial à gérer. Tjalling C. Koopmans et Herbert
Simon, deux futurs prix Nobel, travaillent dès les années 1950 dans le cadre
de la Cowles Commission2 sur le thème du développement économique en
lien aux futures sources dʼénergie jusquʼà imaginer des déploiements massifs
de lʼénergie nucléaire dans les pays en développement.
Les approches méthodologiques sont diverses :
— John von Neumann avec les automates « autoreproducteurs » et son
travail sur lʼéquilibre général des années 1930 a posé des bases théoriques,
mais très idéalisées des problèmes de croissance et de ce que lʼon bapti-
serait aujourdʼhui la « soutenabilité » ; il sʼappuie sur des représentations
technologiques détaillées qui convoquent des « processus élémentaires » et
« des événements discrets », ce qui nʼest pas étonnant de la part de lʼun des
unificateurs de la mécanique quantique ;
— Jay Forrester et Norbert Wiener, qui viennent de la cybernétique appli-
quée à des problèmes militaires (radars, poursuite de cible, guidage…), éla-
borent des paradigmes en termes de systèmes dʼéquations différentielles
simultanées et de contrôle (notion de feedback) pour modéliser des « systèmes
complexes » ;
— Herbert Simon et Tjalling C. Koopmans cherchent, dans le cadre de
la Cowles Commission, à joindre élaboration mathématique des problèmes
économiques et études appliquées (logistique des transports, énergie, prévi-
sion…). La Cowles est le lieu où lʼinteraction des économistes et des ingénieurs
ayant travaillé pour la Rand Corporation, lʼU.S. Air Force et le Pentagone va
se produire autour de la mathématisation de lʼéconomie.
Cʼest à partir de ces différents points de vue que vont se développer les
paradigmes de modélisation qui sont actuellement à lʼœuvre dans la probléma-
tique du changement climatique. Nous allons tenter dʼexpliquer pourquoi les
conceptions de von Neumann et Koopmans vont sʼimposer par lʼentremise de
leurs héritiers spirituels, William Nordhaus et Alan Manne, qui sont devenus
les figures centrales contemporaines de la recherche sur lʼéconomie du chan-
gement climatique. Au contraire, Forrester et Meadows seront de plus en plus

2. La Cowles Commission qui deviendra la Cowles Foundation a été fondée par Alfred Cowles
après la crise de 1929. Son but est de rapprocher lʼéconomie des sciences exactes par une utilisation
systématique des mathématiques. T. C Koopmans jouera un rôle essentiel dans sa direction. Nous
donnons plus loin quelques éléments sur lʼhistoire de cet organisme. Un point de vue sur cette
organisation : http://cepa.newschool.edu/het/schools/cowles.htm
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 47

contestés à partir des années 1980. La critique qui leur sera opposée sʼattaque
autant à leur objectif déclaré de « croissance zéro » quʼà leur méthode, qui
repose sur la dynamique des systèmes. On pourrait penser que la suprématie
méthodologique de la Cowles Foundation est le résultat de la posture ins-
titutionnelle très forte de cette structure, faite de publications scientifiques
remarquées et de commandes fédérales (la Cowles produira plusieurs lauréats
du prix Nobel en économie). À lʼinverse, la critique académique adressée au
Club de Rome paraît provenir de son ambition plus contestataire. Le Club
de Rome est une organisation plus européenne quʼaméricaine et il réussit
magistralement son opération de communication destinée à lancer lʼalerte, ce
que des chercheurs comme Boulding ou Dubos nʼavaient pas réussi à faire.
Mais dans un deuxième temps, Limits to Growth va susciter une réaction
extrêmement violente et fera lʼobjet dʼun procès en nullité de la part du milieu
des sciences économiques.
Il est tentant de renvoyer le relatif échec méthodologique du Club de Rome
à son message politique radical (la « croissance zéro ») et à sa position institu-
tionnelle plus marginale. De même, le succès de la Cowles Foundation semble
pouvoir être attribué à sa notoriété académique et politique. Cette explication
des succès relatifs de ces deux organisations est légitime, mais elle nʼest que
partielle. Il est nécessaire de sʼinterroger également sur les méthodes et les
protocoles scientifiques suivis par ces équipes, finalement rivales, en matière de
modélisation. Les héritiers spirituels de Koopmans proposent-ils une méthode
de modélisation plus adaptée que celle de Forrester ? La prééminence des
conceptions de la Cowles Foundation est-elle une conséquence logique de la
sélection des méthodes les plus opératoires ou bien une injustice de lʼhistoire
vis-à-vis de Forrester et Meadows ? Pourquoi, en dépit de lʼinvention de
méthodes de modélisation novatrices, matérialisées par les langages de pro-
grammation des systèmes dynamiques Dynamo et Stella, Forrester nʼa-t-il pas
la même postérité ? Pourquoi, enfin, le modèle IMAGE, séquelle principale du
Club de Rome, reste-t-il confiné au cercle de ses créateurs ? Autant de questions
qui impliquent dʼanalyser la formation de « communautés épistémiques » dans
le monde de la modélisation liée au changement climatique.

MODÈLES ET COMMUNAUTÉS ÉPISTÉMIQUES

Dès le début des années 1980, des expériences de modélisation dans le


domaine de lʼénergie et du changement climatique voient le jour. Ces modélisa-
tions constituent à la fois un retour vers des méthodes qui avaient commencé à
se développer avec la crise de lʼénergie (1973) et leur prolongement. Diverses
équipes dans le monde conjuguent leurs efforts sous lʼégide dʼorganisations
comme lʼEnergy Modeling Forum (EMF), créé par des chercheurs de Stanford
48 LES MODÈLES DU FUTUR

en 1976, ou plus tard le Groupe dʼexperts intergouvernemental sur lʼévolu-


tion du climat (GIEC). LʼInternational Institute for Applied System Analysis
(IIASA), créé en 1974 à Vienne, accueille lui aussi de nombreux chercheurs
et joue un rôle important dans la diffusion des idées sur la modélisation envi-
ronnementale. LʼIIASA est proche dès lʼorigine de la Cowles Foundation,
et Tjalling C. Koopmans fréquente les deux institutions. La collaboration
Stanford-IIASA, qui se poursuit dans lʼEMF, est également ancienne. Georges
Dantzig, co-inventeur avec Koopmans de la programmation linéaire et de
lʼanalyse dʼactivités, séjourne à lʼIIASA où il dirige le premier methodology
group. Alan Manne et William Nordhaus séjournent également à lʼIIASA dans
les années 1970. À la même époque, George Dantzig fonde le Laboratoire
de recherche opérationnelle à Stanford (Stanford Optimisation Laboratory,
SOL), avec Alan Manne qui en prendra la direction plus tard.
Cʼest dans ces divers lieux que se créent les équipes de modélisation
qui vont, par la suite, travailler sur le changement climatique. Dès avant les
années 1970 se met donc en place un réseau dʼéconomistes qui partagent une
culture commune faite de recherche opérationnelle et de mathématisation de la
théorie économique. Ce réseau implique G. B. Dantzig et son équipe du SOL,
T. C. Koopmans et une partie des membres de la Cowles, et enfin lʼIIASA qui
fournit un lieu de rencontre et de réflexion orienté vers le long terme, à lʼécart
des contraintes académiques3. Ce groupe se fera assez vite une obligation de
contrer lʼargumentaire du Club de Rome, en particulier pour ce qui concerne
la « croissance zéro » [Nordhaus et Tobin, 1972].
Parmi les modèles dʼéconomie planétaire ou de systèmes énergétiques
mondiaux, quelques-uns sont devenus rapidement des références qui revêtent
plusieurs formes. On peut distinguer :
— des modèles paradigmatiques dont non seulement les équations et les
résultats sont publics, mais également les données, les sources informatiques,
les programmes et les modalités de calcul, ce qui permet à de nombreuses
équipes de sʼen inspirer pour les décliner sous diverses formes ;
— des modèles coopératifs dont les sources informatiques et les données
sont disponibles par appartenance à une association de membres (pays et
équipes de recherche) ; ce qui permet là aussi à de nombreuses équipes de
bénéficier dʼune expérience collective et de développements coopératifs (un
peu sur le mode actuel des développements open source) ;
— des modèles de référence et dʼexpertise développés par des équipes
dans des cadres nationaux ou internationaux, mais dont la maîtrise reste
essentiellement dans les mains de lʼéquipe qui les a conçus.

3. La description détaillée de la manière dont la Cowles sʼest engagée dans les questions de
ressources non renouvelables et dʼénergie se trouve dans le rapport dʼactivité des années 1970-1973,
disponible sur Internet à lʼadresse : http://cowles.econ.yale.edu/P/reports/1970-73.htm, où les rôles
respectifs de Koopmans, Nordhaus et Manne y sont précisés.
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 49

Une différence essentielle entre tous ces modèles tient à leurs modalités
de développement. On note une croissance spontanée, par emprunt ou colla-
boration dʼindividu à individu, dans le cas des modèles « paradigmatiques ».
Dans les modèles « coopératifs », la collaboration prend un caractère plus
organisé grâce à la mise en place dʼune institution qui assure la diffusion des
sources. Le premier type sʼillustre par le modèle DICE (Dynamic Integrated
Model of Climate and Economy) de William Nordhaus et le second par le
modèle MARKAL (Market Allocation Model), associé en particulier au nom
dʼAlan Manne. On peut se convaincre de la diffusion de DICE et MARKAL
en comptabilisant leurs occurrences dans la littérature scientifique et dans
les communications à lʼEnergy Modeling Forum. Depuis quelques années,
le Forum, organisé en commun avec lʼIIASA, est jumelé avec les rencontres
de lʼassociation des utilisateurs de MARKAL (ETSAP) : plusieurs dizaines
dʼéquipes travaillent ou ont travaillé sur DICE ; les applications de MARKAL
dépassent la trentaine de pays et ont mobilisé près de 75 équipes. DICE comme
MARKAL sont en général présentés dans des revues ou des livres qui four-
nissent les listes dʼéquations, les informations extensives sur les méthodes
de résolution et leurs justifications. Le programme informatique commenté
est parfois diffusé intégralement. Ces modèles possèdent donc un caractère
générique incontestable, les équations sont des « types » dʼéquations qui peu-
vent être adaptées à divers contextes (MARKAL) ou diverses préoccupations
(DICE). Face à cette diffusion, les autres modèles conservent leur crédibilité
mais demeurent restreints aux équipes qui les développent4.
On pourrait faire remarquer que le modèle du Club de Rome vérifie, en
commun avec DICE et MARKAL, les conditions larges de diffusion grâce
à lʼutilisation des langages de programmation Dynamo, puis du langage
Stella qui sont friendly oriented ; dès le milieu des années 1970, les criti-
ques du modèle « Limits to growth » pouvaient en reproduire les résultats.
Cependant, il a toujours manqué à Jay Forrester un ancrage dans la science
économique et un fondement théorique pour être reconnu par la communauté
des économistes. Le modèle IMAGE nʼa pratiquement fait lʼobjet dʼaucune
publication dans les journaux scientifiques consacrés de la discipline tandis
quʼun consensus méthodologique, se traduisant par de nombreuses publications
académiques, sʼest établi assez rapidement autour de DICE et MARKAL. Ce
consensus autour des méthodes de la Cowles Foundation est fondé sur une
base conceptuelle solide, et également sur le réseau de ceux qui partagent
cette base conceptuelle. On entend ici par base conceptuelle une structure de
concepts qui permet dʼenseigner les modèles, de guider les nouveaux arrivants
vers le développement de problématiques et dʼapplications inédites. La base

4. Cela ne doit pas sʼinterpréter comme une réserve à lʼégard des modèles moins diffusés,
nécessaires à lʼenrichissement, à lʼévolution et à la critique des modèles les plus diffusés.
50 LES MODÈLES DU FUTUR

conceptuelle assure lʼintercompréhension entre les différentes équipes de


modélisation, elle constitue un paradigme au sens le plus fort de ce terme.
On peut opposer aux modélisations possédant ce type dʼarmature concep-
tuelle des modèles qui se revendiquent de « lʼart de modéliser », cʼest-à-dire de
lʼintuition juste, du tour de main et de lʼà-propos dans la définition des équa-
tions. Ces modèles peuvent être utiles et sʼenseigner ; parfois, ils deviennent
la norme. Pourtant, lʼexpérience récente des modèles macroéconométriques,
qui relèvent souvent de ces sortes de « tour de main », montre que beaucoup
nʼont pas survécu. À bien des égards, le modèle IMAGE est presque entiè-
rement dénué de bases théoriques unificatrices (en économie du moins), il
est composé de multiples modules ad hoc reliés entre eux. Les publications
disponibles ne permettent pas de le reproduire : les équations ne sont que
partiellement explicitées et les nombreuses routines de résolution ne sont pas
décrites. Cʼest un ensemble de connaissances quʼil est difficile de mettre à
jour et de transférer (voire dʼexpertiser).

UNE TRADITION INTELLECTUELLE FORTE ET ANCIENNE

Revenons aux origines intellectuelles des modélisations que nous avons


qualifiées de « paradigmatiques » ou « coopératives ». Remonter de près de
cinquante ans en arrière (de 1970 à 1920) pourrait réclamer une justification.
En fait, elle se résume en deux points : 1° DICE est un modèle dit de « crois-
sance optimale », qui descend en ligne directe du « modèle de Ramsey »
[Ramsey, 1928], devenu une clé de voûte de la science économique contem-
poraine. Le modèle de Ramsey a été ensuite réactualisé par Koopmans sous le
nom de « modèle de Ramsey-Koopmans » [Nordhaus, 1992a] ; 2° MARKAL
et MERGE [Manne, 1994a, 1995] reprennent une représentation du secteur
énergétique en « analyse dʼactivités » ; ce formalisme, qui inclut « produc-
tions jointes » et « alternatives de production », provient dʼun modèle de la
production en économie souvent dit « de von Neumann-Sraffa ».
La modélisation de la production que lʼon rencontre dans les deux modèles
résulte dʼune préoccupation commune : déterminer des prix dʼéquilibre des
biens ; et pour que cela soit possible, il faut que la production soit représen-
tée en flux physiques. Dʼune part, le modèle de Ramsey apparaît comme le
prototype de la modélisation, une modélisation concentrée à lʼextrême sur le
nombre le plus limité possible dʼagrégats macroéconomiques. Dʼautre part,
le « modèle de von Neumann-Sraffa » est le prototype théorique des modèles
bottom-up, cʼest-à-dire des modèles dʼingénieur où la production est décrite de
manière extrêmement détaillée. Ces types de modélisation sont souvent oppo-
sés, bien quʼun auteur comme T. C. Koopmans, qui a réactualisé les travaux
antérieurs, ait toujours considéré les deux approches comme complémentaires
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 51

[Koopmans, 1964, 1965]. Dʼailleurs, les modèles comme MERGE ETA-Macro


et MARKAL-Macro dʼAlan Manne couplent les deux approches.
Derrière des modèles comme MARKAL et DICE, nʼy aurait-il quʼune idée
judicieuse que lʼon peut attribuer à des individus isolés, ou beaucoup plus que
cela : la trace dʼune nouvelle manière de penser les problèmes économiques ?
Cʼest cette seconde thèse que je veux suggérer par un bref détour historique :
la naissance des modèles que nous utilisons aujourdʼhui dans le domaine du
changement climatique a mobilisé trois générations de chercheurs qui ont œuvré
depuis les années 1930 dans une certaine continuité. La puissance descriptive
et lʼefficacité opératoire des méthodes qui vont se développer à la Cowles
Foundation proviennent dʼun premier élan méthodologique communiqué
dʼabord par Wittgenstein, largement retravaillé et débarrassé de ses défauts
initiaux par des hommes comme von Neumann, Sraffa, Ramsey, mais également
A. N. Whitehead et N. Georgescu-Roegen (coéditeur de Koopmans, 1951a).
Une seconde génération est constituée, dans les années 1950, aux USA, par
Tjalling C. Koopmans, George B. Dantzig et Herbert Simon qui sont les héri-
tiers des précédents. Enfin, la troisième génération, celle de leurs successeurs
directement impliqués dans les recherches sur le changement climatique, dont
William D. Nordhaus et Allan S. Manne sont les figures principales.

Les cercles de Cambridge et de Vienne

Quelques points de repère historiques situeront notre propos. Rappelons


quʼaprès la publication en 1921 par Wittgenstein de son Tractatus logico-
philosophicus, deux cercles de discussion se forment à Cambridge et à Vienne.
Le premier, informel, autour de Wittgenstein lui-même ; le second, plus
formel, est le célèbre cercle de Vienne. À Cambridge, Ludwig Wittgenstein,
Piero Sraffa et Frank Plumpton Ramsey poursuivent ensemble et dans lʼen-
tourage de Keynes, durant plusieurs années, un débat méthodologique qui se
reflète dans les œuvres de chacun dʼentre eux5. Ramsey est (en collaboration
avec C. K. Ogden) le premier traducteur anglais du Tractatus et se rend en
Autriche en 1923 et 1924 pour rencontrer Wittgenstein. Il effectue avec lui
une relecture des Investigations philosophiques. Paul Sraffa aura également
de longues conversations avec Wittgenstein. Ce dernier considère même
que le passage à sa « seconde philosophie » résulte des conversations quʼil
a eues avec Ramsey et Sraffa6. À Vienne, dans la proximité du cercle, en

5. Voir lʼintroduction des Remarques philosophiques de Wittgenstein (qui cite Ramsey et Sraffa)
et celle de Production de marchandises par des marchandises de Sraffa qui, lui, cite Ramsey [Sraffa,
1960].
6. Voir par exemple : http://www.wittgen-cam.ac.uk/cgi-bin/text/biogre.html, « Wittgenstein
biographical sketch », et aussi les ressources des Wittgenstein Archives, http://gandalf.aksis.uib.
no/wab/
52 LES MODÈLES DU FUTUR

particulier au séminaire mathématique de Karl Menger, Anton Wald puis


John von Neumann présentent dans les années 1930 ce qui va constituer
une refondation de lʼéconomie mathématique autour du thème de lʼéquilibre
général ; à ces réunions participent Oskar Morgenstern et dʼautres membres
du cercle [Menger, 1994].
Quelles sont donc les préoccupations clés qui agitent les esprits du « cercle
de Cambridge7 » et du cercle de Vienne, et qui se réfractent dans les modèles
de Ramsey et de von Neumann ? Il est possible de les lister ainsi :
— le problème de la description par reconstruction logique du monde à
« notre échelle », pour refonder les approches scientifiques ;
— la tentative dʼopérer cette reconstruction (dans le Tractatus de
Wittgenstein et lʼAufbau de Rudolf Carnap) sur une base « atomistique »,
logiquement structurée ;
— lʼarticulation de cette base atomistique sur les notions duales de
« faits » et de « choses », ou encore de « processus » et « dʼobjets », aux-
quelles correspondent des assemblages de propositions du langage ou des
mathématiques ;
— le problème de ce qui arrive dans un système « à la fin des temps » :
cʼest la question de lʼarrêt des machines de Türing ou encore… des modèles
de croissance de Ramsey à horizon infini ;
— la recherche dʼun moyen terme entre les représentations en logique
(purement combinatoires) et les représentations en équations différentielles
(trop éloignées des changements qualitatifs) ;
— enfin, lʼavènement théorique et pratique des concepts dʼ« événements
discrets » et de « processus élémentaires » dans la représentation de la produc-
tion en économie mais aussi… dans les machines de Türing, dans la théorie
des jeux ou dans le choix des techniques « digitales » en informatique.
Ramsey se situe entièrement dans une optique de reconstruction du monde8.
Cʼest dans cette perspective quʼil écrit son article « A mathematical theory of
savings » [Ramsey, 1928], une tentative de traitement logico-mathématique
à horizon infini de la question : « How much of its income a nation should
save ? » Il sʼagit dʼune reconstruction logique a minima de la vie économique,
dans laquelle les agents obéissent à un principe unique de rationalité figuré
par la recherche dʼun optimum intertemporel. Faut-il consommer dʼabord
ou épargner pour construire du capital qui permettra de produire plus et de
consommer davantage ? Lʼidée essentielle du modèle est que la trajectoire
optimale est déterminée par lʼextremum dʼune fonction « intertemporelle »
représentant lʼutilité des agents économiques. On peut de la sorte déterminer

7. On devrait ici, bien entendu, évoquer Keynes qui jouait un rôle éminent dans ce qui se passait
à Cambridge. Mais, comme lʼindique le titre de notre article, lʼanalyse historique ici proposée ne
prétend pas à lʼexhaustivité.
8. Voir en particulier Ramsey [1927, 1931].
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 53

lʼaction optimale à chaque période, sans recourir à aucune autre hypothèse


de comportement que celle impliquée par cette fonction (ce qui ne serait pas
le cas dans une simulation récursive). Lʼidée dʼétudier de cette manière un
trajet optimal de lʼéconomie pour des agents humains est neuve et puissante
et elle aura une postérité remarquable. Koopmans réactualise cette approche
dans Koopmans [1965].

Von Neumann, le formalisme de l’analyse d’activités

Séparément, mais étant probablement au courant de leurs travaux respec-


tifs, von Neumann (dès les années 1930) et Sraffa (plus tard) proposent une
reconstruction conforme aux principes précédents (logico-atomistiques) de
lʼunivers de la production en économie9. Cette dernière est décrite par des
associations de processus « qui consomment » ou « produisent » des biens.
La conception des « processus » comme base de la représentation nʼest pas
sans rappeler aussi bien la théorie des jeux, qui transforme un état en un autre,
que les « événements discrets » de la machine de Türing (lecture-écriture
séquentielle de la bande) ou encore les structures dʼévénements des « auto-
mates » de von Neumann.
Cʼest lʼémergence dʼune nouvelle conception de la temporalité, une nou-
velle manière de considérer les rapports entre « processus » et « objets ». La
notion de processus chez Sraffa et von Neumann, qui sert de base à lʼanalyse
dʼactivités10, décrit notamment le fonctionnement dʼun atelier qui consomme
du fer en barre pour produire des vis et des copeaux de fer, qui consomme
des machines « neuves »… et qui rejette, à la fin du processus, des machines
« usées ». Un processus « différent » est susceptible de produire des vis de
même fonction avec des moyens moins mécanisés11. Chaque processus est
représenté par un processus unitaire, calé sur une usine, une machine, un atelier,
une quantité dʼunités produites, etc. Un système complexe réel correspond à un
assemblage de multiples processus unitaires, assemblage qui vérifie une règle
simple : tout ce qui est consommé doit avoir été produit. Cʼest cette règle qui
provoque le dimensionnement des processus les uns par rapport aux autres.

9. David Champernowne, proche de Türing et de Sraffa à Cambridge, est le commentateur de


la première traduction de von Neumann en anglais. Voir von Neumann [1937].
10. Pour Koopmans, il nʼy a aucun doute quʼil faut attribuer lʼanalyse dʼactivités à von Neumann.
La conception de von Neumann innove par rapport à Walras ou Leontief et permet en particulier
de traiter de manière extrêmement pertinente du capital fixe diversifié techniquement en termes de
flux [Koopmans, 1964].
11. Il y a « productions jointes » car on produit à la fois des objets et des déchets, il y a aussi
« alternatives de production » car un même objet peut être produit par différents processus. Cʼest
une double généralisation des formalismes « à la Leontief » (matrices « rectangulaires » et non
« carrées ») comme Dantzig lʼa souvent déclaré.
54 LES MODÈLES DU FUTUR

Le formalisme de lʼanalyse dʼactivités est présenté pour la première fois


dans un article, « A model of general equilibrium », présenté dʼabord au
séminaire de Menger à Vienne [von Neumann, 1937], puis traduit en anglais
après la guerre [von Neumann, 1945]. Le modèle introduit trois innovations
majeures qui vont changer la face de lʼéconomie mathématique :
— cʼest un modèle de croissance à horizon infini ;
— le schème descriptif est celui de lʼanalyse dʼactivités avec une représen-
tation « atomistique » de la production, lʼévolution des stocks dʼéquipements
étant décrite dans ce cadre ;
— la preuve de lʼexistence de lʼéquilibre utilise des techniques mathéma-
tiques nouvelles pour lʼépoque, qui deviendront elles aussi paradigmatiques
dans la discipline12.
Lʼune des grandes innovations des travaux de Ramsey et von Neumann
est relative au traitement du temps : un problème dynamique est ramené,
dans sa résolution, à un problème statique (résolution dite « intertempo-
relle ») ; on cherche à se mettre dans une situation où les différents groupes
dʼéquations sont traités comme un système dʼéquations « simultanées » et
non comme une récursion temporelle. En dʼautres termes, on « simulta-
néise » les périodes temporelles consécutives dans les résolutions, quʼelles
soient analytiques comme chez Ramsey et en théorie des jeux, ou algorith-
miques comme dans la programmation linéaire dynamique. La question
cruciale des « comportements » est traitée par un calcul sur lʼensemble de
la période temporelle, au moyen dʼune procédure mathématique qui anticipe
des calculs « intertemporels », portant sur lʼactualisation de lʼutilité espérée.
La question du choix des agents résulte de la recherche dʼun optimum pour
une fonction intertemporelle, on évite ainsi la question de savoir comment
définir des comportements récursifs à chaque période. Cʼest une supposition
dʼanticipation parfaite.
La tentative de von Neumann et Ramsey sʼapparente à celle de lʼénon-
ciation de propositions économiques sur le très long terme, en sʼappuyant
sur des considérations aussi minimales que possibles, relatives aux com-
portements dont lʼun et lʼautre nʼignorent pas le caractère contingent. Dʼoù
ce paradoxe entre des modèles particulièrement simplifiés et une grande
richesse dʼinterprétation potentielle [Koopmans, 1964, 1965]. Les modèles
DICE et MARKAL, qui sont des déclinaisons des modèles de Ramsey et
de von Neumann, sʼenracinent donc dans la tradition de reconstruction de
lʼéconomie commencée entre les deux guerres et qui connaît un nouvel essor
à partir des années 1940.

12. On peut mentionner : théorème de Brouwer, topologie, dualité, point selle, minimax…
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 55

La Cowles et le rôle de Koopmans

La Cowles Foundation fut lʼun des lieux dʼaccueil des membres du cer-
cle de Vienne fuyant le nazisme. Elle bénéficia en particulier de lʼapport du
séminaire de Menger13. Les travaux que Koopmans développe empruntent
beaucoup aux modèles « de von Neumann » et « de Ramsey » et lui vaudront
le prix Nobel dʼéconomie (conjointement avec le russe Kantorovitch14). Deux
jeunes participants de la fondation, Kenneth Arrow et Herbert Simon, ont pour
maîtres deux autres membres éminents du cercle de Vienne, respectivement
Anton Wald et Rudolf Carnap.
Koopmans, élève de Timbergen et Frisch, se lance dans une étude des
systèmes de transport optimaux. En étudiant systématiquement cette question,
de même que celle plus générale des resources allocations, Koopmans se rend
compte de leur proximité, dʼune part, avec la théorie de lʼéquilibre général
développée par von Neumann et Wald, dʼautre part, avec les représentations
en « analyse dʼactivités » et la programmation linéaire développée par Dantzig
dans le cadre de lʼU.S. Air Force. À cette époque, lʼanalyse dʼactivités est
considérée comme une profonde innovation dans le domaine de la représenta-
tion de la production en économie. En 1949 se tient une conférence à laquelle
participent la plupart des futurs grands noms de lʼéconomie des États-Unis :
Samuelson, Arrow, Koopmans, Simon, Dantzig, Georgescu-Roegen. Cette
conférence donnera la brochure n° 13 de la Cowles Commission. Debreu
et Arrow réalisent des prolongements théoriques à ces formalismes et les
rattachent à une conception logiquement rigoureuse de lʼéquilibre général
[Koopmans, 1951a]. Lʼentreprise de la Cowles sʼoriente vers la mise en place
dʼun paradigme économique qui sʼétend de la théorie jusquʼaux applications,
peut se décliner à diverses échelles dʼespace et de temps et qui couple analyse
dʼactivités et théories de lʼutilité en partie reprises de Ramsey15. Parallèlement,
la Cowles développe aussi de nombreux travaux économétriques avec, en
particulier, Lawrence Klein.
Lorsque survient la crise de lʼénergie, Koopmans commence à fréquenter
lʼIIASA ; il sʼinterroge avec Simon sur la validité des modèles économétriques
pour traiter de ces problèmes où technologies et long terme jouent des rôles
importants. Pour Koopmans, statistiques et économétrie sont intéressantes
dans les périodes où le futur est dans la droite ligne du passé. Mais si le futur
implique des ruptures par rapport au passé, il faut dʼautres méthodes. En
particulier, les méthodes économétriques et les fonctions de production sont

13. Voir par exemple : http://cepa.newschool.edu/het/schools/cowles.htm


14. Pour des raisons inexplicables, George Dantzig nʼa pas été associé à ce prix Nobel comme
il aurait dû lʼêtre. Koopmans en fut très affecté et il versa à lʼIIASA la moitié du montant du prix
quʼaurait dû partager Dantzig.
15. http://cowles.econ.yale.edu/P/reports/1932-52b.htm
56 LES MODÈLES DU FUTUR

absolument inadaptées à lʼétude du long terme qui exige une représentation


explicite des technologies et des processus pour étudier des transitions éner-
gétiques « charbon » / « renouvelables » / « nucléaire » [Koopmans16, 1978].
Dans ce même texte de 1978, Koopmans détaille les travaux sur lʼénergie
de Nordhaus, de Manne et de lʼéquipe de modélisation de ce qui devien-
dra MARKAL. Il faut remarquer que Simon présente au même moment les
modélisations technico-économiques de Hoffman [Tessmer et alii, 1975] en
analyse dʼactivités comme la seule alternative « sérieuse » aux travaux du Club
de Rome17. Un programme de recherche se met en place entre lʼIIASA et la
Cowles (Dantzig est le chef du methodology group à lʼIIASA où Koopmans
va lui succéder) qui vise à proposer une alternative méthodologique aussi
bien au Club de Rome (explicitement désigné) quʼaux économétriciens de
lʼénergie. Lʼannée suivante Nordhaus, membre de la Cowles, publie un essai
intitulé « Can we control carbon dioxide ? » [1975].

LʼÉMERGENCE DES MODÈLES INTÉGRÉS DU CLIMAT

Alan Manne : de la logistique aux politiques climatiques

Alan Manne commence sa carrière à la Rand Corporation. Il travaille alors


en termes dʼanalyse dʼactivités à des applications dont les principes sont encore
en vigueur aujourdʼhui, aussi bien sur lʼoptimisation des raffineries que sur
les routes aériennes optimales. De 1956 à 1961, il est enseignant à Yale et
réalise un certain nombre de travaux dans le cadre de la Cowles. En 1962, il
fonde avec Dantzig, inventeur de la programmation linéaire, le Laboratoire
de recherche opérationnelle à Stanford.
Au moment où lʼanalyse dʼactivités se développe rapidement avec la
programmation linéaire, la comptabilité nationale aux USA commence à
appliquer les méthodes « input-output » de Leontief. La question du lien

16. « À mes yeux, un modèle constitué dʼun ensemble de processus alternatifs [comme lʼanalyse
dʼactivités, ndt] représente une manière plus appropriée de rendre compte des possibilités de production
quʼun modèle input-output [à la Leontief, ndt] ou encore un modèle fondé sur des fonctions de
production continues [fonctions de production Cobb-Douglas, CES…, ndt]. »
17. « Il y a peu dʼintérêt à consacrer nos efforts à réaliser des scénarios du genre de ceux que
la “world dynamics” et le Club de Rome ont récemment popularisés. Au lieu de cela, ce qui est
nécessaire, ce sont des modèles capables de représenter des états alternatifs et cohérents des systèmes
énergétiques au niveau de la production de milliers de terawattheures. À ma connaissance, le seul
modèle de ce type est celui de Kenneth Hoffman du Brookhaven National Laboratory, qui est réalisé
à partir des techniques de la programmation linéaire [il sʼagit du modèle BESOM, qui deviendra
MARKAL, ndt] » [Simon, 1973, p. 1110-1121]. Et plus loin Simon ajoute : « Nous produisons des
rapports statistiques et des prévisions détaillées sur de multiples aspects des problèmes de lʼénergie,
mais nous manquons des capacités dʼanalyse et de programmation orientées vers la conception de
systèmes énergétiques, capacités que nous savons parfaitement mettre en place. »
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 57

entre les deux formalismes est traitée dans la monographie de la Cowles sur
lʼanalyse dʼactivités et dans le livre de Samuelson, Dorfman et Solow, Linear
Programming and Economic Analysis [1958]. Peu après, Alan Manne [1960]
présente une critique du livre de Hollis Chenery et Paul Clark, Interindustry
Economics. Dans ce texte, il critique très vivement les méthodes à la Leontief,
les « matrices carrées » input-output, au profit de lʼanalyse dʼactivités (matrices
rectangulaires). Les mots sont durs : « Les meilleures capacités dʼanalyse des
spécialistes de lʼapproche input-output [à la Leontief, ndt] ont été mises au
service de bricolages et de ravaudages autour du formalisme initial ; de telles
improvisations auraient pu largement être évitées si lʼon avait eu recours à
lʼanalyse dʼactivités. » On ne peut évoquer plus brutalement le « bricolage »
de la macroéconomie. Lʼannée suivante, il publie avec Harry Markowitz
(futur prix Nobel) une monographie de la Cowles fondée sur lʼespoir dʼune
macroéconomie qui reposerait sur une représentation claire des processus liés
aux activités humaines en termes de process analysis [Manne et Markowitz,
1960].
Dix ans plus tard environ, ces idées sont reprises par K. C. Hoffman dans
sa thèse pour mettre en place le prototype du modèle MARKAL. Manne est
lʼun des premiers à appliquer les méthodes de process analysis au thème
sectoriel de lʼénergie, puis en collaborant avec les équipes de MARKAL, à
concevoir MARKAL-Macro [Manne, 1994a]. Il étend par ailleurs, à partir des
années 1990, les principes du process analysis aux questions de lʼeffet de serre
dans le cadre du modèle MERGE [Manne, 1995]. Il apporte une contribution
majeure à la structuration du débat sur ce sujet.

William Nordhaus : de la critique du modèle


du Club de Rome au modèle DICE

Les années 1970 voient lʼémergence aux USA des premiers travaux qui
critiquent la croissance comme objectif fondamental de lʼactivité économique.
Nordhaus, disciple de Koopmans, joue un rôle de premier plan dans la critique
du rapport Limits to Growth au travers dʼabord dʼun article rédigé avec Tobin,
« Is growth obsolete ? », en 1972 [Nordhaus et Tobin, 1972]. Il poursuit avec
lʼune des critiques les plus systématiques et argumentées des modèles de
Forrester et Meadows. Lʼarticle « World Dynamics : measurement without
data » [1973a] est le premier pas de son engagement dans une recherche sur
les prospectives mondiales en liaison avec le thème de lʼénergie et du CO2.
Cet article est une analyse technique détaillée de la structure des équations
du modèle du Club de Rome et une tentative de considérer le modèle comme
« une théorie scientifique » à laquelle on fait passer des épreuves. Nordhaus
fait tourner le modèle, réalise des analyses de sensibilité… et arrive à des
conclusions dévastatrices :
58 LES MODÈLES DU FUTUR

— la dynamique des systèmes nʼest quʼune variante des techniques de


simulation employées en économie depuis longtemps ;
— la représentation économique incluse dans World Dynamics est une
régression par rapport aux travaux sur la croissance économique (sans cohé-
rence macroéconomique…) ;
— le modèle nʼest, en aucune manière, sérieusement validé sur des données
empiriques ;
— il ne fait référence à aucune théorie économique reconnue ;
— les résultats du modèle sont très sensibles à la valeur des paramètres et
lʼon obtient des résultats opposés avec de petites modifications ;
— la prospective de long terme est un exercice qui manque de modestie
surtout si lʼon oublie les rétroactions du marché sur les produits rares (pro-
cessus de substitution) et le progrès technique.
Il reprend la plume pour développer cette fois ses propres convictions.
Dans lʼAmerican Economic Review, sous le titre « Resources as a constraint
on growth » [Nordhaus, 1974], il est lʼun des premiers économistes à men-
tionner le problème de lʼeffet de serre mis en avant par le rapport du MIT
de 1970, Man’s Impact on Global Environment. Il séjourne à lʼIIASA après
Dantzig et Koopmans, et produit un premier document de travail sur le
changement climatique. Dans le contexte de la crise de lʼénergie, Nordhaus
développe un modèle énergétique mondial, simplifié en analyse dʼactivités,
et entame une collaboration étroite avec les climatologues pour concevoir un
modèle de climat réduit quʼil sera possible de coupler à la partie énergétique
[Nordhaus, 1979].
Progressivement, Nordhaus précise son raisonnement économique pour
le poser en termes dʼéquité intertemporelle et dʼéquité spatiale en sʼorien-
tant vers un « modèle de croissance optimale » (à la Ramsey-Koopmans).
Cette orientation est sensible dès les années 1980 et constitue la matière de
son article « How fast should we graze the global commons ? » [Nordhaus,
1982]. Elle se précise avec des estimations de plus en plus détaillées du
coût de la réduction des émissions, fondées sur le recoupement de toutes
les études disponibles. Un travail comparable est réalisé sur les impacts du
changement climatique. Il parvient ainsi au modèle DICE en 1992, publié
dans Science et dont Nordhaus propose dʼenvoyer les sources informatiques
à qui le lui demandera. Un livre est édité en 1994 [Nordhaus, 1994]. Chapitre
après chapitre, lʼauteur fournit au lecteur, sous des formats clairs, le cadre
théorique, lʼensemble des données et le programme informatique pour faire
tourner le modèle18.

18. Voir Nordhaus [1992a, p. 1315-1319 ; 1993, p. 27-50]. Ces deux textes signalent explicitement
que lʼon se place dans le cadre dʼun modèle intertemporel de Ramsey.
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 59

Science et politique dans le changement climatique

Lorsque le changement climatique est devenu un enjeu politique aux États-


Unis, les scientifiques américains ont été mis à contribution. Lʼatmosphère
« non interventionniste » régnant dans certains milieux politiques nʼa pas été
sans répercussions sur les scientifiques. Nordhaus, comme Manne, ont eu
tendance à différer ou à vouloir « exporter » les mesures contre le changement
climatique. Cʼest la controverse devenue célèbre sur la « when and where flexi-
bility ? ». Les modèles de Nordhaus, comme ceux de Manne, ont fait lʼobjet
de vives critiques. Ces critiques sont de plusieurs ordres19. Dans DICE par
exemple, lʼeffort de réduction ne se communique pas au capital installé ; dès
que lʼeffort cesse, les émissions se remettent à croître instantanément (en dépit
de lʼinstallation vraisemblable dans la réalité dʼun capital qui reste adapté aux
faibles émissions). Dans MARKAL-Macro, les changements de technologie
énergétique ne se communiquent pas à la structure macroéconomique du fait
que précisément celle-ci est un modèle de Ramsey très agrégé. Plus généra-
lement, le calcul sur une utilité qui fait lʼobjet dʼune actualisation minimise
les dommages à long terme eu égard aux mesures à prendre aujourdʼhui.
Paradoxalement, un certain nombre des critiques que Nordhaus avait adressées
au Club de Rome sʼappliquent à son propre modèle DICE.

CONCLUSION

Le modèle de Forrester et Meadows (Limits to Growth-World 3) et les


modèles MARKAL et DICE sont, en un sens, devenus tous trois des para-
digmes. Limits to Growth a trouvé un prolongement dans le modèle IMAGE
utilisé aujourdʼhui dans les prospectives SRES (Special Report on Emissions
Scenarios) du GIEC20. Alors quʼIMAGE nʼa jamais suscité lʼadhésion des
économistes, DICE et MARKAL ont entraîné en revanche de nombreuses
équipes et permis la création de communautés de travail. Au terme de ce survol
historique, trois raisons semblent à lʼorigine de ces évolutions différentes :
— DICE et MARKAL sʼappuient sur un fondement théorique et pratique,
élaboré depuis plus de cinquante ans ;
— une institution intellectuellement puissante, la Cowles, les a portés sur
le plan scientifique ;
— ces modèles possèdent une unité fonctionnelle qui autorise une appro-
priation méthodologique et informatique efficace, dans le cadre de la diffusion
des équations, données et sources informatiques.

19. Voir ici même Christian Azar (chapitre VII).


20. Voir le chapitre de Michel Armatte (chapitre III).
60 LES MODÈLES DU FUTUR

Limits to Growth et IMAGE apparaissent comme des constructions plus


« phénoménologiques » dont les fondements théoriques sont moins clairs,
autant pour ce qui est des déterminants de la dynamique (comportements)
que pour les modes descriptifs des phénomènes physiques. Ces modèles
sont davantage des programmes informatiques que des modèles construits
sur une théorie (comme DICE) ou un fondement descriptif éprouvé (comme
MARKAL), ce qui ne facilite ni leur transmission ni leur critique.
DICE et MARKAL sʼinspirent des structures théoriques stylisées des
modèles de Ramsey et de von Neumann-Sraffa. Cette stylisation a donné nais-
sance à divers paradigmes économiques qui sont comme les grands classiques
dont Barthes disait quʼà chaque relecture, on y trouve toujours quelque chose
de nouveau. Les deux types de modèles sont utiles mais, pour traiter du long
terme, un cadre théorique stylisé est nécessaire à la discussion. Aucun modèle
ne saurait prétendre à la vérité – en particulier si son objet est dʼaider à pren-
dre des décisions pour éviter les catastrophes sur le long terme. Cependant, à
défaut de vérité, un modèle doit proposer une structure de raisonnement très
ouverte à la discussion et à lʼéchange dʼarguments mis en forme.
Le Club de Rome, à partir dʼune intuition juste, a lancé une alerte essen-
tielle mais ne sʼest pas donné tous les outils nécessaires. Sous lʼimpulsion
de Koopmans et Simon, la Cowles a commencé à mettre en place des outils
plus adaptés. Toutefois, Nordhaus et Manne ne se sont pas affranchis de pré-
supposés politiques qui ont probablement guidé les choix de paramètres et
lʼusage de méthodes de résolution vers des résultats favorables au statu quo
dans lʼaction sur le changement climatique.

RÉFÉRENCES BIBLIOGRAPHIQUES

Une grande partie des textes de la bibliographie peuvent être consultés


sur les archives de la Cowles Foundation à lʼadresse suivante : http://cowles.
econ.yale.edu/P/
Les numéros des Cowles Foundation Papers (CFP) et des Cowles
Monographies (CM) sont indiqués en fin de référence.
Les rapports pluriannuels sont également disponibles en ligne.

ARMATTE M. (2004), « Les sciences économiques reconfigurées par la pax americana », dans
DAHAN A. et PESTRE D, Les Sciences pour la guerre (1940-1960), Presses de lʼEHESS,
Paris, p. 129-173.
KOOPMANS T. C. (1951a), Activity Analysis of Production and Allocation, proceedings of a
conference, par Tjalling C. Koopmans, en collaboration avec A. Alchian, G. B. Dantzig,
N. Georgescu-Roegen, P. A. Samuelson, A. W. Tucker, John Wiley, New York (http://
cowles.econ.yale.edu/P/cm/m13/index.htm).
LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE… 61

– (1951b), « Efficient allocation of resources », Econometrica, vol. 19, n° 4, octobre, CFP


52.
– (1953), « Activity analysis and its application », American Economic Review, vol. 43, n° 2,
mai, CFP 75c.
– (1964), « Economic growth at a maximal rate », The Quarterly Journal of Economics,
vol. 78, août, CFP 217.
– (1965), « On the concept of optimal economic growth », Academiae Scientiarum Scripta
Varia, vol. 28, n° 1, CFP 238.
– (1973), « Some observations on optimal economic growth and exhaustible resources », dans
BOS H. C. (dir.), Economic Structure and Development, Essays in Honor of J. Timbergen,
North-Holland, Amsterdam, CFP 396.
– (1978), « The transition from exhaustible to renewable or inexhaustible resources », dans
Economic Growth and Resources, St Martin Press, New York, CFP 533.
MANNE A. S. (1960), « Comments on “interindustry economics” », Naval Research Logistics
Quarterly, vol. 7, n° 4, décembre, p. 385-391, CFP 167.
– (1974), « Multi-sector models for development planning : a survey », Journal of Development
Economics, vol. 1, n° 1, juin, p. 43-69 ; repris dans INTRILIGATOR M. D. et KENDRICK D. A.
(dir.), Frontiers of Quantitative Economics, vol. II, North-Holland, Amsterdam, 1974,
p. 449-500.
– (1976), « ETA : A model for energy-technology assessment », Bell Journal of Economics ;
repris dans INTRILIGATOR M. D. et KENDRICK D. A. (dir.), Frontiers of Quantitative
Economics, vol. III B, 1977, North-Holland, Amsterdam (chap. 12).
– (1977), « ETA-MACRO : A model of energy-economy interactions », dans HITCH C. J. (dir.),
Modeling – Energy-Economy Interaction, Resources for the Future, Washington, D.C.
– (1985), « Economic equilibrium : model formulation and solution », Mathematical
Programming Study, n° 23.
– (1991), « Global 2100 : an almost consistent model of CO2 emission limits », Swiss Journal
of Economics and Statistics, vol. 127, n° 2.
– (1994a), « MARKAL-Macro, a linked model for energy-economy analysis », dans HAKE J.-F.
et alii (dir.), Advances in Systems Analysis : Modelling Energy-Related Emissions on a
National and Global Level, conférences du centre de recherche Jülich (with C.-O. Wene),
p. 153-190.
– (1994b), « Energy-related emissions on a national and global level », conférences du
centre de recherche Jülich ; repris dans Energy Policy, vol. 23, n° 1, 1995, p. 17-34 (avec
R. Mendelsohn et R. Richels).
– (1995), « MERGE : a model for evaluating regional and global effects of GHG reduction
policies », Energy Policy, vol. 23, n° 1, p. 17-34.
MANNE A. S. et MARKOWITZ Harry M. (1960), Studies in Process Analysis : Economy-Wide
Production Capabilities, Wiley, New York, CM 19 (http://cowles.econ.yale.edu/P/cm/
m18/index.htm).
MANNE A. S. et RICHELS Richard G. (1992), Buying Greenhouse Insurance – the Economic
Costs of Carbon Dioxide Emission Limits, MIT Press, Cambridge, Mass.
MEADOWS Donella H., MEADOWS Dennis L., RANDERS J. et BEHRENS W. (1972), The Limits
to Growth : A Report for the Club of Rome’s Project on the Predicament of Mankind,
Universe Books, New York.
MENGER K. (1994), Reminiscences of the Vienna Circle and the Mathematical Colloquium,
Kluwer, Dordrecht.
NORDHAUS W. D. (1973a), « World Dynamics : measurement without data », The Economic
Journal, vol. 83, n° 332, décembre, CFP 399.
62 LES MODÈLES DU FUTUR

– (1973b), « The allocation of energy resources », Brookings Papers on Economic Activity,


n° 3, CFP 401.
– (1974), « Resources as a constraint on growth », American Economic Review, vol. 64,
n° 2, CFP 406.
– (1975), « Can we control carbon dioxyde ? », IIASA working paper.
– (1977), « Economic growth and climate : the case of carbon dioxide », The American
Economic Review, mai, CFP 443.
– (1979), The Efficient Use of Energy Resources, Yale University Press, New Haven,
CM 26.
– (1982), « How fast should we graze the global commons ? », American Economic Review,
vol. 72, n° 2, mai, CFP 547.
– (1991a), « The cost of slowing climate change : a survey », The Energy Journal, vol. 12,
n° 1, printemps, p. 37-65, CFP 775.
– (1991b), « A sketch of the economics of the greenhouse effect », American Economic
Review, mai.
– (1991c), « To slow or not to slow : the economics of the greenhouse effect », The Economic
Journal, vol. 101, juillet, p. 920-937, CFP 791.
– (1992a), « An optimal transition path for controlling greenhouse gases », Science, vol. 258,
20 novembre, p. 1315-1319, Optimal.science.1192.pdf, CFP 829.
– (1992b), « Lethal model II : the limits to growth revisited », Brooking Papers on Economic
Activity, n° 2, CFP 831.
– (1993), « Rolling the Dice : an optimal transition path for controlling greenhouses gases »,
Resource on Energy Economics, n° 15.
– (1994), Managing the Global Commons : The Economics of Climate Change, MIT Press,
Cambridge, Mass.
NORDHAUS W. D. et TOBIN J. (1972), « Is growth obsolete ? », Economic Growth, N.B.E.R.,
New York ; repris dans Income and Wealth, vol. 38, N.B.E.R., New York, 1973 ; CFP 398
et 398b.
RAMSEY F. P. (1927), « Facts and propositions », Aristotelian Society, supplément, vol. 7,
p. 153-170.
– (1928), « A mathematical theory of saving », Economic Journal.
– (1931), The Foundation of Mathematics and other Logical Essays, Routledge, Londres.
SIMON H. (1973), « Technology and environment », Management Science, n° 19.
SOULEZ A (1985), « Manifeste du cercle de Vienne et autres écrits », Philosophie d’aujourd’hui,
PUF, Paris.
SRAFFA P. (1960), Production de marchandises par les marchandises, Dunod, Paris.
TESSMER R. G., HOFFMAN K. C., MARCUSE W. et BELHING D. J. (1975), « Coupled energy
system-economic models and energy planning », Computer and Operation Research,
vol. 2, p. 213-224.
VON NEUMANN J. (1937), « Über ein ökonomisches Gleichungssystem und eine Verallgemei-
nerung des Brouwerschen Fixpunktsatzes », dans MENGER K. (dir.), Ergebnisse eines
mathematischen Kolloquiums (1935-1936), Springer, Vienne.
– (1945), « A model of general economic equilibrium », Review of Economic Studies, vol. 13,
n° 1 (1945-1946), p. 1-9.
WITTGENSTEIN L. (1961), Tractatus logico-philosophicus, Gallimard, Paris.
LES ÉCONOMISTES FACE AU LONG TERME… 63

Les économistes face au long terme :


lʼascension de la notion de scénario

Michel Armatte

Lʼenrôlement des économistes dans le débat sur le changement climatique


sʼest fait de façon significative mais limitée après la crise de croissance issue
du choc pétrolier de 1973, et en réaction à la provocation que représentait pour
un économiste classique le brûlot du Club de Rome, Halte à la croissance !
[1972]. La participation des économistes à la question du changement climatique
sʼest intensifiée pour devenir massive dans le cadre du Groupe dʼexperts inter-
gouvernemental sur lʼévolution du climat (GIEC ; IPCC en anglais) à partir du
moment où celui-ci a instauré trois groupes de travail dont deux impliquaient
directement les économistes : le groupe 2 sur les impacts du changement clima-
tique, et le groupe 3 sur les stratégies de réponse et les politiques de réduction
des émissions et dʼadaptation face au changement climatique. Mais le rôle des
économistes est aussi apparu important en amont des travaux des climatologues,
dans la modélisation des activités (économiques, énergétiques, industrielles et
agro-pastorales) productrices de gaz à effet de serre. Or cette modélisation de
la croissance sur des échelles de temps de lʼordre du demi-siècle ou davantage
constituait un défi nouveau pour une discipline plus habituée à raisonner sur
des durées qui sont celles dʼun cycle de production-consommation de biens et
services sur un marché où offre et demande sʼajustent rapidement.

LES TEMPS DE LʼÉCONOMIE

La réflexion sur le temps est loin dʼêtre absente de la pensée économique.


Elle en est même au centre si lʼon considère que la science économique de
Jean-Baptiste Say vise à décrire « les moyens par lesquels les richesses se
forment, se distribuent et se consomment ». Sauf lorsquʼil aborde les ques-
tions dʼaccumulation du capital, le credo classique ne semble pas trouver de
ressources pour penser le long terme avant la fin du XIXe siècle.
64 LES MODÈLES DU FUTUR

Le temps de la conjoncture et du très court terme

Lʼirruption dʼune réflexion projective sur le temps peut être datée des
grandes crises économiques de la fin du XIXe, qui sont aussi concomitantes de
controverses méthodologiques importantes [Armatte et Desrosières, 2000].
La première grande crise des années 1880-1890, qui se traduit par de grands
désordres sur les marchés de lʼemploi et de la finance, découvre ce nouveau
thème, les business cycles, la grande affaire des quarante années suivantes.
Cʼest une période de forte innovation dans les représentations mentales, puis
techniques du mouvement économique, qui sʼincarne dans la vogue des baro-
mètres et dans la naissance des principaux instituts de conjoncture européens
et nord-américains [Armatte, 1992]. Ces baromètres qui visent à décrire les
cycles économiques deviennent des instruments « magiques » de prévision.
De cette période date la démarcation stricte entre le temps de la conjoncture,
avec ses cycles saisonniers et ses projections à très court terme (1 à 6 mois),
et le temps long des évolutions tendancielles ou des fluctuations économiques
quʼillustrent les cycles de Kuznets et de Kondratiev (40 ans). La prévision
conjoncturelle sʼappuie principalement sur des indicateurs statistiques et des
enquêtes auprès des ménages et des chefs dʼentreprises ou encore des dires
dʼexperts, et elle produit des notes de synthèse qui se vendent aussi bien aux
entrepreneurs quʼaux politiques.

Le temps des comptes annuels et de la prévision à court terme

Les méthodologies de la conjoncture ont été fortement remises en cause


après le choc de la crise des années 1930. Son intensité (chômage, lock-
out, inflation à des niveaux jamais atteints) et ses conséquences sociales et
économiques ont justifié lʼémergence de nouvelles politiques, mais aussi de
nouveaux lieux de production de connaissances où lʼon a âprement débattu
des méthodologies économiques : le groupe X-Crise en France, la Cowles
Commission aux États-Unis et lʼInternational Econometric Society en sont
trois exemples. Certaines, comme la Cowles, sortent de la guerre renforcées
par la nouvelle alliance militaro-scientifico-industrielle et le nouvel ordre
mondial dominé par les États-Unis [Armatte, 2004]. Entre 1930 et 1950, tout
un ensemble de technologies se sont développées pour penser le court terme
qui est celui de la prévision.
La première de ces technologies est celle des « budgets économiques »
qui ont accompagné les politiques néokeynésiennes des gouvernements amé-
ricains (New Deal) et européens dans leur intervention contre lʼinflation et le
chômage. Liée à la construction des comptabilités nationales qui a fourni leur
cadre [Fourquet, 1980 ; Vanoli, 2002], la méthode des budgets économiques
sʼappuie sur les comptes du passé pour établir les budgets de lʼÉtat qui vont
LES ÉCONOMISTES FACE AU LONG TERME… 65

traduire à court terme (horizon 1 à 3 ans) à la fois les évolutions tendanciel-


les et les impulsions dʼune politique volontariste dʼintervention étatique. Le
budget est une pratique administrative encadrée par la loi de finances, mais
calquée sur les pratiques des entreprises. En France, la confection du budget
a été prise en charge dès lʼaprès-guerre par le Service des études économi-
ques et financières du Trésor (SEEF) qui est éclaté en 1965 entre lʼINSEE et
la Direction de la prévision (DP). Ces deux institutions se partagent la tâche
– en gros les comptes du passé pour la première, les comptes du futur pour
la seconde – mais collaborent. Le modèle implicite aux budgets est celui de
lʼapproche keynésienne qui privilégie le rôle de la demande, et se focalise sur
les équilibres de court terme – Keynes ayant eu la boutade célèbre « à long
terme nous sommes tous morts ». La méthode dʼélaboration des comptes mise
en place par lʼINSEE et la DP part dʼabord du Tableau dʼéchanges industriels
entre branches, qui devient plus tard le Tableau des entrées-sorties (TES) en
référence aux tableaux input-output de Leontief. Ces tableaux permettent à
la fois des analyses de la structure de lʼappareil productif, des vérifications
de concordance de sources statistiques hétérogènes et des prévisions ou des
orientations politiques.
La méthode des tableaux a trouvé un relais, en partie substitutif, dans une
seconde approche, celle de lʼéconométrie. Son invention programmée comme
synthèse des approches mathématiques (déductives) et statistiques (inducti-
ves), dans les cercles concentriques fort restreints de la Cowles Commission
et de lʼInternational Econometric Society, a trouvé sa raison dʼêtre et son
débouché dans la construction de modèles macroéconométriques. Leurs
équations traduisent soit des égalités comptables de principe entre agrégats,
soit des relations de comportement que lʼanalyse économique – keynésienne
pour lʼessentiel – a mises en avant dans les années 1950.
Les comptes sʼappuient sur des découpages en branches et permettent une
approche dʼemblée très désagrégée. Les modèles économétriques fonction-
nent comme de véritables maquettes de simulation beaucoup plus maniables
que les projections des comptes. Ces simulations servent non seulement à
explorer les propriétés dynamiques du modèle pour une structure fixe et à
faire des tests de sensibilité, mais in fine elles visent à évaluer les effets de
politiques économiques ou de perturbations externes en observant des effets
de chocs structurels.

Le temps de la planification et de la projection à moyen terme

Il faut maintenant aborder une troisième forme de projection dans le futur,


née dans la même période 1930-1950, bien plus volontariste quʼune simple
prévision car il sʼagit de choisir un avenir : la planification. Le principe général
dʼune planification « à la française » est celui dʼune programmation indicative
66 LES MODÈLES DU FUTUR

et stratégique de moyen terme (4 ou 5 ans) qui se veut une troisième voie


entre libéralisme et dirigisme. Pierre Massé, commissaire au Plan entre 1959
et 1966 après une carrière dans lʼindustrie électrique, pense que le marché
est incapable de produire seul une économie équilibrée et optimale, surtout
dans une situation dʼaprès-guerre où lʼÉtat contrôle plus de 50 % des inves-
tissements1. La planification autoritaire des objectifs « à la soviétique » est
rejetée au profit dʼune économie concertée qui se traduit par des structures très
originales : le Commissariat général du Plan, qui compte seulement une à deux
centaines dʼexperts fonctionnaires (1960), est assisté du Conseil économique
et social et de commissions de modernisation tripartites (25 commissions et
3 500 personnes en 1960) et relayé par des instances régionales. Les objec-
tifs prioritaires du Plan ont fortement changé en fonction des urgences de la
conjoncture : le Ier Plan Monnet (1948-1953) était centré sur la modernisa-
tion de lʼappareil productif et lʼeffort dʼéquipement dans six domaines clés :
charbon, électricité, acier, ciment, machines agricoles, transport ; le IIe Plan
(1954-1957) sur lʼagriculture, les industries de transformation et le logement ;
le IIIe Plan (1958-1961) sur la stabilisation monétaire (nouveau franc de 1958)
et lʼinsertion dans le Marché commun ; le IVe Plan (1962-1965) sur une forte
croissance (24 %), lʼéquilibre des paiements et le contrôle de lʼinflation, etc.
Conçu dʼabord dans un contexte de pénurie, le Plan a dû sʼadapter à la crois-
sance et à la société de consommation.
La méthodologie du Plan, elle aussi, a évolué. Son histoire sʼentremêle
dʼabord avec celle de la comptabilité nationale qui lui a fourni ses premiers
cadres comme elle lʼa fait pour la prévision budgétaire. À partir du IIe Plan et
jusquʼau Ve, lʼélaboration par le Commissariat général du Plan, assisté par le
travail des commissions, repose dʼabord sur une projection de la croissance
du PIB, puis sur le choix des programmes dʼinvestissement et de transfert de
lʼÉtat, et enfin dʼun bilan sectoriel. Le TES reste lʼoutil central commun à
la prévision budgétaire et à la planification, mais on y greffe des hypothèses
dʼévolution de la population active et de la productivité. Pour le IVe Plan,
on mobilise lʼinversion du tableau dʼinput-output : partant des objectifs de
satisfaction de la demande et des élasticités de revenu, on a pu remonter aux
productions nécessaires. Le Ve Plan a produit des « esquisses » sur la base
dʼun schéma itératif combinant modèles économétriques partiels et évaluations
comptables. Le VIe Plan est le premier à mobiliser un modèle macroécono-
métrique de simulation (FiFi = physico-financier) dʼenviron 1 000 équations
et 7 secteurs. Les comptes centraux établis par FiFi ayant fourni des résultats
inquiétants en termes de croissance, chômage et déséquilibre de la balance
des paiements, ils ont été corrigés par des projections détaillées obtenues
dans les groupes de travail, puis par des arbitrages politiques, jusques et y

1. Lesourne [2004] est du même avis.


LES ÉCONOMISTES FACE AU LONG TERME… 67

compris des « discussions nocturnes entre membres des cabinets ministériels


au printemps 19712 ». Mais dès lors, les objectifs nʼétaient plus justifiés par
les grands équilibres du modèle, sauf à le faire tourner à lʼenvers, ce qui
ne sʼavérait pas possible3. On a donc utilisé le modèle pour produire des
variantes, et explorer à la fois ses propriétés formelles, des futurs possi-
bles, ou encore des politiques alternatives4. Dʼinstrument de prévision, il est
devenu instrument de simulation. Mais cette irruption du modèle et lʼabus
des variantes ont entraîné quelques biais politiques comme un renforcement
des experts et des « groupes techniques » au détriment de la concertation dans
les commissions et au Parlement, ou encore des manipulations, par exemple
de la Direction du Budget en faveur dʼun désengagement de lʼÉtat, ou dʼun
certain patronat en faveur dʼune croissante forte à la japonaise5. Il nʼest pas
si facile de sélectionner une figure de lʼavenir qui soit à la fois souhaitable
(politiquement et socialement), praticable (cʼest-à-dire réalisable) et probable
(comme prolongement du présent) comme le voulait P. Massé. Lʼexécution du
Plan est également assez problématique, le gouvernement ne disposant quand
même pas de toutes les manettes.
Au terme de ce parcours sur les trois formes classiques de la projection
dans le futur opérée en économie, on est frappé par le fait que leurs différen-
ces fondamentales dʼhorizon (quelques mois pour la conjoncture, 1 à 2 ans
pour les budgets et 4 ou 5 ans pour le Plan), mais aussi de finalité politique
(de la conjoncture quasi déterministe pour laquelle le futur se lit comme une
extrapolation du présent à la planification qui incite davantage à la fabrication
des futurs quʼà leur prévision) nʼaboutissent pas complètement à les rendre
méthodologiquement distinctes, ni même autonomes les unes des autres. On
retrouve dans chacun des exercices le même cocktail de quatre méthodes de
base – lʼextrapolation statistique tendancielle, la projection des comptes natio-

2. Bernard et Cossé [1974, p. 68]. La tension entre les approches comptables et économétriques
dans les exercices de prévision budgétaire ou de planification a été décrite par Alain Desrosières
[1999] sous la belle formule de « la commission et lʼéquation », et illustrée par des comparaisons
éclairantes entre le Plan français et le Plan néerlandais.
3. « Il faut vous confier que le modèle physico-financier ne sait pas marcher à lʼenvers […]. Si
vous remettez la chair à saucisse dans le hachoir à viande et faites tourner celui-ci à lʼenvers, il ne
vous redonnera pas les morceaux de gras et de maigre. Alors, pour faire marcher Fifi à lʼenvers, il
faut procéder par tâtonnements » [interview de R. Martin à Europe n° 1, 15 janvier 1970, cité par
Bernard et Cossé, 1974].
4. En quelques mois, fin 1969, on a exploré 9 variantes dʼincertitude, 28 variantes de sensibilité,
14 variantes de politique économique et 21 variantes de politique budgétaire et fiscale. « Nous avions
franchi la limite dʼune utilisation honnête du modèle », écrivent Bernard et Cossé, qui signalent les
vives réactions des organisations syndicales qui se disent dépossédées.
5. Pour éviter la confusion entre prévision et objectifs, on a dʼailleurs séparé assez artificiellement
le document littéraire livré aux débats parlementaires et les projections économiques pour 1975,
publiées ultérieurement.
68 LES MODÈLES DU FUTUR

naux, la modélisation structurelle et, enfin, la combinaison de dires dʼexperts


et de représentants syndicaux –, à des doses évidemment variées.

Le temps (très) long de la nouvelle histoire économique

La « longue durée » nʼappartient pas tant à lʼéconomie quʼà lʼhistoire,


et plus précisément à lʼémergence de lʼÉcole des Annales, en 1929. Dans la
foulée dʼun Simiand sʼopposant aux « trois idoles de la tribu des historiens »,
les Annales de Lucien Febvre et Marc Bloch veulent en finir avec lʼhistoire
événementielle, politique et individuelle des princes et des guerriers. À la place
de tout ce fatras, elles prônent une « nouvelle histoire » dont la méthode est
celle des sciences sociales. À côté dʼune histoire des mentalités (Halbwachs,
Lévy-Bruhl, Ariès), on va trouver une histoire des mouvements économiques
de longue durée, dont le récit est fondé sur la quantification, et que Simiand et
Labrousse illustrent par deux ouvrages sur le mouvement des prix en 1932 et
1933. « La mesure est entrée en histoire par les prix… et par la crise de 29 »,
dira lʼun de leurs disciples, Pierre Chaunu. Cʼest Braudel, patron des Annales
de la seconde génération, qui a fait de la longue durée le credo de la nouvelle
histoire. Pour François Dosse [1987], cʼest un choix stratégique qui vise à
résister à la poussée de lʼanthropologie structurelle de Lévi-Strauss et à celle
des sociologues emmenés par Gurvitch. Pour Braudel [1999], la longue durée
sʼarticule au court terme de lʼévénementiel ou du conjoncturel, et leur donne
sens. Cette pluralité des temps, combinée avec de larges espaces comme la
Méditerranée, ou les économies-mondes de Gènes, Venise ou Rotterdam, lui
permet de pratiquer une histoire globale, descriptive, structurelle et parfois
structuraliste, riche de découvertes, surtout dans le domaine de la circulation
des marchandises et des hommes.
Cette longue durée de Braudel est cependant inessentielle pour la plupart
des économistes – « rien nʼest dans la longue durée qui ne soit dʼabord dans
la courte », disait Aftalion. Bien que tentée par quelques-uns comme Alain
Minc, Jacques Attali et lʼÉcole de la régulation, la rencontre entre Braudel
et les économistes a été un rendez-vous manqué. Dʼune part, parce que le
temps long de Braudel sʼest construit contre le temps « court » des écono-
mistes – « je soutiens que toute la pensée économique est coincée par cette
restriction temporelle », écrit-il [Braudel, 1999, p. 57]. Dʼautre part, parce
que lui-même sʼest cantonné dans une exploration des modes de marché alors
que les économistes sʼintéressent davantage aux modes de production. Nous
insisterons sur un point : le temps de lʼhistorien des Annales, comme celui
des économistes « braudéliens-foucaldiens6 », se focalise sur la durée, sur les

6. Voir les Histoires du temps de J. Attali [1999] et lʼEssai d’analyse de mouvements économiques
de longue durée de S. Walery [1987].
LES ÉCONOMISTES FACE AU LONG TERME… 69

rythmes de lʼactivité et les dispositifs de contrôle qui sʼy attachent et formatent


les rapports de production et lʼencadrement des travailleurs tout au long de
lʼhistoire du marché. Cʼest un temps immuable, comme la structure quʼil porte.
Dʼoù son fatalisme, plusieurs fois souligné7. La flèche du temps conduit à un
futur inéluctable, et pas à un avenir choisi parmi des possibles. Ce nʼest pas
le temps de lʼhomme dʼaction – ingénieur, entrepreneur, politique – qui doit
se projeter dans un avenir de moyen ou long terme. Contrairement aux philo-
sophes qui, de Gaston Berger à Paul Ricœur, ont lié réflexion sur le temps et
décision collective, les historiens nʼont pas cultivé la dimension praxéologique.
Pour ces deux raisons, la longue durée nʼest pas le long terme.

LE TEMPS LONG DE LA PROSPECTIVE

La démarche prospective

Lʼorigine de la prospective se perd dans un passé lointain [Cazes, 1986].


Elle a bénéficié des réflexions lumineuses de Condorcet sur le progrès. Mais
sa pratique dans les sociétés modernes date de lʼimmédiat après-guerre, dans
les think tanks américains associés à la réflexion stratégique, comme la Rand
Corporation fondée en 1948 sur les restes dʼun groupe de travail de la Douglas
Aircraft Company. On y travaille aussi bien sur la prévision technologique de
long terme (les armes) que sur la stratégie et les possibilités de conflit. Hermann
Kahn, qui travaille à la Rand dans les années 1960 sur des scénarios de guerre
nucléaire, fondera ensuite le Hudson Institute. Dans cette même période où
recherches militaires, industrielles et universitaires sont associées, se crée un
autre centre de recherche situé à lʼintersection des domaines de la science,
de lʼingénierie, de la gestion et de la politique, le Stanford Research Institute
(SRI) qui rassemble plusieurs milliers dʼexperts à temps plein. Un troisième
lieu, beaucoup plus modeste (20 chercheurs), est lʼInstitute for the Future, créé
en 1968 par R. Amara, qui abrite les activités de Theodore Gordon, parfois
désigné comme lʼinventeur de la méthode des scénarios.
Le deuxième moment fort de la prospective fait suite à la publication du
fameux rapport du Club de Rome [Meadows et alii, 1972]. Lʼélectrochoc
quʼil provoque chez les experts de la croissance est tout autant ravageur que
le premier choc pétrolier qui lʼaccompagne. Une dizaine dʼinstituts de pros-
pective voient le jour dans les dix années qui suivent8.

7. « Le cycle de Kondratiev, on le supporte comme on supporte la rotation de la terre », écrit-il


en 1984 [Braudel, 1999, p. 131].
8. Ce sont soit des organismes officiels gouvernementaux comme le Secrétariat (devenu
Institut) suèdois aux études sur le futur créé par Olaf Palme (1972), lʼInstitut de prospective et de
planification (WRR) hollandais, ou lʼIFTF (Institute for the Technologies of the Future) du Japon ;
70 LES MODÈLES DU FUTUR

Le troisième moment fort des études prospectives coïncide avec lʼémer-


gence des questions dʼenvironnement et surtout du changement climatique
sur la scène internationale. LʼInternational Institute for Applied Systems
Analysis (IIASA), fondé à Vienne en 1982 pour permettre aux communau-
tés scientifiques des blocs de lʼOuest et de lʼEst de collaborer, et le rapport
Bruntland (Our Common Future) ont joué un rôle analogue au Club de Rome
et son rapport pour relancer les études. LʼIIASA assure une transition entre les
approches du Club de Rome et une exploration des méthodes systémiques, et
des modélisations associées au paradigme de lʼévaluation intégrée.
En France, la prospective sʼest construite autour de deux personnalités :
Gaston Berger fonde le premier centre de prospective en 1957, qui fusionne
un peu plus tard avec lʼassociation Futuribles créée en 1960 par Bertrand
de Jouvenel. « Lʼattitude prospective » quʼils proposent dʼadopter repose
pour lʼessentiel sur un petit nombre de caractéristiques que lʼon peut ainsi
résumer9 :
— la globalité : on étudie de larges systèmes pour lesquels tous les aspects
doivent être pris en compte dans une démarche interdisciplinaire ;
— la vision à long terme, nécessaire même pour une conduite immédiate :
« Notre civilisation est comparable à une voiture qui roule de plus en plus
vite sur une route inconnue lorsque la nuit est tombée. Il faut que ses phares
portent de plus en plus loin si lʼon veut éviter la catastrophe » ;
— la prédominance dʼune analyse qualitative ; lʼexpertise doit lʼemporter
sur le calcul : « Il faut que des hommes se rencontrent et non que des chiffres
sʼadditionnent » ; dʼailleurs « la prospective ne cherche pas à prédire » ; pré-
vision et prospective doivent néanmoins sʼassocier, car lʼavenir sera le résultat
en partie de ce qui est et en partie de ce que nous voulons quʼil advienne ;
— la prétention à la rationalité : la prospective nʼest pas la divination,
« elle sʼappuie à la fois sur un précédent, sur une analogie et sur une extrapo-
lation » ; « la prospective est attentive aux causes » ; néanmoins, elle est plus
un art quʼune science car elle intègre une imagination, une prise de risque ;
— le caractère volontariste de la projection dans le futur : « cʼest un regard
et cʼest un projet » ; « lʼavenir nʼest ni un mystère absolu, ni une fatalité
inexorable ».
On retrouve ces caractérisations de la prospective énoncées – avec beau-
coup de panache – chez de nombreux auteurs de lʼécole française, comme
Pierre Massé, Jérôme Monod, Thierry Gaudin, Jacques Lesourne ou Michel
Godet, pour ne prendre que des responsables venus de cinq horizons différents

soit des organismes alternatifs comme le Congressional Clearinghouse for the Future aux États-Unis,
la fondation Bariloche en Argentine, ou le GAMMA (Groupe associé Montréal, McGill pour lʼétude
de lʼavenir) à lʼuniversité de Montréal. Voir les contributions dʼÉlodie Vieille Blanchard et de Pierre
Matarasso dans cet ouvrage.
9. Citations extraites de Berger [1964].
LES ÉCONOMISTES FACE AU LONG TERME… 71

(le Plan, la DATAR – Délégation à lʼaménagement du territoire et à lʼaction


régionale –, les ministères de lʼIndustrie et de la Recherche, la SEMA – la
Société dʼéconomie et de mathématiques appliquées –, le CNAM) et ayant
fortement pratiqué et commenté la méthode.

Les lieux français de la prospective

Le Plan est le premier cadre important du développement des recherches


prospectives. Les premiers commissaires avaient été sensibles aux visées
de long terme et à lʼidentification de tendances lourdes, en particulier Jean
Fourastié, lʼinventeur des Trente Glorieuses et du « boom du secteur ter-
tiaire ». Pierre Massé, commissaire au Plan entre 1959 et 1966, a défendu la
prospective comme une méthode complémentaire de la prévision budgétaire
ou macroéconométrique [Massé, 1965]. Dès 1961, il fonde des centres de
recherche sʼy consacrant, et qui existent toujours (le CEPREMAP – le Centre
pour la recherche économique et ses applications – et le CEPII – le Centre
dʼétudes prospectives et dʼinformations internationales). Cette nébuleuse du
Plan a contribué aux premières études de prospective, dont la plus célèbre,
en 1965, est Réflexions pour 198510. La France, qui sortait alors de lʼépoque
coloniale (fin de la guerre dʼAlgérie), de lʼisolement international (traité
franco-allemand, relance de lʼEurope) et de la crise monétaire (nouveau
franc de 1958), avait besoin « dʼextraire du champ des possibles quelques
lignes de lʼavenir, intelligibles pour lʼesprit et utiles pour lʼaction », ce qui
nécessitait de sortir du domaine des simples prévisions. La méthode semble
sʼêtre réduite à une interprétation des tendances quantitatives de long terme.
Le rapport prévoyait une forte croissance (triplement du PNB) permettant
une amélioration des conditions de vie, des transports, de la communication,
des loisirs, de la formation…, mais aussi quelques conséquences néfastes
(conflits, gaspillages, embouteillages…). Un reproche fait encore aujourdʼhui
à cet exercice est de sʼen être tenu à un scénario dʼévolution tendancielle et
de nʼavoir pas suffisamment incorporé de points de vue hétérodoxes, voire
utopiques [Commissariat général du Plan, 2004].
La prospective sʼest développée dans les administrations centrales. Tous
les ministères ou presque se sont dotés dʼune cellule de prospective. Les plus
importantes sont celles du ministère de lʼIndustrie (lʼOSI, lʼObservatoire des
stratégies industrielles) et du ministère de la Recherche (le CPE, le Centre de
prospective et dʼévaluation) dans lesquelles Thierry Gaudin a œuvré successi-

10. Le groupe comprenait une équipe permanente – Pierre Guillaumat (président), Mme J. Krier,
J. Bernard, E. Claudius-Petit, M. Demonque, L. Estrangin, J. Fourastié, Cl. Gruson, B. de Jouvenel,
Ph. Lamour et G. Levard –, mais sʼest adjoint les collaborations de P. Delouvrier, Cl. Lévi-Strauss,
J. Delors et R. Aron.
72 LES MODÈLES DU FUTUR

vement au développement de la prospective technologique11. Mais la DATAR,


créée en 1963 sous lʼimpulsion de Jérome Monod, est le cadre majeur des tra-
vaux de prospective des années 1960-1970, via le SESAME (Système dʼétudes
du schéma dʼaménagement de la France). Cette structure créée en 1968, que
Hatem [1993] présente comme un « improbable mariage du marxisme et de
lʼadministration française, de la rue dʼUlm et du Hudson Institute », compre-
nait en fait quatre groupes de travail, centrés respectivement sur les scénarios
dʼaménagement, sur les analyses de systèmes, sur les prévisions technologiques
et sur la modélisation, et un laboratoire – lʼOTAM (lʼOmnium technique dʼamé-
nagement) – mandaté pour construire des scénarios. Si, dans le cadre du Plan, il
y avait continuité entre méthodes de la prévision et méthodes de la prospective,
il y avait à la DATAR une volonté de rupture « épistémologique » manifeste.
Le SESAME a importé en France les méthodes de la futurologie américaine,
qui vont de la simple liste des bonnes pratiques à la confection de scénarios et
au croisement dʼexpertises. Le morceau de bravoure de ce groupe est resté la
publication en 1971 des Scénarios de l’inacceptable. Ce titre en dit assez sur
le rôle que vont jouer les scénarios dans la méthodologie de la DATAR.
La prospective, enfin, est la grande affaire des entreprises qui en usent
pour leurs projections stratégiques. Ce qui fait dʼailleurs que les ouvrages de
prospective de nos bibliothèques se rangent plus volontiers dans les sections
de gestion quʼen économie. Lʼexemple célèbre reste la compagnie Shell dans
laquelle Pierre Wack – qui se réclamait autant de Kahn que de Braudel – a
développé la planification par scénario et imposé, dès 1969, que son système
de modèles mathématiques soit remplacé par des exercices de prospective à
15 ans. Mais si lʼon revient en France, ce sont des entreprises nationalisées
comme EDF, SNCF et ELF qui, après avoir utilisé les modèles économétri-
ques, se sont tournées délibérément vers lʼutilisation de scénarios contrastés,
surtout après le choc pétrolier.
La démarche prospective a trouvé un relais académique, principalement
au CNAM, autour de la chaire de prospective industrielle (1982) et du labo-
ratoire LIPSOR12 aujourdʼhui dirigé par Michel Godet, qui sʼest fait une
réputation dans la mise au point dʼun ensemble dʼoutils opérationnels pour
charpenter la méthodologie, assez lâche parfois, des expertises et des scéna-
rios. Le laboratoire diffuse largement les logiciels correspondants, et forme
à leur méthodologie pour éviter le risque assumé « de fournir un marteau à
des gens qui nʼont pas de clou à enfoncer ». Mais, dans la France des années
1960, la haute administration, les capitaines dʼindustries et le monde acadé-
mique ne sont pas des mondes séparés, comme le trajet de Jacques Lesourne

11. Voir sa prospective mondiale à 2100 [Gaudin, 1993].


12. Laboratoire dʼinvestigation en prospective, stratégie et organisation. Ce laboratoire gère le
projet de recherche « Mémoire de la prospective » qui offre un accès à la littérature marquante de
la discipline.
LES ÉCONOMISTES FACE AU LONG TERME… 73

(X-Mines) lʼillustre bien, de la SEMA – quʼil fonde en 1958 et qui travaille


pour le Plan et la DATAR aussi bien que pour les grands industriels –, au
CNAM où il obtient la chaire dʼéconomie industrielle en 1974 et introduit
Michel Godet. « Cʼest bien les milieux dʼingénieurs qui, étant dans le calcul
économique et la prévision, vont intégrer la prospective de manière natu-
relle », confirme Lesourne [2004] ; le fait que la prospective soit née au Plan
et à la DATAR est « une conséquence du fait que la France a été gérée par
son Administration ».
Lesourne quitte la SEMA en 1976 pour prendre, pendant trois ans, la direc-
tion dʼune étude prospective à lʼOCDE baptisée « Interfuturs » sur laquelle
nous allons nous arrêter. Ce projet est une initiative qui vise à « savoir sʼil sera
possible dʼassurer à lʼavenir la prospérité et un développement économique et
social équilibré, en harmonie avec celui des pays en développement ». Il est
initialisé par la problématique des limites de la croissance du Club de Rome,
dont les économistes rejettent les méthodes et les prémisses (principalement
parce quʼil nʼy a ni prix ni substitution de technologies) mais auquel ils
reconnaissent un rôle dʼalerte important. Il se situe à lʼintersection de deux
problématiques fortes, le développement durable et les rapports Nord-Sud.
Présidé par un Japonais mais piloté par un Français, ce projet intergouverne-
mental est également sensible à la coexistence avec les sociétés socialistes
et aux « interdépendances à lʼéchelle mondiale » (on ne disait pas encore
« mondialisation »), privilégiant une lecture principalement économique mais
ouverte sur le politique et le social. La méthodologie affirmée se réclamait de
la prospective globale à long terme (20-25 ans) : il fallait imaginer différents
futurs et séparer « les évolutions dont la dynamique est invariante et prévi-
sible de celles qui peuvent être altérées par des acteurs », dʼoù la méthode
des scénarios qui a été privilégiée. Quant aux conclusions dʼInterfuturs, elles
étaient données sous trois formes : des perspectives qualitatives, des alertes
et des recommandations, beaucoup moins alarmistes que celles du Club de
Rome, et parfois même diamétralement opposées : « les problèmes soulevés
[par le Club de Rome] nʼempêcheront pas la croissance économique ».

Les méthodes de la démarche prospective

Pour les raisonnements de long terme, la méthodologie préférée des éco-


nomistes consiste principalement en un recours aux modèles théoriques de
croissance comme le modèle de Solow (1956), qui a inspiré le modèle DICE
(Dynamic Integrated Model of Climate and Economy) de Nordhaus, ou encore
les nouveaux modèles dits « à croissance endogène » qui intègrent explici-
tement un secteur « recherche et développement », et font dériver le progrès
technique du comportement des agents économiques. Cependant, « si lʼimage
du progrès technique quʼoffrent les historiens a nourri nombre de modèles de
74 LES MODÈLES DU FUTUR

croissance endogène, il est vrai que les économistes lʼont souvent réduite à
lʼétat de squelette » [Guellec et Ralle, 1996, p. 86]. Ces modèles ont souvent
achoppé sur la représentation du progrès technologique et de lʼinnovation, mais
aussi sur celle des arbitrages intertemporels. Le choix dʼun taux dʼactualisation,
fait pour les choix dʼinvestissement, a conduit à des aberrations dʼarbitrage
coût-efficacité sur le plus long terme13 (50 ou 100 ans). La modification du
contexte socio-économique sur ce long terme a invalidé la modélisation macro-
économique dans la forme dominante, à savoir lʼéconométrie structurelle.
Lʼimportance des boucles de rétroaction a réduit également les prétentions
de la généralisation des modèles linéaires. Un petit nombre dʼéconomistes,
soucieux de coller à la diversité des filières de production industrielles ou
énergétiques, ont préféré sʼappuyer sur les deux traditions similaires mais
concurrentes des modèles input-output de Leontief ou des modèles dʼanalyse
dʼactivité de Koopmans, dont un lointain rejeton est le modèle de projection
énergétique MARKAL14 (Market Allocation Model).
La démarche prospective représente une autre alternative, mais ses carac-
téristiques principales – le long terme, la projection volontariste et la pluralité
des futurs – donnent à la discipline une originalité, voire une odeur de soufre,
qui en éloigne a priori les économistes, effrayés par son éclectisme. Compte
tenu cependant des limites des autres méthodes, la prospective économique
et sociale a trouvé sa place en affirmant sa spécificité.
Toute étude prospective commence par la construction dʼune base, cʼest-
à-dire lʼélaboration du système de représentation qui sʼappuie sur un recueil
de données qualitatives et statistiques auprès des experts. Dans cette étape, il
faut donc identifier les acteurs collectifs ou individuels, leurs objectifs et leurs
contraintes, ainsi que le jeu dʼéléments et de leurs relations présumées qui défi-
nit la structure du problème. Plutôt que de se saisir des modèles formalisés de
lʼéconomie quʼils jugent trop fermés, les prospectivistes préfèrent se référer à
lʼanalyse des systèmes. Forrester et sa dynamique des systèmes à base de liens
entre flux et stocks et de boucles de rétroaction telle quʼelle sʼest incarnée dans
le modèle World 3 du Club de Rome est une première forme de cette analyse.
Les prospectivistes français se référent aussi à Yves Barel [1971] qui a théorisé,
pour la DATAR, cette filiation avec la systémique, dans une double approche
cognitive et décisionnelle15, ou encore au groupe des chercheurs québécois de
lʼINRS (Institut national de la recherche scientifique) auteurs dʼun gros mémo-
randum sur la méthode des scénarios [Julien, Lamonde et Latouche, 1975].

13. Voir le chapitre rédigé par Christian Azar dans le présent ouvrage.
14. Voir ici même le chapitre rédigé par Pierre Matarasso.
15. « La prospective pose globalement trois problèmes théoriques et méthodologiques majeurs :
celui du passage de la partie au tout, celui de la nature de la réalité constituant lʼobjet dʼétude et
celui du traitement scientifique de la décision et de la normativité. Sur ces trois points, lʼapproche
systémique semble pouvoir faire des apports à la prospective » [Barel, 1971].
LES ÉCONOMISTES FACE AU LONG TERME… 75

La deuxième étape est celle de lʼélaboration des scénarios. Définis parfois


comme des « actes dʼimagination raisonnée » ou des « moyens de coordination
et sélection des futurs possibles », ils sont les moyens par lesquels on peut
tenir une ligne de crête entre les deux pièges de lʼextrapolation mécanique et
de lʼimagination débridée. On part le plus souvent dʼune « liste de questions
jugées cruciales » dont chacune a bien sûr plusieurs réponses. Un scénario est
alors une combinaison de réponses. Mais le nombre accablant de scénarios que
lʼon peut ainsi produire doit être réduit drastiquement, soit par des exclusions
logiques, soit par des recours à des experts… dont, hélas, les conclusions
divergent aussi. Dʼoù lʼusage de techniques conçues pour harmoniser ou faire
converger ces expertises. Le résultat est un petit nombre de scénarios dont la
diversité doit rendre compte de devenirs « contrastés ». On peut exagérer ce
caractère en construisant des scénarios catastrophes limites peu vraisemblables
dont le seul but est de choquer ou de réveiller les consciences, ou bien au
contraire céder à la tentation de choisir les scénarios les plus « probables »,
voire le seul scénario de référence qui correspondrait à la non-intervention
des acteurs sur le cours des choses.
Une fois choisi un scénario, la troisième étape consiste à caractériser les
évolutions du système correspondant à ces valeurs cʼest-à-dire à dérouler le
cheminement du scénario. Pour cela, le plus souvent, on utilise un modèle.
Et lʼon peut privilégier soit le forecasting dans une démarche de prospective
exploratoire qui part du présent, soit le backcasting dans une démarche plus
volontaire et utopiste qui privilégie le point dʼarrivée souhaité. Les étapes du
cheminement ne sont pas forcément décrites.
La quatrième et dernière étape consiste à réinjecter les résultats de lʼana-
lyse des institutions et des acteurs pour élaborer des stratégies possibles et
souhaitables pour lʼorganisation qui a commandité lʼétude et lui proposer un
plan dʼaction.
Les variantes à cet exposé succinct inspiré de Lesourne [1990] et de Hatem
[1993] sont peu nombreuses. En fait, la démarche sʼest codifiée et uniformisée
depuis les années 1960. Et le fait de fournir des outils standard informatisés
pour traiter certaines phases de la procédure nʼa fait que renforcer ce trait.

RETOUR SUR LA MÉTHODE DES SCÉNARIOS

On lʼaura compris : la méthode des scénarios est au centre de la démar-


che prospective. Nous allons donc y revenir plus en détail en nous appuyant
sur quatre exemples : les Scénarios de l’inacceptable de la DATAR [1971],
Interfuturs [France, 1979], Scanning the Future [OCDE, 1992], et les scénarios
SRES du GIEC [2000], ce qui nous offrira à la fois une comparaison spatiale
et une variation temporelle.
76 LES MODÈLES DU FUTUR

Scénario exploratoire ou d’anticipation :


scénario de l’inacceptable (DATAR)

La méthode des scénarios a fait lʼobjet de nombreux commentaires à


lʼintérieur et à lʼextérieur de la communauté des prospectivistes. Suivons le
premier exemple des scénarios de l’inacceptable dont lʼhistoire est instructive.
Les chercheurs du SESAME ont dʼabord choisi délibérément une perspective
normative et cherché à construire des scénarios contrastés, cʼest-à-dire des
scénarios dʼanticipation partant chacun dʼune image terminale constituée
dʼun ensemble dʼobjectifs (modèle synoptique). Respectivement baptisés « la
France de cent millions dʼhabitants », « lʼagriculture sans terre » et « la France
côtière », les trois scénarios contrastés constituaient une sorte dʼenveloppe
du cône des futurs possibles. Mais ce faisant, en lʼabsence dʼune prospective
sociologique minimale, les auteurs ont eu de grandes difficultés à choisir les
configurations de besoins, de goûts et de valeurs qui caractériseraient une
société française possible et souhaitable à terme. Ils se sont alors repliés sur une
démarche, beaucoup plus classique en planification : la construction dʼun scé-
nario à partir des tendances actuelles inscrites dans la « base ». Sans être tout
à fait un scénario du laisser-faire, lʼextrapolation supposait « la conservation
du système politico-économique tel quʼil existe », et une intervention limitée
à des corrections de trajectoire sans mesures politiques nouvelles. Ce scénario
tendanciel tirait cependant son qualificatif dʼ« inacceptable » du fait que, loin
dʼêtre privilégié, il servait plutôt de repoussoir à une politique du laisser-faire
menée jusquʼà lʼabsurde. Il obligeait « à sʼinterroger sur ce quʼil fallait faire
pour que la France de lʼan 2000 soit différente de celle décrite ».
Concrètement, la base du « scénario de lʼinacceptable » qui décrit le présent
du système était constituée par une décomposition en quatre sous-systèmes
– population, économie, société, espace aménagé – et quatre niveaux – natio-
nal, régional, urbain, rural – qui en fournissait les éléments. Sur cette structure
étaient identifiés les tendances et les germes de mutation. La cohérence du
scénario SESAME était assurée par une double approche diachronique et
synchronique, la première empruntant lʼessentiel de ses concepts à lʼanalyse
systémique, la seconde, fondée sur les trois concepts de force, mode et rap-
port de production, donnant la dynamique interne de la société industrielle.
Lʼéconomie, réduite elle-même à sa sphère productive, est donc identifiée
comme le moteur principal du changement. Mais son analyse ne se réduit
pas à un jeu de relations quantitatives entre les agrégats macroéconomiques.
Lʼapproche du SESAME a privilégié la mise au jour, dans la société française
à chaque étape de la projection, de contradictions et de tensions entre certains
couples de forces comme formation et emploi, localisation et activité, temps
de travail et temps de loisir, pour lesquels on pouvait chaque fois définir une
politique volontariste.
LES ÉCONOMISTES FACE AU LONG TERME… 77

Si lʼanalyse structurelle, synchronique, est délicate, lʼanalyse historique


lʼest encore plus car elle est soumise aux nombreux pièges de la philosophie
de lʼhistoire, dont le matérialisme historique a fourni bien des exemples, Marx
étant sans doute le plus doué des scénaristes. Mais on pourrait tout aussi bien
stigmatiser Hermann Kahn, très inspiré par les philosophies de lʼhistoire de
Spengler et Sorokin, dont les analogies historiques se sont transformées en
stéréotypes ou propositions purement idéologiques (plutôt libérales cette fois)
pour dessiner des avenirs « tout tracés ».

Méthodes de construction des scénarios : l’étude « Interfuturs »

Généralement, ce que les Canadiens appellent « le design » des systèmes


complexes, cʼest-à-dire lʼinvention des éléments du système et de leur com-
binaison, reste un acte majeur de la construction de scénarios dʼanticipation.
Des méthodes maintenant classiques ont été inventées dans les années 1960 et
testées dans les années 1970 pour mettre en œuvre ce design des systèmes.
Dans lʼétude « Interfuturs », lʼéventail des scénarios prospectifs a été produit
de manière systématique par exploration dʼun petit nombre de dimensions
jugées pertinentes à lʼéchelle mondiale, et sensibles quant aux changements
attendus. Et cʼest par croisement des quelques hypothèses retenues pour chaque
dimension que lʼon génère les scénarios. En lʼoccurrence, quatre dimensions
problématiques de lʼéconomie mondiale ont été retenues (colonne de gauche)
pour lesquelles les réponses possibles (à droite) ont généré les scénarios
suivants : A = forte croissance, B1 = nouvelle croissance, B2 = croissance
modérée convergente, B3 = croissance modérée divergente, C = rupture Nord-
Sud, D = protectionnisme.

TABLEAU 1. – CONSTRUCTION DES « SCÉNARIOS DU FUTUR »

Relations entre pays développés Interdépendance Fragmentation


Changements
Consensus Conflits sociaux
Dynamique interne de valeurs
Croissance Croissance modérée
des pays développés Croissance
forte
faible
Évolution des productivités relatives Convergence Divergence

Forts échanges
A B1 B2 B3
Nord-Sud
Relations entre
Divisions
pays en C
Nord-Sud
développement
Fragmentation
D
Sud

Source : Lesourne [1990].


78 LES MODÈLES DU FUTUR

Fort heureusement, cette logique combinatoire nʼest pas seule en jeu car le
rapport Interfuturs développe une analyse qualitative et des récits en forme de
storylines qui enrichissent considérablement cette typologie. Mais, dans dʼautres
cas, on nʼa pas échappé à des systématisations de cette méthode de construction
de scénarios. Pour réduire les divergences des experts sur un problème donné, la
méthode Delphi, développée à la Rand à la fin des années 1950 par Olaf Helmer
et Norman Dalkey, recense dʼabord les réponses indépendantes des experts et
dégage une médiane. Les faisant ensuite discuter sur leurs divergences autour de
cette médiane, on les amène par itération à resserrer fortement leurs estimations.
Si la méthode a eu quelques succès dans des exercices de prospective techno-
logique, sur des questions quantitatives (dates, volumes, prix), elle est bien peu
adaptée aux questions dʼévolution des sociétés à lʼéchelle mondiale.
Une seconde voie pour sélectionner des scénarios possibles et cohérents
consiste à explorer la combinatoire des événements possibles. Mais les appro-
ches combinatoires ne conviennent guère que pour des microscénarios, relatifs
à des sous-sytèmes pour lesquels le nombre dʼéléments est suffisamment petit
pour éviter une combinatoire explosive. Et il faut ensuite agréger ces micro-
scénarios en un scénario global. Lʼanalyse morphologique, dont les scénarios
dʼInterfuturs forment un cas typique, permet cette décomposition dʼun système
en sous-systèmes et en composantes. Il est possible dʼappuyer cette analyse
morphologique sur une quantification des événements par des variables prenant
chacune en compte plusieurs modalités possibles : un scénario est alors une
configuration (un vecteur) de modalités remarquables et compatibles. Dans
cet espace des scénarios possibles, on peut définir des distances, des voisi-
nages… [Ayres 1969], et même des probabilités. À la fin des années 1960,
à lʼInstitute for the Future, T. Gordon a développé la méthode des « impacts
croisés » sous la forme de matrices de co-occurrence dʼévénements assorties
de leurs probabilités de réalisation et dʼinteraction, chiffrées par une simulation
de Monte-Carlo, et cette table permet de tester la sensibilité des événements
futurs aux politiques. En France Michel Godet a développé sur cette base la
méthode SMIC et lʼa implantée dans un logiciel « Prob-Expert » permettant
de classer des scénarios par probabilité décroissante [Godet, 1985 ; Lesourne,
1990]. Mais beaucoup de prospectivistes rejettent ces probabilisations.

Les valeurs au fondement des scénarios

Pierre Massé [1965], ingénieur dʼÉtat attaché aux éthiques chrétienne et


républicaine, donnait déjà une place importante à la notion de valeur dans son
essai sur le Plan. « Le progrès dʼune civilisation est avant tout lʼenrichissement
de ses valeurs […]. Dans un exercice de planification, on tend vers des fins et on
affirme des valeurs. Les unes ouvrent des voies, les autres proposent des limites
[…] Nous devons savoir ce que nous voulons préserver coûte que coûte. Les
LES ÉCONOMISTES FACE AU LONG TERME… 79

valeurs ne peuvent être quʼabsolues. » Dans une tradition voisine, J. Lesourne


ne se contente pas, dans Interfuturs, de placer les phénomènes sociaux et
politiques sur le même plan que les mécanismes économiques, il affirme que
le choix des valeurs est un fondement du design des scénarios. « Il ne peut
être question de postuler une quelconque constance des valeurs, car celles-ci
se transformeront plus ou moins rapidement, avec plus ou moins de conflit, en
liaison avec lʼévolution et la composition des groupes sociaux significatifs »
[OCDE, 1979, p. 5]. Les scénarios dʼInterfuturs reposent donc sur le choix
simultané dʼune hypothèse de croissance et dʼune hypothèse dʼévolution des
valeurs. Les valeurs jouent le rôle dʼintermédiaire entre lʼexpérience acquise
dans le passé et les choix à faire dans le présent. Elles induisent des demandes
et des comportements. Les changements de valeurs peuvent se produire en
surface et orienter la demande de biens et services ou en profondeur et altérer
des priorités (« par exemple entre sécurité et pouvoir »), voire des conceptions
fondamentales de lʼexistence (religion, art, rapport à la nature, à lʼautorité…).
Lʼéquipe dʼInterfuturs a mobilisé des résultats dʼenquêtes sociologiques pour
prendre en compte ces changements de valeurs, et en particulier les attentes
« post-matérialistes » qui diffusent dans les sociétés depuis 1968 mais qui sont
en partie rejetées par « le centre majoritaire », ce qui conduit à des risques de
fragmentation du consensus traduits dans les scénarios B2 et B3. Le rapport
imagine, même dans le cas du scénario A de forte croissance, un freinage
possible de la croissance provoqué par des facteurs sociaux et politiques. « La
transformation des valeurs ne met pas seulement en cause la légitimité de la
croissance, elle renforce les freins de sa réalisation » [OCDE, 1979, p. 139].
Dans les scénarios exploratoires – et ceux dʼInterfuturs sont encore de ce
type – il est possible dʼimaginer des évolutions de valeurs, mais plus difficile
dʼenvisager des ruptures. Il y a donc un risque important de conservatisme
dans la projection. Les scénarios de Kahn en sont un exemple flagrant pour les
Canadiens. Dans les scénarios dʼanticipation, cʼest encore plus difficile dʼima-
giner les systèmes de valeurs dominants et dominés des sociétés prises comme
cibles. « Il faut se contenter de déterminer une configuration de valeurs qui soit
cohérente avec le type de société quʼon veut construire », disent les chercheurs
de lʼINRS. Le scénario traduira alors les comportements associés à cette confi-
guration, mais il servira aussi dʼinstrument de simulation et dʼexpérimentation
des valeurs. Car celles-ci fondent le modèle de décision qui accompagne un
plan dʼaction. Elles déterminent des fins, des objectifs, des résultats et des
conséquences. Mais ces résultats rétroagissent à leur tour sur les valeurs.

Scénario et modèle : Worldscan et Scanning the Future (CPB)

Lʼalternative entre utilisation de modèles et utilisation de scénarios est


un poncif du débat sur la méthode prospective. Les Canadiens de lʼINRS,
80 LES MODÈLES DU FUTUR

soulignent que « le modèle nʼa pas connu une grande faveur en prospective »
parce que, disent-ils, « en lʼabsence de base théorique valable pour choisir
le sous-ensemble de propriétés structurelles du système […] le modèle est
inefficace et source dʼerreur ». Plus encore, le modèle mathématique est beau-
coup trop lié à un usage de prévision rigide avec lequel il faut rompre, et il
ne permet pas dʼintégrer les dimensions stratégiques et volontaires (valeurs,
jeux dʼacteurs, objectifs) dʼune vision prospective. Des auteurs, reprenant une
opposition classique entre approche « humaniste » et méthode scientifique,
considèrent que la méthode des scénarios est un bon compromis entre le
modèle et lʼimage, ou encore, comme on le dit aujourdʼhui, entre le modèle
et le récit [Grenier, Grignon et Menger, 2001]. Cette opposition sʼest muée
en une complémentarité dès lors quʼon sʼest convaincu que la modélisation
macroéconomique se révélait incontournable dans la phase de déroulement
des scénarios. Nous avons vu que le VIe Plan (1971-1976) a pour la première
fois utilisé un modèle, Fifi, qui avait posé quelques problèmes. En 1979,
Michel Albert, nouveau commissaire en charge du VIIIe Plan, est encore
interpellé par les conclusions des simulations du modèle macroéconomique
dynamique multisectoriel (DMS) qui conduisent toutes à une forte aggrava-
tion du chômage dʼici 1985. Il décide dʼengager une étude complémentaire à
base de scénarios pour illustrer le cheminement du marché de lʼemploi et des
politiques à suivre en la matière. Le rôle du modèle est alors dʼexplorer des
variantes analytiques du scénario de référence (on en a exploré plus de 90)
en jouant sur une seule variable de commande à la fois (taux des cotisations
sociales, barème de lʼimpôt, investissement des administrations publiques…).
Les scénarios apparaissent alors comme des combinaisons de variantes. Ici
lʼinterpénétration des deux méthodes est forte puisque les variantes du scénario
de référence forment la matrice des scénarios contrastés.
En 1979, lʼéquipe de J. Lesourne a utilisé SARUM (System Analysis
Research Unit Model), un modèle néoclassique mondial à 10 secteurs et
12 régions, élaboré au Royaume-Uni par le département de lʼEnvironnement,
mais uniquement dans la seconde phase, cʼest-à-dire pour réaliser des projec-
tions macroéconomiques quantitatives, à lʼintérieur de scénarios prédéterminés
par une analyse qualitative, et fournir pour chacun dʼeux des images finales
et des cheminements macroéconomiques plus précis.
Lʼexpérience plus récente du Central Planning Bureau (CPB) va nous
permettre dʼexplorer une autre articulation possible entre modèle et scénarios.
Scanning the Future [CPB, 1992] est une étude prospective à horizon 2015
(25 ans) de lʼéconomie mondiale qui a pour objectifs de stimuler le débat
public et de fournir les éléments dʼétudes sectorielles ou régionales. Lʼétude
sʼannonce comme une tentative de combiner lʼapproche orientée modèle avec
la méthode des scénarios. Curieusement, la publication de cette étude ne fait
LES ÉCONOMISTES FACE AU LONG TERME… 81

aucune référence à lʼutilisation dʼun modèle. Mais le site du CPB16 donne


accès cependant à lʼinformation complète sur Worldscan, le modèle développé
pour cette étude. Cʼest un modèle dʼéquilibre général dynamique prévu pour
construire des scénarios de long terme et produire des analyses politiques.
Dans sa version de base, il permet dʼanalyser des changements structurels sur
plusieurs décades, selon un découpage en 12 régions et 7 secteurs17. Timmer
[1998], un de ses auteurs, reconnaît que lʼutilisation dʼun modèle pour la
confection de scénarios offre quelques inconvénients comme une certaine
rigidité et une tendance à lʼextrapolation abusive que renforce son calibrage
sur une base de données commune à tous les modèles de ce type18. Mais on
peut compenser ces inconvénients en rajoutant des caractéristiques externes
aux scénarios, ou en les multipliant sur la base de différents paramètres. Dès
lors lʼapproche par les modèles donne les moyens de construire des scénarios
consistants dʼun point de vue comptable et théorique.
Scanning the Future sʼétait posé trois questions principales qui sont les
suivantes : quelles sont 1° les driving forces qui mènent le monde, 2° la
situation géopolitique présente des différentes régions, 3° les tendances de
long terme ? Pour y répondre, lʼéquipe du CPB a construit quatre scénarios
sur la base de « perspectives ». Ces perspectives sont des représentations
de lʼéconomie mondiale selon trois configurations de facteurs – les driving
forces, ou encore trois principes organisateurs, qui correspondent en gros à
trois écoles de la pensée économique :
— « équilibre » (E) est une économie dʼhommes rationnels, basée sur
un mécanisme de prix qui fonctionne ; lʼÉtat nʼa pas dʼautre fonction que
régalienne ; cʼest le credo néoclassique, le règne de la raison ;
— « coordination » (C) est une économie dʼhommes coopératifs qui
ont une information imparfaite et un avenir incertain ; cette économie est
fortement régulée par un État-providence qui intervient sur le marché du
travail, lʼéducation et la recherche, et qui coopère avec le patronat et les
salariés pour contrer les cycles – Keynes nʼest pas loin ; cʼest le règne de
lʼÉtat tout-puissant ;

16. Le CPB fut sous la direction de Tinbergen un bureau de planification, mais nʼest plus quʼun
institut de recherche indépendant dont le nom complet est Netherland Bureau of Economic Analysis.
« Le Bureau ne planifie pas lʼéconomie hollandaise. Ce serait naturellement déplacé dans une économie
de marché telle que celle des Pays-Bas. »
17. Worldscan est construit à partir dʼune approche néoclassique de la croissance et du commerce
international, sur la base dʼune fonction de production qui intègre deux facteurs travail (low and high-
skilled), et dʼune spécification du commerce de type Armington pour le moyen terme et Heckscher-
Ohlin pour le long terme.
18. En lʼoccurrence, il sʼagit de la base de comptabilité sociale du Global Trade Analysis Project
de la Purdue University sur laquelle sʼappuient de nombreux modèles de type « équilibre général
calculable » de la Banque mondiale.
82 LES MODÈLES DU FUTUR

— free-market (M) est une économie dʼentrepreneurs en compétition ayant


aussi une information imparfaite, mais qui dynamisent lʼéconomie de marché
par leur créativité dans un cadre fixé par le système des droits de propriété ;
on aura reconnu lʼinfluence de lʼécole autrichienne (Hayek, Schumpeter) et
le règne du marché.
Chacune de ces perspectives est une sorte de forme pure de lʼéconomie
quʼincarnent plus ou moins bien les différentes régions, les États-Unis relevant
du modèle M, le Japon et lʼAsie dynamique dʼun mixte E-C et lʼEurope du
modèle C.

FIGURE 1. – LES TROIS DÉMARCHES CONSTITUTIVES DES SCÉNARIOS

Source : CPB [1992].

Les scénarios résultent de lʼassemblage de trois démarches : à gauche sur


le schéma, une analyse des forces de chaque région en 1990, qui se résume par
une sorte de palmarès selon les 12 facteurs identifiés précédemment ; à droite,
les challenges et tendances que lʼon peut identifier, grâce aux simulations du
modèle, sur les 9 sous-systèmes qui se trouvent listés ; au centre, le jeu des
12 facteurs sur les trois grandes « perspectives » qui forme un « cercle de la
prospérité ». Chacun de ces scénarios, donnés comme également plausibles,
est alors lʼobjet dʼune dénomination et dʼun récit :
— Global Shift décrit un développement rapide et général tiré par lʼAmé-
rique et le Japon grâce aux changements technologiques ; lʼEurope, « freinée
LES ÉCONOMISTES FACE AU LONG TERME… 83

par ses biais en faveur de la sécurité, de la stabilité, et lʼaversion du risque »,


reste à la traîne, moins que lʼAfrique et lʼEurope de lʼEst cependant ;
— European Renaissance est un scénario de réussite de la construction
européenne et du modèle de coordination ; aux dépens de lʼAmérique qui
sʼenfonce dans le déficit et le protectionnisme ;
— pour Global Crisis, le déclin atteint à la fois lʼEurope, le Japon et les
États-Unis ; le monde dégénère en un conflit de blocs protectionnistes, voire
nationalistes en Europe de lʼEst ; lʼAfrique et lʼAsie ne décollent pas, la
famine gagne du terrain ;
— Balanced Growth est une success story dans laquelle le développement
durable se combine avec une forte dynamique technologique pour offrir une
croissance moyenne de plus de 3 % ; dominent à la fois la coordination et le
marché ; les émissions de CO2 sont maîtrisées et descendent à 25 % de leur
niveau de 1990.
La méthodologie de Scanning the Future et le modèle Worldscan qui en est
le moteur caché ont servi de prototype à plusieurs études ultérieures, notam-
ment une projection à 2020 de lʼOCDE pour lʼéconomie mondiale [OCDE,
1997], une projection de lʼEurope à 2040 [Lejour, 2003] et des études du GIEC,
mobilisant de concert les équipes du CPB et celles du RIVM (lʼInstitut national
de la santé publique et de lʼenvironnement, un autre laboratoire hollandais).

LES SCÉNARIOS SRES DU GIEC

Revenons maintenant au changement climatique. Le GIEC a utilisé des


scénarios dʼémission à long terme peu de temps après sa fondation, dès 1990 et
1992 (IS92a devint le scénario de référence). Leur évaluation en 1995 conduisit
à la mise en chantier dʼune batterie de nouveaux scénarios pour évaluer les
conséquences des émissions de gaz à effet de serre, mais aussi les politiques
alternatives de réduction ou dʼadaptation à leur opposer. Tout cela sʼinscrivant
dans la préparation du IIIe Rapport du GIEC. La commande passée à une équipe
de 50 membres provenant de 17 pays et diverses disciplines était de produire
des scénarios à un horizon 2100, capables de prendre en charge plusieurs gaz à
effet de serre, ayant une résolution spatiale suffisante, une couverture large des
différents futurs possibles et des différentes politiques imaginables, un appui
sur une grande variété de modèles, de données et dʼexpertises pluridisciplinai-
res. Les scénarios devaient être transparents, cohérents et reproductibles. Dès
1998, les nouveaux scénarios sont diffusés aux chercheurs pour leur permettre
de les implanter dans leurs modèles. Cependant ils ne seront validés quʼen
mars 2000 par le Workgroup III et publiés la même année sous la forme dʼun
Special Report on Emissions Scenarios (SRES) [GIEC, 2000].
84 LES MODÈLES DU FUTUR

Les éditeurs et pilotes de cette étude sont Nebojsa Nakicenovic de lʼIIASA


et Robert Swart, responsable du Workgroup III au GIEC. On y trouve aussi
Tom Kram, de Vries, Alcamo… La filiation avec les travaux de lʼIIASA et des
laboratoires néerlandais (CPB, RIVM) est forte. Un scénario représente « la
variété des facteurs dʼémission et de leurs conséquences ». Concrètement, ces
facteurs sont principalement la pression démographique, le développement
économique et social, et le changement technologique. Les scénarios ont
une double face : ils peuvent se traduire en spécifications particulières dʼun
modèle, mais ils ont aussi une forme qualitative (narrative storyline) proche
de lʼimage ou du récit, qui en restitue la cohérence et aide à sa diffusion, à sa
compréhension et à son usage rhétorique.
Les rédacteurs du SRES ont produit une quarantaine de scénarios quʼils ont
agrégés en 4 familles, une famille étant lʼensemble de toutes les déclinaisons
numériques ou interprétatives dʼune storyline. Ces 4 scénarios types ou familles
correspondent aux cases du tableau ci-dessous, formé sur deux dimensions :
la durabilité (sustainability) du développement et son intégration (ou conver-
gence) plus ou moins forte. A1 et B1 sont des scénarios de croissance forte et
de faible poussée démographique, mais se distinguent par leur consommation
de ressources énergétiques (respectivement forte et faible), par lʼévolution de
lʼutilisation des terres (respectivement faible croissance, forte décroissance)
et par le degré de transition vers lʼimmatériel (respectivement faible et fort).
A2 et B2 sont des scénarios de croissance modérée, hétérogène et dʼassez
forte croissance démographique, mais se distinguent par leur consommation
dʼénergie (respectivement très forte et moyenne intensité énergétique) et la
vitesse du changement technique (faible et moyen). A1 a été lui-même éclaté
en 3 scénarios distincts par leurs choix de filières énergétiques.

TABLEAU 2. – LES QUATRE SCÉNARIOS TYPES DU SRES

Ouverture et convergence
Faible Forte
Durabilité du développement
(régional) (global)
Faible (dominance économique) A2 A1
Forte (dominance social/environnement) B2 B1

La quantification de ces scénarios sʼest appuyée sur des modèles dont la


tradition est à rattacher aux travaux menés dans les années 1980 à lʼIIASA
sur la notion dʼévaluation intégrée [Matarasso, 2003 ; Kieken, 2003], qui ne
concerne plus seulement un système nature-société, mais aussi des enjeux, des
éléments de décision ou dʼexpertise, des procédures de gestion. Six modèles
intégrés différents19, déployés différemment sur quatre macrorégions, ont

19. Il sʼagit dʼAIM (Japon), ASF (USA), IMAGE (Pays-Bas), MARIA (Japon), MESSAGE
(IIASA), MiniCAM (USA).
LES ÉCONOMISTES FACE AU LONG TERME… 85

fourni le chiffrage des scénarios. Même après harmonisation et ajustement


de leurs paramètres, les modélisateurs ont conservé une diversité dans leur
interprétation des storylines qui sʼest traduite par une variabilité de résultats
pour la même storyline. Cʼest ce couplage des deux incertitudes, celle des
différents scénarios et, pour chacun dʼeux, celle des différents modèles, qui
a produit la grande dispersion des émissions prévues pour 2100.
Les scénarios SRES sont fortement marqués par la culture du scénario
issue des travaux de prospective, mais aussi par la modélisation intégrée
qui les a accompagnés. Un modèle intégré est construit autour dʼun modèle
économique et il intègre une version simplifiée du système physique, sous la
forme de différents sous-modèles atmosphériques, océaniques, biologiques.
Les rétroactions entre ces sous-systèmes donnent lieu à des couplages de
modules assez délicats.

FIGURE 2. – ARCHITECTURE DU MODÈLE IMAGE 2.2

Source : RIVM [2001].

Le modèle IMAGE illustre parfaitement ces caractéristiques majeures des


modèles intégrés. Cʼest une création du laboratoire hollandais RIVM dont la
première version date de 1990. On y retrouve plusieurs des caractéristiques
86 LES MODÈLES DU FUTUR

de World 3. Mais il a également reçu des apports de lʼIIASA de Vienne. Il


sʼorganise autour dʼun module de croissance démographique (Phoenix) et
dʼun module de croissance économique qui nʼest autre que Worldscan. Ces
deux modules déterminent les entrées dʼun second ensemble de modules sur
la couverture végétale, lʼagriculture et le secteur énergétique (TIMER) qui, à
leur tour, déterminent les émissions de carbone dans les trois sous-systèmes
que constituent lʼatmosphère, lʼocéan et la surface terrestre. Chacun de ces
milieux voit ses concentrations en carbone changer et modifier le climat par
le biais dʼun modèle à maillage géographique. Il en résulte des impacts sur les
systèmes naturels terrestres et océaniques qui modifient en retour la couver-
ture végétale et lʼéconomie agricole et énergétique. Des données historiques
de long terme (1765-1995) ont permis dʼinitialiser le cycle du carbone et le
système climatique.
IMAGE 2.2 a été reconfiguré pour lʼétude des scénarios du SRES. Pour
chacun dʼeux, IMAGE 2.2 fournit un état des hypothèses qui ont été faites
sur les facteurs dʼémission et les paramètres qui y sont associés. Les sorties
du logiciel de simulation sont des écrans dʼindicateurs numériques orga-
nisés en quatre groupes : facteurs économiques et écologiques de pression
sur lʼenvironnement (Pressure), état de lʼatmosphère, de la biosphère et
des ressources (State), impacts économiques et écologiques résultant des
perturbations climatiques (Impact) et réponse du système (Response).
IMAGE se veut un instrument de simulation flexible et rapide au service des
décideurs et des négociateurs, comme en témoignent ses interfaces graphiques
particulièrement soignées et directement utilisables dans des démonstrations,
des opérations de communication et des négociations publiques [Alcamo,
1994 ; Rotmans et de Vries, 1997].

CONCLUSION

Nous sommes partis de la nécessité pour les économistes de se confronter à


des raisonnements de long terme assez nouveaux dès lors quʼils abordaient les
questions de changement climatique, et nous y revenons après un long détour
pour constater quʼils ont maintenant pris toute leur place dans le concert de
scientifiques au chevet de notre planète Terre. Leur rôle dans la construction
des scénarios SRES a été déterminant dans le formatage des simulations
dʼémissions qui ont alimenté les débats sur les politiques de réduction des
gaz à effet de serre. Or la méthodologie de construction de ces scénarios
est dans la droite ligne de celle que les économistes ont mobilisée dans les
années 1970-1980 pour des projections économiques à long terme à lʼéchelle
régionale ou mondiale.
LES ÉCONOMISTES FACE AU LONG TERME… 87

Tout au long de ce détour, nous avons souligné quelques résultats intéres-


sants que lʼon peut récapituler en sept points.
1. Les historiens du temps long ont été dʼun faible recours pour aider
les économistes à penser le long terme parce quʼil leur a manqué le besoin
dʼinverser la flèche du temps et plus encore le souci praxéologique dʼagir
sur le futur.
2. Bien davantage que lʼirruption de la conjoncture entre les deux guerres,
et que celle de la prévision dans les années 1950 et 1960, quʼelle soit à base
de comptes ou à base de modèles macroéconomiques, cʼest lʼexpérience de la
planification indicatrice à moyen terme qui fut la plus riche dʼenseignements
pour des exercices de plus long terme. On en a la preuve par le nombre de
méthodes, de concepts et de personnes qui ont franchi la mince cloison entre
planification et prospective.
3. La prospective est dans ses principes lʼapproche qui convient le mieux
à une projection dans le futur, dès lors quʼon la caractérise au moins par les
trois propriétés minimales suivantes : le long terme, le volontarisme et la
pluralité des futurs à considérer.
4. Le corpus méthodologique de la méthode prospective sʼarticule autour
de la notion de scénario. Il y a une vraie continuité de cette nécessité tout au
long des expériences. La méthode des scénarios est la seule qui permette de se
tenir à distance des deux erreurs symétriques du fatalisme et de lʼoptimisme
technologiques. Elle combine nécessité et volonté. Elle assure une cohérence
diachronique et synchronique aux différents éléments du système. Mais elle
nʼest pas standardisée (on en a exploré bien des formules) et moins encore
formalisée.
5. La modélisation éliminée dans un premier temps par le scénario comme
trop rigide a fait un retour en force, non pas comme substitut mais comme
complément du scénario. Lʼarticulation modèle-scénario est complexe et
circulaire, puisque, dʼun côté, les scénarios comme storylines assemblant des
hypothèses sont formulés sur la base des résultats de simulations de modèles
économiques et, de lʼautre, ces scénarios servent de cadrage à toutes les nou-
velles modélisations des émissions. Lʼun portant lʼautre et vice versa.
6. La question des valeurs, exclue a priori de la science « objective »,
reprend tous ses droits et son importance dans un exercice de prospective
puisquʼon a vu combien les jugements de valeur étaient présents dans le
découpage de la réalité opéré par les scénarios, selon des visions antagonistes
de lʼéconomie comme le libéralisme et le protectionnisme, le marché et lʼÉtat,
ou bien encore la croissance illimitée et le développement durable, lʼesprit
dʼentreprise et la solidarité. Les valeurs fondent les comportements sociaux
quotidiens, mais aussi des conceptions plus profondes sur la réalité des sociétés
humaines. Certains des constructeurs de scénarios se réfèrent par exemple au
culturalisme, pour asseoir les différents mondes que représentent leurs stories.
88 LES MODÈLES DU FUTUR

De Vries [2001] interprète lʼincertitude du futur en termes de dominance de


certaines configurations de valeurs dʼorigine culturelle. Les trois catégories
dʼindividu quʼil décrit – individualist, hierarchist, egalitarian – induisent
différentes visions des rapports homme-nature, individu-société, différentes
approches des forces motrices du changement et différentes attitudes vis-à-
vis des besoins, du risque, de la violence… Or les configurations de valeurs
quʼils représentent et leurs rapports de forces seront tout aussi importants
pour le débat qui sʼengage aujourdʼhui sur ce quʼil faut faire – réduction ou
adaptation – que pour le succès des actions quʼil faudra engager demain.
7. Le rapport des études prospectives – supportées par le couple modèle-
scénario – avec la décision politique est loin dʼavoir été envisagé dans toute
sa complexité. Que doit-on transmettre comme information au politique ? Les
auteurs de lʼétude du CPB rappellent par exemple quʼune étude prospective ne
fait aucune prévision (et donc quʼelle ne peut pas se tromper sur les chiffres
puisque ceux-ci nʼont quʼune valeur indicative et qualitative). Du coup les
exercices de « rétroprospective » pour évaluer une étude perdent leur sens. Ils
montrent que, loin dʼêtre toujours évidentes, les projections peuvent révéler un
certain nombre de surprises. Ils mettent en garde les politiques contre le choix
dʼun seul scénario, qui ne saurait fonder des décisions correctes. Ils rappellent
que certaines de ces politiques dites « sans regret » sont valides dans tous
les scénarios, tandis que dʼautres doivent être à coup sûr abandonnées. Mais
la plupart des politiques restent dépendantes des scénarios, et relèvent dʼun
choix stratégique y compris quant au moment de leur déclenchement. Une
bonne étude prospective serait-elle donc simplement une étude qui donne à
réfléchir ? Cʼest évidemment insuffisant. Fournir aux politiques les moyens
dʼune réduction des incertitudes quant aux conséquences de la décision, cʼest
déjà bien mieux. Le faire de manière conditionnelle, en se rapportant à un
choix de valeurs, cʼest sans doute réhabiliter la politique.

RÉFÉRENCES BIBLIOGRAPHIQUES

ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwers
Academic Publishers, Dordrecht.
ARMATTE M. (1992), « Conjonctions, conjoncture et conjecture. Les baromètres économiques »,
Histoire et mesure, vol. VII, n° 1-2, p. 99-149.
– (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A.
et PESTRE D. (dir.), Les Sciences pour la guerre, 1940-1960, Presses de lʼEHESS, Paris,
p. 129-174.
– (2005a), « Economical models of climate change : the costs and advantages of integration »,
dans FREGUGLIA P. (dir.), The Sciences of Complexity : Chimera or Reality ?, Esculapuio,
Bologne, p. 51-71.
– (2005b), « La notion de modèle dans les sciences sociales : anciennes et nouvelles
significations », Mathématiques et sciences humaines, n° 172, p. 91-123.
LES ÉCONOMISTES FACE AU LONG TERME… 89

ARMATTE M. et DESROSIÈRES A. (2000), « Méthodes mathématiques et statistiques en économie :


nouvelles questions sur dʼanciennes querelles », dans BEAUD J.-P. et PREVOST J. G. (dir.),
L’Ère du chiffre. Systèmes statistiques et traditions nationales, Presses universitaires du
Québec, Montréal, p. 431-481.
ARTUS P., DELEAU M. et MALGRANGE P. (1986), Modélisation macroéconomique, Economica,
Paris.
ATTALI J. (1999), Histoires du temps, LGP, Paris.
AYRES R. U. (1969), Technological Forecasting and Long-Range Planning, McGraw-Hill,
New York.
BAREL Y. (1971), « Prospective et analyse des systèmes », Travaux et recherches de prospective,
n° 14, note bibliographique sur le site de lʼex-DATAR, devenue la DIACT (Délégation
interministérielle à lʼaménagement et à la compétitivité des territoires) : www.diact.gouv.
fr/datar_site/datar_prospective.nsf).
BERGER G. (1964), Phénoménologie du temps et prospective, PUF, Paris.
BERNARD Y. et COSSÉ P.-Y. (1974), L’État et la prévision macroéconomique, Berger-Levrault,
Paris.
BRAUDEL F. (1999), Les Ambitions de l’histoire, LGF, Paris.
CAZES B. (1986), L’Histoire des futurs. Les figures de l’avenir de saint Augustin au XXIe siècle,
Seghers, Paris.
CAZES B. et MIOCHE P. (1990), Modernisation ou décadence. Contribution à l’histoire du Plan
Monnet et de la planification, Presses universitaires de Provence, Aix-en-Provence.
CENTRAL PLANNING BUREAU (CPB) (1992), Scanning the Future. A Long-Term Scenario Study
of the World Economy 1990-2015, Central Planning Bureau, La Haye.
COMMISSARIAT GÉNÉRAL DU PLAN (2004), « La méthode des scénarios, outil dʼune démarche
prospective », Les Dossiers d’Aleph, n° 1, p. 1-16.
– (1999), Worldscan – the Core Version, http://www.cpb.nl/eng/pub/cpbreeksen/
bijzonder/20/
DE JOUVENEL B., 1964, L’Art de la conjecture, Sedeis, Paris.
DE VRIES H. (2001), « Objective science ? The case of climate change models », dans GOUJON
P. H. et DUBREUIL B. H. (dir.), Technology and Ethics. A European Quest for Responsible
Engineering, Peeters, Louvain.
DÉLÉGATION À LʼAMÉNAGEMENT DU TERRITOIRE (DATAR) (1971), « Scénario de lʼinacceptable.
Une image de la France en lʼan 2000 », Travaux et recherches de prospective, n° 30, site
de lʼex-DATAR.
DESROSIÈRES A. (1999), « La commission et lʼéquation : une comparaison entre les Plans
français et néerlandais entre 1945 et 1980 », Genèses, n° 34, mars, p. 28-52.
DOSSE F. (1987), L’Histoire en miettes. Des Annales à la nouvelle histoire, La Découverte,
Paris.
FOURQUET F. (1980), Les Comptes de la puissance. Histoire de la comptabilité nationale et
du Plan, Éditions Encres Recherches, Paris.
GAUDIN T. (1993), 2100, Odyssée de l’espèce, http://2100.org/OdysseeEspece.pdf
GODET M. (1985), Prospective et planification stratégique, Economica, Paris.
GRENIER J.-Y. (1995), « Lʼanalyse économique et le temps en histoire », Cahiers de l’ISMEA,
« Économie historique (1). La longue période ».
GRENIER J.-Y., GRIGNON CL. et MENGER P.-M. (dir.) (2001), Le Modèle et le récit, Éditions de
la MSH, Paris.
G ROUPE D ʼ EXPERTS INTERGOUVERNEMENTAL SUR L ʼ ÉVOLUTION DU CLIMAT (GIEC) (2001),
Changements climatiques 2001, rapport de synthèse.
90 LES MODÈLES DU FUTUR

– (2000), Special Report on Emissions Scenarios (SRES), http://www.grida.no/climate/ipcc/


emission/index.htm
GUELLEC D. et RALLE P. (1996), Les Nouvelles Théories de la croissance, La Découverte,
Paris.
HATEM F. (1993), La Prospective. Pratiques et méthodes, Economica, Paris.
JULIEN P-A., LAMONDE P. et LATOUCHE D. (1975), « La méthode des scénarios, une réflexion
sur la démarche et la théorie en prospective », Travaux et recherche en prospective,
n° 59, La Documentation française (article et note de synthèse sur le site de lʼex-
DATAR), Paris.
KIEKEN H. (2003), « Genèse et limites des modèles dʼévaluation intégrée », Annales des
Ponts et Chaussées, Paris.
LEJOUR A. (2003), Quantifying Four Scenarios for Europe, CPB, document n° 38, octobre.
LESOURNE J. (1990), « Prospective », dans GREFFE X., MAIRESSE J. et REIFFERS J.-L. (dir.),
Encyclopédie économique, tome 1, Economica, Paris, p. 178-213.
– (2004), interview par Stéphane Cordobes et Philippe Durance, dans Les Entretiens de la
mémoire de la prospective, site du LIPSOR.
M ASSÉ P. (1965), Le Plan ou l’anti-hasard, Gallimard, Paris (réédité en 1991 chez
Hermann).
MATARASSO P. (2003), « Integrated assessment models of global change », Encyclopedia of
Global Change, 5 volumes, John Wiley, New York.
MEADOWS D. et alii (1972), Halte à la croissance ! (1. « Le Club de Rome » par Janine
Delaunay, 2. « Rapport sur les limites de la croissance »), trad. Jacques Delaunay, Fayard,
Paris.
MERMET L. (2005), « Des récits pour raisonner lʼavenir. Quels fondements théoriques pour
la méthode des scénarios ? », dans MERMET L. (dir.), Étudier les écologies futures. Un
chantier ouvert pour les recherches prospectives environnementales, PIE-Peter Lang,
Bruxelles.
OCDE (1979), Interfuturs. Face aux futurs, OCDE, Paris.
– (1997), The World in 2020, towards a New Global Age, OCDE, Paris.
POUX X. (2005), « Fonction, construction, évaluation des scénarios prospectifs », dans MERMET
L. (dir.), Étudier les écologies futures. Un chantier ouvert pour les recherches prospectives
environnementales, PIE-Peter Lang, Bruxelles.
ROTMANS J. et DE VRIES B. (1997), Perspectives on Global Change, Cambridge University
Press, Cambridge.
SERUZIER M. (1988), Construire les comptes de la nation, Éditions du ministère de la
Coopération, Paris.
TIMMER H. (1998), Worldscan. A World Model for Long-Term Scenario Analysis, rapport
CPB.
VANOLI A. (2002), Une histoire de la comptabilité nationale, La Découverte-Syros, Paris.
VOVELLE M. (1978), « Lʼhistoire de la longue durée », dans LE GOFF J. (dir.), La Nouvelle
Histoire, éditions Complexes, Bruxelles.
WACK P. (1986), « La planification par scénarios », Futuribles, n° 99, p. 3-26.
WALERY S. (1987), Essai d’analyse de mouvements économiques de longue durée, thèse de
doctorat de sciences économiques soutenue à lʼuniversité Paris-Dauphine sous la direction
de Mme Jeanne Mary Parly (jury : Jacques Attali, Jean-Hervé Lorenzi, Jean-Claude
Coquet).
INTRODUCTION 91

II.

L’alerte climatique, la gouvernance


mondiale du régime climatique
4

Les modèles numériques de climat

Hélène Guillemot

Seuls instruments capables de nous projeter vers lʼavenir du climat de notre


planète, les modèles numériques sont au centre de la question du changement
climatique. Cʼest en sʼappuyant sur leurs simulations quʼà la fin des années
1980, des climatologues ont alerté le public et les politiques sur le risque de
réchauffement global. Depuis lors, les différents modèles numériques de cli-
mat (il en existe aujourdʼhui une vingtaine à travers le monde, dont deux en
France1) constituent la pièce maîtresse de lʼexpertise climatique et fournissent
périodiquement, pour les volumineux rapports du Groupe dʼexperts intergou-
vernemental sur lʼévolution du climat (GIEC), des projections de climats futurs
sur la base de différents scénarios dʼémission de gaz à effet de serre.
Ces prévisions – ou plutôt les chiffres qui en constituent le résumé emblé-
matique, cʼest-à-dire la fourchette des hausses de la température moyenne à la
surface du globe prévues pour la fin du XXIe siècle – sont amplement diffusées
par les médias. Ainsi, les modèles numériques de climat sont devenus des
objets de controverse sur le changement climatique et sont soumis au feu des
critiques, qui préfèrent souvent se porter sur les aspects scientifiques plutôt que
sur les enjeux politiques du problème. Les modèles suscitent étonnement et
méfiance. Peut-on prétendre calculer lʼavenir, fût-ce au moyen de programmes
énormes, tournant sur les ordinateurs les plus puissants ? Peut-on vraiment
fonder des décisions économiques et politiques majeures sur les projections
à long terme de modèles numériques ?
Les modèles de climat sont apparus trente ans avant la question du chan-
gement climatique, mais celle-ci leur a donné une importance et une visibilité
nouvelles, et a contribué à leur évolution. Dans ce chapitre, nous chercherons
à éclairer lʼhistoire des modèles ainsi que les pratiques de modélisation. Après

1. Lʼun est développé depuis le début des années 1970 au Laboratoire de météorologie dynamique
(LMD), qui dépend du CNRS, et lʼautre à Météo France, en relation avec le modèle de prévision
opérationnel.
94 LES MODÈLES DU FUTUR

un retour sur les débuts de la modélisation climatique (étroitement liés à la


prévision météorologique) et un rapide survol de lʼévolution des idées sur le
climat, on évoquera quelques-unes des activités principales des modélisateurs,
liées à la construction et à lʼutilisation de leurs modèles. Nous aborderons
ensuite les mutations des années 1990 et 2000 qui voient les modèles de climat
devenir ceux du « système Terre », cʼest-à-dire se coupler avec des modèles
océaniques ou de sols, intégrer toujours plus de milieux et dʼinteractions
pour répondre aux défis posés par lʼétude du réchauffement global. En dépit
de certaines incertitudes parfois difficiles à réduire ou dʼautres qui surgissent
en même temps que sʼaccroît la complexité des modèles, la modélisation
fournit des résultats stables, cohérents et de plus en plus robustes sur les
climats futurs. Depuis plusieurs années déjà, la communauté des climatolo-
gues est ainsi parvenue à un consensus scientifique pratiquement général qui
sʼexprime, incertitudes comprises, dans les rapports du GIEC. Pour elle, la
réalité du changement climatique ne fait plus de doute et les modèles per-
mettent dʼappréhender lʼampleur possible du bouleversement et certaines de
ses manifestations.

LES DÉBUTS DE LA MODÉLISATION CLIMATIQUE

Les premiers modèles de circulation de l’atmosphère

La modélisation numérique du climat est née juste après la Seconde Guerre


mondiale, comme la prévision numérique du temps et comme lʼordinateur.
La climatologie, de même que la météorologie, compte parmi les sciences
entièrement transformées par le calcul numérique – même si une grande
part des concepts, des théories et des mécanismes de la météorologie ou
de la physique atmosphérique ont été inventés ou décrits avant le recours à
lʼordinateur. La prévision numérique du temps a, elle aussi, été conçue bien
avant la construction des premiers calculateurs : au tout début du XXe siècle,
le physicien norvégien Vilhelm Bjerknes ambitionne de fonder la prévision
du temps sur la théorie physique et les observations, en calculant lʼévolution
dʼune situation météorologique à partir des données dʼobservation de la
situation antérieure grâce aux lois gouvernant la dynamique de lʼatmosphère.
Poursuivant ce projet, le Britannique Lewis Fry Richardson formule en 1922
un système de sept équations décrivant les mouvements de lʼatmosphère,
basées sur des lois et principes fondamentaux de la dynamique des fluides.
Mais il montre aussi que si lʼon voulait, à partir de ses équations, calculer le
temps quʼil fera à la même vitesse que lʼévolution atmosphérique, en suppo-
sant un maillage du globe en carrés de 200 km de côté, un « orchestre » de
64 000 hommes entraînés au calcul et bien organisés serait nécessaire pour
LES MODÈLES NUMÉRIQUES DE CLIMAT 95

donner une prédiction toutes les trois heures ! Quelques décennies plus tard,
le programme de Bjerknes sera réalisé, en utilisant les équations formulées
par Richardson – grâce à un calculateur électronique.
Dès 1945, le grand mathématicien John von Neumann voit dans la météo-
rologie un domaine dʼapplication idéal pour les tout nouveaux calculateurs :
la météorologie pose des problèmes de dynamique des fluides non linéaires
et insolubles analytiquement, elle exige une grande puissance de calcul – et
son importance pratique et stratégique nʼest plus à démontrer. De plus, le
développement rapide, durant la guerre, des réseaux dʼobservation en alti-
tude et des moyens de télécommunication assure le flux de données néces-
saire à lʼétablissement des prévisions. Sous lʼimpulsion de von Neumann, le
Meteorological Project est lancé en 1946, à Princeton, en relation étroite avec
la construction du nouvel ordinateur Johnniac. En sept ou huit ans, lʼéquipe
dirigée par Jules Charney obtient une prévision opérationnelle pour tout le
territoire des États-Unis.
Le calcul par ordinateur permet aussi dʼeffectuer aisément des « expé-
riences numériques », autrement dit de tester des hypothèses sur les mécanis-
mes climatiques en calculant des prévisions susceptibles dʼêtre confrontées
aux données. Outre lʼintérêt scientifique de ces recherches, il est admis que
lʼamélioration de la prévision du temps passe par une meilleure compréhen-
sion des mécanismes généraux du climat. Dès le début des années 1950, les
scientifiques de Princeton développent, à côté des modèles de prévision, des
« modèles de circulation générale » (Global Circulation Models, en abrégé
GCM), dont lʼobjectif est de reproduire les propriétés moyennes des mouve-
ments de lʼatmosphère. Ces GCM sont les ancêtres directs des modèles de
climat actuels.
Le premier modèle numérique de circulation générale de lʼatmosphère fut
achevé par Norman Phillips en 1955 à Princeton. À partir de formulations sim-
plifiées des équations de la dynamique, il parvenait à reproduire les grands traits
de la circulation à lʼéchelle du globe (courants jets2, dépressions…). Ce succès
a institué la circulation de lʼatmosphère comme thème de recherche majeur.

Modèles de prévision du temps et modèles de climat

Dans les années 1970 sʼeffectue la convergence entre les modélisations


du climat et celles de la prévision du temps : les modèles météorologiques
opérationnels, jusque-là régionaux puis hémisphériques, deviennent sphériques

2. Les courants jets sont des vents très forts de très haute altitude, souflant dʼouest en est à peu
près horizontalement, sur plusieurs milliers de kilomètres, et font partie des structures météorologiques
de grande échelle majeures en météorologie, bien identifiables à la fois dans les observations et les
simulations.
96 LES MODÈLES DU FUTUR

et donc capables de reproduire la circulation de lʼatmosphère sur tout le globe ;


et les modèles de circulation générale deviennent de véritables modèles de
climat, en intégrant des représentations des surfaces qui leur permettent de
retrouver les températures et de faire des projections à long terme. Désormais,
des modèles de circulation générale (GCM) seront utilisés à la fois pour prévoir
le temps et pour étudier le climat.
Quʼils soient dévolus à la prévision à court terme ou à la modélisation
du climat, les GCM ont des fondements similaires ; ils cherchent à simuler
les mouvements de lʼatmosphère en se basant sur les lois de la physique.
Lʼatmosphère est représentée par un maillage à trois dimensions, et lʼordinateur
calcule, pour chaque maille et à chaque pas de temps, les variables caractérisant
lʼétat atmosphérique (température, pression, vent, humidité…), à partir de leur
valeur au pas de temps précédent, en résolvant les algorithmes constituant
le modèle. Celui-ci comprend deux parties distinctes : une partie dynamique
décrivant les mouvements des masses dʼair, dont les algorithmes sont tirés
des équations de la mécanique des fluides ; une partie physique qui décrit
les échanges verticaux entre lʼatmosphère et lʼespace, et entre lʼatmosphère
et les surfaces océaniques et continentales. Ces phénomènes, qui se situent
à une échelle bien inférieure à la taille de la maille, sont représentés par des
paramètres par lesquels sont estimés statistiquement leurs effets climatiques.
Sont ainsi « paramétrisés » des processus physiques (mais également des
processus chimiques et biologiques) comme la convection, la turbulence près
de la surface, les échanges radiatifs, lʼévaporation, lʼécoulement de lʼeau de
pluie sur le sol, etc.
Le développement des deux parties du modèle relève donc de tâches assez
différentes. Dans la partie dynamique, il sʼagit de formuler les algorithmes
de telle manière quʼils puissent être intégrés par ordinateur et soient stables,
exacts, maniables ; cʼest un travail mathématique et numérique, où le choix
des algorithmes dépend des contraintes liées à lʼordinateur. Pour la partie
physique, les « paramétrisations » (parametrizations) relèvent davantage dʼun
travail de physicien – on y reviendra plus loin.
Sʼils reposent sur des fondements identiques, les modèles de prévision
météorologique et les modèles de climat présentent cependant quelques dif-
férences : leurs noyaux dynamiques sont très semblables, mais leurs paramé-
trisations physiques diffèrent, car les processus les plus importants ne sont pas
les mêmes à court et à long terme. Pour la prévision du temps, les conditions
initiales, transmises par les réseaux dʼinstruments et les satellites, jouent un
rôle essentiel. Cette extrême sensibilité aux conditions initiales (popularisée
sous le nom « dʼeffet papillon ») confère à la dynamique atmosphérique son
caractère chaotique et impose une limite inexorable à la prévision déterministe
du temps. En revanche, dans les modèles de climat, les conditions initiales
nʼinterviennent pas, car on ne cherche pas à obtenir une véritable prévision,
LES MODÈLES NUMÉRIQUES DE CLIMAT 97

mais seulement les caractéristiques statistiques du climat. Dʼautres facteurs,


qui étaient négligés à très court terme, doivent alors être pris en compte : les
transports de chaleur, la dynamique de la glace, lʼévaporation par la végétation,
etc. En simplifiant exagérément, on peut dire que la partie dynamique et les
conditions initiales sont plus importantes pour la météorologie, et la partie
physique et les conditions aux limites pour la climatologie. Autre différence :
les modèles de climat, qui simulent des périodes plus longues que les modè-
les de prévision, tournent avec des pas de temps et des résolutions spatiales
beaucoup plus larges.
Outre ces gros modèles reproduisant la circulation de lʼatmosphère terrestre
à trois dimensions, il existe dʼautres modèles de climat, plus simples et plus
conceptuels. Déjà, le chimiste suédois Arrhenius, à la fin du XIXe siècle, avait
le premier calculé lʼaugmentation de la température du globe résultant dʼun
effet de serre dʼorigine anthropique grâce à un tel « modèle simple ». Dans
les années 1950 et 1960, des climatologues ont continué de développer des
modèles à zéro ou une dimension, incluant les échanges radiatifs et convectifs,
mais sans dynamique. Les modèles de circulation générale, plus complets et
plus « réalistes », sont rapidement devenus les outils de référence, mais les
chercheurs du climat font appel, aujourdʼhui encore, à des modèles simplifiés
pour étudier un phénomène isolé ou réaliser des expériences numériques plus
rapides.

Les dynamiques multiples de la modélisation

Jusquʼaux années 1980, lʼévolution de la modélisation du climat est com-


mandée par de multiples dynamiques, scientifiques, techniques et sociales. La
logique dominante est incontestablement celle des progrès instrumentaux :
comme la prévision météorologique, la modélisation du climat a été tirée par
deux technologies en plein essor : les ordinateurs, dont la puissance de calcul
a augmenté exponentiellement, et lʼobservation par satellite, dotée de moyens
considérables. Au début des années 1950, la prévision numérique se développe
autour de trois pôles principaux : les États-Unis, la Suède et le Royaume-Uni.
En France, le manque dʼordinateurs retarde le développement des premiers
modèles de prévision comme de climat jusquʼau début des années 1970.
La climatologie est aussi entraînée par lʼévolution rapide des sciences de
la Terre : océanographie, géophysique, géochimie, sismologie, paléoclima-
tologie connaissent un essor considérable à partir de lʼinstitution de lʼAnnée
géophysique internationale de 1957. Les géosciences bénéficient de nouvelles
techniques dʼinvestigation (méthodes de datation isotopiques, tomographie
sismique, résonance magnétique…) et de programmes dʼexploration impulsés
par les États-Unis pour des motifs autant géostratégiques que scientifiques
(cartographie magnétique des océans, installation de réseaux de mesures
98 LES MODÈLES DU FUTUR

météorologiques). Les climatologues entretiennent des liens étroits avec la


paléoclimatologie qui connaît, au cours des années 1970 et 1980, une série de
découvertes importantes : mise en évidence des cycles glaciaires (à partir de
carottes sédimentaires), confirmation des théories sur lʼorigine astronomique
de ces cycles, révélation de la rapidité des variations climatiques (par des carot-
tages dans les glaces)… Ces travaux fournissent aux modélisateurs du climat
des thèmes de recherche et des références pour valider leurs modèles.
La connaissance du climat a également eu, dès lʼorigine, des objectifs
sociaux. Durant la guerre froide, il fallait étudier le climat pour être capable
de le contrôler, de le modifier – voire de lʼutiliser comme arme3. Les recher-
ches théoriques et expérimentales de modification du temps (déclenchement
de pluies, détournement dʼouragans) furent largement subventionnées aux
États-Unis, en URSS et – dans une moindre mesure – dans dʼautres pays,
dont la France. Mais au cours des années 1970, ces projets sont peu à peu
abandonnés, et laissent place à des préoccupations bien différentes4 : ce sont les
risques encourus par lʼenvironnement et le climat qui, désormais, mobilisent
le public et les scientifiques.

La montée des préoccupations environnementales

Lʼeffet de serre, toutefois, est encore loin de constituer le problème domi-


nant. Lʼidée dʼun réchauffement planétaire dû aux émissions humaines de
CO2, avancée dès 1896 par Arrhenius, a été contestée, puis concurrencée par
dʼautres. Jusquʼà la Seconde Guerre mondiale, le climat était globalement
considéré comme stable et peu susceptible dʼêtre influencé par les activités
humaines5. Un tournant majeur sʼamorce dans les années 1960 et 1970, avec
la sensibilité croissante aux pollutions de toutes sortes. Les représentations
de la nature, des sciences et du progrès connaissent des mutations profondes ;
en quelques années, la technologie est perçue non plus comme porteuse de
bien-être et de savoir, mais comme une source de risques, tandis que lʼenvi-
ronnement apparaît vulnérable et menacé par lʼhomme. Le climat nʼéchappe
pas à ce bouleversement des mentalités, qui touche les scientifiques comme
le reste de la population [Weart, 2003]. Mais la conscience de la fragilité du
climat devance dʼune quinzaine dʼannées lʼémergence dʼun consensus sur la
nature du changement : dans les années 1970, le réchauffement par effet de
serre est concurrencé par un risque opposé, celui dʼun refroidissement dû aux

3. Dès 1945, en lançant le projet de développer la prévision du temps par ordinateur, John von
Neumann mentionne le contrôle du climat comme lʼun des objectifs de la modélisation numérique
[Nebecker, 1995].
4. Ce revirement a été décrit et analysé par C. Kwa dans Miller et Edwards [2001].
5. Cependant, localement, certaines théories sur le rôle des hommes dans certains changements
climatiques ont eu un impact public dans le passé [Fleming, 1998].
LES MODÈLES NUMÉRIQUES DE CLIMAT 99

émissions humaines dʼaérosols soufrés. Dʼautres dangers menacent le climat,


qui semblent plus graves et plus immédiats : la sécheresse au Sahel, les pluies
acides, lʼhiver nucléaire, le trou dʼozone.
Les modèles de climat sont alors utilisés pour la réalisation « dʼexpérien-
ces de sensibilité » à différents changements : désertification, conséquences
dʼune disparition de la banquise, dernier maximum glaciaire. Lʼeffet de serre
du CO2 est introduit pour la première fois dans un modèle de circulation
générale en 1974, pour simuler un climat correspondant à un doublement de
la concentration de CO2. Progressivement, au cours de la décennie suivante,
les modèles qui explorent les conséquences dʼune progression ininterrompue
du taux de gaz à effet de serre montrent tous un réchauffement global ; lʼeffet
refroidissant des aérosols est confirmé, mais il est plus faible que lʼeffet de
serre, plus localisé et non cumulatif. À la même période, dʼautres dévelop-
pements scientifiques contribuent à la prise de conscience de lʼimportance
de lʼeffet de serre, en particulier la révélation par les paléoclimatologues des
corrélations étroites, au long des millénaires, entre température de lʼair et taux
de gaz à effet de serre.

LA CONSTRUCTION DES MODÈLES

Avant dʼaborder lʼévolution des modèles de climat consécutive à la mon-


tée en puissance de la question du réchauffement climatique, nous voudrions
donner une idée de la façon dont les climatologues développent et utilisent
leurs modèles, à partir de quelques exemples. Expliciter ces pratiques permet
de mieux apprécier les limites et les incertitudes des modèles, et aussi la
confiance que leur accordent les scientifiques.
Il faut insister sur la diversité et la complexité des pratiques de modélisation
– et sur leur intrication. Ainsi, on ne peut pas distinguer rigoureusement la
construction des modèles de leur utilisation : un modélisateur développe et
utilise son modèle, alternativement. Lʼélaboration des modèles et leur vali-
dation par les données sont souvent mêlées. Modéliser le climat, cʼest tout à
la fois – et pour les mêmes chercheurs – développer un modèle en le validant
à lʼaide dʼobservations du climat réel, et chercher à comprendre le véritable
climat à lʼaide du modèle.

Les paramétrisations au centre des recherches et des incertitudes

Développer des paramétrisations est une activité essentielle des modé-


lisateurs du climat. Alors que la dynamique de lʼatmosphère est décrite à
lʼéchelle de la maille (quelques centaines de kilomètres) par des algorithmes
tirés de la dynamique des fluides, les processus physiques dʼéchange avec
100 LES MODÈLES DU FUTUR

lʼatmosphère se déroulent à des échelles inférieures à la maille du modèle,


et donc ne peuvent pas être calculés explicitement à partir de lois physiques.
Par exemple, les différentes caractéristiques des nuages ont des dimensions
très inférieures à la maille des modèles : la convection se déploie sur quelques
kilomètres, la répartition des nuages dans lʼespace et leur morphologie de type
fractale ont des dimensions de quelques centaines de mètres, la microphysique
nuageuse (condensation en gouttes dʼeau) est de lʼordre du micron. Tous ces
phénomènes doivent être représentés par des jeux de paramètres à lʼéchelle
de la maille. Les paramétrisations sont à lʼorigine des principales incertitudes
des modèles. Si lʼorganisation à grande échelle du climat est bien comprise et
bien modélisée, les représentations des phénomènes de petite échelle recèlent
des approximations et des imperfections qui sont responsables de la dispersion
et des incertitudes des prévisions en matière de changement climatique [Le
Treut, 2005].
Il nʼexiste pas de méthode universelle de paramétrisation : les pratiques
diffèrent selon les mécanismes physiques à décrire, selon la connaissance quʼen
ont les scientifiques et selon lʼobjectif recherché. Même quand le processus
à paramétriser est bien connu, on doit en tirer une formulation simplifiée à
lʼéchelle de la maille : par exemple, les absorptions et les émissions de rayon-
nement par les gaz de lʼatmosphère sont décrites par la physique quantique et
peuvent être calculées par des modèles théoriques très précis. Mais les calculs
complets sont trop lourds pour être intégrés dans des modèles climatiques et
on a élaboré une paramétrisation plus simple qui en retient lʼessentiel.
Le plus souvent, une paramétrisation part dʼun schéma conceptuel simple
du phénomène à représenter, qui peut évoluer et se complexifier au cours du
temps. Certaines paramétrisations sont issues de modèles physiques spécifi-
ques à petite échelle : cʼest le cas de la paramétrisation de la « couche limite »
(fine couche dʼair en contact avec le sol). Dʼautres sont effectuées à lʼaide
de mesures de terrain ; ainsi, dans les modèles de Météo France (météoro-
logiques et climatiques), la paramétrisation du sol exploite les résultats de
vastes campagnes expérimentales qui ont eu lieu dans les années 1990 dans
différentes régions de la planète pour mesurer les flux dʼénergie et dʼeau entre
le sol et lʼatmosphère.
Lʼune des paramétrisations les plus complexes et les plus problématiques
est celle des nuages. Ceux-ci sont le siège de processus climatiques variés,
certains à court terme, comme la convection ou les précipitations, dʼautres à
plus long terme, comme les interactions avec le rayonnement, qui diffèrent
selon le type de nuages. Il existe plusieurs familles de paramétrisation des
nuages, fondées sur différents mécanismes physiques à grande échelle. Depuis
les années 1980, des modèles à aire limitée et à mailles fines, appelés Cloud
Resolving Models, calculent explicitement la dynamique, la thermodynamique
et la convection des nuages. Des collaborations scientifiques entre spécialistes
LES MODÈLES NUMÉRIQUES DE CLIMAT 101

du climat et spécialistes des nuages tentent dʼaméliorer la paramétrisation


des nuages dans les GCM à partir de ces modèles à méso-échelle. Si les
climatologues déploient tant dʼefforts dans ce domaine, cʼest parce que la
paramétrisation des nuages est lʼun des facteurs qui influent le plus sur les
prévisions de changement climatique. Lʼaugmentation de lʼeffet de serre agit
en effet à petite échelle (elle perturbe la stratification de lʼair, les mouvements
convectifs et la microphysique des nuages) et se manifeste dans les modèles
par lʼintermédiaire des paramétrisations, en premier lieu celles des nuages.

Les paradoxes des paramétrisations

En vingt ou trente ans dʼexistence, les grands modèles climatiques ont


périodiquement renouvelé leurs paramétrisations. Celles-ci sont de plus en
plus fondées sur une compréhension physique des phénomènes et de moins en
moins ajustables empiriquement. Ainsi, dans le premier modèle du Laboratoire
de météorologie dynamique (LMD), la couverture nuageuse et son épaisseur
étaient fixées pour chaque latitude et saison. Puis la surface couverte par les
nuages a été calculée, la quantité dʼeau aussi, enfin la microphysique ; mais
on est encore loin de comprendre la totalité des processus se déroulant dans
les nuages. Le besoin de prévisions à long terme renforce la nécessité de se
rapprocher de la physique des phénomènes. Dans les modèles météorologi-
ques, on peut se permettre de régler finement les paramètres de sorte que le
climat calculé soit plus conforme au temps observé ; mais ces ajustements
empiriques pourraient ne plus être valables dans des conditions climatiques
très différentes. Des paramètres ad hoc risquent de conduire à des dérives, en
manquant des rétroactions essentielles que lʼon a plus de chance de capturer
avec des paramétrisations prenant en compte les processus sous-jacents.
Lʼamélioration des paramétrisations se heurte cependant à des difficultés.
Dʼabord, elle conduit presque invariablement (dans un premier temps) à
dégrader les performances du modèle. Alors quʼil simulait jusque-là un climat
correct, le modèle, équipé dʼune nouvelle paramétrisation plus « réaliste », se
met à produire des climatologies fantaisistes ! La faute en revient aux compen-
sations dʼerreurs : en changeant un paramètre, on met en jeu des rétroactions
nouvelles quʼon ne maîtrise pas, et pour lesquelles les autres paramétrisations
ne sont pas bien réglées. Par exemple, lʼintroduction de lʼalternance jour/nuit
dans un modèle où lʼinsolation était auparavant moyennée a dʼabord donné un
climat catastrophique : la paramétrisation de la « couche limite » nʼétait pas
conçue pour sʼadapter au réchauffement rapide de la matinée… Autre pro-
blème : les paramétrisations devraient en principe être universelles ; or, il arrive
souvent quʼune paramétrisation convienne pour une zone géographique et pas
pour une autre. Les processus physiques sont certes les mêmes partout, mais
les processus dominants diffèrent selon les circonstances ; ainsi, les facteurs
102 LES MODÈLES DU FUTUR

essentiels de la convection ne sont pas identiques pour la mousson indienne et


pour la mousson africaine. Pour rendre une paramétrisation plus universelle,
on sera conduit à accroître son « réalisme » et finalement sa complexité.
Aller vers des paramétrisations plus compliquées, et plus proches des
processus, constitue une tendance lourde de lʼévolution des modèles. Mais les
scientifiques veulent aussi comprendre les mécanismes dominants, les princi-
pales étapes qui vont des équations aux phénomènes. Paramétriser un processus
suppose de le simplifier en extrayant les facteurs essentiels, de comprendre
ses liens avec dʼautres mécanismes ou paramètres extérieurs. En ce sens, la
paramétrisation, partie du modèle la plus entachée dʼincertitudes, constitue
aussi la partie la plus « fondamentale » de lʼactivité des modélisateurs.

Expériences numériques

Lʼutilisation des modèles comme « laboratoires numériques » pour réaliser


des expériences virtuelles remonte aux tout premiers modèles de circulation
générale ; et la notion dʼ« expérience numérique » reste souvent utilisée par
les modélisateurs, signalant lʼimportance de cette dimension expérimentale
de leur travail. Tout comme une expérience permet de tester une théorie dans
les conditions purifiées et bien définies du laboratoire, lʼordinateur permet
dʼétudier le comportement dʼune atmosphère (numérisée) simplifiée dans
des conditions choisies. Alors quʼil est impossible de commander au climat
réel, la modélisation autorise la manipulation de climats virtuels. Elle permet,
comme dans un laboratoire, de faire varier un paramètre pour évaluer lʼin-
fluence de tel facteur sur le climat – cʼest ce quʼon appelle une « expérience
de sensibilité ». En expérimentant par ordinateur, on peut tenter de discerner
les principaux facteurs expliquant tel phénomène climatique. La modélisation
autorise lʼexploration de climats extrêmes, passés ou futurs. Elle permet de
calculer, et même de visualiser, des phénomènes que lʼon ne sait pas calculer
directement à partir des théories disponibles. Les possibilités offertes par
lʼinstrument numérique sont immenses et ouvrent un champ presque illimité
dʼexpérimentations.
Un modèle de climat joue donc plusieurs rôles à la fois : il permet de
formuler des hypothèses et de les tester, de chercher les causes des méca-
nismes et dʼexpérimenter. Il réunit des caractéristiques des théories et des
expériences, et pourrait donner lʼillusion de se suffire à lui-même. Dʼoù le
risque, parfois évoqué par les scientifiques, de se replier sur « lʼunivers du
modèle ». En effet, à mesure que les modèles se sont raffinés, quʼils ont pris en
compte un nombre croissant de phénomènes dont les interactions ne sont pas
toujours bien connues, ils sont devenus presque aussi difficiles à comprendre
que le climat réel – tout en restant cependant plus manipulables et faciles à
explorer. Le travail de modélisation a de plus en plus consisté à comprendre
LES MODÈLES NUMÉRIQUES DE CLIMAT 103

ce qui se passe dans ces modèles complexes. Pour cela, les modélisateurs ont
fréquemment recours à des modèles simples, schématisés, du modèle complet
– des « métamodèles » en quelque sorte. Alors que, dans un GCM (modèle
de circulation générale) long et détaillé où interviennent de nombreuses
rétroactions, il est difficile dʼattribuer telle caractéristique du climat simulé à
telle paramétrisation, un modèle simple permet dʼisoler dans des conditions
maîtrisées une composante climatique, sans avoir tous les couplages et les
rétroactions.
Toutefois, il demeure essentiel de sortir de lʼunivers du modèle, de le
confronter aux données dʼobservation. Il y a en effet une différence majeure
entre expérience numérique et expérience de laboratoire : dans une expérience
de laboratoire, lʼhypothèse à tester est mise à lʼépreuve du monde réel, alors
que lʼexpérience numérique ne met en jeu quʼune représentation algorithmique
du climat. La confrontation avec le véritable climat a lieu en comparant les
simulations du modèle aux observations du climat réel. Aux yeux des cher-
cheurs, cʼest la mise à lʼépreuve du modèle par les observations du climat,
appelée « validation », qui confère au modèle sa valeur scientifique.

Données d’observation et validation

Les modélisateurs passent le plus clair de leur temps à tenter de valider


leur modèle en comparant les simulations de climat quʼil produit aux données
dʼobservation. Le terme de « valider » ne signifie pas quʼon vise un modèle
rigoureusement juste, mais plutôt quʼon cherche à en évaluer les performances
et à le rendre « suffisamment bon pour être utile ». Les validations peuvent
se rapporter au modèle tout entier, à une paramétrisation, ou encore à une
rétroaction entre processus. Il nʼy a pas de méthode ni de protocole standard :
une validation répond souvent à un questionnement préalable, à une hypo-
thèse scientifique, pour laquelle on doit imaginer une méthode adaptée de
confrontation entre modèle et données. Ainsi, lʼéruption du volcan Pinatubo,
en 1991, a constitué un « forçage » naturel du climat par lʼeffet des cendres
du volcan, que des scientifiques ont mis à profit pour valider la représentation
des aérosols dans le modèle.
Dans les premiers temps de la modélisation, les climatologues ont dʼabord
validé leur modèle par rapport au climat moyen : ils comparaient une carte de
climat simulé avec une carte de climat moyen issue de données dʼobservation,
en regardant si les grandes caractéristiques climatiques étaient correctement
reproduites. Puis ils ont cherché à valider non seulement la moyenne, mais
aussi les écarts, la variabilité du climat, à différents niveaux : cycle saisonnier,
variabilités interannuelles, fréquence des événements de type El Niño.
Les données dʼobservation servant à valider les modèles sont nombreuses
et diversifiées. On peut en distinguer deux catégories : les données concernant
104 LES MODÈLES DU FUTUR

les climats passés et les observations relatives aux climats dʼaujourdʼhui.


Les données sur le climat présent sont fournies par les réseaux (terrestres ou
maritimes) des stations météorologiques et par les satellites météorologiques,
océanographiques et scientifiques. On sait quʼen science « les données ne
sont jamais données », quʼil nʼexiste pas de données « pures » ; cʼest particu-
lièrement vrai en météorologie et en climatologie, où les données subissent
de nombreuses transformations et interprétations. Les signaux mesurés par
les instruments embarqués dans les satellites sont très éloignés des gran-
deurs utilisées dans les modèles, et leur interprétation requiert lʼutilisation
de modèles intermédiaires [Edwards, 1999 ; Kandel, 2002]. La constitution
des bases de données climatiques exige aussi un gros travail sur les don-
nées dʼorigine. Pour que les climatologues puissent valider les modèles sur
des périodes longues, ces bases doivent être fiables et homogènes ; or le
changement des instruments de mesure, leur déplacement ou leur altération
peuvent engendrer des ruptures, quʼil faut corriger pour retrouver une série
de mesures utilisables.
Dʼautres validations ne portent pas sur lʼensemble du modèle, mais se
limitent à la représentation dʼun processus climatique particulier. Les clima-
tologues sʼappuient alors souvent sur des campagnes de mesures locales. Ces
expériences, qui mobilisent des moyens humains et techniques considérables
(réseaux dʼinstruments, avions, ballons, navires, satellites) et répondent à des
besoins multiples (recherche, prévision météorologique, mais aussi gestion
des ressources naturelles, etc.) sont toujours internationales. Consacrées à
lʼétude dʼun processus climatique donné – mousson indienne, tempêtes de
lʼAtlantique nord, influence du relief étudié dans les Pyrénées, par exemple –,
les campagnes in situ permettent de valider, mais aussi dʼaméliorer ou de
développer des paramétrisations dans les modèles.

Archives des paléoclimats

Le flux de données fourni par les réseaux terrestres, les satellites et les
campagnes de mesure augmente exponentiellement, mais ces données instru-
mentales sont récentes et nʼoffrent que peu de recul – quelques décennies tout
au plus. Or on doit observer le climat sur de très longues durées si lʼon veut
étudier la fréquence des événements extrêmes, ou le rôle des composantes
lentes comme la végétation, les glaciers ou lʼocéan profond, particulièrement
dans la perspective du changement climatique. Dʼoù la nécessité de valider les
modèles sur les climats passés. Les modèles climatiques sont en effet capables
de simuler les climats anciens comme ceux dʼaujourdʼhui, pourvu quʼon leur
fournisse les conditions aux limites correspondant aux périodes concernées
(constante solaire, albédo, taux de CO2 atmosphérique, températures de surfa-
ces des océans). On a ainsi modélisé le climat du dernier maximum glaciaire
LES MODÈLES NUMÉRIQUES DE CLIMAT 105

(il y a 20 000 ans) et le climat dʼil y a 6 000 ans (quand le Sahara était humide
et couvert de végétation), ce qui permet de valider les modèles en confrontant
leurs simulations aux données paléoclimatiques.
On dispose dʼune grande variété dʼarchives climatiques : sédiments des
fonds marins, glaces des calottes polaires ou du Groenland, tourbes ; et pour
les climats plus récents, cernes dʼarbres, coraux, voire archives historiques.
Ces données se prêtent à toutes sortes dʼanalyses : ainsi, le dosage isotopique
de lʼoxygène des glaces polaires permet de remonter à la température de lʼair
au moment de leur formation. La comparaison entre simulations numériques
et données paléoclimatiques permet de valider le modèle par les données, mais
aussi parfois les données par le modèle, car les mesures paléoclimatiques,
elles aussi, passent par plusieurs étapes de traduction et dʼinterprétation. En
réalité, la validation nʼest pas une relation à sens unique, mais un processus
itératif complexe, qui comprend de multiples allers et retours entre simula-
tions et données.
Les modélisateurs le soulignent souvent : on parvient à valider un modèle
par rapport au climat actuel, mais il est plus difficile de valider la « sensibilité »
de ce modèle au changement climatique, cʼest-à-dire la façon dont ses para-
métrisations répondront à lʼaccroissement de lʼeffet de serre. De ce point de
vue, il est intéressant de tester les modèles pour des paléoclimats, cʼest-à-dire
dans des conditions très éloignées de celles du présent – comme le seront les
climats futurs que les modèles doivent être capables de simuler.

MODÉLISER LE SYSTÈME TERRE

Depuis une quinzaine dʼannées, la modélisation du climat est profondément


transformée par le couplage et lʼintégration dʼun nombre croissant de milieux,
dʼinteractions et de phénomènes dans les modèles. Dès lʼorigine, les modè-
les climatiques ont évolué en se complexifiant et en intégrant de nouveaux
facteurs, grâce à lʼordinateur qui rend possible la rencontre de nombreux
domaines différents [Galison, 1998]. Désormais, le problème du changement
climatique oblige les climatologues à prendre en compte dans leurs modèles
tous les éléments et toutes les rétroactions qui influencent le climat à long
terme. Le couplage de modèles différents et lʼintégration de nouveaux milieux
bouleversent en profondeur les pratiques mêmes de la modélisation.

Coupler océan et atmosphère

Le premier couplage a été celui de lʼocéan avec lʼatmosphère. Lʼocéan


joue un rôle primordial dans la redistribution de la chaleur, et son évolution,
beaucoup plus lente que celle de lʼatmosphère, a une influence essentielle
106 LES MODÈLES DU FUTUR

sur le climat à moyen et long terme. Dès quʼon veut donner des prévisions
météorologiques au-delà de quelques jours (pour la prévision saisonnière),
étudier des phénomènes de grande ampleur comme les événements de type
El Niño, et a fortiori prévoir lʼévolution du climat sur plusieurs décennies, on
doit prendre en compte les interactions entre océan et atmosphère en modé-
lisant simultanément les deux fluides et leurs échanges – ce quʼon appelle
« coupler » les modèles. Des modèles globaux dʼocéan (à trois dimensions
et fondés sur les équations de la dynamique des fluides, comme les modèles
atmosphériques) ont été couplés aux modèles dʼatmosphère au début des
années 1990 aux États-Unis – dix ans plus tard en France6.
Le couplage océan-atmosphère est une opération lourde qui exige à la fois
une réflexion approfondie sur les échanges physiques entre les deux milieux
et un important travail informatique. Dans un premier temps, les modèles
couplés présentaient des « dérives » : ils nʼétaient pas capables de reproduire
un climat stable, comme le faisaient les modèles atmosphérique ou océanique
pris séparément. Pour corriger ces défauts, des équipes de modélisation ont eu
recours à des techniques appelées « ajustements de flux », grâce auxquelles
les échanges à la surface océanique sont ajustés en permanence pour retrouver
des prédictions acceptables. Dʼautres modélisateurs ont préféré ne pas utiliser
ces procédés empiriques quʼils jugeaient peu rigoureux7. Aujourdʼhui, lʼamé-
lioration des couplages permet de calculer les échanges sans ajustement.

Simuler le changement climatique

À partir des années 1990, la question du changement climatique, deve-


nue un enjeu géopolitique et scientifique majeur, a exercé une influence
grandissante sur la modélisation du climat. Le GIEC, instance dʼexpertise
internationale unique au monde, a joué un rôle clé sur les plans scientifique
et politique, à travers ses épais rapports qui, tous les trois à cinq ans, synthé-
tisent les connaissances sur le climat et son évolution. Depuis 1992, le GIEC
propose plusieurs « scénarios8 » possibles dʼévolution de la concentration

6. En France, le LODYC (Laboratoire dʼocéanographie dynamique et de climatologie, université


Paris-VI et CNRS) a développé un modèle océanique, qui est couplé depuis une dizaine dʼannées
aux modèles atmosphériques du LMD et de Météo France, ainsi quʼà dʼautres modèles de prévision
et de climat dans le monde, en particulier celui du Centre européen de prévision à moyen terme de
Reading (Royaume-Uni).
7. Des sociologues des sciences ont montré [Shackley et alii, 1999] que lʼattitude vis-à-vis des
ajustements de flux dépendait de lʼusage des modèles : les scientifiques utilisant leurs modèles dans
le cadre de lʼexpertise sur le changement climatique avaient recours aux ajustements empiriques car
ils avaient besoin de simulations crédibles. Ceux qui avaient un usage plus académique et cognitif
des modèles préféraient se concentrer sur des recherches plus fondamentales.
8. Voir le chapitre de Michel Armatte sur les scénarios et celui dʼAmy Dahan sur le GIEC et
lʼactivité dʼexpertise.
LES MODÈLES NUMÉRIQUES DE CLIMAT 107

des gaz à effet de serre dans lʼatmosphère pour le XXIe siècle et les suivants,
qui sont utilisés comme « forçages » par les modèles de climat pour produire
des simulations de climats futurs. Une quinzaine dʼéquipes de modélisateurs
du climat dans le monde consacrent ainsi une part importante de leur temps
et de leurs moyens de calcul à la réalisation de ces simulations9, et plusieurs
centaines de climatologues travaillent aux rapports du GIEC comme contri-
buteurs, auteurs ou « auteurs principaux », responsables dʼun chapitre. Ce
travail de synthèse et de recherche de consensus de même que les thèmes mis
en avant ne sont pas sans influencer la recherche sur le climat. Lʼemprise du
changement climatique ne se limite pas aux travaux du GIEC ; elle se manifeste
également au travers des projets de recherche européens ou mondiaux, dans
les financements et les postes octroyés, ou par les initiatives des laboratoires
et des équipes. Ainsi, la tendance à lʼintégration de milieux, de rétroactions et
de cycles nouveaux dans les modèles participe dʼune volonté de mieux prendre
en compte tous les facteurs influençant le climat à long terme.

Intégrer de nouveaux milieux et de nouvelles disciplines

Après lʼocéan, lʼobjectif essentiel de la modélisation climatique est dʼin-


tégrer dʼautres éléments et dʼautres interactions qui jouent des rôles majeurs,
mais souvent mal connus, dans lʼévolution du climat : la végétation, la chimie
atmosphérique, les cycles biogéochimiques, la biologie océanique… Cette
tâche nʼen est quʼà ses débuts.
Un apport important de ces dernières années a été lʼintroduction dans
les modèles climatiques dʼun cycle du carbone interactif. Jusquʼalors, dans
les simulations de changement climatique, les concentrations de CO2 dans
lʼatmosphère étaient données en entrée des modèles, sous forme de différents
scénarios. En 2001, deux laboratoires (lʼinstitut Pierre-Simon Laplace10 en
France et le Hadley Centre au Royaume-Uni) ont réalisé des simulations dans
lesquelles on entrait dans le modèle non pas les concentrations atmosphériques
mais les émissions humaines de CO2 ; cʼest le modèle qui calculait ensuite la
part de CO2 restant dans lʼatmosphère et les quantités absorbées par lʼocéan et

9. En France, les deux communautés de modélisateurs de climat nʼont pas réalisé de simulations
pour les premiers rapports du GIEC (1990 et 1995) et très peu pour le troisième (en 2001), mais des
chercheurs français figuraient parmi les auteurs et les travaux cités. En revanche, pour le 4e rapport,
qui paraîtra en 2007, le modèle de lʼIPSL et celui de Météo France ont effectué un grand nombre de
simulations de changement climatique.
10. Lʼinstitut Pierre-Simon Laplace (ou IPSL), créé en 1992, regroupe six laboratoires de la
région parisienne étudiant différentes composantes de lʼenvironnement et du climat, dont le LMD
pour lʼatmosphère et le LODYC pour lʼocéan. Cʼest au niveau de lʼIPSL quʼest pris en charge le
modèle couplé océan-atmosphère, dont le modèle atmosphérique du LMD constitue le noyau et
qui inclut de plus en plus de milieux et de domaines (végétation, chimie, etc.) modélisés dans ses
différents laboratoires.
108 LES MODÈLES DU FUTUR

la végétation, ce qui permet de prendre en compte la rétroaction de lʼévolution


du climat sur ce cycle du carbone. Ce travail a montré que, dans un climat
plus chaud, lʼocéan et la végétation absorberont une moindre proportion du
CO2 émis, ce qui accroîtra dʼautant sa concentration atmosphérique – et donc
lʼeffet de serre.
Lʼun des domaines où la modélisation du climat sʼest le plus développée
récemment est la représentation des sols et de leurs échanges avec lʼatmos-
phère. Des simulations de paléoclimats ont démontré que la végétation avait
été, dans le passé, un acteur climatique de premier ordre, qui non seulement
subissait les changements mais pouvait les accélérer ; les modèles doivent
donc être capables de tenir compte des rétroactions de la végétation pour
les prévisions du changement climatique. Dans les modèles de circulation
atmosphérique, la représentation des sols était à lʼorigine très rudimentaire,
puis elle a pris la forme de paramétrisations de plus en plus détaillées (avec
plusieurs niveaux verticaux de sols, par exemple). À lʼinstitut Pierre-Simon
Laplace, cette paramétrisation est devenue si lourde et complexe quʼon lʼa
extraite du modèle climatique pour constituer un modèle de sol à part entière,
couplé au modèle dʼatmosphère du LMD et en interaction constante avec
lui. Baptisé « Orchidée », ce modèle des surfaces continentales comprend
trois modules : un pour lʼhydrologie (écoulement des fleuves, cycle de lʼeau
entre le sol et lʼatmosphère), le deuxième pour la végétation et les échanges
de carbone (qui modélise la photosynthèse, la respiration des plantes, leur
décomposition, etc.) et le dernier consacré à la dynamique de la végétation,
qui traite de lʼapparition et de la disparition des espèces.
Sans faire lʼinventaire complet de tous les couplages et intégrations à
lʼétude, mentionnons la chimie atmosphérique, dont lʼinfluence sur le climat
est essentielle (quʼon pense par exemple au rôle refroidissant des aérosols).
Des modèles chimiques reproduisant les réactions entre plusieurs dizaines
de molécules (ozone, composés soufrés, oxydes dʼazote, poussières déserti-
ques…) peuvent être couplés aux modèles atmosphériques – ces couplages
étant utilisés dans des études de pollution comme dans des projections à plus
long terme.
On assiste donc à une profonde mutation de la modélisation du climat, qui
se traduit par un déplacement de son centre de gravité depuis lʼatmosphère vers
les sols ou les cycles biogéochimiques, ou plus généralement vers ce quʼon
nomme parfois le « système Terre ». Cette extension du domaine du climat
entraîne des changements dans les pratiques des chercheurs. Modéliser ces
nouveaux milieux ou interactions très hétérogènes ne relève plus de la dyna-
mique des fluides, ni de paramétrisations fondées sur des bilans physiques.
Cela requiert de nouvelles approches scientifiques, où les interactions entre
milieux différents vont sans doute devenir aussi importantes que les dynami-
ques internes à chaque milieu. Sur un autre plan, les scientifiques, qui – au
LES MODÈLES NUMÉRIQUES DE CLIMAT 109

CNRS en particulier – avaient lʼhabitude de travailler de façon autonome et


peu hiérarchisée, sont désormais contraints à un travail beaucoup plus collectif
et mieux organisé : la gestion du développement de modèles complexes, de
couplages entre modèles ou de simulations longues sʼapparente parfois à celle
dʼun projet industriel !
Surtout, les modèles font appel à une variété croissante de domaines
scientifiques et sont de plus en plus le fruit dʼune recherche interdisciplinaire.
Les premiers modèles de circulation atmosphérique, comportant des para-
métrisations simples des échanges physiques avec les surfaces océaniques et
continentales, nʼexigeaient pas lʼintervention de spécialistes des océans ou des
sols. Mais, dans les modèles couplés, cʼest la dynamique même des océans,
les réactions chimiques, la vie des espèces végétales qui sont modélisées,
requérant la contribution de chercheurs de nouvelles disciplines, et définissant
autant de visions différentes du climat, de ses rythmes et de ses rétroactions.
La construction des modèles devient de plus en plus collective, et, même si
chaque scientifique ne peut en connaître quʼune petite portion (et doit faire
confiance à ses collègues pour le reste du modèle, qui lui apparaît en partie
comme une boîte opaque), les chercheurs de disciplines différentes doivent
souvent se comprendre, collaborer et se coordonner dans la construction de
modèles de plus en plus modulaires et transdisciplinaires.

Du complexe au simple, allers et retours

Lʼévolution vers des modèles de plus en plus complexes, foisonnants et


hétérogènes semble sʼinscrire dans une tendance irrésistible du domaine.
Pourtant cette tendance, dont lʼhorizon serait de parvenir à un modèle ultra-
détaillé et le plus possible exprimé à partir des lois physiques fondamentales,
nʼest pas hégémonique. Les climatologues ont recours, à côté des modèles
complexes, à des modèles simples pour mieux appréhender les phénomènes.
Cette démarche dʼaller-retour entre modèles de complexité différente leur
semble nécessaire pour comprendre les mécanismes climatiques en « dominant
lʼenchaînement entre simple et compliqué ».
La modélisation du climat est ainsi fréquemment confrontée à des arbitra-
ges entre le besoin de représenter la complexité du climat pour mieux prendre
en compte les processus dans leur généralité et la nécessité de simplifier pour
mieux en comprendre lʼessentiel. Cette tension est récurrente, que ce soit au
niveau des paramétrisations ou à celui, plus global, du modèle entier. Il arrive
que surgissent, dans la pratique, des confrontations entre complexité et sim-
plicité, entre objectifs de prévision et objectifs cognitifs : des modélisateurs
mettent en doute certains raffinements jugés superflus, sʼinterrogent sur une
« fuite en avant vers toujours plus de détails ». Aux yeux de la plupart dʼentre
eux, toutefois, prévision et compréhension ne devraient pas sʼopposer : rien
110 LES MODÈLES DU FUTUR

ne sert dʼaccroître le nombre et la complexité des paramétrisations si lʼon


ne contrôle pas la façon dont elles interagissent entre elles et dont leurs coo-
pérations influent sur le climat simulé. Pour les prévisions de changement
climatique, on ne peut valider les modèles et en évaluer les incertitudes que
si lʼon comprend les rétroactions en jeu. Le plus souvent, les objectifs de pré-
vision et de compréhension ne sont pas contradictoires, mais inséparables et
complémentaires, tout comme le recours aux modèles simples et aux modèles
de circulation générale.

NOUVEAUX DÉFIS, LE RETOUR AU LOCAL ?

Les modèles climatiques, désormais multicouplés et intégrant de nom-


breuses composantes, sont confrontés à de nouveaux défis, quʼon ne peut
quʼeffleurer ici.
Lʼune des interrogations les plus pressantes qui se manifeste déjà aujourdʼhui
concerne la régionalisation des prévisions. Il existe une véritable demande
sociale sur les conséquences du changement climatique au niveau régional ;
lʼaccroissement de la puissance des ordinateurs, qui permet en principe une
meilleure résolution des modèles, pousse à raffiner les prévisions du climat.
Lʼintroduction de modèles plus détaillés de sol et de végétation va aussi dans
le sens de préoccupations plus locales. Mais les modèles climatiques sont
mieux adaptés aux échelles synoptiques, et les prévisions ont tendance à être
de moins en moins fiables quand elles concernent des régions plus petites – et
à diverger dʼun modèle à lʼautre. Des recherches sont conduites sur les prévi-
sions régionales, en particulier avec des méthodes statistiques concernant les
relations entre échelles globale et locale. Les interactions dʼéchelles constituent
de fait un domaine très actif. Le choc quʼont pu représenter certains événements
extrêmes (à lʼexemple de Katrina) suscite aussi de nouvelles recherches et
encourage des approches pluridisciplinaires où devront converger plusieurs
niveaux de recherche et de modélisation – du local au global.
À des échelles de temps très lointaines, certaines « surprises catastro-
phiques » sont aussi lʼobjet dʼun intérêt croissant : celles qui sont liées aux
possibles variations brutales de composantes dites « lentes » du climat, comme
lʼocéan profond, les glaces ou la végétation. Dans le cadre de lʼexpertise du
GIEC, les modèles actuels ne prennent pas en compte ces ruptures dʼéquilibre
catastrophiques. Cependant, il est probable quʼils devront tôt ou tard explorer
la possibilité de non-linéarités fortes aux échelles climatiques : lʼarrêt de la
circulation thermohaline et de la formation dʼeau profonde, la fonte dʼune
partie de lʼAntarctique ou le dégazage du permafrost dans les régions sep-
tentrionales comme la Sibérie – même si ce type dʼévénements est entouré
LES MODÈLES NUMÉRIQUES DE CLIMAT 111

dʼune grande incertitude, et que la modélisation nʼest pas encore en mesure


de préciser les seuils à partir desquels ils se déclencheraient.
Au fur et à mesure que les connaissances sur le climat sʼaffinent, que les
puissances de calcul continuent dʼaugmenter, et surtout que la menace clima-
tique se précise, les modélisateurs risquent dʼêtre confrontés à des demandes
sociales nouvelles, difficilement prévisibles aujourdʼhui – on peut penser
déjà aux questions de responsabilité civile, dʼassurance, etc. Si leurs liens
avec lʼexpertise politique sʼen trouvent renforcés, lʼexigence de crédibilité
scientifique des modèles nʼen sera que plus forte.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARMATTE M. et DAHAN A. (2004), « Modèles et modélisations (1950-2000) : nouvelles


pratiques, nouveaux enjeux », Revue d’histoire des sciences, vol. 57, n° 2, p. 441-447.
BARD É. (dir.) (2006), L’Homme face au climat, Collège de France/Odile Jacob, Paris.
COIFFIER J. (2000), « Un demi-siècle de prévision numérique du temps », La Météorologie,
8e série, n° 30, p. 11-31.
DAHAN DALMEDICO A. (2001), « History and epistemology of models : meteorology as a case-
study (1946-1963) », Archive for History of Exact Sciences, n° 55, p. 395-422.
– (2007), « Models and simulations in climate change. Historical, epistemological,
anthropological and political aspects », dans CREAGER A., LUNSBECK E. et WISE N. (dir.),
Science without Laws : Model Systems, Cases and Exemplary Narratives, Duke University
Press, Durham et Londres, p. 184-237.
DAHAN DALMEDICO A. et GUILLEMOT H. (2006), « Changement climatique : dynamiques
scientifiques, expertise, enjeux géopolitiques », Sociologie du travail, vol. 48, n° 3,
p. 412-432.
EDWARDS P. (1999), « Global climate science, uncertainty and politics : data-laden models,
models-filtered data », Science as Culture, vol. 8, n° 4.
FLEMING J. (1998), Historical Perspectives on Climate Change, Oxford University Press,
Oxford.
GALISON P. (1998), « Computer simulations and the trading zone », dans Disunity of Science :
Boundaries, Context and Power, Harvard University Press, Cambridge, Mass.
HAUGLUSTAINE D., JOUZEL J. et LE TREUT H. (2004), Climat : chronique d’un bouleversement
annoncé, Le Pommier, Paris.
KANDEL R. (2002), « Les modèles météorologiques et climatiques », dans NOUVEL P. (dir.),
Enquête sur le concept de modèle, PUF, Paris.
LE TREUT H. (2005), Évolution climatique : les modèles et leurs limites, dossier du CNRS
accessible en ligne : http://www.cnrs.fr/cw/dossiers/divers/pdfspm/IdP2005/05Letreut.
pdf
LE TREUT H. et JANCOVICI J.-M. (2004), Effet de serre : allons-nous changer le climat ?,
Champs Flammarion, Paris.
LE TREUT H., VAN YPERSELE J.-P., HALLEGATE S. et HOURCADE J.-C. (dir.) (2004), Science du
changement climatique. Acquis et controverses, Éditions de lʼIDDRI, Paris.
MILLER C. A. et EDWARDS P. (dir.) (2001), Changing the Atmosphere. Expert Knowledge and
Environmental Governance, MIT Press, Cambridge, Mass.
112 LES MODÈLES DU FUTUR

MORGAN M. S. et MORRISON M. (dir.) (1999), Models as Mediators : Perspective on Natural


and Social Science, Cambridge University Press, Cambridge.
NEBEKER J. (1995), Calculating the Weather : Meteorology in the 20th Century, International
Geophysics Series, vol. 60, Academic Press, San Diego.
ROCHAS M. et JAVELLE J.-P. (1993), La Météorologie, Syros, Paris.
ROQUEPLO P. (1993), Climats sous surveillance, Economica, Paris.
SERRES M. (2006), « La simulation, technique nouvelle, ancienne tradition », La Recherche,
supplément « Le calcul haute performance », janvier.
SHACKLEY S., RISBEY J., STONE P. et WYNNE B. (1999), Adjusting to Policy Expectations in
Climate Change Modeling : an Interdisciplinary Study of Flux Adjustments in Coupled
Atmosphere-Ocean General Circulation Models, MIT Joint Program on the Science and
Policy of Climate Change, rapport n° 48.
SISMONDO S. (1999), « Models, simulations and their objects », Science in Context, vol. 12,
n° 2, p. 247-260.
WEART S. (2003), The Discovery of Global Warming, Harvard University Press, Cambridge,
Mass.
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 113

Le régime climatique, entre science,


expertise et politique

Amy Dahan Dalmedico

La modélisation numérique globale du climat de la planète Terre est un


domaine de longue tradition qui sʼest développé depuis les années 1960, tiré
par plusieurs dynamiques : instrumentales (ordinateurs, domaine spatial),
opérationnelles (importance croissante de la prévision météorologique…)
et dynamiques proprement scientifiques1. Vers la fin des années 1980, le
problème de lʼeffet anthropique des gaz à effet de serre émerge sur la scène
politique internationale. Une instance intergouvernementale dʼexpertise – le
Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC
– en anglais, IPCC, pour International Panel for Climate Change) – est créée
en 1988. La structuration du GIEC en trois groupes de travail, les études quʼil
suscite, lʼagenda quʼil définit contribuent à reconfigurer lʼensemble du champ.
Après le Sommet de la Terre de Rio en 1992, la Convention-cadre des Nations
unies sur le changement climatique (United Nations Framework Convention
on Climate Change, UNFCCC) réunit annuellement des conférences qui
deviennent les arènes de négociations internationales sur le sujet en même
temps que des forums hybrides où se croisent des groupes de plus en plus
variés. Dʼautres institutions se créent. Progressivement, les préoccupations
centrales de la recherche se modifient, de nouvelles pratiques apparaissent ;
les enjeux géopolitiques croisent les questions scientifiques.
En moins de dix ans, le changement climatique est passé dʼun sujet scien-
tifique complexe – le climat peut-il changer ? – à celui dʼun thème politique
aux enjeux nationaux, économiques, sociaux et diplomatiques, mettant en
compétition des intérêts économiques, des conceptions du droit et de lʼéquité,
des visions du futur, et faisant diverger les choix politiques. Les commu-
nautés de recherche (relevant des sciences dures, des sciences du vivant, de
lʼétude des écosystèmes, de lʼéconomie, etc.), les partenaires et les acteurs
(négociateurs politiques, ONG, groupes industriels, etc.) concernés par son
développement ne cessent dʼaugmenter et de se diversifier. Reprenons ici

1. Voir le chapitre rédigé par Hélène Guillemot dans cet ouvrage.


114 LES MODÈLES DU FUTUR

lʼexpression de régime – au sens non pas des sciences politiques mais des
science studies – utilisée par de nombreux auteurs pour caractériser les modes
de production du savoir scientifique contemporain, quand ils se déploient
pour résoudre des problèmes en liens organiques avec des pratiques indus-
trielles, des choix économiques, des régulations politiques et juridiques, des
débats éthiques et sociaux2. Notre thèse est alors dʼaffirmer que le régime
du changement climatique devient de plus en plus hétérogène et multiple, et
se caractérise par une hybridation croissante et singulière des dynamiques
proprement scientifiques et des dynamiques politiques.
Lʼobjet principal de ce chapitre est de revenir sur cette évolution intervenue
au cours des vingt dernières années, sur le rôle déterminant quʼy ont joué le
GIEC et dʼautres institutions du régime. Afin de réfléchir à ce que cet exemple
nous enseigne sur les liens, à lʼéchelle internationale, entre science et poli-
tique ; sur les questions de construction et de fonctionnement à cette échelle
de lʼexpertise, prise entre normes de scientificité et exigences de délibération
démocratique. Nous interrogerons en particulier lʼidée selon laquelle ce serait
par la convergence cognitive de tous les partenaires impliqués autour des
questions scientifiques et, ensuite, par le consensus autour de leurs solutions
quʼune politique pourrait être définie et acceptée. Comment cette idée rend-elle
compte des relations complexes entre science, politique et expertise ?

LA MISE EN PLACE DU RÉGIME CLIMATIQUE

LʼOrganisation météorologique mondiale (lʼOMM – WMO en anglais) a


joué un rôle déterminant dans les premières phases dʼascension de la ques-
tion de lʼeffet de serre anthropique sur la scène internationale. Cʼest sous son
égide que se sont déroulées plusieurs conférences sur le climat entre 1979 et
1987 (à Toronto, au Canada, et à Villach en Autriche), quʼun programme de
recherche (le World Climate Program) a été lancé et, enfin, que lʼidée dʼune
instance intergouvernementale dʼexpertise capable de conseiller les décideurs
politiques sur ce sujet du changement climatique a pris forme.

Une tradition longue d’interactions entre le scientifique et le politique

Dans les années cinquante, lʼémergence de lʼOrganisation météorologique


mondiale sʼétait inscrite dans le contexte politique de la guerre froide, et

2. Plusieurs auteurs ont utilisé le terme à propos de lʼInternational Weather Regime mis en place
par les météorologistes après la Seconde Guerre mondiale. Voir Clark Miller [2001a] ou Daniel
Bodansky [2001]. Lʼutilisation semble devenir ensuite courante à propos du changement climatique.
Du côté des science studies, Dominique Pestre [2003], commentant les ouvrages de M. Gibbons et
alii [1994] et H. Nowotny et alii [2001], a thématisé lʼexpression de « régime ».
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 115

ce contexte a influencé la définition même de lʼinstitution, sa forme orga-


nisationnelle et la détermination de ses politiques de recherche. En retour,
ces dernières ont elles-mêmes influencé les questions de politique générale.
LʼOMM, fondée en 1947 par la Convention météorologique mondiale, sʼest
vu attribuer en 1951 la qualité dʼinstitution spécialisée des Nations unies,
avec un statut intergouvernemental. De statut privé à lʼorigine, lʼinstitution
gagne alors un poids plus important pour convaincre les gouvernements
réticents de collaborer avec elle. Par exemple, lʼinstallation dʼun réseau
mondial d’observations météorologiques, vieux rêve des météorologues,
ne fut pas seulement le résultat dʼune meilleure coordination technique. Ce
sont bien les conditions politiques du moment qui ont offert lʼopportunité de
cette transformation. Lʼappui des États-Unis, pouvoir dominant sur la scène
internationale à lʼissue de la guerre, a été essentiel. La création dʼinstitutions
(scientifiques) internationales est à cette époque lʼun des moyens dʼaction
de la politique américaine contre le communisme, une politique enracinée
dans une conception des relations entre le politique et la science qui pos-
tule un lien étroit entre progrès scientifique et croissance économique3 (et
progrès social).
Les conceptions dominantes du rôle des sciences sur la scène internationale
à un moment donné et les modes dʼinteraction entre scientifiques et politiques
tendent à définir conjointement le domaine du politique et celui de la science4.
Dans lʼaprès-guerre, ces modalités dʼinteraction sont déterminées par trois
objectifs principaux :
— harmoniser les normes et les pratiques (nationales) par la coopération
technique et scientifique internationale ;
— construire ou renforcer la capacité des États à faire leurs propres recher-
ches et entretenir une infrastructure technologique propre ;
— mobiliser la communauté internationale pour des problèmes globaux
par la promotion dʼune conception commune de ces problèmes.
La querelle qui sʼest développée pendant lʼAnnée géophysique interna-
tionale (International Geophysical Year, IGY) de 1957-1958 autour du type
de données à collecter et dʼinfrastructures à installer illustre bien ce propos.
Devait-on utiliser les nouvelles ressources de lʼIGY (et de lʼOrganisation
météorologique mondiale) pour obtenir enfin des données difficilement acces-
sibles, comme les données météorologiques associées à des lieux situés en
haute altitude, dans des zones désertiques ou sur les océans, ou bien fallait-il

3. Voir les travaux de John Krige [2006].


4. Miller [2001a] les appelle des patterns of interaction et illustre son analyse à partir de deux
autres exemples : les activités de lʼOMM en Libye et la politique de lʼOMM vis-à-vis de la Chine
(exclusion puis réintégration de ce pays dans lʼOMM).
Il nʼest pas dans lʼobjectif de ce texte de développer des analyses exhaustives sur ces
questions.
116 LES MODÈLES DU FUTUR

utiliser ces ressources pour installer des observatoires dans les zones peuplées
(déjà couvertes) afin dʼaffiner les prédictions locales et directement utilisables
par les pays ? Les réponses des scientifiques et des politiques étaient a priori
fort éloignées ; néanmoins, les modes dʼinteraction des deux groupes ont
permis dʼaboutir à la construction de solutions de compromis.
En 1988, lʼOrganisation météorologique mondiale et le Programme des
Nations unies pour lʼenvironnement (PNUE) décident de créer une instance
mondiale dʼexpertise, unique en son genre : le Groupe dʼexperts intergouver-
nemental sur lʼévolution du climat (GIEC). Le GIEC, constitué de plusieurs
centaines de scientifiques, est chargé non seulement dʼinformer les gouverne-
ments de lʼétat des connaissances sur le sujet, mais aussi de passer en revue
les politiques nationales ou internationales liées à la question des gaz à effet
de serre. Ce nouvel organisme dʼexpertise doit faire lʼétat de lʼart (scientifi-
que et technologique), susciter des recherches utiles aux politiques – ce que
lʼon nomme la policy-relevant research. Cependant, il ne doit en aucune
manière empiéter sur les prérogatives et la souveraineté des États nationaux,
et sa mission sʼoppose à tout ce qui pourrait être perçu comme une démarche
prescriptive (policy-prescriptive research).
La période nʼest plus celle de la guerre froide. La question climatique
et ses dimensions environnementales vont se révéler dʼune telle ampleur
quʼelles vont notamment contribuer au retour sur la scène internationale des
pays en développement. Certes, le changement climatique nʼest pas le seul
facteur de la reprise du dialogue Nord-Sud, en panne depuis la décolonisation
des années 1960, et qui nʼavait pas débouché sur un rattrapage des écarts de
développement. Certes, lʼémergence récente dʼun marché mondial, dominé
par les concentrations industrielles et financières, a provoqué par le processus
des délocalisations un transfert de richesses vers des pays émergents et recon-
figuré la répartition du développement. Mais dʼautres modes dʼinteraction se
mettent en place progressivement dans une co-construction du scientifique et
du politique quʼil sʼagit dʼexplorer dʼici.

Le Groupe d’experts intergouvernemental sur l’évolution du climat

Les États-Unis ont joué un rôle déterminant pour faire pression sur le
conseil exécutif de lʼorganisation météorologique mondiale et imposer le
compromis dʼun tel mécanisme intergouvernemental. Pourtant, les points
de vue américains étaient aussi variés que concurrents. LʼAdministration
républicaine pensait en particulier quʼil nʼy avait aucune évidence scienti-
fique quant au changement climatique qui puisse justifier une action poli-
tique trop onéreuse. En revanche, lʼAgence américaine de protection de
lʼenvironnement (lʼEnvironment Protection Agency, EPA) et le département
dʼÉtat soutenaient lʼidée dʼune convention, mais pas celle dʼun mécanisme
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 117

intergouvernemental. S. Agrawala [1998a, 1998b] a analysé avec précision


le scénario paradoxal qui a conduit une multiplicité dʼacteurs politiques (le
PNUE, lʼOMM et de nombreuses agences américaines) et de pays ayant des
intérêts très divergents à se défausser sur les scientifiques et à leur abandon-
ner le contrôle du processus dʼévaluation. Ils font présider le GIEC par Bert
Bolin, célèbre climatologue suédois, vétéran de lʼOrganisation météorologi-
que mondiale et des réunions internationales dʼévaluation sur le climat. De
plus, les concepteurs du GIEC préconisent dʼemblée la transparence dans la
conduite du processus et une participation « universelle » : tous les pays du
monde devront y être autant que possible associés (en 2005, 192 représentants
dʼÉtats y ont participé).
Selon le cadrage suggéré par Mostafa Tolba, directeur exécutif du PNUE,
le GIEC sʼest très vite organisé en trois groupes de travail parallèles (working
groups ou WG), qui devaient sʼoccuper respectivement :
— de la science du climat et de la biosphère,
— de lʼimpact du changement climatique sur la biosphère et sur les sys-
tèmes socio-économiques (ce groupe sʼoccupe aujourdʼhui également des
questions dʼadaptation et de vulnérabilité des écosystèmes),
— des réponses stratégiques au changement climatique (en anglais miti-
gation, ou « atténuation du changement »).
Le choix des personnalités présidant les trois sous-groupes fut lʼobjet de
négociations et répondait à des critères à la fois politiques et scientifiques. Les
spécialistes des sciences de la nature jouaient naturellement le rôle prééminent
dans le premier groupe, les économistes occupaient une place hégémonique
dans le troisième groupe ; quant au deuxième groupe, il devait réunir des
spécialistes de toutes les disciplines : hydrologues, biologistes, écologues,
climatologues… ou encore économistes. Que le GIEC soit un organisme
dʼexpertise qui, dès lʼorigine, a tenté de maintenir un équilibre fragile entre
deux exigences également contraignantes – préserver sa crédibilité scientifique
tout en ayant lʼoreille des politiques – mérite toute notre attention5 : comment
fonctionne la fabrication des consensus pour le politique et, en retour, quel
est lʼimpact de cette « fabrique » sur la vie scientifique ?
Le GIEC a déjà publié trois rapports : en 1990, en 1995 et en 2001 ; la
publication du quatrième est prévue en 2007. Dans les premières années de
fonctionnement du GIEC, alors que la réalité du changement climatique est
encore lʼobjet de vives controverses, les scientifiques du premier groupe sont
incontestablement très en pointe. Sʼappuyant sur une longue tradition de
recherche, leurs modèles de circulation générale – seuls outils qui permettent
de se projeter quantitativement dans le futur – jouent un rôle crucial. Dès le

5. Cette exigence a été constamment réaffirmée par ses présidents successifs (Bert Bolin, Robert
Watson qui lʼa remplacé en 1997 et, depuis 2003, lʼIndien Rajendra K. Patchauri).
118 LES MODÈLES DU FUTUR

premier rapport de 1990, à lʼaide de ces modèles auxquels ils intègrent les
concentrations de gaz à effet de serre – concentrations croissantes selon lʼhypo-
thèse du business as usual –, les climatologues prédisent un accroissement
de la température moyenne du globe au cours du XXIe siècle de 0,3 °C par
décennie. Ils insistent toutefois sur les incertitudes (concernant le rôle des
nuages, les océans, les sols, et aussi les sources et les puits de gaz à effet de
serre). Ce premier rapport, qui établissait une claire distinction entre le « chan-
gement climatique » – dʼorigine anthropique – et la « variabilité climatique »
(attribuable à des causes naturelles), a sensibilisé les politiques et entraîné la
convocation par lʼassemblée générale des Nations unies de la conférence de
Rio de Janeiro en juin 1992.

Les COP, forums hybrides du régime climatique

Le 21 mars 1994, la Convention-cadre des Nations unies sur les chan-


gements climatiques (CCNUCC), décidée à la conférence de Rio, entre en
fonction. Dès ce moment, les Conférences des Parties (Conferences of Parties,
COP) convoquées, à la fin de chaque année, alternativement dans un pays
du Nord ou du Sud, deviennent les forums de la négociation internationale
sur le changement climatique. Le processus des COP est un processus avant
tout politique dont les enjeux et les acteurs sont particulièrement nombreux
et multiples. Lʼenchevêtrement des logiques politiques et des dynamiques
dʼintérêt est si complexe quʼil nʼest pas simple de faire le bilan dʼune COP,
car juger des résultats, des avancées (ou des stagnations) du processus de
négociation dépend du point de vue de quels acteurs, de quelles coalitions
dʼintérêts ou de pays on se place.
Outre les séances plénières de la convention (où seuls les délégués ont la
parole) et les séances fermées, une COP est le siège de dizaines – voire de
centaines – de rencontres, colloques et exposés organisés en parallèle par les
divers acteurs. De nombreux États ou coalitions de pays (lʼUnion européenne,
le Japon, le Brésil, la Chine, lʼAOSIS6…) rivalisent dʼefforts pour organiser
des « événements ». Le GIEC et les divers groupes techniques dʼexpertise qui
lui sont liés présentent également leurs rapports et leurs résultats. Les insti-
tutions de recherche des différents pays trouvent là une vitrine pour se faire
connaître et y exposent leurs publications7. Sans oublier les représentants de

6. LʼAlliance of Small Island States (lʼAlliance des petits États insulaires).


7. Quelques exemples parmi de nombreux autres : le World Ressource Institute (WRI) américain
dirigé par Jonathan Pershing, le Tyndall Center britannique ou le Postdam Institut für Klimat
allemand… Jonathan Pershing était le chef de la délégation américaine au moment de Kyoto (COP 3)
puis devint directeur à lʼAgence internationale de lʼénergie (non reconduit dans ses fonctions par le
gouvernement Bush). Il ne travaille plus aujourdʼhui pour le gouvernement fédéral mais, à la tête
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 119

lʼindustrie, ceux des agences internationales comme lʼAgence internationale


de lʼénergie. Soit, au total, plusieurs milliers de participants8.
Les ONG, quʼelles soient environnementales (les ENGO en anglais) ou
de business (BINGO), sont très présentes dans les COP : elles étaient déjà
165 à participer à la première en 1995 et ce nombre nʼa cessé de croître pour
atteindre 340 en 2004. Parmi les ENGO, certaines jouissent dʼun crédit moral
très important. Mentionnons en particulier le World Wildlife Fund (WWF),
Greenpeace, les Amis de la Terre. Le bulletin de leur réseau (le Climate Action
Network) édité quotidiennement en anglais et en français au moment des
COP, est lu et commenté par tous les participants et constitue un événement.
Plus généralement, les interventions des ONG environnementales, au sein
ou en marge des COP, et leurs analyses théoriques et politiques sont toujours
prises en compte par les délégués des gouvernements, qui en font état dans
les discussions officielles9.
Les COP constituent les véritables forums hybrides, selon lʼexpression
de Callon, Lascoumes et Barthe [2001], du changement climatique, dont le
régime – entre science et gouvernance globale – nʼa cessé de se compliquer
tant dans sa composition que dans son fonctionnement. Les communautés
savantes et épistémiques sont projetées aux côtés des politiques, des négo-
ciateurs, mais aussi des membres de la société civile sur une scène de plus
en plus hétérogène.

Cartographie des pays suivant les intérêts en présence

La question climatique concerne tous les pays de la planète. Dès le début


du processus dʼexpertise, la volonté politique initiale du PNUE dʼassocier le
plus grand nombre de pays possible a été mise en œuvre, jusquʼà impliquer
ces dernières années, comme on lʼa dit, 192 États et leur gouvernement. La
classification des pays participants en sept familles, établie par Pierre Radanne
[2004], rend bien compte des clivages principaux apparus au cours de ces dix
années de négociation internationale :
— les pays pleins, dont la démographie présente une forte densité mais
une faible croissance, et qui ont, pour la plupart, épuisé leurs ressources fos-
siles ; ce groupe comprend lʼEurope au sens large (sans la Russie), le Japon,
la Nouvelle-Zélande ; pour certains dʼentre eux, une rupture a déjà eu lieu en
1973, au moment du premier choc pétrolier qui a provoqué une réorientation

du WRI, il conseille divers États, notamment de la côte Est, dans leurs politiques et prospectives
énergétiques. Il continue à être une personnalité importante lors des COP.
8. 6 000 personnes ont assisté à la COP 10 de Buenos Aires en 2004 : 2000 délégués, 3000 obser-
vateurs ainsi que des membres dʼONG, des chercheurs, des représentants dʼinstitutions diverses.
9. Sur le rôle des ONG au sein du régime du changement climatique, on peut lire Kal Raustiala
[2001].
120 LES MODÈLES DU FUTUR

des politiques et des investissements énergétiques (nucléaire et économies


dʼénergie) ;
— les pays vides, fortement industrialisés et à faible densité démogra-
phique : USA, Canada, Australie ; lʼabondance de lʼespace se traduit par des
modes de consommation et dʼurbanisme gaspilleurs dʼénergie, mais ces pays
disposent dʼimportantes ressources énergétiques ; leur croissance démogra-
phique (souvent liée à une forte immigration) et leur dynamisme économique
leur font rejeter toute idée dʼentraves, mais, avec la question climatique, ils
sont confrontés pour la première fois à une limite ;
— les pays en transition industrielle, plongés depuis 1990 dans le déclin :
il sʼagit avant tout de la Russie – gratifiée dʼune simple stabilisation de ses
émissions à Kyoto (en 1997), alors quʼil était clair quʼelle était en pleine
régression ! La Russie pourrait à lʼavenir rejoindre les pays vides dont elle
partage certaines caractéristiques, tandis que ses ex-pays satellites de lʼest de
lʼEurope souffrent de leur pauvreté en ressources énergétiques.
Un groupe de 77 pays – auquel la Chine est souvent adjointe (et que lʼon
appelle alors « G77 + Chine ») est divisé, lui, en quatre courants :
— l’OPEP et, plus largement, les pays producteurs de combustibles fos-
siles, notamment les pays exportateurs de charbon (Colombie, Indonésie,
Australie, Afrique du Sud) qui craignent une diminution de leurs ressources
financières – le débat énergétique ayant longtemps favorisé, pour des raisons
politiques, les pays producteurs de gaz naturel (Émirats arabes unis, Russie
et États dʼAsie centrale issus de lʼex-URSS) ;
— les pays de l’AOSIS : il sʼagit des États-îles de lʼOcéan indien et du
Pacifique, du Bangladesh et de quelques autres pays victimes dʼévénements
climatiques. Menacés jusque dans leur existence même (risques dʼinondation,
cyclones, montée du niveau de la mer…), ces pays pauvres et fragiles ont peu
de capacités dʼadaptation, mais leurs élites jouent un rôle très actif, ce qui
leur permet de peser davantage dans la négociation que ce que leur influence
politique ou leur poids économique pouvaient laisser prévoir ;
— les pays les moins développés (Least-Industrialized Countries, LIC) :
ce sont les pays les plus démunis, ayant peu de possibilités dʼanticipation
technologique et peu de poids dans les négociations internationales (plusieurs
pays dʼAfrique, le Népal…) ;
— enfin, les pays émergents ; ceux-là sortent de la spirale du sous-déve-
loppement et commencent à maîtriser leur démographie ; ils manifestent leur
crainte que la négociation nʼimpose des limites à leurs émissions et donc à leur
essor. Le pôle leader de ce groupe est incontestablement formé de la Chine, de
lʼInde, de lʼAfrique du Sud et du Brésil, quatre pays qui rassemblent la moitié
de la population mondiale et expriment les intérêts de quatre continents.
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 121

Cependant, cette classification fondée sur des critères fondamentaux de


richesse et dʼintérêts énergétiques ne dit pas tout, et elle doit être croisée avec
dʼautres classifications construites à partir de critères différents. Ainsi Robert
Cooper10 [1999] classe les États en trois catégories :
— les « prémodernes » tels, par exemple, lʼAfghanistan, le Liberia ou la
Somalie : des États très fragiles qui ont sombré dans le chaos, nʼont pas de
politique étrangère et rien à négocier ;
— les « modernes » tels lʼInde, la Chine ou le Brésil, parties prenantes de
ce grand moteur de la modernisation quʼest lʼÉtat-nation, qui peut prétendre
détenir le monopole de la violence légitime ; la défense de la souveraineté
nationale y joue un rôle important ;
— les « post-modernes » qui, tels les vieux États occidentaux, ont rejeté
lʼusage de la force pour régler leurs différends.
Parmi les post-modernes, Samy Cohen [2003] distingue encore trois
sous-catégories :
— les unilatéralistes, tels les USA, en particulier depuis le 11 septembre
2001 ;
— les partisans dʼune « diplomatie morale » : des États qui, comme le
Canada, les pays scandinaves ou la Belgique, ont tendance à coopérer avec
les instances multilatérales et les ONG internationales et font des valeurs
universelles de la justice et des droits de lʼhomme lʼun des principaux axes
de leur diplomatie ;
— entre les deux groupes, on peut identifier la catégorie des pays « pragma-
tiques », puissances moyennes et anciennes puissances coloniales (la France, la
Grande-Bretagne…), qui gardent un fort désir dʼinfluencer la diplomatie et la
géopolitique internationales ; leur discours de politique étrangère est volontiers
moral, tout en manifestant parfois un tropisme unilatéraliste et souverainiste
(cas du président Jacques Chirac par exemple).
Croiser ou superposer les classifications, cʼest garder à lʼesprit la multipli-
cité des logiques et des intérêts qui mobilisent chaque pays dans le domaine
de la politique climatique. Par exemple, le Canada, soucieux de pratiquer une
diplomatie morale, ne rompt pas pour autant avec les intérêts dʼun pays plein.
Contrairement aux États-Unis, il a signé le protocole de Kyoto. Pourtant, sa
mise en œuvre se heurte à des difficultés et à des inerties considérables que
les ONG canadiennes ont vivement dénoncées lors de la COP 11 de Montréal
en décembre 2005.

10. Robert Cooper est ancien vice-ministre britannique de la Défense et actuellement un


collaborateur de Javier Solana (en charge des questions de politique étrangère et de sécurité commune
en Europe).
122 LES MODÈLES DU FUTUR

LE FONCTIONNEMENT DE LʼEXPERTISE

Comme lʼa écrit Ulrich Beck [2001], les risques écologiques se singu-
larisent par leur statut ambigu, à la fois objectif et subjectif : objectif, car
procédant dʼévolutions physiques aux effets concrets, et subjectif au sens où
ils nʼaccèdent à la conscience (individuelle ou collective) quʼau terme dʼun
long travail de construction. A fortiori, le risque climatique nʼest pas un donné
mais un construit. Au moment de la création de cet organisme dʼexpertise et
dʼévaluation des risques quʼest le GIEC, aucun consensus profond nʼexistait
entre les gouvernements sur les instances qui garantiraient lʼexpertise, sur
ce qui se verrait reconnaître le statut dʼévidence et, enfin, sur les moyens de
remettre en question ou de critiquer cette expertise. De vives tensions sont
apparues sur tous ces sujets, et elles ont pesé sur les formes quʼa revêtues cette
expertise, sur son fonctionnement et sur le périmètre de ses compétences.

Premières tensions politiques

Entre 1990 et 1995, une vaste reconfiguration du régime climatique sʼest


clairement jouée, à la suite des insatisfactions exprimées par les pays en déve-
loppement à lʼégard du GIEC [Miller, 2001b]. En effet, en 1990, ce dernier
(dont le bureau est alors dominé par les sciences dures) présente toujours le
problème du changement climatique comme un problème global – posant la
question de limites environnementales globales –, tandis que la plupart des
pays du Sud le voient déjà comme un problème de surconsommation des
pays du Nord. Le GIEC ne se prononce pas sur ce dernier point, qui sort de
ses compétences, ce qui conduit les gouvernements des pays en développe-
ment à voter dans un premier temps la création dʼun organisme séparé, le
Comité international de négociation (le CIN, en anglais INC – International
Negociation Committee) pour abriter les négociations politiques.
En 1991, les scientifiques du GIEC réorganisent lʼorganisme tel quʼil
fonctionne aujourdʼhui, recentrant les activités du Groupe dʼexperts interna-
tional sur lʼévaluation des risques du changement climatique, établissant des
règles rigoureuses pour la sélection dʼexperts et pour le reviewing des résultats
scientifiques par les pairs. Des unités de soutien technique sont aussi créées qui
ont pour fonction autoproclamée de mettre les participants du GIEC à lʼabri
des intérêts politiques qui chercheraient à influencer leurs résultats. Le GIEC
tente donc de renforcer son image dʼorganisme exclusivement scientifique,
ce qui ne désarme pas pour autant la méfiance des pays en développement.
En 1992, la Convention-cadre des Nations unies sur les changements cli-
matiques jette les bases dʼun « organe subsidiaire de conseil scientifique et
technologique auxiliaire dʼévaluation scientifique et technique » (SBSTA :
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 123

Subsidiary Body for Scientific and Technological Advice) dont la création


sera effective en 1995. Ainsi, deux groupes, le Comité intergouvernemental
de négociation et le SBSTA, vont servir de tampon entre les négociateurs
politiques et le GIEC.
Quand on se penche sur les missions du SBSTA11, une partie dʼentre elles
apparaissent relativement proches de celles du GIEC – fournir des évaluations
scientifiques sur lʼétat des connaissances, sur lʼeffet des mesures, sur les
technologies, bref faire le point de lʼétat de lʼart –, et lʼon pourrait y lire une
évidence partagée par tous les négociateurs du rôle que la science doit jouer
dans la politique internationale. Or, le constat nʼest pas si simple et même
assez loin de ce qui sʼest effectivement passé. En fait, le SBSTA a une mission
spécifique par rapport à celle du GIEC : fournir des avis aux gouvernements ; il
sera lʼorganisme qui assume les clivages proprement politiques sur lʼexpertise
scientifique et ouvre un espace de débat sur cette dernière. Quʼest-ce quʼune
connaissance crédible, quʼest-ce quʼune politique légitime, comment la policy-
relevant knowledge est-elle utilisée pour définir une politique globale ?
Avec la création du SBSTA, on assiste, au-delà des tensions, à une ouver-
ture du spectre entre science et politique et à une répartition des rôles. Dans
le dispositif institutionnel du régime, le ressort du GIEC est dʼêtre, pour
parler en termes latouriens, une fabrique de purification de la science, même
si lʼentreprise est sans cesse remise en chantier par la nature même de ce
régime. En revanche, le SBSTA, organisme qui fait le lien entre les gouver-
nements et le GIEC, assume lʼexpression politique des controverses apparues
au sein des COP et des forums qui les accompagnent. Ce processus a tendance
dʼailleurs à se répéter à des échelles inférieures. On peut noter que, chaque
fois quʼune instance « se purifie » dʼun point de vue scientifique et cherche à
mettre en « boîte noire » certaines questions scientifiques qui pourraient lui
sembler tranchées, se crée à ses côtés une autre instance (un comité, un panel
technique, un groupe) qui assume plus explicitement les contradictions avec
le politique.

11. Le texte de lʼarticle 9 de la Convention qui porte sur le SBSTA stipule : « Lʼorgane, agissant
sous lʼautorité de la Conférence des Parties et sʼappuyant sur les travaux des organes internationaux
compétents, a pour fonctions : a) de faire le point des connaissances scientifiques sur les changements
climatiques et leurs effets ; b) de faire le point, sur le plan scientifique, des effets des mesures
prises en application de la Convention ; c) de recenser les technologies et les savoir-faire de pointe,
novateurs et performants, et dʼindiquer les moyens dʼen encourager le développement et dʼen assurer
le transfert ; d) de fournir des avis sur les programmes scientifiques, sur la coopération internationale
et la recherche-développement en matière de changements climatiques et sur les moyens dʼaider les
pays en développement à se doter dʼune capacité propre ; e) de répondre aux questions scientifiques,
technologiques et méthodologiques que la Conférence des Parties et ses organes subsidiaires pourront
lui poser. »
124 LES MODÈLES DU FUTUR

Le processus d’expertise GIEC : modèle linéaire classique ?

Du point de vue des relations avec la communauté scientifique, le GIEC


est lʼinstance déterminante qui instaure des procédures très strictes chargées
de garantir son caractère rigoureusement scientifique. Les rapports sont pré-
parés par des équipes de rédacteurs, durement sélectionnés sur la base de leur
compétence scientifique (réputation internationale, publications). Le processus
de referees est très long et très lourd : la rédaction des chapitres doit passer
par deux stades dʼexamen et de réécriture, dʼabord par des pairs scientifiques,
ensuite par les pairs et les gouvernements. Les rapports finaux, eux, ont un
statut encore différent. Ils sont adoptés en session plénière et sont accompagnés
de résumés techniques et de « résumés pour décideurs » ; ceux-ci doivent être
approuvés, ligne par ligne, par les représentants des gouvernements. Depuis
la création du SBSTA, cʼest ce dernier (représentant, répétons-le, 192 pays)
qui donne le feu vert à la recommandation des rapports du GIEC.
Le modèle du GIEC paraît à première vue sʼinscrire dans le mode tradition-
nel des relations entre science et société, selon lequel la connaissance précède
lʼapplication, le consensus scientifique précède lʼaction politique, mode quʼon
a appelé le modèle linéaire12. Ce cadrage a pour corollaire la séparation radi-
cale entre science et politique : à la science, les faits et les connaissances ; à
la politique, les décisions, les valeurs et les croyances. Le cadrage du modèle
linéaire est généralement bien accepté sinon revendiqué par les scientifiques
pour des raisons que lʼon peut aisément imaginer : il les protège de la pres-
sion des intérêts à court terme, dʼun pilotage trop étroit par les pouvoirs, les
lobbies ou le marché, il semble préserver leur sphère dʼautonomie. De plus,
la séparation – si elle était acquise – conférerait une légitimité à la science,
comme support de lʼaction politique.
Philippe Roqueplo [1997] a distingué deux acceptions du terme dʼexpert :
1) comme adjectif, quand le scientifique expert est un scientifique compétent et
familier dʼun domaine quʼil a exploré ; 2) comme substantif, quand l’expert est
appelé pour produire, au nom de ses connaissances scientifiques, un avis fondé
en vue dʼune décision et dʼune action politiques. Il nʼy a véritablement activité
dʼexpertise scientifique que dans le second cas. Or, dans lʼénorme machine
quʼest le GIEC, tous les scientifiques parties prenantes du processus ne se
situent pas au même niveau de lʼactivité dʼexpertise. La très grande majorité
des scientifiques, auteurs ou coauteurs des divers chapitres des grands rapports,
fonctionnent comme des scientifiques experts (première acception) qui passent
en revue des résultats ou en font la synthèse. En revanche, ceux qui doivent
écrire le « résumé pour décideurs », le négocier mot par mot, sont clairement
dans la seconde acception de lʼexpertise. Or, un scientifique intervenant comme

12. Voir par exemple Pielke [1997].


LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 125

« expert » fonctionne toujours, consciemment ou pas, comme lʼavocat dʼune


certaine cause, et cela est dʼautant plus vrai quʼil considère comme cruciaux
les enjeux de la décision à prendre. Comme le notent S. Jasanoff et B. Wynne
[1998], la connaissance des experts comporte inévitablement des jugements
de valeur tacites sur la nature et la société.
Au GIEC, le processus dʼapprobation ligne à ligne des résumés pour
décideurs est bien un processus intensément politique, où sʼexprime toute
une gamme dʼintérêts nationaux divergents. Les pays de lʼAOSIS plaident
pour lʼintroduction dʼune rhétorique du risque, les pays producteurs de pétrole
plaident pour la mention répétée des incertitudes scientifiques et celle de gaz
autres que le CO2 ; les pays en développement veulent mentionner le poids des
émissions passées, les pays du Nord insistent sur les émissions futures, etc.

La pratique d’une expertise réflexive

Si, aux yeux des scientifiques, les rapports complets du GIEC (plusieurs
milliers de pages) constituent un état des lieux de la connaissance scientifi-
que relativement fidèle et satisfaisant, faisant apparaître éventuellement les
divergences, les incertitudes ou une dispersion dans les résultats, les résumés
en revanche ont un statut bien différent. Ils effectuent inévitablement une
sélection et une synthèse pour trouver un consensus entre les politiques – y
compris sur la formulation des dissensus. Cette recherche dʼun accord sur la
manière de formuler les désaccords et les alternatives a pu conduire parfois,
dans les résumés, à un style lénifiant sans arêtes ni dramatisation.
Pourtant, est-ce la proximité du processus politique, la déconstruction des
évidences scientifiques (en particulier au sein du SBSTA) ou le fait que les
contestations politiques viennent de tous bords (pas seulement des pays du
Sud, mais aussi de la part des États-Unis ou de lʼAustralie), toujours est-il que
le GIEC a encouragé une pratique réflexive de lʼexpertise, notamment dans le
cas des controverses scientifiques porteuses dʼenjeux politiques.
Citons le cas dʼun climatologue américain du MIT, Richard Lindzen, qui
avait avancé plusieurs théories contestant la rétroaction positive de la vapeur
dʼeau et des nuages sur lʼeffet de serre. Ses thèses, en mettant en cause tant
lʼimportance du réchauffement global que la capacité des modèles à le simuler,
ont vite débordé la sphère scientifique et fourni des arguments de poids aux
« sceptiques » du changement climatique. Toutefois, ces désaccords, débattus
en profondeur par le groupe de travail du GIEC chargé de rédiger lʼexpertise
sur ce point, ont été en grande partie résolus. Une scientifique française [Bony,
2004], membre du groupe, en a fait le récit. Elle y voit un exemple de la façon
dont la controverse scientifique rigoureuse peut faire progresser lʼexpertise.
Nous pouvons, réciproquement, y trouver un exemple de la manière dont
une polémique politique peut faire avancer la controverse scientifique : la
126 LES MODÈLES DU FUTUR

nécessité dʼobtenir une réponse scientifiquement inattaquable au regard des


enjeux politiques, la capacité du GIEC à réunir les meilleurs spécialistes du
domaine, la rigueur des procédures de débat quʼil a instituées sont certainement
pour beaucoup dans la construction dʼun accord scientifique satisfaisant. La
fabrication dʼun consensus, y compris sur des questions hautement controver-
sées et porteuses dʼenjeux politiques, paraît stimuler, au cours du processus
dʼécriture de lʼexpertise, la réflexivité scientifique. Nous sommes fort loin
du modèle linéaire dʼune expertise, où les scientifiques auraient la tentation
de mettre en boîte noire le maximum de faits et de les présenter au politique
comme une réalité « dure ».

L’élargissement du champ de l’expertise

La recomposition du régime climatique des années 1992-1995 et les


critiques dont le GIEC a été lʼobjet nʼont pas laissé ce dernier indifférent.
Dʼune part, lʼinstauration du processus politique conduit insensiblement à
une modification des rapports dʼinfluence des trois groupes de travail. Le
premier groupe continue à jouer un rôle important, avec à sa tête des figures
charismatiques comme Bert Bolin ou John Houghton. Après le premier rapport
de 1990 du GIEC, le groupe III, qui ne satisfait pas les États-Unis, est menacé
de suppression, puis sauvé grâce à la pression conjointe du bureau du GIEC
(dominé par les sciences dures) et des pays européens, avec la neutralité des
pays du tiers monde. Ceux-ci obtiennent à cette occasion des garanties dʼéqui-
libre dans la coordination des équipes de rédaction des rapports [Hourcade,
2006]. Il est décidé que, désormais, chaque groupe du GIEC sera coprésidé
par deux personnalités, lʼune venant dʼun pays développé, lʼautre dʼun pays
en développement.
Les économistes sʼefforcent alors dʼélaborer des mesures de mécanismes
de marché concernant la réduction des émissions, dans un contexte assez
confus de vives controverses, autour notamment de lʼexpression « droits à
polluer », une bataille qui brouille en grande partie les enjeux économiques
réels du dossier climat [Hourcade, 2000]. Les économistes sont en première
ligne dans la phase de préparation du protocole de Kyoto et dans lʼinterface
avec le politique. Le résumé de leur travail dans le deuxième rapport (1995) du
GIEC est à la base du mandat de Berlin qui lui-même a précédé et préparé le
protocole de Kyoto en 199713. Ce moment, quʼon ne peut dissocier de diverses
difficultés et insatisfactions à propos du protocole de Kyoto qui ne manqueront
pas de se développer, marque la montée en puissance du working group II,

13. Les trois principales mesures auxquelles ils ont abouti sont les suivantes :
— les permis dʼémission internationalement négociables, cʼest-à-dire la possibilité pour un pays
soumis à des quotas dʼémission de les respecter en important des permis additionnels de pays où les
coûts dʼabattement des émissions sont inférieurs ;
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 127

celui qui sʼoccupe de lʼimpact du changement climatique, de la vulnérabilité


et de lʼadaptation à cette nouvelle donne.
Dʼautre part, le GIEC ne réduit pas son rôle à la seule préparation des grands
rapports dʼévaluation. Dès 1992, au moment où se profilait la création dʼun
organisme auxiliaire dʼévaluation, la direction du GIEC, anticipant les besoins
des négociateurs, a lancé la préparation de six rapports dits « spéciaux » ou
« techniques ». Ces rapports portent sur lʼévaluation nationale des émissions
de gaz à effet de serre, sur des questions énergétiques et industrielles, sur des
questions agricoles, forestières et plus généralement lʼusage des sols, sur des
scénarios dʼémissions, etc. Il faut souligner la diversité de ces questions, leur
ampleur, leur dimension prospective. La publication de ces rapports dans
la seconde moitié des années 1990 a correspondu dʼailleurs à la volonté du
GIEC de répondre de façon plus réactive aux demandes des politiques et
dʼalimenter directement le processus de décision. Elle sʼest inscrite finalement
dans une répartition des tâches entre le SBSTA et le GIEC sur laquelle nous
reviendrons.

La méthodologie du GIEC entre science et politique, les scénarios

Mais revenons dʼabord à la structuration même du GIEC, avec les trois


groupes de travail déjà évoqués. La compréhension de lʼinterdépendance de
leurs résultats constitue un trait fondamental de la reconfiguration du champ
de la recherche comme de lʼensemble du régime climatique. Cette reconfigu-
ration, due au GIEC lui-même, rend très délicate toute appréhension séparée
des questions relevant de la seule base scientifique et construit lʼhybridation
étroite entre science et politique.
Le troisième rapport du GIEC (2001) présente de manière assez détaillée les
résultats des projections climatiques jusquʼà la fin du XXIe siècle, qui concluent
à une augmentation de la température moyenne à la surface du globe allant de
2,5 °C à 6 °C. En fait, cette fourchette de réponses climatiques, pratiquement
constante depuis quinze ans, agrège deux types dʼincertitudes : les incertitudes
provenant de la pluralité des modèles et des insuffisances de la connaissance
des mécanismes climatiques, et celles qui sont issues des différents scénarios
ou trajectoires de la concentration de CO2 intervenant en inputs des modèles
– et qui reflètent nos comportements futurs.

— lʼapplication conjointe (AC) : possibilité pour un pays de lʼannexe B (ceux qui se sont engagés
à limiter ou à réduire leurs émissions) de mener des projets dʼabattement des émissions dans un pays
tiers (lui aussi de lʼannexe B) et dʼen retirer des crédits dʼémission ;
— le mécanisme de développement propre (MDP) : même principe que lʼapplication conjointe,
sous contrainte que les projets contribuent réellement au développement durable du pays hôte, classé
dans des pays hors annexe B.
128 LES MODÈLES DU FUTUR

Introduits dès 1992 dans un Rapport supplémentaire qui en distinguait


six, les scénarios ont fait lʼobjet dʼun rapport spécifique du GIEC en 2000 (le
SRES14) et apparaissent comme une composante significative de la méthodolo-
gie de lʼorganisme dʼexpertise. De quoi sʼagit-il exactement ? Les socio-écono-
mistes élaborent une série dʼimages de lʼavenir agrégeant démographie, modes
de développement économique, choix sociaux et technologiques15. Ces images
peuvent être des clichés statiques de moments futurs (2050, 2070, 2100…),
ou tenir compte des évolutions possibles des modes de développement, dʼoù
le terme plus dynamique de scénarios. Toutes ces images sont ensuite retra-
duites principalement à lʼaide dʼune seule variable, la concentration de gaz
carbonique dans lʼatmosphère16.
La méthodologie du GIEC pour évaluer le changement climatique à venir
consiste donc à définir des images du futur, traduites en scénarios économiques,
qui produiront (souvent à lʼaide de modèles intégrés) des scénarios d’émission
de CO2. Ces émissions seront alors transformées (à lʼaide de modèles du cycle
du carbone) en scénarios de concentration atmosphérique de CO2. Enfin, ce
sont ces scénarios de concentration qui serviront de « forçage » dʼentrée aux
modèles de climat, lesquels produiront, après des mois de calcul sur ordinateur,
des simulations climatiques. Concrètement, le GIEC a défini quatre classes
de scénarios économiques : A1, B1, A2, B2 (avec près de quarante variantes),
qui se distinguent à la fois par leur « soutenabilité » (productivisme versus
développement durable) et par leur « ouverture » (marché global versus
développement national ou régional protectionniste).
Lʼorigine de la notion de scénario se situe dans les travaux issus de la
dynamique des systèmes de Forrester et du Club de Rome des années 1970,
et dans une réflexion récurrente et controversée sur les limites de la crois-
sance17. Elle a été reprise dans les années 1980 et 1990 dans des modèles dits
d’évaluation intégrée, qui couplaient des modèles physiques très simplifiés
avec des modèles économiques pour constituer des instruments de simula-
tion au service des décideurs et des négociateurs. À bien des égards, il est
remarquable que lʼinstance du GIEC ait renoué avec les termes dʼun choix
fondamental, relatif aux modes de développement (durable ? de croissance ?)
et aux conceptions des rapports dʼéchange entre les diverses parties du globe,
tout particulièrement entre le Nord et le Sud.

14. Special Report on Emissions Scenarios [2000]. Voir le texte de Michel Armatte ici même
(chapitre III).
15. Ces scénarios ont été élaborés sans postuler lʼintervention explicite de politiques générales
en matière de climat et ne prennent pas en compte les objectifs dʼémissions fixés par le protocole
de Kyoto, même sʼils postulent à des degrés divers lʼeffet de préoccupations gouvernementales, par
exemple le développement de technologies peu consommatrices dʼénergie.
16. Dans le troisième rapport de 2001, quatre autres variables ont été introduites : les concentrations
de gaz à effet de serre autres que le gaz carbonique ; et on parle « dʼéquivalent carbone ».
17. Voir le texte dʼÉlodie Vieille Blanchard (chapitre I du présent ouvrage).
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 129

Certes, le GIEC nʼa ni les moyens ni la vocation de lancer de véritables


programmes de recherche ou dʼorienter les politiques scientifiques, que ce soit
à lʼéchelon national ou international. Pourtant, en soulignant les incertitudes
et les questions ouvertes, il a contribué à orienter le champ de la recherche.
Inciter aux couplages dans les modèles climatiques, susciter des recherches
sur la question du cycle du carbone, développer le thème de lʼintégration et les
modèles intégrés, introduire la question des scénarios, demander des simula-
tions sur ces derniers : autant dʼefforts qui ont participé à la recomposition du
champ. Plus synthétiquement, par son organisation même en trois groupes et
lʼidée que, en droit, les résultats de chacun des groupes rétroagissent par des
effets de bouclage sur les résultats des deux autres, le GIEC a été un acteur
majeur dans la structuration de la recherche sur le changement climatique.

LES ENJEUX GÉOPOLITIQUES DU CADRAGE


DU RÉGIME DU CHANGEMENT CLIMATIQUE

Il nous faut évoquer maintenant lʼascension du thème de l’adaptation dans


les conférences annuelles de négociations climatiques (les COP) et expliciter
ses enjeux pour les pays en développement. En effet, cette question porte en
germe une contestation politique du paradigme fondamental des sciences du
climat : la modélisation numérique globale.

Adaptation et pays en développement

Historiquement, on lʼa dit, le changement climatique a été vu comme un


phénomène graduel dont les impacts se feraient sentir à long terme, dans les 50
ou 100 ans à venir. La priorité a été accordée à la réduction à court et moyen
terme des émissions de CO2 dans les dix ou vingt prochaines années. Lʼobjectif
ultime de la Convention des Nations unies est explicite : « stabiliser » les
émissions pour ne pas dépasser un certain seuil de « dangerosité » (article 2).
Lʼadaptation au changement climatique est mentionnée de façon secondaire et
peu précise, bien que le niveau de dangerosité dépende beaucoup de la capacité
dʼadaptation des écosystèmes et des anthroposystèmes au changement. Le
processus de négociation politique, qui a culminé dans le protocole de Kyoto
(puis dans les accords de Marrakech pour sa mise en œuvre), sʼest focalisé
également sur la réduction des émissions avec une discussion des outils de
flexibilité économique.
Or, pour les pays du Sud, lʼenjeu principal est leur développement. La
question climatique (celle de lʼémission des gaz à effet de serre) est secondaire
dans leur hiérarchie des urgences. Des personnalités importantes, comme
lʼArgentin Raul Estrada Oyela (aujourdʼhui président du SBSTA), ont même
130 LES MODÈLES DU FUTUR

accusé le GIEC de souffrir du syndrome de Frankenstein et de dramatiser à


lʼextrême la menace climatique. Certains pays, notamment la coalition de
lʼAOSIS ou les LIC, sont très concernés par le changement climatique, mais il
leur paraît plus urgent de discuter dʼadaptation (construire en dur, se préparer
à modifier lʼusage des sols, traiter la question de lʼeau potable, résoudre le
problème de la distribution de lʼélectricité…) plutôt que de parler du taux de
CO2 dans lʼatmosphère. Quant aux pays émergents comme la Chine, lʼInde
ou le Brésil, dont lʼimportance politique ne cesse de croître au sein du forum
climatique, ils ont longtemps apprécié dʼaborder aussi les choses par le biais
de lʼadaptation, quʼils envisagent comme un moyen de transferts financiers
sans engagements de leur part.
Cʼest à Delhi, en 2002 – première COP (après lʼélection de George W.
Bush) où les États-Unis ont annoncé quʼils ne signeraient pas le protocole de
Kyoto –, que les Américains avancent le thème de la « réduction de la vulné-
rabilité des pays du Sud à la variabilité climatique » comme thème central du
processus de négociation, et clairement alternatif à celui de la réduction des
émissions. Une convergence sʼest alors cristallisée entre les États-Unis qui
voulaient retarder le temps de lʼaction et les pays du Sud qui voyaient dans cette
thématique une source de financements supplémentaires sans contraindre leur
développement et sans évoquer ce qui se passerait au-delà de 2012. Le thème
de lʼadaptation nʼa cessé ensuite de monter en puissance jusquʼà la COP 10
de Buenos Aires en 2004, où lʼadaptation a été reconnue comme une nouvelle
priorité, au moins à égalité avec la réduction des émissions. LʼEurope sʼy est
ralliée, en affirmant néanmoins – contrairement aux États-Unis – quʼelle ne
séparait pas adaptation et réduction.

La modélisation numérique globale, un « langage du Nord » ?

Le thème de lʼadaptation sʼaccompagne en filigrane dʼune contestation


importante de toute la méthodologie qui a constitué le cadre du régime du
changement climatique depuis quinze ans. « Le langage de la modélisation
numérique est un “langage du Nord” qui a eu ses mérites, mais ne peut plus
suffire aujourdʼhui », avons-nous entendu à plusieurs reprises de la part de
personnalités scientifiques du Sud, peu ou prou impliquées dans le GIEC
et proches du SBSTA, et occupant des postes importants18. Lʼexpression
surprend et pourrait inquiéter. En fait, ce que ces personnalités dénoncent,
cʼest le cadrage politique du régime du changement climatique dans lequel la
méthodologie de la modélisation numérique globale a occupé une place trop

18. Enquête effectuée lors des COP 10 et 11 – Buenos Aires (2004) et Montréal (2005). Une
douzaine dʼentretiens y ont été réalisés par lʼauteur et Venance Journé. Je remercie vivement cette
dernière de sa collaboration et de ses suggestions. Dʼautres chercheurs du domaine font état dʼéchos
similaires. Voir Myanna Lahsen [2004] ou Clark Miller [2004].
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 131

longtemps exclusive. La méthode des modèles consiste principalement en


la résolution numérique dʼun problème mathématique dʼévolution (formulé
sous la forme dʼéquations aux dérivées partielles) dont on fixe lʼétat initial.
Or transférée et utilisée dans le cadre politique, la méthode efface le passé.
La notion dʼun état initial – lʼannée 1990 dans le protocole de Kyoto – est
particulièrement difficile à accepter pour le Sud puisque, depuis deux siè-
cles, le Nord sʼest développé, industrialisé, équipé, et il a pollué. Or tout
le processus de négociation se construit sur la prise en considération de ce
moment initial, jusquʼà la définition des mécanismes de développement pro-
pre prévus par le protocole qui ne pourront être comptabilisés quʼen rapport
à un niveau « additionnel » très difficile à évaluer. La méthode naturalise
aussi le présent qui devient un acquis donné, nʼayant plus à être interrogé, en
dépit des hétérogénéités et des inégalités quʼil embrasse. Enfin, la méthode
globalise le futur. Une molécule de CO2 émise nʼimporte où sur la planète
est comptabilisée de la même façon ; les modèles intégrés sʼemparent de
processus globalisés, homogénéisent des variables, annulent les disparités
locales. Le choix de la température moyenne comme variable privilégiée
accentue encore ce biais de globalisation.
En dʼautres termes, nos interlocuteurs critiquent une vision « physiciste »
qui nʼenvisage le CO2 que par son effet radiatif et ramène les autres gaz à
effet de serre à leur seul pouvoir de réchauffement global – le méthane de
survivance des rizières dʼAsie étant ainsi assimilé avec le CO2 des voitures du
Nord ! Quand il sʼagit de définir un futur socio-économique de la planète, la
méthodologie ne saurait être, pensent-ils, celle de la météorologie, et lʼinstant
initial englobe forcément un ensemble de conditions politiques, économiques
et sociales héritées de lʼhistoire.
Le discours sur le changement climatique de lʼélite scientifique, qui manque
dʼexpériences rurales, est dénoncé aussi comme rendant les communautés
locales et les peuples indigènes totalement invisibles : par exemple, les vastes
étendues forestières de lʼAmazonie seraient considérées du seul point de vue
du bilan carbone, sans prise en compte des conséquences sociales et politi-
ques des mesures préconisées pour limiter les déforestations [Fogel, 2004].
En résumé, les représentants des pays en développement revendiquent la
possibilité dʼune autre perception de la question du changement climatique, à
laquelle le thème de lʼadaptation leur semble laisser plus de place. La critique
du cadrage politique de tout le régime a culminé à la COP 10 de Buenos Aires,
officieusement nommée « COP de lʼadaptation19 », et plusieurs décisions ont
été adoptées à ce sujet.

19. Parmi plusieurs auteurs, voir Ott et alii [2005].


132 LES MODÈLES DU FUTUR

Validité universelle des énoncés scientifiques versus confiance morale

Le SBSTA a la qualification, comme le GIEC, dʼ« organisme dʼexpertise »,


ce qui confirme que le terme dʼexpertise peut englober des réalités très variées.
En fait, cʼest un organisme politique, censé fournir directement des avis aux
politiques. Il joue, on lʼa dit, un rôle dʼintermédiaire – et de tampon – entre
lʼorganisme dʼexpertise scientifique quʼest le GIEC et lʼensemble des délégués
des 192 gouvernements des États membres de la Convention qui participent
au processus des négociations internationales. Suivant les questions et leur
proximité au politique, le SBSTA a dʼailleurs adopté des méthodes ou des
agendas différents.
Sur lʼévaluation des risques climatiques, question ô combien fondatrice,
des discussions très longues ont eu lieu au sein de lʼorganisme sur les relations
à établir avec le GIEC. Au départ, certains délégués au SBSTA récusaient
totalement lʼexpertise du GIEC et exigeaient leur propre instance dʼévaluation.
Mais ne disposant pas de moyens pour financer une recherche autonome, le
SBSTA sʼest orienté vers lʼorganisation de réunions en petits groupes entre
ses membres et des experts ad hoc, recourant pour sʼinformer à lʼexpertise du
GIEC mais invitant éventuellement dʼautres chercheurs. In fine, il a décidé de
se situer à lʼinterface entre le GIEC et la Convention. Il a réussi à imposer que
le GIEC lui présente dʼabord ses rapports dʼévaluation ; cʼest lui qui décide
sʼil peut ou non les recommander – et sous quelle forme – aux autres insti-
tutions internationales, et sʼil demande des rapports additionnels. Un groupe
de liaison (composé de représentants du secrétariat du GIEC, de son bureau,
du secrétariat de la Convention et de celui du SBSTA) a été constitué pour
établir les modalités de coopération entre les deux institutions.
À propos des méthodologies standard permettant de dresser les inventaires
nationaux dʼémissions anthropiques20, les participants du SBSTA étaient en
désaccord sur leurs contenus, sur les moyens de les établir, sur les institutions
chargées de cette tâche, sur la priorité donnée au développement de standards
pour les inventaires, sur le statut de ces standards… Seraient-ils élaborés à titre
dʼinformation, constitueraient-ils des recours en lʼabsence dʼautres choix ou
des impératifs ? En bref : les membres divergeaient sur tout. Les discussions
furent très vives, notamment sur la question de la responsabilité des émissions,
tout particulièrement en ce qui concerne la déforestation en Amazonie21. À la
longue, des compromis ont pu être négociés sur plusieurs fronts. Le SBSTA a
ainsi accepté 1° que le GIEC soit responsable de la construction de méthodes
ratifiées par la COP (et continuellement remises à jour), 2° que les inventai-

20. Il sʼagit des inventaires concernant les sources dʼémission dans chaque pays desquels sont
ensuite soustraits les puits de gaz à effet de serre, non contrôlés par le protocole de Montréal.
21. Voir le texte dʼEmilio Lèbre La Rovere et alii dans cet ouvrage (chapitre VII). Voir aussi
Fogel [2004].
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 133

res nationaux soient soumis à une évaluation internationale, bien que cette
« révision » demeure non contraignante pour les gouvernements nationaux. Au
final, ce sont ces derniers, et non le GIEC ou tout autre organisme, qui restent
responsables de ces bilans. LʼInde, le Brésil et même, en 2005, la Chine ont
commencé à présenter leurs bilans nationaux dʼémissions. Que les méthodolo-
gies standard pour les bilans nationaux dʼémission de CO2 soient développées
par les pays eux-mêmes revêt sans doute une importance stratégique, car cette
décision assure une meilleure acceptation que celle de standards fournis et une
prise de conscience directe de la responsabilité des divers secteurs. Quant à
la question des transferts de technologies du Nord vers le Sud, en particulier
les technologies friendly-climate permettant aux pays du Nord de gagner des
crédits dʼémission en implantant des technologies moins émettrices, elle a été
lʼobjet de conflits très vifs, les pays du Nord étant soupçonnés de défendre
une stratégie ayant pour eux tous les avantages.
Les débats à lʼintérieur du SBSTA illustrent les défis inhérents à tout effort
de mobilisation de la science pour soutenir une politique publique. Ils se sont
cristallisés, dit Miller, principalement sur trois ordres de questions22 :
— questions de contingence : le recours à lʼargument de contingence (des
événements climatiques) sʼopposant fréquemment à lʼassertion de validité
universelle des énoncés scientifiques ou de leurs conséquences ;
— des questions de confiance ou de crédibilité : comment garantir la
validité de certaines assertions, avoir confiance dans les résultats des experts
scientifiques ?
— des questions dʼordre moral, la science privilégiant toujours certaines
voies de connaissance et certaines interprétations de la nature, qui ne vont pas
de soi et ne sont pas partagées spontanément par tous les pays.
La déconstruction de lʼévidence scientifique au sein du SBSTA offre
beaucoup dʼanalogies avec le processus fastidieux de négociation décrit par
Sheila Jasanoff [1995] autour des questions de contentieux lors de procès, aux
États-Unis, mettant en cause des résultats scientifiques. Cette déconstruction
systématique, associée à la règle du consensus unanime, cʼest-à-dire « un vote,
un veto », est à lʼorigine de la lenteur extrême du processus. À plusieurs repri-
ses, des scientifiques des trois groupes du GIEC ont préféré ne pas soumettre
de nouvelles méthodologies (par exemple relatives aux guidelines) de crainte
de voir le processus sʼenliser à nouveau, les méthodologies en compétition
pouvant avoir des implications directes sur lʼattribution des responsabilités
en matière dʼémissions.
Le SBSTA a fourni un forum dans lequel des pays qui nʼauraient en son
absence jamais été impliqués dans des processus dʼorganisation de conseil

22. Nous reprenons ici lʼanalyse de Clark Miller, qui a pu suivre les débats dans le détail durant
les premières années de fonctionnement de lʼorganisme.
134 LES MODÈLES DU FUTUR

scientifique ont pu exprimer publiquement leurs craintes et leurs oppositions.


Trois répertoires différents de ressources (rhétoriques et pratiques) pour
garantir les connaissances et faire avancer les discussions ont joué : 1° les
normes politiques de participation démocratique, 2° la règle du consensus
pour renforcer la crédibilité de lʼexpertise scientifique – et, ici, lʼouverture à
tous les gouvernements est essentielle –, enfin, 3° la participation de toutes
les ONG qui confèrent un crédit moral aux divers diagnostics.
Non seulement les systèmes de fiabilité des connaissances scientifiques ne
paraissent pas strictement internes à la science, mais on constate même que,
au contraire, ils sont fortement liés aux institutions et aux normes politiques.
Il ne sʼagit pas tant de dire le vrai de la science aux gouvernements que de
faire avancer une compréhension partagée des risques environnementaux glo-
baux. On est bien engagé là dans un processus profondément politique, et une
compréhension plus précise du processus de gouvernance environnementale
globale exigera dʼexplorer davantage comment certaines idées acquièrent un
statut consensuel et gagnent crédibilité et autorité.

Le GIEC confronté à ces enjeux géopolitiques

La direction du GIEC a constamment cherché à avoir une représentativité


géographique très large, conformément aux missions qui lui ont été assignées
dès lʼorigine. Le principe de coresponsabilité des chapitres du rapport (un
auteur du Sud et un auteur du Nord) et de la présidence des groupes23 a revêtu
une importance considérable : avoir œuvré pour que les pays soient représentés
le plus largement possible au sein même du GIEC, sans sʼattacher au fait que
les scientifiques des pays en développement pourraient y être de moindre
niveau, a contribué à améliorer lʼimage du GIEC dans les pays du Sud sans
entamer sa crédibilité scientifique au Nord.
Une perméabilité certaine est également intervenue entre ces diverses
institutions. De nombreux scientifiques, ingénieurs et économistes du Sud,
dont certains vivaient en Occident, ont pris des responsabilités croissantes
dans le régime climatique, ont regagné leurs pays et y dirigent des centres de
recherche. Certains sont devenus des experts, voire des négociateurs pour le
compte de leurs gouvernements, ils participent éventuellement au SBSTA.
Les fonctions et les « casquettes » ont évolué ou se sont superposées.
Comment le GIEC se situe-t-il par rapport aux enjeux nouveaux de lʼadap-
tation ? Initialement, la question de lʼadaptation devait être abordée dans le

23. Aujourdʼhui, les présidences des trois groupes de travail sont ainsi partagées : Suzan Solomon
(USA) et Qin Dahe (Chine) pour le groupe I, Osvaldo Canziani (Argentine) et Martin Parry (Royaume-
Uni) pour le groupe II, Bert Metz (Pays-Bas) et Ogunlade Davidson (Sierra Leone) pour le groupe III,
la présidence du GIEC revenant à lʼIndien Rajendra Patchauri qui a succédé en 2003 à la figure très
charismatique de Robert Watson (USA).
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 135

groupe II, mais celui-ci sʼest surtout concentré sur lʼévaluation des impacts du
changement climatique, et lʼadaptation a été longtemps négligée. Aujourdʼhui,
les dirigeants du GIEC affirment fortement leur engagement dans cette nou-
velle priorité de lʼadaptation, et les responsables des groupes II et III pour
le 4e rapport (2007) affirment que ce dernier va mieux intégrer lʼanalyse
des vulnérabilités et de lʼadaptation, multiplier les études de cas concrets.
Lʼobjectif est de montrer que prendre des mesures dʼadaptation – entendue ici
comme associée à la réduction des émissions – nʼest pas forcément ruineux
pour une économie et pourrait même être stimulant. Mettre lʼadaptation en
avant, cʼest bouleverser un peu plus la hiérarchie dʼinfluence entre les trois
groupes du GIEC, souligner le rôle du deuxième groupe et, surtout, permettre
que les pays moins développés et industrialisés sʼintègrent toujours davantage
au processus dʼévaluation. En conséquence de ce « tournant de lʼadaptation »,
le GIEC a décidé dʼélargir lʼévaluation des recherches existantes à lʼanalyse
de case-studies et à lʼétude de la littérature grise des pays en développement
car, disent les responsables, les savoirs locaux relatifs à lʼadaptation ne sont
pas des savoirs codifiés et académiques, ils font peu lʼobjet de publications
dans des revues scientifiques internationales. Décision politiquement très
significative !

QUELLES LEÇONS TIRER DU FONCTIONNEMENT DU RÉGIME CLIMATIQUE ?

Le régime du changement climatique est marqué par un jeu complexe


entre plusieurs institutions et a vu sʼinstaurer de fait une alliance durable
entre scientifiques et ONG environnementales. Cette alliance se situe à fronts
renversés eu égard aux rapports ayant opposé les experts et les représentants
de la société civile dans dʼautres situations de risques24 (OGM, vache folle,
sang contaminé…).
Une hypothèse importante à lʼorigine de la constitution du GIEC et de
la conception de ses liens au processus de négociation politique était que
les pays nʼaccepteraient jamais lʼapplication de mesures ou dʼanalyses qui
seraient préconisées au cours dʼun processus dont ils seraient exclus. Cette
hypothèse sʼest vérifiée, elle a même nécessité la création dʼune autre insti-
tution, le SBSTA.
Dʼune part, en servant de tampon entre le GIEC et les gouvernements, en
promouvant une déconstruction des assertions scientifiques par le pouvoir de
veto de chaque pays et le conflit sur les questions ouvertes, le SBSTA a tempéré
les critiques dont le GIEC était initialement lʼobjet. Il a permis que les pays en
développement expriment leurs désaccords sur les solutions préconisées par le

24. Voir à ce sujet Callon, Lascoumes et Barthe [2001], Bonneuil et alii [2005].
136 LES MODÈLES DU FUTUR

GIEC et sur ses priorités, sans que la déconstruction du processus scientifique


de conseil nʼaille trop loin – au point par exemple de considérer la science
comme intrinsèquement politique. Alors quʼune ONG indienne avait déclaré
en 1991 que la science du Nord était une nouvelle forme de colonialisme
environnemental, le SBSTA nʼa jamais repris une telle affirmation et exprime
toujours son soutien à une « expertise neutre ».
Dʼautre part, la manière dont le GIEC a négocié de fait avec le SBSTA
un partage des responsabilités et sa prise en main des rapports techniques,
lʼattention quʼil a accepté de porter aux préoccupations des pays du Sud,
lʼexpertise réflexive quʼil a réussi à promouvoir lui ont valu la sauvegarde
de sa légitimité scientifique et le respect des politiques. Bien que son credo
officiel – constamment réaffirmé par ses présidents successifs, Robert Bolin,
Robert Watson et Rajendra Patchauri – soit que lʼorganisation a seulement
les moyens et la mission dʼévaluer les recherches existantes, et bien quʼil
revendique un modèle dʼexpertise classique, le GIEC a contribué incontes-
tablement à reconfigurer la recherche sur le changement climatique, jouant
le rôle de véritable fer de lance de lʼensemble du régime climatique.
Lʼapprentissage et la création de la confiance au sein des réunions de
délégués non experts, la garantie de crédibilité par la délibération démo-
cratique, la délégation de tâches aux gouvernements nationaux, ces trois
modalités de fonctionnement mises en avant par le SBSTA nʼont pas pure-
ment et simplement remplacé les modalités du régime de la guerre froide
évoquées en introduction. Elles se sont en partie superposées et combinées
avec les précédentes, les scientifiques continuant à mieux se reconnaître
dans les modalités antérieures et les dirigeants du GIEC se référant sans
cesse à la construction de capacités propres (capacity-building) dans les
États en développement, et à la promotion dʼune conception commune des
problèmes et des solutions.
En résumé, on peut dire quʼau cours du régime climatique, scientifiques et
politiques ont avancé conjointement depuis 1988. Chacun des grands rapports
du GIEC a préparé des grands moments de décision politique. Réciproquement,
chaque COP, chaque étape nouvelle de la négociation, chaque perspective de
prise de décision a été lʼoccasion dʼun temps de conflit, dʼune demande dʼex-
pertise supplémentaire ou de lʼimpulsion par le GIEC de nouvelles recherches.
Le couple GIEC-SBSTA cristallise cette coproduction du scientifique et du
politique, où les deux voies, a priori antagoniques, du conflit politique et du
consensus scientifique sʼentremêlent dans un jeu complexe de va-et-vient
et de compétitions. Lʼidée parfois exprimée quʼon gagnerait du temps si on
pouvait obtenir un consensus des experts, avant que la politisation extrême
nʼobscurcisse les enjeux, semble une utopie attribuant une importance déme-
surée à lʼexpertise scientifique dans des pays où dʼautres valeurs et dʼautres
hiérarchies sont à lʼœuvre – une utopie positiviste qui ne fait rien avancer.
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 137

Lʼenlisement actuel du processus de Kyoto et surtout lʼabsence de perspec-


tives au-delà de 2012 procèdent dʼune bataille culturelle qui doit être menée
sur une autre scène que celle des seules négociations, la bataille du débat et
de lʼopinion publics.

RÉFÉRENCES BIBLIOGRAPHIQUES

AGRAWALA S. (1998a), « Context and early origins of the Intergovernmental Panel on Climate
Change », Climate Change, n° 39, p. 605-620.
– (1998b), « Structural and process history of the Intergovernmental Panel of Climate
Change », Climate Change, n° 39, p. 621-642.
BECK U. (2001), La Société du risque, Champs Flammarion, Paris (1re édition 1986).
BODANSKY D. (2001), « The history of the global climate change regime », dans LUTERBACHER U.
et SPRINZ D. (dir.), International Relations and Global Climate Change, MIT Press,
Cambridge, Mass., p. 23-40.
BONNEUIL C., GAUDILLIÈRE J.-P. ET TESTARD J. (2005), Quelle politique scientifique pour entrer
dans le XXIe siècle ? Vers un nouveau contrat entre recherche et société, contribution de la
fondation Sciences citoyennes aux états généraux sur lʼavenir de la recherche, octobre,
note 2 (http://sciences citoyennes.org/img/pdf/note-recherche-v28.10.04.pdf).
BONY S. (2004), « Comment le débat scientifique a fait progresser lʼexpertise sur les rétroactions
atmosphériques », dans LE TREUT H. et alii (dir.), Science du changement climatique.
Acquis et controverses, Éditions de lʼIDDRI, Paris, p. 38-42.
CALLON M., LASCOUMES P. et BARTHE Y. (2001), Agir dans un monde incertain. Essai sur la
démocratie technique, Le Seuil, Paris.
COHEN S. (2003), La Résistance des États. Les démocraties face aux défis de la mondialisation,
Le Seuil, Paris.
COOPER R. (1999), The Postmodern State and the World Order (1996), Demos, Londres.
DAHAN DALMEDICO A. (2007), « Models and simulations in climate change. Historical,
epistemological, anthropological and political aspects », dans CREAGER A., LUMBECK E.
et WISE N. (dir.), Science without Laws : Model Systems, Cases and Exemplary Narratives,
Duke University Press, Durham et Londres, p. 184-237.
DAHAN DALMEDICO A. et GUILLEMOT H. (2006), « Changement climatique : dynamiques
scientifiques, expertise, enjeux géopolitiques », Sociologie du travail, juillet-septembre,
vol. 48, n° 3, p. 412-432.
DENIS B. (2006), La politique internationale du climat. Analyse du processus de construction
du cadre international de lutte contre le réchauffement global, thèse en sciences politiques,
Université libre de Bruxelles, 2 volumes.
EDWARDS P. N. et SCHNEIDER S. H. (2001), « Self-governance and peer-review in science-
for-policy : the case of the IPCC second assessment report », dans MILLER C. A. et
EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and Environmental
Governance, MIT Press, Cambridge, Mass., p. 219- 246.
FOGEL C. (2004), « The local, the global and the Kyoto protocol », dans JASANOFF S. et
MARTELLO M. L. (dir.), Earthly Politics. Local and Global in Environmental Governance,
MIT Press, Cambridge, Mass., p. 103-126.
GIBBONS M., LIMOGES C., NOWOTNY H., SCHWARTZMAN S., SCOTT P. et TROW M. (1994), The
New Production of Knowledge : The Dynamics of Science and Research in Contemporary
Societies, Sage Publications, Londres.
138 LES MODÈLES DU FUTUR

H AAS P. M. (1992) « Introduction ; epistemic communities and international policy


coordination », International Organization, n° 46, p. 1-35.
HOURCADE J.-C. (2000), « Le climat est-il une marchandise ? », Études, n° 3933.
– (2006), « Lʼexpertise face à la crise : leçons de quinze ans de négociations sur la gestion du
climat », en ligne (rubrique Publications, notes et arguments) à lʼadresse : http://www.
centre-cired.fr/forum/IMG/pdf/CIREDPN-200601.pdf
JASANOFF S. (1995), Science at the Bar, Harvard University Press, Cambridge, Mass.
– (2005), Designs on Nature. Science and Democracy in Europe and the United States,
Princeton University Press, Princeton.
JASANOFF S. et MARTELLO M. L. (dir.) (2004), Earthly Politics. Local and Global in Environmental
Governance, MIT Press, Cambridge, Mass.
JASANOFF S. et WYNNE B. (1998), « Science and decision-making », dans RAYNER S. et
MALONE E. (dir.), Human Choice and Climate Change, vol. 1, The Societal Framework,
Battelle Press, Colombus, Ohio, p. 1-87.
KRIGE J. (2006), American Hegemony and the Post-War Reconstruction of Science in Europe,
MIT Press, Cambridge, Mass.
LAHSEN M. (2004), « Transnational locals : Brazilian experiences of the climate regime »,
dans JASANOFF S. et MARTELLO M. L. (dir.) (2004), Earthly Politics. Local and Global in
Environmental Governance, MIT Press, Cambridge, Mass., p. 151-172.
– (2005), « Technocracy, democracy, and US climate politics : the need of demarcations »,
Science, Technology and Human Values, vol. 30, n° 1, p. 137-169.
LATOUR B. (1999), Politiques de la nature. Comment faire entrer les sciences en démocratie,
La Découverte, Paris.
– (2001), L’Espoir de Pandore, La Découverte, Paris.
LUTERBACHER U. et SPRINZ D. F. (2001), International Relations and Global Climate Change,
MIT Press, Cambridge, Mass.
MILLER C. A. (2001a), « Scientific internationalism in American foreign policy : the case
of meteorology, 1947-1958 », dans MILLER C. A. et EDWARDS P. N. (dir.), Changing the
Atmosphere, Expert Knowledge and Environmental Governance, MIT Press, Cambridge,
Mass., p. 167-218.
– (2001b), « Challenges in the application of science to global affairs : contingency, trust
and moral order », dans MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere,
Expert Knowledge and Environmental Governance, MIT Press, Cambridge, Mass.,
p. 247-285.
– (2004), « Resisting empire : globalism, relocalization, and the politics of knowledge », dans
JASANOFF S. et MARTELLO M. L. (dir.), Earthly Politics. Local and Global in Environmental
Governance, MIT Press, Cambridge, Mass., p. 81-102.
MILLER C. A. et EDWARDS P. N. (dir.), Changing the Atmosphere, Expert Knowledge and
Environmental Governance, MIT Press, Cambridge, Mass.
NOWOTNY H., SCOTT P. et GIBBONS M. (2001), Re-thinking Science, Knowledge and Public in
an Age of Uncertainty, Polity Press, Cambridge.
OTT H. E., BROUNS B., STERK W. et WITTNEBEN B. (2005), « It takes two to tango – climate
policy at COP 10 in Buenos Aires and beyond », Journal European Environmental and
Planning Law (JEEPL), n° 2.
PESTRE D. (2003), Science, argent et politique, Éditions de lʼINRA, Paris.
PIELKE R. (1997), « Asking the right questions : atmospheric sciences research and societal
needs », Bulletin of the American Meteorological Society, vol. 78, n° 2, p. 255-264.
RADANNE P. (2004), « Les négociations à venir sur les changements climatiques », Études
prospectives, n° 1.
LE RÉGIME CLIMATIQUE, ENTRE SCIENCE, EXPERTISE ET POLITIQUE 139

RAUSTIALA K. (2001), « Nonstates actors in the global climate regime », dans LUTERBACHER U. et
SPRINZ D. F., International Relations and Global Climate Change, MIT Press, Cambridge,
Mass., p. 95-117.
ROQUEPLO P. (1993), Climats sous surveillance, Economica, Paris.
– (1997), Entre savoir et décision, l’expertise scientifique, Éditions de lʼINRA, Paris.
THEYS J. et KALAORA B. (1992), La Terre outragée. Les experts sont formels !, Éditions
Autrement, Paris.
YAMIN F. et DEPLEDGE J. (2004), The International Climate Change Regime, A Guide to Rules,
Institutions and Procedures, Cambridge University Press, Cambridge.
YEARLEY S. (1996), Sociology, Environmentalism, Globalization, Sage Publications,
Londres.
140 LES MODÈLES DU FUTUR

Les modèles dans les débats de politique climatique :


entre le Capitole et la Roche tarpéienne ?

Jean-Charles Hourcade

Dès que la question climatique émergea sur lʼagenda international en


1988, les modélisateurs furent submergés de commandes pour répondre à
deux questions : faut-il agir maintenant ou attendre des preuves évidentes des
risques encourus ? Comment coordonner des politiques touchant à lʼensemble
des secteurs dʼactivité dans les 192 pays membres des Nations unies ?
Lʼéconomiste est mis ici au défi de lʼambition quʼil se donne, soit, pour
reprendre lʼexpression dʼAlan Manne, to put some rationale into discus-
sions, fournir un langage commun à des parties prenantes séparées par des
divergences dʼintérêts et par des vues contrastées des enjeux. Son utopie
mobilisatrice est celle dʼun dialogue serein entre, dʼune part, les partisans de
lʼaction, convaincus de la gravité des risques climatiques et de la possibilité
de « décarboniser » nos économies à coûts faibles et, dʼautre part, les tenants
de lʼinaction, optimistes sur lʼampleur des risques et pessimistes sur les coûts
dʼune décarbonisation significative.
Quel bilan tirer un quart de siècle plus tard ? On partira ici de lʼidée que,
au-delà dʼun flux de « chiffres » fournis de façon continue, la contribution la
plus cruciale de la modélisation sʼest faite au niveau de la problématisation
même des enjeux. Le fait que le protocole de Kyoto soit un unfinished business
(retrait des USA, pas dʼengagement quantifié des pays en développement) est
certes dû à plusieurs facteurs dont des paramètres géopolitiques puissants.
Mais on ne peut faire comme si la structuration intellectuelle du processus
nʼétait pour rien dans ce semi-échec, alors même quʼun accord était loin dʼêtre
impossible entre « intérêts économiques bien compris » [Hourcade et Ghersi,
2002]. Nous essayerons de montrer que, parmi les obstacles à un compromis,
il y a les difficultés des modélisateurs à maîtriser les visions du monde (donc
les malentendus) qui se créent autour de leurs exercices et les tensions entre
les règles de la syntaxe des modèles (imposée par les mathématiques et par
les contraintes calculatoires), celles de leur sémantique (imposée par le corpus
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 141

théorique sur lequel ils sʼadossent) et les glissements de sens provoqués par
lʼutilisation dans le langage « naturel » des débats publics de notions sorties
de leur contexte sémantique.
Nous le ferons par un itinéraire passant par trois lieux importants de contro-
verse sur les politiques climatiques. À chaque étape, nous demanderons au
lecteur un peu de patience et nous lʼarrêterons sur des « détails » apparemment
techniques. Dans ces détails se jouent en effet les tensions entre les modèles
comme langage de vérité sur le monde réel et les modèles comme langage de
négociation entre des acteurs.
Les modèles dont on parle ici sont des artefacts utiles pour « penser » les
enjeux des mondes futurs. Mais on va voir comment ceux-ci sont interprétés
en fonction de croyances préétablies (changeantes en fonction des périodes et
des nécessités rhétoriques) et comment, sans élucidation de ces interprétations,
les risques sont grands que les exercices modélisés ne participent à des jeux de
masque qui amoindrissent leur capacité à révéler des mécanismes méconnus
et pourtant essentiels pour les débats publics.

ÉVALUATION DES POLITIQUES :


ET SI ON REGARDAIT LE SCÉNARIO DE RÉFÉRENCE ?

Toute évaluation des politiques publiques repose sur un principe simple :


projeter un scénario de référence, puis y injecter des mesures qui le déforment.
Il est alors frappant de constater que les discussions se polarisent sur ces
mesures sans trop prêter attention au scénario de référence, comme si celui-ci
nʼétait quʼun simple détour du raisonnement. Or comme on va le constater,
lʼécriture de ce scénario prédétermine bien des conclusions.

Les enjeux d’un dialogue récurrent entre deux modeling tribes

Une part importante des scénarios énergie-croissance utilisés dans le


dossier climat est produite par des modèles dits bottom-up (BU). Riches en
information technologique, ils utilisent un langage proche de celui de lʼingé-
nieur (expression en quantités physiques des besoins de confort thermique,
dʼéclairage, de mobilité ou de force motrice) et leur composante économique
se réduit à la projection dʼun scénario de croissance économique simple (le
PIB, sa répartition sectorielle et le revenu des ménages) et à la formulation
dʼhypothèses sur le coût des techniques et des énergies fossiles. Même si cela
nʼest pas systématique, ces modèles conduisent assez aisément à des résultats
plutôt optimistes. Les ingénieurs en effet sont habiles à détecter des potentiels
« à coûts négatifs », en particulier en matière dʼefficacité des équipements
utilisateurs dʼénergie ; ces potentiels sont dus à lʼécart entre les techniques en
142 LES MODÈLES DU FUTUR

place et la meilleure technologie disponible. De même, ils savent dessiner des


systèmes futurs de production dʼénergie très peu émetteurs de carbone, chacun
bien sûr en fonction dʼune expertise difficilement séparable de ses propres
croyances ; tel fera un scénario « doux » mobilisant les énergies nouvelles et
renouvelables, tel autre mettra en scène la nouvelle corne dʼabondance que
constituerait une « société de lʼhydrogène » adossée au nucléaire civil.
Lʼautre « tribu » est celle des modèles top-down, qui privilégient lʼétude
des interdépendances économiques entre groupes sociaux, secteurs et pays.
Mobilisant la boîte à outils de lʼéconomiste, elle sʼintéresse aux flux de valeur,
mais dessinent de façon beaucoup plus fruste le contenu technique des scéna-
rios. Sauf à représenter, on y reviendra, le double dividende à attendre dʼune
articulation entre politiques climatiques et réformes fiscales, ces modèles
conduisent à des résultats généralement plus pessimistes. En effet, ils mettent
en scène des arguments solides qui tempèrent lʼoptimisme des approches
dʼingénieur : impacts de la transformation des prix provoquée par les outils
dʼincitation (taxes, permis négociables, normes) à mettre en place1, contrain-
tes de financement venant du fait que les technologies « sans carbone » sont
en général bien plus chères que les énergies fossiles, hausse de la demande
provoquée par les gains dʼefficacité énergétique2.
Lʼenjeu du dialogue entre économistes et ingénieurs paraît donc évident :
ce ne sont pas des quantités de dollars ou dʼeuros qui émettent des gaz à
effet de serre et il faut bien représenter les systèmes techniques ; mais penser
ces systèmes indépendamment de leur contexte économique et social, cʼest
construire des chimères. Or ce dialogue achoppe sur plusieurs « détails » tech-
niques ; si on les regarde de près, on sʼapercevra quʼils sont en fait révélateurs
de postures intellectuelles renvoyant à des enjeux plus fondamentaux que la
simple question du dialogue entre ingénieurs et économistes.

D’une astuce technique à une vision du fonctionnement du monde

Partons des modèles dʼéquilibre général calculable (MEGC) mobilisés


par les économistes pour pallier le caractère partiel des modèles bottom-up.
Ces modèles sont apparus dans un contexte précis à la fin des années 1980 :
repli des modèles keynésiens critiqués pour leur manque de fondements
microéconomiques, mise au point dʼalgorithmes pour la résolution de modèles

1. Il nʼest pas inutile de noter que lʼargument vaut pour lʼexploitation des potentiels à coûts
négatifs : si les meilleures techniques ne sont pas adoptées aujourdʼhui, cʼest bien quʼil y a quelque
part une défaillance des structures dʼincitation.
2. Si, par des normes ou accords volontaires, on diffuse des moteurs consommant 2 L/100km
de carburant ex-fossile, cela fera baisser le coût de la mobilité automobile et rendra le transport
routier de marchandises plus compétitif par rapport au rail en lʼabsence dʼune hausse des taxes sur
les carburants.
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 143

dʼéquilibre général de taille respectable tournant sur des micro-ordinateurs.


Bientôt, la diffusion de logiciels comme GAMS permet, avec une bonne for-
mation mathématique et quelque ténacité, dʼécrire rapidement des maquettes
de nʼimporte quelle économie. Les MEGC vont bénéficier dʼun important
effet dʼautorité et des modèles empiriques assez riches pourront être adossés
à la théorie de lʼéquilibre général, alors que celle-ci était surtout utilisée
jusquʼici dans des analyses en statique comparative sur la base de maquettes
très compactes de lʼéconomie et ne pouvant fournir que des enseignements
qualitatifs sur la nature des mécanismes en jeu. Mais ce succès se fait au
prix dʼun tour de force méthodologique dont on méconnaît généralement
les implications.
Nous avons vu lʼimportance du traitement de la demande dʼénergie : cʼest
là que certains voient une source de coûts négatifs, mais cʼest aussi la variable
clé qui contrebalance la hausse du coût en capital des techniques économes en
carbone et lʼimpact sur le pouvoir dʼachat des consommateurs dʼune hausse
des prix unitaires des énergies. Or, les MEGC vont employer, pour lʼanalyse
de la demande, une méthodologie qui va rendre difficile la discussion des
marges de manœuvre réelles à ce niveau.
La grande force des modèles dʼéquilibre général calculable est de saisir les
interdépendances, et le concept dʼéquilibre est ici central mais dans un sens très
précis qui est en fait une contrainte de conservation des flux de valeur. Agents
et secteurs interagissent, mais les flux qui les lient doivent être équilibrés
dans un sens strictement comptable : si un ménage ou un État est endetté, il
y aura simplement un signe moins devant le chiffre donnant son solde. Pour
le dire crûment : lʼéquilibre comptable peut renvoyer à des économies très
déséquilibrées. Les premiers modèles empiriques utilisant cette approche dans
les années 1980 traitaient dʼailleurs dʼéconomies sous-développées fort loin
de lʼéquilibre optimal.
Un premier glissement sémantique autour de la notion dʼéquilibre vient
de ce que, par opposition aux modèles keynésiens, les MEGC vont chercher
un fondement microéconomique en représentant des acteurs économiques
rationnels : observant les prix en vigueur, les ménages composent leurs achats
de façon à maximiser lʼutilité quʼils tirent dʼun revenu donné et les entreprises
sélectionnent la technique qui minimise leurs coûts de production. Quʼil me
soit permis de demander ici au chercheur en sciences sociales sceptique sur la
notion de rationalité optimisatrice de « jouer le jeu » et dʼadmettre que, après
tout, la formalisation dont nous parlons nʼimplique pas nécessairement une
adhésion à lʼanthropologie de lʼHomo œconomicus. On peut penser que lʼévo-
lution des techniques et des préférences nʼest pas réductible à des mécanismes
économiques et, en même temps, admettre quʼune entreprise ne peut prendre
durablement le risque dʼune technique plus chère sans raisons stratégiques.
De même, la rationalité dʼun consommateur est limitée par lʼinformation dont
144 LES MODÈLES DU FUTUR

il dispose et le système symbolique qui formate ses goûts, mais il ne fera pas
durablement exprès dʼacheter très cher un bien peu utile.
Ce qui nous intéresse ici est le nœud de malentendus autour du traitement
de la composante physique dans un tel dispositif. Concentrons-nous, pour
des raisons de simplicité, sur la fonction de production (le raisonnement
vaut, mutatis mutandis, pour la demande des ménages). Lʼinformation de
base utilisée par un MEGC est un tableau de flux en valeurs dont on peut tirer
une structure de coût (part de dépenses allouées au travail, aux équipements,
à lʼénergie et aux autres consommations intermédiaires). Lʼéconomiste ne
connaît pas la fonction de production « physique » (au sens de lʼingénieur)
qui sous-tend ce tableau, fonction dʼailleurs trop complexe pour être écrite
en termes tractables. Mais lʼéconomiste la révèle à un niveau agrégé, grâce
à une technique précise3 qui est la reprise dʼun « truc » (wrinkle) employé
par Solow [1956] pour écrire son modèle de croissance devenu un modèle
canonique de la discipline.
Ce « truc » repose sur lʼhypothèse dʼégalité du rapport des prix des facteurs
et de leur productivité marginale (par exemple les salaires avec la productivité
du travail). On montre en effet4 que, autour dʼun point dʼéquilibre optimal,
on peut faire correspondre à une fonction de production « physique » une
fonction coût (en valeur). Concrètement, la première fonction dit que, pour
produire 100 unités dʼun produit donné, il faudra 100 000 heures de travail,
300 tonnes dʼénergie (en équivalent pétrole), 20 tonnes dʼacier et 100 unités
dʼune machine fictive (lʼamortissement du parc) ; la deuxième dira que les
salaires, le pétrole, lʼacier et les machines représentent 30 %, 10 %, 5 % et
15 % du coût de production. Dans les faits, les structures de coût seules sont
données par les statistiques ; on peut donc calculer ses coefficients puis révéler
ceux de la fonction « réelle » en connaissant les prix des facteurs5.
On peut bien sûr sʼinterroger sur le domaine de validité de ce « truc »
dont Solow lui-même avertissait dès 1988 quʼil était acceptable à un niveau
agrégé seulement (pour des buts spécifiques), ce qui implique d’être prudent6…
[Solow, 1988]. Mais du point de vue des représentations du monde en jeu dans
les joutes publiques, la caractéristique majeure de ce truc apparemment anodin
est de présupposer quʼà chaque point du temps les choix de techniques sont
optimaux pour un vecteur prix donné. Dans un tel dispositif, calibré sur les

3. Voir Berndt et Wood [1975] et Jorgenson et alii [1981].


4. Pour les mathématiciens, signalons quʼil sʼagit du lemme dit « de Shephard », soit une
modalité dʼapplication du théorème de lʼenveloppe.
5. Il suffit pour cela de choisir une forme fonctionnelle (Cobb-Douglas, CES) et de se munir
dʼun compendium mathématique [Berck et Sydsaeter, 1992] donnant les formules nécessaires.
6. Quatorze années plus tard, cet avertissement est confirmé par Frondel et alii [2002] ; après
avoir analysé un millier dʼétudes économétriques, ils concluent « que les déductions faites à partir
de ces travaux apparaissent largement comme un artefact et nʼont plus à voir avec une inférence
statistique sur les relations techniques ».
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 145

dépenses dʼénergie (donc lʼénergie finale), toute possibilité de « coût négatif »


disparaît ; il ignore par construction les gains dʼefficacité potentiels dans la
conversion énergie finale-service énergétique rendu. Il nʼest nul besoin dʼin-
sister ici sur lʼimportance politique de cette ignorance. Certains économistes la
justifient en considérant que, dans les faits, les potentiels « à coûts négatifs »
sont marginaux car, si des technologies étaient réellement supérieures, elles
seraient automatiquement adoptées modulo lʼinertie des équipements existants.
Les ingénieurs, par leur réductionnisme technique, ignorent dʼimportants coûts
cachés qui expliquent le comportement des consommateurs ; ce peut-être des
questions dʼergonomie et de difficulté de maintenance pour des techniques
de production, ou des questions dʼesthétique et de qualité de service pour
les produits finaux. Le temps passant, je crois disposer dʼun échantillon suf-
fisamment grand dʼinterventions de collègues pour assurer que « lʼépouse
représentative » dʼun économiste américain ne supporte pas le type dʼéclairage
que donnent les lampes à très basse consommation. Les économistes peuvent
certes reconnaître quʼil existe un résidu de « coûts négatifs » dû aux imper-
fections de marché (problèmes dʼinformation, de réseaux de distribution, de
structures contractuelles inadaptées comme le partage des responsabilités entre
locataires et propriétaires), mais ils font alors valoir que les corriger comporte
des coûts de transaction économiques et politiques, ce qui réduit dʼautant le
potentiel réellement récupérable [Jaffe et Stavins, 1994].
Or ce débat apparemment simple sur lʼadoption des technologies nʼest
quʼun symptôme dʼun autre enjeu plus fondamental quoique moins directe-
ment tangible. Constater avec Stiglitz [1998] les difficultés de faire passer
des réformes Pareto-improving nʼest pas la même chose que représenter des
économies toujours situées sur leur frontière de production efficace réellement
atteignable. Un deuxième glissement sémantique sʼintroduit alors : on passe
de lʼéquilibre comptable à lʼéquilibre de marché instantané, puis à lʼoptimalité
dʼun sentier de croissance équilibré.
Interrogeons-nous en effet sur la vision du fonctionnement de lʼéconomie
où il est légitime de penser, moyennant des écarts conjoncturels vite résorbés,
que les facteurs de production sont toujours rémunérés à leur productivité
marginale. Tout observateur fera observer la réalité du sous-emploi des fac-
teurs (périodes de chômage structurel), la volatilité de la valeur des capitaux
et la difficulté que représente, dans un contexte de grande incertitude (sur les
performances des techniques et sur les demandes finales), lʼinertie des systèmes
technico-économiques. Or il existe une hypothèse « raisonnable » et logique
où tout cela tient ; cʼest celle des anticipations parfaites où les acteurs sont
assez doués pour anticiper, apprendre en fonction des informations reçues et,
progressivement, converger vers le sentier de croissance optimal.
À nouveau, je préfère demander au chercheur en sciences sociales de ne pas
« sʼénerver » trop vite. Tout économiste tant soit peu soucieux de prise sur le
146 LES MODÈLES DU FUTUR

réel reconnaîtra quʼil sʼagit ici dʼune hypothèse « héroïque ». Le débat de fond
est le suivant, résumé par cette phrase bien connue (dans le milieu concerné)
dʼAlan Manne et Rutherford : « Si lʼhypothèse dʼanticipation parfaite est
peu plausible, lʼhypothèse de comportements myopes est pire encore. » En
dʼautres termes, si on ne peut supposer que les agents anticipent correctement
à chaque point du temps, il est encore plus faux de supposer quʼils ne sont pas
instruits par lʼexpérience. De plus, si on veut représenter des scénarios avec
erreur dʼanticipation et correction lente des croyances, on doit multiplier les
hypothèses ad hoc sur ces erreurs ; cela débouche sur la genèse ad infinitum
de scenarios multiples avec, au total, un « plat de spaghettis » de courbes dont
on ne sait que faire. En cas dʼanticipation parfaite au moins, on dispose dʼun
cadre analytique clair et univoque, dʼun point de référence dont on connaît
les propriétés et quʼon peut comparer à lʼétat actuel des économies.
Ces arguments ne sont pas infondés même sʼils caricaturent un peu les
approches sans anticipation parfaite. Lʼécriture de scénarios contrastés permet
en effet dʼéviter le piège du « plat de spaghettis » et on peut modéliser les
structures dʼanticipation à retenir non pas à partir dʼhypothèses ad hoc, mais
sur la base de comportements observables (par exemple les pratiques dʼinves-
tissement des secteurs). Les scénarios en anticipation parfaite sont sûrement
utiles dʼun point de vue strictement analytique, mais le prix à payer est quʼils
ne peuvent représenter que des scénarios « en âge dʼor » situés sur un sentier
de croissance régulier. On sʼinterdit alors de représenter ce qui est lʼenjeu
majeur du point de vue de la décision publique, à savoir celui de la réaction à
un choc exogène (prix du pétrole par exemple) ou à des politiques publiques
dʼéconomies en déséquilibre ou en équilibre sub-optimal (chômage structurel
par exemple). Communiquer des résultats dans le débat public sans signaler
cette limite, cʼest faire comme si, vues sur le très long terme, les imperfections
étaient de simples « bruits » autour de tendances régulières. Cʼest une vision
possible de la croissance, mais une parmi dʼautres.
Or, représenter les trajectoires de croissance sous forme de trend régulier
plus ou moins pentu est loin dʼêtre anodin pour lʼévaluation du coût des poli-
tiques climatiques et pour la conduite du débat public.

Les conséquences d’un débat à demi entamé

Un point de pure nécessité logique est le plus souvent ignoré : si le scéna-


rio de référence utilise de façon optimale les ressources, toute limite sur les
émissions de carbone ne peut que se traduire par une moindre croissance et
une baisse du bien-être. Ce nʼest quʼen partant de scénarios comportant des
imperfections quʼil y a une place pour des politiques win-win, « sans regret »,
à coût négatif, peu importe ici le vocable.
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 147

Le problème est que, historiquement, les discussions se sont polarisées


sur une seule facette de cet enjeu : la question du choix des techniques « à
coût négatif ». Cette polarisation a été dʼautant plus aisée quʼelle structurait
la confrontation entre des tribus bien définies : ingénieurs versus économistes,
militants de lʼefficacité énergétique versus tenants des réponses par lʼoffre,
partisans versus adversaires du nucléaire. Elle a occulté dʼautres potentiels
majeurs de stratégies « sans regret » : prévention des chocs pétroliers (et des
coûts militaires et non militaires de la sécurité dʼapprovisionnement), préven-
tion des risques de rupture de financement des infrastructures dans les pays
en développement, financement des systèmes sociaux, chômage structurel ;
autant de dossiers où existent des lieux de complémentarité souvent indirects
mais bien réels entre politiques climatiques et politiques économiques.
Cette occultation a été facilitée par le fait quʼorganiser une mobilisation
politique et intellectuelle autour de lʼenveloppe macroéconomique des scéna-
rios de référence ne va pas de soi. Il y a dʼabord le simple fait quʼune notion
comme le double dividende de réformes fiscales renvoie à une réalité moins
tangible que les performances des chaudières ou des éoliennes. Mais, plus
fondamentalement, joue lʼeffet dʼhypnose qui résulte de la visualisation de
courbes croissant de façon monotone et aisément identifiables à ces scénarios
sans crises. Ces courbes sont communément adoptées pour des raisons de
simplicité mais aussi de political correctness. La croissance est une donnée
« naturelle » et lʼon ne saurait admettre aisément des scénarios de moindre
croissance ou de crise. Or, cʼest en visualisant des scénarios macroéconomi-
ques non optimaux, avec des hauts et des bas, des accidents et des ruptures de
trajectoire, quʼon songerait à chercher où sont les lieux de conciliation entre
croissance et environnement.
Le déficit dʼanalyse et de perception devient encore plus criant lorsque lʼon
parle des pays en développement : comment en effet briser le nœud gordien
environnement-développement si on ne part pas de scénarios de base qui incor-
porent les caractéristiques de base dʼune situation de sous-développement :
économie informelle, forte imperfection des marchés, instabilité des institu-
tions ? À ne pas le faire, on sʼenferme dans une problématique sans issue :
celle du partage de lʼeffort. Même accompagnée de considérations généreuses
sur la beauté du geste, elle est simplement inacceptable pour des pays qui ne
peuvent lʼaccepter vu les écarts de niveau de revenu par tête7. Des argumen-
tations « à la Lomborg » pour qui, dans lʼarbitrage climat-développement, il
faut choisir le développement et la lutte contre la pauvreté deviennent alors
légitimes. Avec des scénarios de base, moins esthétiques, moins politiquement

7. Faire remarquer que le riche Chinois ou le riche Brésilien – sans parler des couches aisées
de la population en Arabie saoudite ou dans les Émirats – émet plus de gaz à effet de serre que
lʼEuropéen moyen est ici diplomatiquement inefficace vis-à-vis dʼun « G77 + Chine » qui négocie
pour lʼinstant « en bloc ».
148 LES MODÈLES DU FUTUR

GRAPHIQUES 1 ET 2 – DEUX FAÇONS DE COMPARER DES SENTIERS DE CROISSANCE

Source : CIRED et Zmarak Shalizi [chap. 5].


LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 149

corrects, on sʼapercevrait que, certes, il y a des arbitrages à faire (si des stra-
tégies climatiques peuvent être « sans regret », elles ne sauraient être « sans
douleur ») mais que ce nʼest pas entre climat et développement.
À titre illustratif de cet effet dʼhypnose, vous trouverez ci-contre deux
graphiques qui donnent un scénario de référence concernant la Chine, calculé
pour la Banque mondiale à partir dʼun modèle avec déséquilibre et dʼun scé-
nario avec tensions énergétiques. Dans le premier, le format de présentation
est classique ; on en tire lʼidée rassurante que les tensions énergétiques ne sont
pas un problème majeur. Dans le second graphique, on représente les mêmes
résultats en variations entre la courbe « sans heurt » et la courbe « avec fric-
tion ». Ce qui saute aux yeux alors est la soudaine perte de croissance dans
un premier temps, puis un choc vers 2025, comme si la Chine avait alors une
fragilité spécifique ; cʼest en fait celle du début dʼinversion de sa pyramide
dʼâge, donc de sa capacité dʼépargne. Immédiatement, on se dit alors quʼat-
ténuer ces tensions par des politiques dʼefficacité énergétique pourrait être un
double dividende significatif des politiques climatiques.

SÉLECTION DES OUTILS DʼINCITATION ;


DE LA DIFFICULTÉ DE DISSIPER DES MIRAGES

On connaît le principe du protocole de Kyoto : les pays de lʼannexe B


(pays développés) sʼengagent sur des limites quantitatives de leurs émissions
de gaz à effet de serre (GES) ; pour les atteindre au moindre coût, ils peuvent
importer des permis dʼémission négociables (PEN) dʼautres pays de la même
annexe B ou acquérir des crédits dʼémission via des projets dans les pays en
développement dans le cadre du mécanisme de développement propre (MDP).
Ce principe résulte dʼune histoire complexe, faite de compromis diplomati-
ques successifs plus que de volonté expresse de tel ou tel acteur. Ce nʼétait en
particulier pas, contrairement à la légende, le premier choix des USA – dont
la délégation à la Conférence des Parties de Berlin (COP 1) avait pour mandat
de refuser des engagements quantitatifs [Hourcade, 2002]. Les PEN ne sont
en fait quʼun moyen de parer les inconvénients de lʼincertitude sur les coûts
associés à tout engagement de ce type.
Pour comprendre le rôle des modèles économiques dans ce débat, il faut
revenir au constat quʼil nʼy a que deux façons réalistes de coordonner des poli-
tiques climatiques à lʼéchelle internationale : des taxes carbone (levées dans
chaque pays et recyclées en interne) et des engagements quantitatifs. Or, il en
est une autre qui a de fervents partisans, celle dʼengagements sur des « politi-
ques et mesures » (P & M). Le problème de cette approche, utile à une échelle
locale et sur des dossiers particuliers, est quʼelle ne peut fonctionner comme
150 LES MODÈLES DU FUTUR

système global : comment en effet harmoniser les normes de climatisation


entre Reykjavik, Sao Paulo et Boston, comparer les politiques de transport
au Japon où les trois quarts de la population sont concentrés dans une énorme
mégalopole et dans le Far West américain ? Le risque est de ne sʼaccorder
que sur des formules floues. Si on veut des critères plus tangibles, il ne reste
donc bien que deux options ; celles-ci ont en commun de faire émerger un prix
du carbone. Or, les modèles vont être ici pris entre deux postures – négation
absolue de lʼanalyse économique versus hypnose acritique – qui vont obérer
gravement la réussite de la négociation.
Tout se joue sur la question du signal prix. Rendre les choses plus chères
nʼest en effet pas très populaire et il serait politiquement plus commode
dʼéviter lʼalternative taxe versus « droit à polluer ». Dans un pamphlet contre
ces derniers, une députée de gauche, dont le nom importe peu, écrivait à peu
près : « Et quʼon ne me parle pas des taxes, cʼest un moyen de faire payer
les pauvres en permettant aux riches de polluer à leur aise » ; une position de
droite dirait : « pas de contraintes sur les entreprises et pas de nouvel impôt
qui alimenterait une bureaucratie peu efficace ». Cʼest cette position de refus
de faire payer qui explique la permanence de lʼidée dʼune coordination par
les P & M : normes techniques, labels, campagnes dʼinformation qui incitent
à choisir des technologies peu émettrices de carbone, recherche-développe-
ment. Or, en dehors de sa non-négociabilité, elle repose sur un vrai mirage
économique, la gratuité.

Quand les modèles montrent que la gratuité est tellement chère


qu’on ne saurait l’accepter

Convenons dʼabord que, pour diviser par quatre les émissions de carbone, il
faudra aller au-delà des potentiels dʼamélioration à très bas coût des appareils
utilisateurs dʼénergie et se doter de techniques plus sophistiquées et plus chères
au moins dans un premier temps (sinon le problème serait spontanément résolu).
Supposons quʼune norme impose une baisse de 20 % des émissions unitaires
moyennes pour produire un bien donné. En fait les entreprises ne sont pas tou-
chées de la même façon par cette contrainte : pour certaines, une baisse de 5 %
des émissions suffira, quʼelles obtiendront à coût nul en organisant simplement
un peu mieux lʼentretien et le réglage de leurs appareils de production ; dʼautres
se situent à la moyenne et il leur faudra augmenter leur coût unitaire de 100 _ à
120 _ par exemple ; dʼautres enfin, parce quʼelles ont un vieil équipement, devront
débourser 40 _ par tonne. Si lʼoffre nʼest pas excédentaire, ces entreprises vont
vendre leur produit à 140 _ par tonne (ou si le marché est élastique à 130 _ en
rognant sur leurs marges), et le résultat sera une rente nouvelle pour les deux
autres catégories dʼentreprises. En dʼautres termes, la gratuité dʼune norme nʼest
quʼapparente : on croit imposer une contrainte aux industriels, mais ceux-ci en
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 151

transmettent le coût aux consommateurs et empochent un profit additionnel. Le


très libéral Stigler faisait naguère remarquer que les industriels plaident pour
les instruments de marché, mais font tout ce quʼils peuvent pour les éviter : les
normes constituent en effet, pour les lobbies, les sources de rente les plus habiles.
Les taxes (comme des permis dʼémission vendus aux enchères) permettent de
récupérer ces rentes et dʼen faire bénéficier lʼensemble du corps social (baisse
dʼautres prélèvements, soutien aux couches sociales les plus durement touchées
par la hausse des prix de lʼénergie). On a donc, dʼun côté, un effet redistributif
négatif caché derrière lʼapparente gratuité et, de lʼautre, une vérité des coûts
impopulaire mais qui donne les moyens de réduire ces mêmes effets négatifs.
Lʼinsistance des économistes sur la nécessité de signaux prix se comprend
encore mieux quand on en vient au noyau dur de lʼaffaire : les transports.
Supposons que, par des normes ou des accords volontaires, on diffuse des
moteurs consommant 2 L/100km de carburants ex-fossiles ; la conséquence
immédiate sera de baisser le coût du kilomètre parcouru, donc dʼinciter encore
plus à la mobilité automobile. De même, des moteurs de camions plus effi-
caces accentueraient le recul du rail dans le transport des marchandises. Ces
mécanismes pervers ne peuvent être bloqués que par lʼaugmentation du prix
des carburants.
Le fait de devoir recourir à des taxes carbone (ou à des permis vendus aux
enchères) nʼest dʼailleurs pas une mauvaise nouvelle ; les modèles montrent que,
si leur produit est correctement recyclé, elles sont (légèrement) favorables à la
majorité des secteurs et à lʼemploi8, car elles permettent de baisser les prélève-
ments obligatoires retombant sur les coûts de production (mécanisme de double
dividende). Mais les écotaxes, après un long soutien de lʼUnion européenne,
vont être bloquées par une coalition hétéroclite où les réflexes antifiscaux et
lʼopposition des industriels se combinent avec la méfiance dʼune partie de la
gauche vis-à-vis dʼun outil qui « fait payer les pauvres » ; la mouvance éco-
logiste sʼavère, elle, prise en squeeze entre un discours « pollueur-payeur » et
une volonté ne pas paraître « antipopulaire ». On a donc ici, pour le moins, un
déficit de capacité de conviction de lʼanalyse économique.

De quelques bonnes raisons d’un déficit


de conviction sur une thèse juste

Il est banal de constater lʼexistence de filtres idéologiques qui interdisent


dʼaccepter les informations qui déplaisent, dʼoù quʼelles viennent. Mais, dans

8. Ce nʼest pas le cas pour les secteurs très énergivores (sidérurgie, ciment, non-ferreux, produits
pétroliers) pour lesquels la solution est a) dʼadmettre quʼune part seulement des permis est acquise
aux enchères, lʼautre étant obtenue gratuitement, b) de négocier des garanties auprès de lʼOMC
sur la possibilité de mesures protectionnistes contre les pays qui appliqueraient à leur industrie des
dispositifs plus laxistes que la règle commune (cf. la position de Stiglitz sur ce point).
152 LES MODÈLES DU FUTUR

le cas présent, il serait par trop commode de sʼen tenir là sans se poser des
questions sur la responsabilité propre des modélisateurs. Il existe en effet
des faiblesses techniques réelles dans les modèles existants et, lorsque des
plaidoyers pour les signaux prix sont construits sans précaution et en forme
dʼarguments dʼautorité, le risque est de ne convaincre que ceux qui sont prêts
à en accepter dʼentrée de jeu le contenu.
On revient ici, par un autre biais, aux querelles bottom-up versus top-down.
Dans leur version la plus pure en effet, les modèles top-down ne peuvent repré-
senter aisément que des réactions aux prix ; on peut certes essayer dʼy intégrer
des informations bottom-up sur lʼimpact dʼune norme, mais cela se fait via
des hypothèses exogènes sans quʼon ait en général assez dʼinformations sur
les coûts réels de la norme. Cʼest pourquoi les modélisateurs top-down sont
assez réticents sur ce type de manipulation, certains dʼentre eux dʼailleurs par
conviction a priori de la supériorité des signaux prix sur les normes (en fait
celle-ci dépend des domaines concernés en termes dʼefficacité incitative sur
le changement technique). Nier cette faiblesse de lʼétat de lʼart renforce les
postures de refus des signaux prix tant il est aisé de donner des exemples de
lʼintérêt des mesures « non-prix » comme les normes (qualité, sécurité) ou les
politiques dʼinfrastructures. De plus, la quasi-totalité des modèles nʼintègrent
que les prix du carbone par rapport aux autres biens et ignorent les prix du
foncier et de lʼimmobilier qui sont si importants pour lʼavenir des biocarbu-
rants (prix de la terre et compétition bioénergie-production alimentaire) ou
pour la dynamique des besoins de mobilité. Ces faiblesses nʼinvalident ni les
arguments qui font des prix du carbone un vecteur supérieur de coordination
internationale, ni le mécanisme du double dividende ; mais, en présentant le
signal prix comme lʼalpha et lʼoméga des politiques climatiques, alors quʼil
nʼen est quʼune précondition, tout sera prêt pour un blocage rhétorique tant
il est évident que cʼest sur une panoplie plus large de paramètres quʼil faut
jouer ; prétendre infléchir les tendances dans les transports via le seul prix
du carbone sans toucher à lʼimmobilier et aux infrastructures relève aussi
du mirage puisquʼil faudrait atteindre des niveaux de taxe inacceptables
politiquement.
La structure de ce blocage rhétorique va se retrouver mutatis mutandis dans
lʼaffaire des permis dʼémission négociables. Ceux-ci, parce quʼils introduisent
une contrainte sur le commerce extérieur (importation de permis) ont lʼavan-
tage, par rapport à des taxes, de pousser les gouvernements à mettre en jeu
lʼensemble des variables autres que le prix du carbone. Mais ce système a fait
lʼobjet de fortes résistances idéologiques et a été dénoncé comme conduisant
à la marchandisation de lʼenvironnement et à la possibilité pour les « riches »
dʼacheter des PEN aux « pauvres » sans pour autant transformer leurs modes
de consommation. Les modélisateurs vont bien sûr être conviés dans cette
querelle, mais ils seront pris au piège de la surinterprétation des résultats par
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 153

des visions du monde antagonistes et ils participeront souvent eux-mêmes à


la mise en place du piège.

Coûts politiques d’effets d’hypnose persistants

Lʼarchétype de ce piège est celui de la querelle de la « supplémentarité ».


Pour sʼassurer que les permis dʼémission négociables (PEN) ne deviennent
pas un instrument à disposition des USA pour éviter tout effort réel, lʼEurope
demanda pendant trois ans, sous la pression principalement de lʼAllemagne,
quʼil y ait un plafond (concrete ceiling) sur les importations de PEN. Aux USA
en revanche, il était nécessaire de démontrer à des sénateurs réticents que le
protocole de Kyoto ne conduirait pas à la ruine du pays. Ainsi, Jae Edmonds,
un des plus connus des modélisateurs américains, convoqué dans une audi-
tion du Sénat, fournit des simulations où le prix du carbone était autour de
20 $/tC, mais cela en important 85 % de la différence entre les objectifs et
les émissions du scénario de base. Pour parvenir à ce résultat, il lui suffisait
de faire tourner son modèle (SGM) sur lʼensemble du monde, tiers monde
compris. Un tel chiffre utilisé pédagogiquement pour montrer que Kyoto ne
conduirait pas nécessairement les USA à un désastre économique donnait
aux « antidroits-à-polluer » en Europe la preuve que les USA utiliseraient
les marchés de permis comme un moyen de contourner les efforts à mener
dans leurs propres frontières. En fait, ces simulations supposaient que la
totalité du potentiel dʼabattement dans les pays en développement pourrait
réellement être exploitée. Or ce potentiel ne peut lʼêtre que via des projets de
« développement propre », ce qui en restreint bien sûr lʼampleur (difficultés de
définition de projets clairement identifiables, coûts de transaction, difficultés
de mesure de la réalité des réductions). Un numéro spécial de lʼEnergy Journal
de 1999 (auquel participa J. Edmonds9) le chiffra à 15 %. En introduisant de
tels éléments de réalisme, la querelle de la supplémentarité devient vite sans
objet : les USA font la majeure partie de leurs réductions chez eux, davantage
dʼailleurs que le Japon et lʼEurope qui, dans les modèles, ont des courbes de
coût dʼabattement plus pentues que les USA et sont plus intéressés à importer.
Mais cette querelle aura décalé de trois ans un accord possible, assez pour
quʼune nouvelle administration vienne se retirer du processus.
En fait sʼest créé un jeu de miroirs déformants où chacun des camps en
présence interprète les résultats en fonction de sa propre visée argumentative
et de sa propre perception du monde, puis une sorte dʼeffet dʼhypnose autour
des résultats des modèles qui va toucher les pro et antimarché. Quel est en
effet le monde que décrit un modèle mondial ? Cʼest un monde où de grands
pays ou grandes régions, face à une contrainte carbone, arbitrent entre une

9. Voir MacCraken et alii [1999].


154 LES MODÈLES DU FUTUR

action domestique ou bien lʼimportation de permis dʼémettre pour y satisfaire.


Implicitement, ce sont des acteurs rationnels qui gèrent leurs économies de
façon à compenser les effets redistributifs inévitables dʼune politique. Ainsi,
la main-dʼœuvre « libérée » dʼun secteur intensif en énergie dans une région
se déversera sans heurt dans de nouvelles activités ; de même la différencia-
tion des impacts dʼun prix donné du carbone selon les niveaux de revenus
sera neutralisée par des politiques appropriées. Enfin, cʼest un monde où les
États ne sʼinquiètent absolument pas des conséquences géopolitiques de la
structure de leurs échanges – par exemple pour les USA, devoir importer 10
à 15 gigadollars de PEN en majeure partie de la Russie. Le monde décrit par
un modèle mondial en équilibre général est donc une sorte de « table rase »
qui suppose que les hétérogénéités et aspérités du monde réel sont aisément
surmontées grâce à des gouvernements bénévoles et éclairés.
Un tel artefact, il faut y insister, est fort utile pour le raisonnement dans
la mesure où il fournit un point de repère solide pour mettre en lumière des
mécanismes importants qui restent valides dans des économies plus réalistes.
Il nʼest dʼailleurs pas impossible, quand cela est faisable techniquement, de
réinjecter dans les mêmes modèles telle ou telle aspérité du monde réel pour
en examiner les conséquences. Nous lʼavons vu pour les coûts de transaction
du MDP, mais cʼest aussi ce que fait Jae Edmonds lorsquʼil est convié par une
administration Clinton, accusée par Bush junior de mener le pays à la ruine,
à bien évaluer les coûts potentiels de Kyoto pour lʼéconomie américaine. Il
écrit alors un scénario où, en raison dʼun temps de retard dans lʼadoption des
mesures appropriées et de non-coordination avec la politique monétaire (taux
de change fixe), le coût de Kyoto pour les USA serait de 4 % du PIB sur 15 ans
au lieu de 1 % dans son scénario central.
En fait, lʼessentiel des dérives viennent du moment où lʼartefact est pris
pour la réalité. Certes, chacun proteste de ne jamais tomber dans un tel
piège, mais lʼhypnose sur lʼartefact commence lorsque toutes les rhétoriques
sʼorganisent autour de lui. Ainsi, lors de la querelle de la supplémentarité,
les antiPEN rejettent lʼidée dʼun marché généralisé du carbone à lʼéchelle
mondiale et lʼabsence de régulation publique pour pallier les dysfonction-
nements du système (pouvoir de monopole, utilisation stratégique des quo-
tas, effets redistributifs). Mais ce quʼils rejettent ainsi, cʼest le système de
PEN tel que décrit par les modèles. Or Kyoto nʼinstaure pas un marché
généralisé du carbone. Il ne fait que permettre aux États dʼalléger le coût
de leurs engagements : stricto sensu, les échanges se font entre États. Ainsi,
un pays qui maîtriserait son urbanisme, favoriserait les transports collectifs
et les modes doux de déplacement et relèverait la fiscalité des carburants
au fur et à mesure des gains dʼefficacité des moteurs, pourrait ne pas avoir
de marché du carbone mais intervenir comme exportateur sur les marchés
internationaux et être ainsi récompensé de sa bonne conduite. Les tenants
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 155

de Kyoto, symétriquement, vont faire comme si lʼhorizon du système Kyoto


était lʼextension du mécanisme des PEN à tous les secteurs, y compris les
transports, et à tous les pays en développement. Ils vont défendre leurs
positions sans se rendre compte que cet horizon différait notablement de la
lettre et de lʼesprit de Kyoto.
Un point important ici est la rapidité avec laquelle les positions rhétoriques
se figent en figures irréversibles. Ainsi, après que, de façon répétée, quinze
ministres de lʼEnvironnement eurent fait de la supplémentarité lʼemblème de
la position européenne, il devenait quelque peu déplacé dʼexpliquer quʼelle
nʼavait pas dʼobjet et desservait même la position économique de lʼEurope.
Toute argumentation économique était aisément décrédibilisée au nom même
du simplisme des modèles.
Au-delà de lʼépisode de Kyoto, un autre exemple dʼeffet dʼhypnose est celui
qui se crée quand la discussion se polarise sur des projections de croissances
« en âge dʼor ». Outre le fait dʼinterdire de représenter des stratégies « sans
regret », ces projections ont une autre conséquence, à savoir de conduire à des
coûts systématiquement modérés des politiques climatiques (sauf quelques
modèles dont il est aisé de voir les biais) : Kyoto représenterait de 0,1 à 1 %
de perte du PIB pour lʼannexe B sur vingt ans si on recourt aux échanges
de permis, soit, dans le pire des cas, un taux de croissance annuel diminué
de 0,0049 %. Ce résultat nʼest pas surprenant : dans lʼéconomie flexible des
modèles, où les agents prennent à temps les bonnes décisions, le coût des
politiques climatiques ne peut quʼêtre faible vu le faible poids de lʼénergie
dans la richesse totale.
Ce résultat arrange bien les administrations qui peuvent sʼy caler pour
soutenir la possibilité de politiques climatiques ambitieuses sans pour autant
adopter les arguments bottom-up qui pourraient paraître trop militants. Il nʼest
pas faux de dire que la plupart des ministères des Finances ou de lʼIndustrie
légitiment leur réserve vis-à-vis de politiques climatiques agressives en se
référant aux modèles top-down alors que ceux de lʼEnvironnement privilégient
les modèles bottom-up.
Le problème est que, lorsque lʼon veut convaincre les industriels du
bien-fondé des politiques, ceux-ci ont de la peine à accepter des résultats
fondés sur des modèles donnant une vision des marchés qui ne correspond
pas à leurs propres pratiques (rôle des surprises, de la volatilité des prix,
des inerties, des captures de rente). En fait, en partant de modèles simulant
des économies plus réalistes (avec déséquilibre, imperfections de marché),
on ferait certes apparaître de plus grands risques de dérapage des coûts en
cas de politiques mal ajustées, mais aussi des potentiels plus importants de
stratégies « sans regret ». Mais, dans ce cas, on changerait les lignes dʼune
discussion aujourdʼhui conduite à partir de « camps » bien établis et dont
on a pris lʼhabitude.
156 LES MODÈLES DU FUTUR

ÉVALUER LES DOMMAGES : DE LA GESTION DE CROYANCES CONTRADICTOIRES

Un dernier exemple important de la mobilisation des modèles est le débat


sur le tempo de lʼaction à partir de 1995 ; lʼenjeu était celui des cibles à retenir à
Kyoto pour 2012. La convention Climat (1992) est un chef-dʼœuvre de langage
diplomatique puisquʼelle affiche une volonté de stabiliser les concentrations
de GES dans lʼatmosphère à un niveau garantissant lʼabsence dʼinterférences
dangereuses avec le système climatique sans définir ce niveau. Or, stabiliser
à 750 ppm nʼimplique aucune contrainte notable sur les scénarios dʼémission
tendanciels alors que 450 ppm exige des efforts sérieux.

Ce que révèle la négligence d’un raisonnement pourtant simple

Sans raison autre que la publication par le deuxième rapport du GIEC


dʼun jeu de trajectoires dʼémissions compatible avec des niveaux de stabili-
sation, compris entre 350 ppm et 750 ppm (avec un scénario non plausible
à 1 000 ppm), lʼattention sʼest focalisée sur le chiffre médian de 550 ppm.
Comme, dʼaprès la moyenne des sorties de modèle, ce chiffre correspondait
à une hausse de température de 2 °C par rapport à 1990, lʼUnion européenne
a ensuite retenu ce chiffre comme plafond de hausse de température à ne pas
dépasser. Il sʼagissait dʼun jugement purement politique ; en lʼabsence dʼinfor-
mation scientifique sur le coût des dommages, 550 ppm devenait lʼindicateur
dʼun seuil de risques inacceptable.
Le débat fut conduit à partir de modèles dit « intégrés » comportant un
module de croissance économique compact et des formes réduites de cycle du
carbone et de la réponse climatique. Wigley, Richels et Edmonds publièrent
dans Nature [1996] un article très utile pour soutenir les positions américai-
nes. Ils montraient que, pour stabiliser à 550 ppm, nul nʼétait besoin sur les
vingt prochaines années de décrocher de façon significative des tendances en
cours : mieux valait attendre que les équipements existants soient obsolètes, les
remplacer par des technologies peu émettrices au fur et à mesure des baisses
de coût permises par le progrès technique et ne pas ralentir la croissance en
investissant trop précocement en projets dʼabattement. Grubb et alii [1997]
ont répondu à cet argument dans la même revue en faisant remarquer que nous
ne savons pas aujourdʼhui la bonne cible à retenir, cela pour deux raisons :
a) on ne sait si une augmentation moyenne de + 2 °C ne provoquera pas
dʼimportants chocs locaux susceptibles de se propager sur toute lʼéconomie ;
b) 30 % des simulations existantes retiennent un coefficient de sensibilité
climatique qui fait quʼil faut rester sous 450 ppm pour ne pas dépasser 2 °C
de réchauffement. Il suffit alors de prendre lʼobjectif de 550 ppm comme une
moyenne entre 450 ppm et 650 ppm, puis de considérer que nous aurons à
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 157

GRAPHIQUE 3. – STRATÉGIE OPTIMALE DES ÉMISSIONS DE CO2


DANS LE CADRE DʼUNE APPROCHE COÛT-EFFICACITÉ

Source : IPCC (GIEC) [WGIII/TS, p. 67].

choisir la trajectoire définitive dans vingt ans (quand nous en saurons plus)
pour conclure quʼil faut un décrochage immédiat significatif (autour de celui
exigé par Kyoto) (cf. graphique n° 3 et 4) si on veut se garder la possibilité
de bifurquer vers un objectif de 450 ppm.

GRAPHIQUE 4. – STRAGÉGIE OPTIMALE DANS UNE APPROCHE COÛT-BÉNÉFICE


POUR UN SCÉNARIO DE FAIBLE PROBABILITÉ, MAIS DE « CATASTROPHE »

Source : IPCC (GIEC) [WGIII/TS, p. 67].


158 LES MODÈLES DU FUTUR

La signification de lʼexercice est la suivante : soit une population partagée


par tiers entre des optimistes qui pensent que les dommages climatiques ne
seront pas un problème, des raisonnables pour qui 550 ppm représente une
bonne assurance et des craintifs qui veulent rester au-dessous de 450 ppm ;
supposons que cette population, plutôt que de se lancer dans des batailles
argumentatives qui ne peuvent surmonter les désaccords en temps et en heure,
décide de mandater un « planificateur bienveillant » pour quʼil calcule la
trajectoire qui maximiserait le « bien-être » collectif sur la base « un homme
– une voix ». Cette trajectoire est celle qui permet de ne pas avoir trop dépensé
sur deux décennies sʼil sʼavère quʼen fait M. Lomborg, lʼécologiste sceptique
[2001], ou M. Allègre avaient raison et de ne pas se trouver dans un lock-in
interdisant de pivoter, sʼil le fallait, vers 450 ppm.
Le paramètre central qui explique que lʼargument de lʼaction retardée
soit réfuté dans ce type dʼapproche est le jeu entre lʼinertie des systèmes
technico-économiques et lʼirréversibilité de lʼaccumulation du GES : si on ne
procède à aucune inflexion des tendances sur vingt ans, il devient très coûteux
dʼaccélérer la décarbonisation de lʼéconomie pour respecter un plafond de
450 ppm parce que cela implique une accélération du renouvellement des
infrastructures. Lʼaffaire est scientifiquement tranchée, mais il est intéressant
de noter que les critiques de Kyoto évitent de mentionner la structure même
du raisonnement. Cet oubli permet dʼaccréditer lʼidée que Kyoto ne sert à
rien puisquʼil ne permet que de gagner 0,3 °C de température sur un siècle
alors quʼil nʼest quʼun premier coup de frein « en attendant dʼen savoir plus ».
Le raisonnement de Lomborg [2001] (repris par C. Allègre) suppose une
humanité se comportant comme un conducteur qui, ayant tapoté la pédale de
frein dans la perspective dʼun freinage plus sérieux en cas de verglas dans un
virage, sʼarrêterait de donner dʼautres coups de frein pour contrôler la vitesse
du véhicule au cas où il faudrait sʼarrêter.

Les vrais enjeux de l’analyse coût-bénéfice

Les sceptiques sérieux peuvent ici rétorquer que la structure précédente


de raisonnement comporte le risque dʼune dictature de la minorité. On aura
compris que le coût de lʼaction retardée vient de lʼaccélération des efforts
pour rester dans un « budget carbone » donné. Or, si 5 % de la population
votent pour un écologisme intégral prônant un objectif de 400 ppm, alors ils
pèseront dʼun poids disproportionné dans le calcul du planificateur ; celui-ci
nʼa beau compter que pour 5 % le fait de devoir bifurquer vers 400 ppm, ces
5 % vont dominer le calcul car les coûts de lʼaction retardée pour respecter
cette cible tendent vers lʼinfini.
La conclusion est donc quʼil faut rendre raison des plafonds retenus dans
le calcul, et quʼon ne peut le faire sans une analyse coût-bénéfice qui mette
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 159

en balance en termes monétaires les coûts de lʼaction et les dommages évités.


Il faut alors comparer des coûts qui se produisent à des périodes de temps
différentes, donc utiliser un taux dʼactualisation ; et lʼon bute immédiatement
sur le fait que, les coûts dʼabattement et les dommages évités étant séparés par
plusieurs décennies, ces derniers comptent vite très peu dans le calcul. Dans
une approche de décision séquentielle similaire à celle expliquée plus haut (et
où lʼon introduit la possibilité de dommages catastrophiques), il nʼest pas éco-
nomiquement rationnel de lancer dès aujourdʼhui des politiques significatives
de décarbonisation (cf. graphique n° 4, p. 157). Le GIEC, dans son résumé
pour décideurs, met ce graphique en regard du précédent pour bien marquer
quʼil y a un choix à faire sur la structure même de la décision.
Un tel résultat nourrit le procès récurrent contre deux pratiques des éco-
nomistes : lʼusage dʼun taux dʼactualisation et lʼagrégation monétaire des
impacts. Pour la troisième et dernière fois, je demanderai au lecteur de mettre
ses doutes entre parenthèses. Je ne le fais pas par manie dʼéconomiste mais
par souci de prendre en compte le monde « tel quʼil est ». Il est frappant
que ce soit un philosophe, Luc Ferry, qui fasse remarquer dans son attaque
contre lʼécologisme que « tout franc dépensé au nom de lʼenvironnement ne
le sera pas ailleurs » [Ferry, 1992]. Cʼest Lomborg, un statisticien, qui, pour
démontrer quʼil vaut mieux investir sur le développement que sur la prévention
climatique, sʼappuie sur le fait que lʼefficacité marginale du capital investi en
Inde est de 15 % si lʼon en croit les taux dʼintérêt en vigueur.
À ne pas accepter de débattre sur ce terrain, ce qui est le réflexe courant, on
se prive de faire remarquer que, si lʼefficacité marginale des investissements
en Inde était vraiment de 15 % pendant cinquante ans, elle permettrait un
taux de croissance indien si élevé (de 13 à 14 % par an) que lʼIndien moyen
serait alors quatre fois plus riche que lʼAméricain moyen de cette époque.
Lʼerreur vient ici de ce que lʼon confond les taux dʼintérêt de court terme (qui
incorporent une prime de risque) et le taux dʼactualisation, qui est dicté par
le taux de croissance économique de long terme. Si on retient un tel taux et,
en toute rigueur, de lʼincertitude sur la croissance, alors les taux acceptables
sont plutôt compris entre 2 et 3 % à lʼéchelle mondiale. Un argumentaire « à
la Lomborg » montre les dangers du maniement dʼune vulgate économique
non encadrée par un modèle dʼensemble cohérent.
À fuir le débat, on se prive aussi de comprendre pourquoi, avec des taux
dʼactualisation faibles, même lʼhypothèse de dommages très élevés sur le long
terme ne conduit pas à des actions significatives de précaution. À nouveau on
retrouve ici lʼimportance dʼun truc de modélisation. Les courbes de dommages
couramment utilisées sont des fonctions « régulières » des concentrations (ou
de la température) sous forme de paraboles ou dʼexponentielles calées sur
des valeurs estimées autour de + 2 °C dʼaugmentation, valeur qui, selon les
auteurs, tourne autour de 1 % à 3 % du PIB sur le long terme. Dès lors, si on
160 LES MODÈLES DU FUTUR

veut représenter des dérives catastrophiques pour des hausses de température


plus élevées avec des courbes à concavité constante et passant par un point
donné pour deux degrés, il faut que les dommages se déploient lentement
pendant cinquante ans et nʼexplosent vraiment que vers la fin du siècle. Le
graphique n° 3 suffit à sʼen convaincre. Si en revanche on admet, avec la
même hypothèse pour + 2 °C, que la courbe des dommages croît de façon
moins régulière, présente ici ou là des seuils et des non-linéarités, alors, même
en actualisant, on peut montrer la rationalité économique dʼune action plus
précoce surtout si on tient compte de lʼincertitude sur la variabilité climatique.
Lʼhistoire racontée ici (plus conforme à la succession des événements dits
extrêmes ces dernières années) est celle de lʼoccurrence de petits chocs à court
terme et dʼune accélération des dommages à partir de 2035-2040 ; vu lʼinertie
des systèmes technico-économiques (50 ans pour un système électrique), alors,
cʼest bien dès aujourdʼhui quʼil convient dʼagir.

GRAPHIQUE 5. – CONSÉQUENCES CACHÉES DʼUNE TECHNIQUE DE CALIBRAGE

Source : CIRED.

En fait, la joute toujours recommencée entre partisans et adversaires du


taux dʼactualisation en ces affaires masque le véritable enjeu : celui des
« croyances » sur le rythme de déploiement des dommages climatiques et
des raisons pour lesquelles certains voient des dangers que dʼautres nient.
Cʼest ici quʼil faut en venir au chiffrage monétaire lui-même et aux causes
possibles de non-linéarités dans les dommages. Les évaluations existantes
sont très rares et pourront paraître extraordinairement basses. Elles viennent
de quelques auteurs : Nordhaus, Fankhauser, Mendelsohn et Tol. En dehors
de leur caractère incomplet, elles sʼexpliquent très bien, à nouveau, par la
croyance dans les anticipations parfaites ; elles racontent en effet un monde
où, face aux transformations du climat, les hommes vont très vite apprendre
à sʼadapter et prendre systématiquement les mesures quʼil faut en temps et en
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 161

heure. On comprend intuitivement pourquoi : si on suppose que nous savons


dès aujourdʼhui que le climat de la Riviera va se déplacer vers celui de la
Normandie dʼici à la fin du siècle, alors, on peut prévoir en conséquence la
migration des infrastructures hôtelières et celle des populations fuyant un cli-
mat devenu trop chaud, et organiser les solidarités nécessaires. Sous hypothèse
dʼanticipation parfaite et dʼapprentissage rapide sur les évolutions du climat,
même une difficulté comme celle de la durée de vie des équipements (les
centrales électriques) allant au-delà de cinquante ans est vite résolue : si on
connaît les marchés futurs, on peut planifier les investissements lourds avec
autant de facilité quʼun investissement récupérable en deux ans.
Le débat sur les dommages est certes une affaire dʼinvestigation scien-
tifique sur les impacts du changement climatique : il faut en savoir plus sur
le cycle de lʼeau, les réponses des écosystèmes, lʼévolution des biotopes,
lʼadaptation des espèces ou la migration des bactéries et des virus. Mais in
fine la façon dont ces impacts vont se traduire en des montants de dommages
plus ou moins élevés va dépendre de la vision que lʼon a du fonctionnement
des sociétés et de leurs capacités à anticiper et à sʼadapter aux imprévus.
Comme le montrent des expériences aussi diverses que lʼexplosion dʼAZF
à Toulouse, le tremblement de terre dʼIstanbul, les tornades répétées dues à
El Niño en Amérique latine, les contraintes ne sont pas ici que financières ;
elles viennent aussi du délai technique et organisationnel pour transformer
un effort financier en travaux concrets (déficit de compétences, contraintes
logistiques, controverses sur les travaux à mener). Or, dans une économie
avec déséquilibre, de telles contraintes se transforment en « amplificateurs
de coûts » qui portent les dommages à des niveaux nettement supérieurs à
ceux que lʼon obtient avec des économies suivant des sentiers de croissance
stabilisés sur lesquels on revient aisément après tout écart.
On retrouve ici, par un autre biais, lʼargument selon lequel il faudrait
investir sur le développement pour rendre les économies capables de se payer
lʼadaptation. Cet argument est légitime à condition quʼon le tienne pour ce
quʼil est : une croyance parmi dʼautres, à savoir que les investissements en
développement seront toujours désormais bien placés et bien conduits. En toute
rigueur, on devrait affecter un degré de probabilité à cette vision du monde par
rapport à une vision moins optimiste que jʼincline à penser plus réaliste.
Sinon les arguments ne manquent pas pour montrer les risques de non-
linéarités dans les dommages climatiques. Le Premier ministre du Honduras
déplora ainsi que le cyclone Michèle en 2001 ait « ramené le développe-
ment économique du pays vingt ans en arrière ». De même, lʼexemple de la
Nouvelle-Orléans, où le différé des travaux dʼentretien et de renforcement des
digues nʼest pas pour rien dans la catastrophe, est très révélateur de la façon
dont une négation ex ante dʼun risque peut sʼavérer un facteur dʼamplification
du risque.
162 LES MODÈLES DU FUTUR

In fine donc, acceptation ou pas de lʼanalyse coût-bénéfice, la modélisation


nʼest quʼun détour pour nous renvoyer aux vrais enjeux que sont notre rapport
au risque et les croyances que nous formons concernant la force des impacts
et les capacités de réponse de nos sociétés.

CONCLUSION

Le titre de cet article suggère que, convoqués pour éclairer les futurs, les
modélisateurs se retrouvent un peu comme les invités au Capitole : bien trop
proches de la Roche tarpéienne qui est ici celle du dédain de leurs travaux. Le
risque est alors de se priver de ce que, malgré leurs fragilités, les « expériences
numériques » quʼils mènent peuvent apporter : forcer chacun à rendre compte
de ses conjectures, de ses visions du monde et de ses choix normatifs, en des
termes tels quʼon peut en cerner la cohérence et les implications, et cela grâce
à ce juge de paix quʼest un modèle numérique.
Jʼespère avoir convaincu le lecteur que beaucoup se joue sur des détails
a priori sans intérêt. À chacune des étapes du parcours suivi, jʼai essayé de
montrer comment des astuces commodes (interpolation entre 0 °C et 2 °C
des courbes de dommages) ou des habitudes méthodologiques (fonctions de
production) peuvent sʼavérer dʼune importance inattendue. Cʼest parce que
de tels détails ne sont pas discutés quʼil est difficile de contrôler la surinter-
prétation des résultats au prisme de visions du monde soit préexistantes, soit
provoquées par la présentation même des travaux. Les modélisateurs portent
ici une part de responsabilité lorsque, pour protéger lʼélément de vérité contenu
dans leurs simulations, par peur de complexifier le message mais aussi par
enfermement dans leur propre langage, ils évitent dʼouvrir la boîte à outils
et ne se hâtent pas de signaler les glissements sémantiques effectués à partir
de leurs travaux.
Mais on ne peut faire comme si les « utilisateurs » eux-mêmes nʼavaient
pas leur part de responsabilité : attraction dʼune tangibilité parfois illusoire,
manque dʼéducation à lʼincertitude qui fait quʼon va chercher le best guess, le
« raisonnable », commodité que représente la polarisation des débats autour de
camps bien établis. Tout cela empêche de faire lʼeffort de percevoir la nature
des enjeux réels derrière les querelles de modèles.
Or ces querelles sont loin dʼêtre purement techniques ; que ce soit dans
lʼécriture des scénarios de base et la recherche de stratégies « sans regret »,
dans la discussion des mécanismes de marché ou dans celle du coût des
dommages, on a vu lʼimportance des notions dʼéquilibre, dʼoptimum et dʼan-
ticipation parfaite. Se contenter de dénoncer lʼirréalisme de ces notions, cʼest
enfoncer une porte ouverte (encore que des phénomènes dʼhypnose peuvent
expliquer que beaucoup les tiennent pour vraies) et ne pas comprendre la raison
LES MODÈLES DANS LES DÉBATS DE POLITIQUE CLIMATIQUE… 163

profonde de leur persistance, une sorte dʼhayékisme tacite. La vraie bataille


dʼHayek est contre le constructivisme, la prétention de rationaliser le monde et
de formater le futur ; il y voit le début de la fin des libertés et fait du marché le
seul contre-feu possible. On le faisait de son temps « au nom des lendemains
qui chantent » et, implicitement, beaucoup redoutent quʼon puisse le faire au
nom des grandes peurs en imposant un volontarisme technologique quelcon-
que ; dʼoù dʼailleurs la réticence à expliciter les variables de développement
(styles de consommation, technologies, formes urbaines) qui sous-tendent les
projections de PIB et à envisager des « futurs alternatifs ».
Certes, la nature des défis actuels empêche de croire que les marchés
produiront nécessairement les bons signaux qui viendront en temps et heure ;
mais la structure de raisonnement à la Hayek est suffisamment prégnante (et
pose un problème suffisamment sérieux) pour quʼon la discute en tant que
telle et quʼon ne la laisse pas se lover, à lʼinsu de tous, dans quelque équation
plus ou moins sophistiquée.

RÉFÉRENCES BIBLIOGRAPHIQUES

BABIKER M. H., REILLY J. M., MAYER M., ECKAUS R. S., SUE WING I. et HYMAN R. C. (2001),
The MIT Emissions Prediction and Policy Analysis, EPPA Model : Emissions, Sensitivities
and Comparison of Results, Massachusetts Institute of Technology, Joint Program on the
Science and Policy of Global Change, rapport n° 71.
BERCK P. et SYDSAETER K. (1992), Economists’ Mathematical Manual, Springer-Verlag,
Berlin.
BERNDT E. R. et WOOD D. O. (1975), « Technology, prices and the derived demand for energy »,
Review of Economics and Statistics, vol. 57, n° 3, p. 259-268.
FANKHAUSER S. (1995), Valuing Climate Change : the Economics of Greenhouse, Earthscan,
Londres.
FERRY L. (1992), Le Nouvel Ordre écologique, Grasset, Paris.
FRONDEL M. et SCHMIDT C. M. (2002), « The capital-energy controversy : an artifact of cost
shares? », The Energy Journal, vol. 23, n° 3, p. 53-79.
GRUBB M. J., HA DUONG M. et HOURCADE J.-C. (1997), « Influence socioeconomic inertia and
uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-274.
HARRISON G. W. et RUTHERFORD T. (1999), « Burden sharing, joint implementation and carbon
coalitions », dans CARRARO C. (dir.), International Agreements on Climate Change, Kluwer
Academic Publishers, Dordrecht.
HOURCADE J.-C. (1998a), « Débat autour du principe de précaution », Natures, sciences,
sociétés, vol. 6, n° 1, p. 41-45.
– (1998b), « Analyse économique, modélisation prospective et développement durable ou
comment faire remonter des informations du futur ? », Économies et sociétés, série F. 36,
n° 1, p. 175-192.
– (2002), « Dans le labyrinthe de verre. La négociation sur lʼeffet de serre », Critique
internationale, Fondation nationale des sciences politiques, avril, p. 143-159.
HOURCADE J.-C. et GHERSI F. (2002), « The economics of a lost deal : Kyoto-The Hague-
Marrakesh », The Energy Journal, vol. 23, n° 3.
164 LES MODÈLES DU FUTUR

IPCC (GIEC) (2001), « Technical summary », Working Group III.


JAFFE A. B. et STAVINS R. (1994), « The energy-efficiency gap : what does it mean ? », Energy
Policy, n° 22, p. 804-810.
JORGENSON D. W. et FRAUMENI B. M. (1981), « Relative prices and technical change », dans
BERNDT E. R. et FIELD B. C. (dir.), Modeling and Measuring Natural Resource Substitution,
MIT Press, Cambridge, Mass.
LOMBORG B. (2001), The Skeptical Environmentalist. Measuring the Real State of the World,
Cambridge University Press, Cambridge.
MACCRACKEN C. N., EDMONDS J. A. et KIM S. H. (1999), « The economics of the Kyoto
protocol », The Energy Journal, n° 20 (numéro spécial).
MENDELSOHN R., MORRISON W., SCHLESINGER M. et ANDRONOVA N. (2000), « Country-specific
market impacts of climate change », Climatic Change, n° 45, p. 553-569.
MENDELSOHN R. et WILLIAMS L. (2004), « Comparing forecasts of the global impacts of
climate change », Mitigation and Adaptation Strategies for Global Change, vol. 9, n° 4,
p. 315-333.
NORDHAUS W. (2006), « Geography and macroeconomics : new data and new findings »,
Proceedings of the National Academy of Sciences, mai.
NORDHAUS W. et BOYER R. (2000), Warming the World : Economics Models of Climate Change,
MIT Press, Cambridge, Mass.
SHALIZI Z., Energy and Emissions : Local and Global Effects of the Rise of China and India,
rapport à la Banque mondiale.
SOLOW R. M. (1956), « A contribution to the theory of economic growth », Quarterly
Journal of Economics, n° 65, p. 65-94.
– (1988), « Growth theory and after », American Economic Review, vol. 78, n° 3,
p. 307-317.
STAVINS R. (1995), The Costs of Carbon Sequestration, A Revealed Preference Approach,
J. F. Kennedy School of Government, Harvard University and Resources for the Future,
Harvard, Californie.
STIGLITZ J. (1998), « The private uses of public interests : incentives and institutions »,
Journal of Economic Perspectives, vol. 12, n° 2, printemps, p. 36-22.
TOL R. S. J. (2002a), « New estimates of the damage costs of climate change, part I : Benchmark
estimates », Environmental and Resource Economics, vol. 21, n° 1, p. 47-73.
– (2002b), « New estimates of the damage costs of climate change, Part II : dynamic
estimates », Environmental and Resource Economics, vol. 21, n° 2, p. 135-160.
WIGLEY T. M. L, RICHELS R. et EDMONDS J. (1996), « Economic and environmental choices in
the stabilisation of atmospheric CO2 concentration », Nature, vol. 379, 18 janvier.
INTRODUCTION 165

III.

Fabrication des futurs :


batailles de représentation
et délibération publique
7

Les émissions optimales de CO2 le sont-elles vraiment1 ?

Christian Azar

1
Lʼouvrage sur la théorie microéconomique de Layard et Walters [1978]
sʼouvre sur lʼaffirmation suivante : « lʼéconomie fait les choses au mieux ».
Pourtant, notent les auteurs, David Hume avait déjà remarqué il y a deux siè-
cles quʼ« un devoir-être ne peut jamais être dérivé dʼun être ». Dʼune façon
ou dʼune autre, tout « devoir-être » est intrinsèquement lié à un jugement de
valeur. Cʼest ce qui explique lʼexistence dʼune composante normative forte
en économie du bien-être.
Pour déterminer si lʼon doit ou non sʼengager dans un projet, il faut faire
un certain nombre dʼhypothèses ; plusieurs dʼentre elles peuvent être discuta-
bles dʼun point de vue éthique. Cela est particulièrement vrai dans le contexte
des problèmes environnementaux à long terme. Il est important dʼen être
parfaitement conscient car nos résultats sont souvent perçus comme affran-
chis de tout jugement de valeur. De plus, notre vocabulaire économique, et
notamment le concept dʼoptimalité, véhicule une conception platonicienne du
monde, selon laquelle il existe – au sens ontologique du terme – un « meilleur
choix » possible, que lʼavancée des recherches doit révéler. Cela contribue
à accentuer la perception dʼune certaine neutralité vis-à-vis des valeurs.
Considérons ci-dessous la littérature économique traitant de la réponse au
changement climatique.
On se préoccupe beaucoup des changements climatiques graves quʼocca-
sionneront les émissions de gaz à effet de serre, et des menaces qui en résul-
teront sur la préservation de lʼéquilibre environnemental et social. Pourtant,
plusieurs études économiques – la plus célèbre a conduit au modèle nova-
teur DICE de Nordhaus [1994] – ont conclu que des mesures drastiques de
contrôle des émissions de CO2 se révéleraient très coûteuses, même si on tient

1. Ce texte est une version remaniée et simplifiée (par Amy Dahan) dʼun article de Christian Azar,
paru en anglais dans la revue Environmental and Resource Economics en 1998 [cf. Azar, 1998a]. La
traduction est de J. Koskas.
168 LES MODÈLES DU FUTUR

compte des bénéfices engendrés par la baisse des émissions (à savoir éviter les
dégâts causés par les changements climatiques). Ainsi, Nordhaus aboutit à la
conclusion quʼil serait optimal de laisser les émissions de gaz à effet de serre
être multipliées par trois au cours du siècle à venir. Plusieurs autres études
parviennent à des résultats similaires, par exemple Manne et alii [1995] et
Peck et Teiseberg [1995].
Néanmoins, ces résultats ont été remis en question par un nombre croissant
dʼétudes, comme celles de Cline [1992], Azar et Sterner [1996] et dʼautres.
Pour Cline, par exemple, une stabilisation des émissions mondiales à 4 GtC/an
(soit 30 % en dessous du taux actuel dʼémission de carbone fossile) se justifie-
rait « uniquement par des motifs économiques ». Et ce taux dʼémission suffirait
à stabiliser, au cours du siècle prochain, les concentrations atmosphériques à
des niveaux proches des niveaux actuels2.
Il y a donc de sérieuses raisons pour essayer de mieux comprendre les causes
sous-jacentes de ces divergences. On peut clairement attribuer une partie de ces
écarts à la détermination des valeurs quantifiées des paramètres, qui pourrait
être améliorée avec les progrès de la recherche (aussi bien dans le domaine
économique quʼécologique ou climatique). Cependant, de telles améliorations
ne suffiront pas à concilier ces résultats discordants : ils émanent en fait – et
cʼest là le point fondamental – de désaccords profonds sur certains paramètres
clés et sur les choix de modélisation liés à des systèmes de valeurs.
Grubb [1993] écrit que lʼon devra « prendre conscience du fait que des
jugements de valeur contestables interviennent, de façon inhérente, dans
les études sur les coûts dʼimpact mondiaux. Des hypothèses différentes sur
ces jugements de valeur pourraient inverser complètement les conclusions
obtenues ». Pour Schneider [1997], il faut impérativement attirer lʼattention
sur ces hypothèses, empreintes de valeurs, pour sʼassurer que les modèles
intégrés dʼévaluation du changement climatique (et de tout autre problème
environnemental) « éclairent plus quʼils ne dissimulent ».
Pour cerner les raisons de ces divergences, notre article identifie quatre
questions fondamentales dans lʼanalyse coût-bénéfice du changement climati-
que : le traitement des événements à faible probabilité mais à impact catastro-
phique (encore appelés « surprises catastrophiques »), lʼévaluation des biens
non marchands, la question du taux dʼactualisation et le choix des critères de
décision. Nous les aborderons successivement et nous montrerons :
— quʼil faut faire des hypothèses controversées sur le plan éthique pour
traiter chacun de ces aspects ;
— que les conclusions politiques obtenues à partir des modèles dʼoptimi-
sation sont très sensibles à ces choix ;

2. On passe des taux dʼémission aux taux de concentration dans lʼatmosphère à lʼaide des
modèles du cycle du carbone.
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 169

— et que les études ayant abouti à la conclusion que des réductions minima-
les sont suffisantes ont toujours fait des choix qui tendent à réduire lʼimportance
des arguments les plus courants en faveur des réductions dʼémissions.
Nous présenterons enfin quelques remarques conclusives.

LES ÉVÉNEMENTS À FAIBLE PROBABILITÉ


MAIS AUX IMPACTS CATASTROPHIQUES

Bien que plusieurs caractéristiques du changement climatique soient vir-


tuellement certaines3 – on sait par exemple que lʼeffet de serre naturel sʼinten-
sifiera avec lʼaugmentation des concentrations de CO2 –, les conséquences en
sont encore très incertaines, en particulier au niveau régional. Pour lʼanalyse
économique coût-bénéfice, on peut traiter ce problème dans le cadre dʼune
analyse prédictive dʼutilité. Cette approche nécessite des connaissances sur
les probabilités associées aux différentes issues possibles. Cependant, ces
probabilités sont inconnues, et il faut alors se baser sur des évaluations de
probabilités subjectives.

La sensibilité

Plusieurs études coûts-dommages sur les incertitudes entourant le change-


ment climatique ont été menées4. Certaines montrent quʼil faut tenir compte des
coûts liés aux incertitudes, mais elles ne sʼaccordent pas sur lʼimportance de
ces coûts supplémentaires dans les conclusions politiques générales. Dʼautres
concluent que les incertitudes jouent un rôle mineur pour lʼanalyse globale ;
mais cela provient en grande partie du fait que ces études ont considéré des
distributions de probabilité centrées sur un intervalle relativement restreint
autour des dommages prévus. Manne [1996] sʼest intéressé aux événements
catastrophiques à faible probabilité, et a compilé les résultats de travaux

3. Il est important de garder cela à lʼesprit, car les partisans du laisser-faire mettent souvent lʼaccent
sur les incertitudes qui entourent le changement climatique, à un point tel quʼils font (délibérément ?)
douter de lʼexistence de lʼeffet de serre lui-même. Le lecteur pourra, sʼil le souhaite, consulter Mahlman
[1997] à ce sujet. Il donne un aperçu concis et une classification des « faits » virtuellement avérés,
des projections virtuellement certaines, des projections probables et des projections erronées, dans
le cadre du changement climatique.
4. Citons, parmi de nombreux autres : Parry [1993], Peck et Teisberg [1993], Nordhaus [1994],
Fankhauser [1995], Tol [1995], Azar et Johansson [1996], Manne [1996], Gjerde et alii [1997],
Roughgarden et Schneider [1999]. Lʼincertitude joue aussi un rôle important dans dʼautres domaines
de lʼéconomie du changement climatique. Par exemple dans le débat sur la réduction efficiente des
émissions menant à une stabilisation du CO2 atmosphérique, Wigley et alii [1996] soutiennent quʼà
court terme un faible niveau de dépollution est justifié. Mais Ha-Duong et alii [1997] ont remis en cause
ces conclusions, en se fondant principalement sur lʼhypothèse quʼil existe une certaine probabilité
que lʼon doive également envisager un objectif de réduction ambitieux (400 ppm).
170 LES MODÈLES DU FUTUR

effectués pour lʼEnergy Modeling Forum (EMF). Il en déduit quʼun petit


nombre dʼefforts de dépollution à court terme seraient nécessaires pour se
prémunir de ces surprises catastrophiques5. En revanche, dʼautres auteurs6
montrent quʼelles pourraient se révéler très importantes et modifier consi-
dérablement les conclusions politiques obtenues précédemment (même si la
probabilité de la surprise est faible).
Les résultats des études prenant en considération les événements catas-
trophiques dépendent sensiblement des hypothèses sur les probabilités et
les dommages associés, ainsi que des hypothèses sur lʼinertie du système
énergétique mondial, cʼest-à-dire la vitesse à laquelle nous pourrions rétablir
notre équilibre énergétique si le changement climatique se révélait plus grave
que ne lʼavaient prévu la plupart des décideurs.

Les jugements de valeur

Toutes les études mentionnées ci-dessus sont basées sur une approche pré-
dictive des coûts. Mais cette approche présente deux points délicats : comment
traiter les questions pour lesquelles la distribution de probabilité est inconnue ?
Comment calculer les coûts de conséquences catastrophiques à lʼéchelle plané-
taire, et quel est le coût maximal que pourrait supporter lʼéconomie mondiale ?
Ce problème dʼindétermination limite lʼintérêt de lʼanalyse coût-bénéfice dans
le contexte du réchauffement climatique. Puisquʼil nʼexiste pas dʼestimateurs
fiables de la probabilité des surprises catastrophiques, lʼapproche prédictive
des coûts dépend en grande partie de la distribution choisie par lʼanalyste, et
lʼon peut ainsi défendre presque tous les niveaux dʼémissions.
La question de la gravité des risques auxquels nous pouvons nous permettre
dʼexposer notre planète se pose fondamentalement en termes éthiques. Il nʼest
pas possible de trancher à lʼaide dʼapproches prédictives des coûts ou dʼautres
méthodes économiques apparentées ; ces méthodes ont été développées pour
traiter les incertitudes à une échelle complètement différente. La stratégie
dite de « maximin » représente une alternative à lʼanalyse coût-bénéfice.
Elle consiste à considérer la pire issue possible et à maximiser le bien-être
dans cette situation. Appliquée à lʼeffet de serre, cette stratégie implique de
fortes baisses dʼémissions afin de réduire la probabilité dʼoccurrence des
événements catastrophiques. Cependant, comme toute autre, cette conclusion
va dépendre largement de la perception subjective quʼaura lʼanalyste de « la
pire issue possible ».

5. Dans cette étude, on suppose que lʼincertitude est levée dʼici 2020. Si la surprise catastrophique
se produit réellement, alors des réductions considérables sont justifiées au-delà de 2020.
6. Voir Tol [1995], Azar et Johansson [1996], Gjerde et alii [1997] et Roughgarden et Schneider
[1999].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 171

Conclusion

À lʼéchelle planétaire, le risque environnemental lié aux surprises catas-


trophiques constitue un argument courant en faveur des réductions dʼémis-
sions. Toutefois, quantifier la probabilité de tels événements est impossible.
Il serait tout aussi difficile de quantifier les coûts associés. Cʼest pourquoi
ces « surprises » sont souvent écartées des modèles dʼoptimisation du CO2.
Malheureusement, on a aussi tendance à les oublier lors de la présentation
des résultats de ces modèles : des scénarios dʼémissions particuliers sont pré-
sentés comme optimaux, alors quʼun des arguments en faveur des réductions
dʼémissions nʼest jamais intervenu dans lʼanalyse.

LES MÉTHODES DʼÉVALUATION DES COÛTS

Plusieurs auteurs7 ont publié des estimations complètes des coûts économi-
ques engendrés par les changements climatiques. On peut trouver un aperçu
de cette littérature commentée dans le rapport du Groupe dʼexperts intergou-
vernemental sur lʼévolution du climat (GIEC) [Pearce et alii, 1996]. Bien que
des progrès soient intervenus au cours des dernières années, la conclusion
de Nordhaus [1994], qui qualifiait dʼ« extrêmement balbutiantes » et « dans
leur petite enfance » les études de coût existantes, reste encore largement
valable. Premièrement, presque toutes les études menées jusquʼà présent se
sont concentrées sur les coûts associés à un doublement des émissions (en
équivalent CO2). Les dommages à dʼautres niveaux sont intégrés à lʼanalyse
à lʼaide dʼune fonction non linéaire (choisie arbitrairement) par rapport au
changement de température. De plus, toutes les études, à lʼexception de celles
de Tol [1995, 1996], supposent les fonctions de dommages indépendantes
du rythme des changements climatiques, alors que lʼon sʼattend à ce que cet
aspect prenne autant dʼimportance que lʼélévation de la température. Enfin,
les estimations concernant les pays en développement sont encore plus vagues
que les études portant sur ces pays. Ainsi, Nordhaus et Cline évaluent les
coûts à lʼéchelle planétaire, en extrapolant simplement lʼestimation obtenue
pour les États-Unis.
En général, les impacts sur le marché sont simples à déterminer. Mais
pour estimer les impacts hors marché, il faut appliquer des méthodes alter-
natives, très controversées8. Cʼest important car la préoccupation principale,

7. Parmi lesquels : Ayres et Walter [1991], Nordhaus [1991, 1994], Cline [1992], Fankhauser
[1995], Tol [1995].
8. Ces techniques peuvent se baser sur les préférences révélées (comme les méthodes dʼévaluation
hédonistiques ou celles des coûts de voyage) ou sur les marchés hypothétiques (comme la méthode
contingente dʼévaluation).
172 LES MODÈLES DU FUTUR

au cœur du débat sur le changement climatique, est liée aux impacts hors
marché (dans certaines estimations des coûts, ces effets dominent dʼailleurs
lʼanalyse, comme dans Pearce et alii, 1996). En particulier, ces méthodes
ne permettent pas de reconnaître des droits aux espèces autres que lʼespèce
humaine (au sens où elles ne se soucient que de la valeur accordée par
les hommes à ces espèces), ou refusent de le faire. Elles ne prennent pas
en compte les souffrances dʼun animal exposé à des produits chimiques
toxiques, à moins quʼun humain ne soit prêt à payer pour y mettre fin. Par
ailleurs, Jacobs [1991] soutient que ces méthodes ne traduisent pas non plus
la valeur que les humains accordent à ces souffrances (et aux impacts sur
lʼenvironnement en général), car elles ne donnent pas la possibilité aux gens
dʼémettre un jugement collectif, en tant que citoyens, par opposition à un
jugement individuel, en tant que consommateurs. Il conviendrait également
de se pencher de plus près sur une autre facette intéressante du problème
des coûts, à savoir : dans quelle mesure dʼautres hypothèses portant sur lʼal-
truisme des hommes pourraient-elles modifier lʼinterprétation des études et
des méthodes dʼévaluation ?
Dans cette brève analyse, nous ne développerons quʼune question concer-
nant les coûts : celle de lʼévaluation des dommages dans les pays en dévelop-
pement. Seuls quelques auteurs, comme Ayres et Walter [1991], Fankhauser
[1995] et Tol [1995], ont essayé dʼexpliciter ces coûts (en incluant à la fois les
impacts marchands et les impacts non marchands). Fankhauser et Tol ont basé
leurs calculs sur lʼestimation du consentement à payer, face à divers impacts,
comme, par exemple, lʼaugmentation des risques de mortalité. Puisque les
pays en développement sont plus pauvres, les sommes quʼils sont prêts à
verser en échange de plus de sécurité sont moins importantes que dans les
pays riches. Cʼest pourquoi lʼétude de Fankhauser estimait statistiquement
la valeur dʼune vie assignée à un décès dans un pays riche à environ quinze
fois celle qui correspond à un décès dans un pays pauvre (et Tol conclut à des
valeurs similaires). Ces estimations furent à lʼorigine de nombreux débats et
controverses à travers le monde, en particulier lorsquʼil est apparu clairement
quʼelles serviraient de base au chapitre sur les coûts liés aux dommages dans
le deuxième rapport dʼévaluation du GIEC [Pearce et alii, 1996]. La critique
venait dʼun malaise par rapport à lʼattribution dʼune valeur moins importante
à la vie (par opposition à la mort) dans les pays en développement et/ou au
fait que cette façon dʼévaluer les coûts ne tenait pas compte de lʼidée que
lʼutilité marginale dʼun dollar dans un pays pauvre est supérieure à celle dʼun
dollar dans un pays riche. Lʼintroduction de coefficients de pondération des
coûts affectant les pays pauvres pourrait sʼappuyer sur ce dernier point, ce
qui « rétablirait » dans certains cas une évaluation équitable de tous les pays
[Azar, 1998b].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 173

La sensibilité

Lʼintroduction de coefficients de pondération pourrait affecter substantiel-


lement lʼanalyse coût-bénéfice. Lʼétude dʼAyres et Walter [1991], par exemple,
constitue une critique dʼun brouillon de Nordhaus sur lʼestimation des coûts.
Mais elle tient compte de la plus grande utilité marginale des revenus dans
les pays en développement pour estimer les coûts planétaires liés à lʼéléva-
tion du niveau de la mer. Les auteurs chiffrent ces coûts entre 2,1 et 2,4 % du
PIB mondial, soit neuf fois plus que ceux quantifiés par Nordhaus [1991].
Lʼestimation par Nordhaus des coûts quantifiés est de 0,25 % du PIB, et atteint
1,3 % du PIB lorsque lʼon y ajoute les éléments non directement quantifiés. De
façon analogue, Azar et Sterner [1996] évaluent les coûts marginaux mondiaux
des émissions de CO2 en faisant lʼhypothèse que, dans les pays pauvres, il
faut introduire une pondération traduisant la perte de bien-être effectivement
ressentie. Tenir compte de cet aspect engendre une multiplication des coûts
par trois et pourrait conduire à des estimations de coût encore supérieures si
lʼon adoptait une fonction de bien-être utilitariste9.
Il convient également de noter que lʼintroduction de coefficients de pon-
dération implique une diminution des niveaux de réduction requis pour les
pays en développement. De plus, bien que ces coefficients puissent modifier
substantiellement les réductions globales dʼémissions requises pour le moment,
ils ne joueront quʼun rôle mineur vis-à-vis des émissions « optimisées », cʼest-
à-dire une fois que les pays en développement seront devenus plus riches, en
revenus et en émissions.

Les jugements de valeur

Lʼintroduction de coefficients de pondération pourrait affecter radicale-


ment lʼestimation des coûts et donc la réponse « optimale » au changement
climatique. Néanmoins, le choix de ces coefficients nécessite au final celui
dʼune fonction de bien-être social, une notion dont les contenus sont bien sûr
hautement influencés par les systèmes de valeurs. Pour autant, lʼutilisation de
coefficients de pondération nʼest pas plus chargée de valeurs que leur exclu-
sion : les écarter de la théorie constitue en soi un choix éthique.

Conclusion

Sʼattendre à ce que les gens pauvres dans les pays pauvres subissent les
effets les plus sévères du changement climatique alors quʼils émettent neuf fois

9. Dans la perspective de lʼutilitarisme, doctrine morale élargie à lʼéconomie, ce qui est « utile »
est bon et lʼutilité peut être calculée de manière rationnelle. En particulier, ce qui contribue à maximiser
le bien-être des humains est forcément bon.
174 LES MODÈLES DU FUTUR

moins de CO2 fossile par habitant que les pays industrialisés constitue un double
argument fréquemment invoqué en faveur de la réduction des émissions dans les
pays riches. Pourtant, dans la plupart des analyses économiques, cʼest justement
parce que les gens sont pauvres – selon la logique du consentement à payer – que
lʼon attribue moins dʼimportance aux souffrances qui les attendent.

LE CHOIX DU TAUX DʼACTUALISATION

Dans toutes les analyses réalisées en vue dʼinvestissements, le taux dʼac-


tualisation joue un rôle majeur pour lʼestimation de la rentabilité. En parti-
culier, le taux choisi pour certains projets publics, comme la construction de
barrages hydroélectriques aux États-Unis dans les années 1960, a fait lʼobjet
de nombreuses controverses. Lʼétude du taux dʼactualisation pertinent, ajusté
en fonction des coins fiscaux10 et des risques, est donc quasiment devenue
une discipline en soi11.

La sensibilité

Les coûts de réduction des émissions sont supportés immédiatement alors


que les bénéfices attendus se feront sentir seulement au cours des décennies,
voire des siècles, à venir. En raison de cette asymétrie temporelle et des
grandes échelles de temps mises en jeu, le choix du taux dʼactualisation est
probablement le paramètre le plus important dʼune analyse coût-bénéfice
du changement climatique. Cʼest lui qui explique en grande partie pourquoi
des auteurs comme Nordhaus [1994] et Manne et alii [1995] jugent que la
multiplication des émissions par trois mènerait à une situation optimale, alors
que, en revanche, Cline [1992], Azar et Sterner [1996] et dʼautres pensent que
lʼon peut défendre des niveaux de réduction considérables.

Les jugements de valeur

Une question se pose alors : quelle valeur choisir pour le taux dʼactuali-
sation ? On peut adopter principalement deux positions :
— la première, généralement appelée descriptive, se fonde sur lʼobservation
des taux dʼintérêt du marché pour assurer que les investissements financent
les projets les plus rentables ;

10. Concept choisi par lʼOCDE pour les comparaisons, qui sert à mesurer la différence entre
ce que les employeurs payent sous forme de salaires et de charges sociales, et ce dont les salariés
disposent après impôts et déduction des cotisations de sécurité sociale, en tenant compte aussi des
transferts en espèces accordés dans le cadre des programmes publics dʼaide sociale (ndt).
11. Voir par exemple Lind [1992].
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 175

— la seconde, couramment désignée comme prescriptive, insiste sur


lʼimportance des questions normatives quʼimpliquent les compromis entre
consommations présente et future. Ceux qui adoptent cette méthode partent
souvent du taux social de préférence temporelle (TSPT) donné par la formule
de Ramsey12 pour déterminer le taux dʼactualisation.
Lʼapproche descriptive pourrait aussi utiliser la formule de Ramsey (comme
Nordhaus le fait) ; mais, dans ce cas, le taux dʼactualisation de lʼutilité R
serait choisi de telle sorte que le taux social de préférence temporelle et le
taux dʼintérêt observé sur le marché soient égaux. Les partisans de lʼapproche
prescriptive plaident souvent que R devrait prendre une valeur faible, voire
nulle, pour des raisons dʼéquité intergénérationnelle13. Dʼun point de vue
éthique, il semble difficile de justifier que la génération actuelle accorde une
valeur moins importante aux impacts qui affecteront les générations futures,
simplement parce quʼelles sont futures. (Toutefois, il faut noter quʼun taux
dʼescompte positif pourrait tout de même se justifier, si lʼon suppose que les
revenus augmenteront avec le temps.)
Les deux approches rencontrent des difficultés. Mais, en ce qui concerne
lʼapproche descriptive, qui prétend choisir un taux dʼactualisation tel quʼil
coïncide avec les compromis intertemporels réels, il faut reconnaître que ce
nʼest pas aussi facile que cela en a lʼair à première vue. Lind [1995] fait la
remarque suivante : « On observe des gens emprunter avec des cartes de crédit
à 15-25 % et, simultanément, investir à des taux de rentabilité, nets dʼimpôt,
situés entre 1 et 3 %. Lequel de ces taux, sʼil sʼagit bien de lʼun dʼeux, reflète-
t-il leur taux de préférence temporelle ? » On peut remarquer quʼun taux dʼac-
tualisation fixé à une valeur aussi faible que 1 % par an serait incompatible
notamment avec lʼinquiétude que suscitent les déchets radioactifs. En effet,
avec un tel taux, un dégagement radioactif qui détruirait à jamais la civilisation
humaine – exemple extrême – aurait, aujourdʼhui et si lʼévénement devait se
produire dans 10 000 ans, une valeur de 7,10-6 dollars. On peut conclure que
lʼapproche descriptive ne permet pas de rendre compte de lʼinquiétude que
beaucoup de gens expriment au sujet des impacts à long terme.
Les facteurs externes, comme les problèmes environnementaux, sont la
source dʼune troisième difficulté dans lʼestimation du taux dʼactualisation à
partir des variables observables sur le marché. Si ces facteurs sont importants,
le taux social de rentabilité sur le capital sera déformé, et non pas réfléchi, dans
les taux dʼintérêt basés sur le marché. En fait, le qualificatif de « descriptive »

12. Le taux social de préférence temporelle (TSPT, en anglais Social Rate of Time Preference,
SRTP) vaut Gg + R (formule de Ramsey), où G est lʼopposé de lʼélasticité de lʼutilité marginale, g
est le taux de croissance relative par habitant et R est le taux dʼactualisation de lʼutilité (le taux de
préférence temporelle pur).
13. Voir, parmi dʼautres : Ramsey [1928], Rawls [1972], Cline [1992], Solow [1992], Price
[1993], Azar et Sterner [1996], Schultz et Kastings [1997].
176 LES MODÈLES DU FUTUR

perd en grande partie sa signification pour des horizons temporels qui sʼéten-
dent au-delà dʼune vingtaine dʼannées. Sur quoi porte la description ? peut-on
même se demander. Pour des horizons temporels encore plus lointains, le taux
dʼactualisation déterminé par la méthode descriptive sʼapparente carrément
à un jeu de devinettes.
Ce point pourrait dʼailleurs sauver lʼapproche descriptive de quelques dif-
ficultés mentionnées ci-dessus. On pourrait postuler que le taux dʼactualisation
soit fixé à 5 % aujourdʼhui, mais décroisse avec le temps pour tendre lente-
ment vers zéro ; ainsi, le futur lointain serait estimé à des niveaux encore non
négligeables. Parmi les études adoptant un tel taux dʼactualisation décroissant,
on compte celles de Sterner [1994], Ayres et Axtell [1996] et Azar et Sterner
[1996]. Quant à Nordhaus [1994], il fait également lʼhypothèse que le taux
de croissance – et par conséquent le taux dʼactualisation – diminue avec le
temps ; mais comme le taux dʼactualisation de lʼutilité est fixé chez lui à 3 %
par an, la valeur quʼil accorde au futur reste une exponentielle décroissante
dans son modèle.
Il ne faut pas perdre de vue que lʼapproche descriptive garantit une effi-
cience intertemporelle qui est seulement potentielle. Supposons, par exemple,
que le taux dʼactualisation soit de 10 % par an. Il ne serait pas alors efficient,
dʼun point de vue intertemporel, de réduire les émissions pour nous préserver
dʼun dommage chiffré à 1 050 dollars lʼannée suivante si le coût de cette
dépollution est de 1 000 dollars ; la raison en étant quʼinvestir ailleurs pourrait
permettre de gagner 1 100 dollars. Cependant, lʼefficience intertemporelle
nʼest que potentielle, car il nʼexiste aucune garantie que lʼinvestissement
alternatif aura effectivement lieu. Pour le changement climatique et les pro-
blèmes environnementaux intergénérationnels, nous devrions faire en sorte
que lʼinvestissement initial soit réinvesti à intérêts capitalisés pendant des
décennies, voire pendant des siècles ; ce qui ne sera probablement pas le cas.
Cʼest pourquoi lʼargument principal en faveur de la méthode descriptive
faiblit encore davantage si lʼon considère des horizons temporels à très long
terme.
On peut aussi critiquer la baisse du taux dʼactualisation pour les pro-
blèmes environnementaux à long terme. Pour un budget dʼinvestissement
donné, lʼapproche descriptive permet de départager différents projets et de
sélectionner les plus rentables. Wallace [1993] écrit à ce sujet quʼ« un taux
dʼactualisation particulièrement bas conduirait en réalité à diminuer la richesse
transmise aux générations suivantes, car il conduirait à financer des projets
dont les taux de rentabilité sont moins importants que ceux dʼautres inves-
tissements possibles ». Nordhaus [1994] et Manne [1995] soulignent de plus
quʼun taux dʼactualisation très faible entraîne (dans les modèles de croissance
optimale) un bond des taux dʼépargne, incompatible avec les comportements
dʼépargne actuels. Remarquons toutefois que ces deux critiques ne tiennent
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 177

pas simultanément. La seconde objection implique notamment que le budget


dʼinvestissement ne soit pas fixe. En conséquence, tous les investissements
dont le taux de rentabilité serait supérieur à celui du projet environnemental
seraient également réalisés.
À notre avis, lʼapproche descriptive devrait fournir une estimation grossière
du taux dʼactualisation pour lʼanalyse des compromis intra-générationnels ;
mais le taux dʼactualisation retenu devrait être égal au taux social de préférence
temporelle (TSPT), avec un taux dʼactualisation de lʼutilité égal à zéro, pour
lʼanalyse des projets inter-générationnels. En pratique, il nʼest pas simple de
distinguer les questions intra des questions inter-générationnelles, ce qui ouvre
la voie à un domaine de recherche potentiellement important14. Cependant,
même si les recherches progressent pour résoudre toutes ces difficultés, cela
ne changera pas le fait que le choix du taux dʼactualisation est, fondamen-
talement, un jugement de valeur. Il ne peut exister de « taux dʼactualisation
objectivement correct ». Il sʼagit là dʼun point décisif dans la mesure où le
choix du taux dʼactualisation joue un rôle déterminant dans la définition dʼun
objectif du niveau « optimal » des émissions.

Conclusion

Dans le débat sur la politique relative aux émissions de gaz à effet de serre,
la préoccupation intergénérationnelle constitue lʼun des arguments clés en
faveur des réductions. Pourtant, dans lʼutilisation de la méthode descriptive
– ce qui est couramment le cas dans la littérature économique –, lʼanalyse ne
reflète pas cette inquiétude au sujet des générations futures.

LE CHOIX DES CRITÈRES DE DÉCISION

Lʼanalyse coût-bénéfice est basée sur le critère dit « de Kaldor » selon lequel,
si les bénéfices totaux excèdent les coûts totaux, alors le projet mérite dʼêtre
conduit. Nous avons défendu plus haut lʼidée que les concepts de coût (et de
bénéfice) nʼétaient pas définis aussi clairement que lʼon aurait pu le croire. Au-
delà de ces objections, le critère de Kaldor lui-même reste controversé. Il sʼagit
dʼun critère nécessaire, mais non suffisant, pour une amélioration de Pareto.
Si un projet répond au critère de Kaldor, il est potentiellement susceptible de
faire lʼobjet dʼune amélioration de Pareto, ce qui signifie que lʼon pourrait amé-
liorer le sort dʼun individu au moins sans en léser aucun autre ; cela sans quʼon
puisse garantir la compensation. Toutefois, si les perdants ne reçoivent jamais

14. On pourrait par exemple se placer dans le cadre des modèles de générations imbriquées
[Howarth, 1997 ; Manne, 1997].
178 LES MODÈLES DU FUTUR

de compensation, la base éthique sur laquelle est fondé le critère de Kaldor est
discutable. Par exemple, une amélioration de Kaldor pourrait conduire à une
diminution du bien-être social, si « lʼamélioration » impliquait simultanément
un transfert de richesses suffisamment important des pauvres vers les riches.

La sensibilité

On pourrait traiter ce problème en introduisant des coefficients de pon-


dération (comme on lʼa suggéré précédemment). Pourtant, une meilleure
évaluation des coûts du changement climatique ne résoudra pas les dilemmes
éthiques, qui sont au cœur du débat politique. Ce qui conduit la plupart dʼen-
tre nous à considérer le changement climatique comme lʼun des problèmes
environnementaux les plus graves nʼest probablement pas la peur de voir nos
petits-enfants perdre un faible pourcentage de leurs revenus (dont on prévoit
quʼils seront de très loin supérieurs aux nôtres). Ce sont dʼautres aspects du
changement climatique qui inquiètent : le risque de sécheresses de plus en
plus fréquentes dans certaines régions pauvres du globe, lʼélévation du niveau
de la mer provoquant lʼinondation de petites îles, la propagation des mala-
dies tropicales, les impacts spécifiques sur lʼenvironnement, lʼérosion de la
biodiversité… Beaucoup de gens jugent ces conséquences inacceptables. Les
risques dʼévénements catastrophiques, à lʼéchelle planétaire, ne font quʼag-
graver ces craintes. Lind [1995] affirme que « le problème coût-bénéfice est
posé de façon telle quʼil obscurcit les choix fondamentaux que nous devrions
nous efforcer dʼévaluer ».
Certes, le problème du réchauffement climatique peut justifier lʼutilisation
de contraintes, cʼest-à-dire que lʼon peut chercher à en optimiser les coûts et
les bénéfices. Mais on ne peut lui appliquer que certaines dʼentre elles, qui
concernent le niveau absolu et le rythme du changement de température [Azar
et Rodhe, 1997]. Le même raisonnement est sous-jacent à la Convention-cadre
des Nations unies sur les changements climatiques (CCNUCC) qui appelle à
une stabilisation des gaz à effet de serre à une concentration qui devrait empê-
cher toute perturbation anthropique dangereuse du système climatique. Si lʼon
suggère un objectif de stabilisation bas, alors le niveau dʼémission optimal
est complètement différent des résultats obtenus avec la plupart des analyses
coût-bénéfice. Le niveau « optimal » des émissions dépend très sensiblement
du choix des critères de décision.

Les jugements de valeur

Des auteurs, comme Markandya et Pearce [1989] ou encore Jacobs [1991],


ont proposé le recours à des contraintes de durabilité dans le cadre des
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 179

problèmes environnementaux. Pour Jacobs, « on sauvegarde directement


les intérêts des générations futures en les définissant en termes environne-
mentaux et en faisant de leur protection la première étape du processus déci-
sionnel ». On peut contester le recours à des contraintes qui ne seraient pas
exclusivement fondées sur des motifs économiques. Pourtant, on admet assez
fréquemment les limites de lʼintérêt de la théorie économique [Spash, 1994 ;
Bingham et alii, 1995]. Ces auteurs soutiennent que, dans de nombreuses
circonstances, « il faut faire des choix collectifs avant de pouvoir procéder
à une estimation chiffrée ». Prenons lʼexemple du travail des enfants aux
États-Unis : la question de son optimisation ne sʼest même pas posée puisque,
par décision collective – et sans que les bénéfices économiques potentiels
nʼentrent en jeu –, le travail des enfants est considéré comme inacceptable
dʼun point de vue moral.
Malgré tout, lʼutilisation de telles contraintes reste rare dans la plupart des
analyses économiques. Sen [1987] lʼexplique en ces termes : « La tradition
utilitariste qui domine toute la pensée économique néoclassique nʼaccorde
aucune importance au respect ou même à lʼexistence de droits. » Selon une
argumentation courante, on ne devrait pas utiliser de contraintes dans les ana-
lyses économiques parce quʼelles trouvent leur origine dans des jugements de
valeur. Cʼest vrai au sens où le fait dʼimposer des contraintes doit être fondé sur
des valeurs ; mais la conclusion est erronée, car lʼexclusion de ces contraintes
ne rend pas lʼanalyse plus neutre pour autant. Exclure les contraintes constitue
en soi un jugement de valeur !

Conclusion

La santé humaine et les impacts environnementaux sont les principaux


sujets de préoccupation de la majorité de la population face au changement
climatique. Or, lʼanalyse coût-bénéfice accorde plus dʼimportance notamment
aux coûts supplémentaires auxquels seraient confrontés les automobilistes
en cas de réduction drastique des émissions de carbone. A-t-on réellement
le droit de brader des besoins humains fondamentaux en échange dʼun peu
plus de confort de consommation ? Lʼanalyse coût-bénéfice répond affirma-
tivement à cette question, il sʼagit là dʼune hypothèse forte. Avec une telle
hypothèse résultant dʼune logique économique implacable – et dʼun jugement
de valeur ! –, on balaie un argument central en faveur de la réduction des
émissions. Spash [1994] conclut que, « si lʼon accepte lʼexistence de droits,
protégeant les individus des conséquences de nos émissions de gaz à effet
de serre, la marge allouée aux compromis usuels que suppose lʼéconomie
est alors considérablement réduite ».
180 LES MODÈLES DU FUTUR

REMARQUES POUR CONCLURE

Nous avons passé en revue quatre points critiques (qui se recouvrent par-
tiellement) auxquels on se trouve confronté lors dʼune analyse économique
du changement climatique. La façon dont on traite ces quatre questions – le
risque de catastrophes environnementales à lʼéchelle planétaire, les méthodes
dʼévaluation des coûts, le taux dʼactualisation et les critères de décision – déter-
mine en grande partie les résultats obtenus à partir des diverses analyses coût-
bénéfice du réchauffement planétaire. De surcroît, nous avons montré que
des jugements de valeur sont nécessaires pour aborder chacun de ces quatre
aspects. Il faut en avoir pleinement conscience, car lʼéconomie est souvent
perçue comme un outil capable de fournir un conseil neutre aux décideurs.
Il faut souligner également que plusieurs hypothèses économiques stan-
dard, tout à fait acceptables dans des circonstances normales, tendent à porter
préjudice aux arguments les plus courants en faveur de la réduction des émis-
sions. Cela ne veut pas dire que les modèles dʼoptimisation coût-bénéfice ne
peuvent (ni ne doivent) jouer aucun rôle dans les politiques de lutte contre
le changement climatique. Ils ne deviennent problématiques quʼà partir du
moment où ils sont utilisés comme des « machines à dire la vérité » [Schneider,
1997]. On devrait les mettre à profit plutôt pour analyser les répercussions
de différents choix de paramètres, fortement influencés par des jugements
de valeur.
En conclusion, nous devrions pouvoir nous accorder sur deux propositions
fondamentales :
— lʼanalyse coût-bénéfice ne constitue pas un outil exempt de références
à un système de valeurs, en mesure de fournir aux décideurs politiques des
propositions objectives sur différentes alternatives politiques ;
— cela signifie que nous devons prendre position explicitement vis-à-vis
des jugements de valeur intervenant dans les hypothèses. Nous devons les
mettre en évidence, et ne pas chercher à les masquer derrière un langage
mathématique et économique apparemment neutre.
Ces conclusions ont des conséquences importantes pour les recherches
économiques futures sur le changement climatique. Au lieu de chercher à
définir « un niveau optimal de changement climatique », nous devrions plutôt
nous efforcer dʼaffiner notre compréhension dʼun certain nombre de questions
liées à la mise en œuvre de lʼobjectif principal de la CCNUCC. En particulier,
nous devrions chercher à en savoir plus sur les réponses de nos sociétés et de
nos économies face à des politiques de baisse dʼutilisation du carbone et à
lʼévolution technologique. Et chercher à en savoir plus aussi sur lʼadaptation
aux technologies de « basse consommation », sur lʼamélioration et le déve-
loppement des énergies renouvelables ; sur lʼinertie du système énergétique
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 181

mondial et des infrastructures associées ; sur la part des options « aucun regret »
et des politiques nécessaires à leur contrôle ; enfin, sur les mesures incitatives
qui permettraient de mettre en piste les pays en développement…

RÉFÉRENCES BIBLIOGRAPHIQUES

ARROW K. J., CLINE W., MÄLER K. G., MUNASINGHE M., SQUITIERI R. et STIGLITZ J. (1996),
« Intertemporal equity, discounting and economic efficiency », dans BRUCE J. P., LEE H.
et HAITES E. F. (dir.), Climate Change 1995 : Economic and Social Dimensions of Climate
Change, 2e rapport du Groupe dʼexperts intergouvernemental sur lʼévolution du climat
(GIEC), Cambridge University Press, Cambridge.
AYRES R. U et AXTELL R. (1996), « Foresight as a survival characteristic : when if ever does
the long view pay », Technological Forecasting and Social Change, n° 51, p. 209-235.
AYRES R. U. et WALTER J. (1991), « The greenhouse effect : damages, costs and abatement »,
Environmental and Resource Economics, n° 1, p. 237-270.
AZAR C. (1998a), « Are optimal emissions really optimal ? », Environmental and Resource
Economics, vol. 11, n° 3-4, p. 301-315.
– (1998b), « Weight factors in cost-benefit analysis of climate change », Environmental and
Resource Economics, n° 13, p. 249-268.
AZAR C. et JOHANSSON O. (1996), « Uncertainty and climate change or the economics of
twin peaks », texte présenté à la conférence annuelle des European Environmental and
Resource Economists, juin, Lisbonne.
AZAR C. et RODHE H. (1997), « Targets for stabilisation of atmospheric CO2 », Science,
n° 276, p. 1818-1819.
AZAR C. et STERNER T. (1996), « Discounting and distributional considerations in the context
of climate change », Ecological Economics, n° 19, p. 169-185.
BINGHAM G., BISHOP R., BRODY M., BROMLEY D., CLARK E., COOPER W., COSTANZA R., HALE T.,
HAYDEN G., KELLERT S., NORGAARD R., NORTON B., PAYNE J., RUSSEL C. et SUTER G.
(1995), « Issues in ecosystem valuation : improving information for decision-making »,
Ecological Economics, n° 14, p. 73-90.
CLINE W. R. (1992), The Economics of Global Warming, Institute of International Economics,
Washington, D. C.
FANKHAUSER S. (1995), Valuing Climate Change : The Economics of the Greenhouse.
Earthscan, Londres.
GJERDE J., GREPPERUD S. et KVERNDOKK S. (1997), « Optimal climate policy under the possibility
of a catastrophe », document présenté à la rencontre annuelle de lʼEuropean Association
of Energy and Resource Economists (EAERE), juin, Tilburg, Pays-Bas.
GRUBB M. (1993), « The costs of climate change. Critical elements », dans KAYA Y.,
NAKICENOVIC N., NORDHAUS W. D. et TOTH F. L. (dir.), Costs, Impacts, and Benefits of
CO2 Mitigation, comptes rendus dʼun séminaire de lʼIIASA, septembre, Laxenburg,
Autriche, p. 153-166.
HA-DUONG M., GRUBB M. et HOURCADE J.-C. (1997), « Influence of socioeconomic inertia and
uncertainty on optimal CO2-emission abatement », Nature, n° 390, p. 270-273.
HASSELMAN K., HASSELMAN S., GIERING R., OCANA V. et STORCH H. V. (1997), « Sensitivity
study of optimal CO2 emission paths using a simplified structural integrated assessment
model », Climatic Change, n° 37, p. 345-386.
182 LES MODÈLES DU FUTUR

HOWARTH R. B. (1997), « Discount rates and overlapping generations : an application to climate


change », Contemporary Economic Policy, vol. 14, n° 4, p. 100-111.
JACOBS M. (1991), The Green Economy, Pluto Press, Londres.
L AYARD P. R. G. et W ALTERS A. A. (1978), Microeconomic Theory, McGraw-Hill,
Royaume-Uni.
LIND R. C. et alii (1992), Discounting for Time and Risk in Energy Policy, John Hopkins
University Press, Baltimore.
– (1995), « Intergenerational equity, discounting, and the role of cost-benefit analysis in
evaluating global climate policy », Energy Policy, n° 23, p. 379-390.
LIND R. C. et alii (dir.) (1982), Discounting for Time and Risk in Energy Policy, John Hopkins
University Press, Baltimore.
MAHLMAN J. D. (1997), « Uncertainties in projections of human-caused climate warming »,
Science, n° 278, p. 1416-1417.
MANNE A. S. (1995), « The rate of time preference. Implications for the greenhouse debate »,
Energy Policy, n° 23, p. 391-394.
– (1996), « Hedging strategies for global carbon dioxide abatement : a summary of poll
results EMF 14 subgroup – analysis for decision making under uncertainty », dans
NAKICENOVIC N. et alii (dir.), Climate Change : Integrating Science, Economic and Policy,
comptes rendus dʼun séminaire de lʼIIASA, 19 juin-20 mars, Laxenburg, Autriche,
p. 207-228.
– (1997), « Intergenerational altruism, discounting and the greenhouse debate », projet,
Stanford University, Palo Alto.
MANNE A. S., MENDELSOHN R. et RICHELS R. G. (1995), « MERGE. A model for evaluating
regional and global effects of GHG reduction policies », Energy Policy, n° 23,
p. 17-34.
MARKANDYA A. et PEARCE D. W. (1989), « Development, the environment and the social rate
of discount », The World Bank Research Observer, n° 6, p. 137-152.
MENDELSOHN R. et NEUMANN J. (dir.) (1998), « The economic impacts of climate change on
the US economy », Cambridge University Press, Cambridge.
NORDHAUS W. D. (1991), « To slow or not to slow : the economics of the greenhouse effect »,
Economic Journal, n° 101, p. 920-937.
– (1994), Managing the Global Commons : the Economics of Climate Change, MIT Press,
Cambridge, Mass.
PARRY I. W. H. (1993), « Some estimates of the insurance value against climate change
from reducing greenhouse gas emissions », Resource and Energy Economics, n° 15,
p. 99-106.
PEARCE D. W., CLINE W. R., ACHANTA A. N., FANKHAUSER S., PACHAURI R. K., TOL R. S. J.
et VELLINGA P. (1996), « The social costs of climate change : greenhouse damage and
the benefit of control », dans BRUCE J. P., LEE H. et HAITES E. F. (dir.), Climate Change
1995 : Economic and Social Dimensions of Climate Change, 2e rapport du Groupe
dʼexperts intergouvernemental sur lʼévolution du climat (GIEC), Cambridge University
Press, Cambridge.
PECK S. C. et TEISBERG T. J. (1995), « Global warming uncertainties and the value of information :
an analysis using CETA », Resource and Energy Economics, n° 15, p. 71-97.
PRICE C. (1993), Time Discounting and Value, Blackwell, Oxford.
RAMSEY F. P. (1928), « A mathematical theory of saving », The Economic Journal, n° 138,
p. 543-549.
RAWLS J. (1972), A Theory of Justice, Oxford University Press, Oxford.
READ P. (1994), Responding to Global Warming, Zed Book Press, Londres.
LES ÉMISSIONS OPTIMALES DE CO2 LE SONT-ELLES VRAIMENT ? 183

ROUGHGARDEN T. et SCHNEIDER S. H. (1999), « Quantifying uncertainties for damage and


carbon taxes », Energy Policy, vol. 27, n° 7, p. 415-426.
S CHELLING T. C. (1995), « Intergenerational discounting », Energy Policy, n° 23,
p. 395-402.
SCHNEIDER S. H. (1997), « Integrated assessment modelling of global climate change :
transparent rational tool for policy making or opaque screen hiding value-laden
assumptions », Environmental Modelling and Assessment, n° 2, p. 229-248.
SCHULTZ P. A. et KASTINGS J. F. (1997), « Optimal reductions in CO2 emissions », Energy
Policy, n° 25, p. 491-500.
SEN A. K. (1987), On Ethics and Economics, Blackwell, Cambridge, Mass.
SOLOW R. (1992), An Almost Pratical Step towards Sustainability, conférence donnée à
lʼoccasion du IVe anniversaire de Research for the Future, 8 octobre, Washington.
SPASH C. L. (1994), « Double CO2 and beyond : benefits, costs and compensation », Ecological
Economics, n° 10, p. 27-36.
STERNER T. (1994), « Discounting in a world of limited growth », Environmental and Resource
Economics, n° 10, p. 27-36.
TITUS J. G. (1992), « The costs of climate change to the United States », dans MAJMUDAR S. K.,
KALKSTEIN L. S., YARNAL B. et MILLER E. W. (dir.), Global Climate Change : Implications
Challenges and Mitigation Measures, Pensylvania Academy of Science, Easton,
p. 384-409.
TOL R. S. J. (1995), « The damage cost of climate change toward more comprehensive
calculations », Environmental and Resource Economics, n° 5, p. 353-374.
– (1996), « The damage costs of climate change. Towards a dynamic representation »,
Ecological Economics, n° 19, p. 67-90.
WALLACE L. (1993), « Discounting our descendants », Finance and Development, vol. 30,
n° 2.
WIGLEY T., RICHELS R. et EDMONDS J. (1996), « Economics and environmental choices in the
stabilisation of atmospheric CO2 concentrations », Nature, n° 379, p. 240-243.
184 LES MODÈLES DU FUTUR

Modèles mondiaux et représentation


des pays en développement

Emilio Lèbre La Rovere, Vincent Gitz, André Santos Pereira

Du fait de lʼimmensité des incertitudes sur le changement climatique et


de ses conséquences, il est utile dʼévaluer les décisions politiques variées qui
souhaitent y répondre par des approches globales et scénarisées. Le recours
aux modèles mathématiques est constant pour atteindre cet objectif.
Une représentation précise des pays en développement dans les modè-
les globaux utilisés au cours dʼexercices de construction de scénarios du
changement climatique est de la plus haute importance dès lors que ces
pays jouent un rôle clé dans ce domaine. Jusquʼà présent, le réchauffement
global est majoritairement produit par les émissions de gaz à effet de serre
(GES) provenant de la combustion des énergies fossiles des pays développés
depuis le XIXe siècle. Cependant, on sʼattend à ce que, au cours du XXIe siècle,
les émissions annuelles de GES dans les pays en développement – les pays
absents de l’annexe I de la Convention-cadre des Nations unies sur les chan-
gements climatiques (CCNUCC) – dépassent bientôt le volume dʼémissions
annuelles de lʼensemble des pays développés (les pays de lʼannexe I de la
CCNUCC).
Dʼénormes difficultés surgissent dans lʼélaboration dʼune représentation
appropriée des pays en développement au sein des modèles globaux. Le
premier défi réside dans le choix dʼun niveau raisonnable de désagrégation
dans la représentation de plus dʼune centaine de pays aux caractéristiques
démographiques, économiques, technologiques, sociales et culturelles très
différentes. Dans les travaux du Groupe dʼexperts intergouvernemental sur
lʼévolution du climat (le GIEC), dont les scénarios de référence globaux res-
tent, pour des raisons historiques, les plus couramment utilisés dans lʼanalyse
du changement climatique [GIEC, 2000], les pays en développement sont de
manière caractéristique scindés entre dʼun côté lʼAsie et de lʼautre le reste des
pays en développement – pays dʼAfrique, du Moyen-Orient et dʼAmérique
latine réunis en un même ensemble. Ce mode de traitement fortement agrégé
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 185

des pays en développement rend très délicate lʼévaluation de la validité des


hypothèses et des résultats de ces scénarios globaux, et à plus forte raison
leur utilisation éventuelle par des décideurs. La formule « dernier cri » la
plus courante de ces modèles globaux utilise une description plus désagrégée
– ordinairement de 10 à 20 régions sur le plan mondial.
Cependant, dans sa réflexion, le GIEC a besoin de différents scénarios
mondiaux futurs développés par différents modèles mathématiques globaux.
En effet, il lui faut rendre compte des incertitudes propres à lʼestimation
quantitative des scénarios dans les différents modèles disponibles. Du fait
que ces modèles ont choisi des divisions régionales du monde différentes,
le GIEC a jusquʼà présent préféré le niveau habituel de désagrégation tel
que réalisé par les deux ensembles de pays en développement déjà men-
tionnés (lʼAsie dʼun côté et les autres pays en développement de lʼautre).
On sʼattend à des progrès de la part des équipes de modélisation qui sont
issues davantage du tiers monde et désormais activement impliquées dans
la mise au point dʼune désagrégation plus avancée des modèles globaux,
afin dʼexpliquer en priorité le rôle de quelques régions clés des pays en
développement (en particulier les économies de pays émergents tels que la
Chine, lʼInde ou le Brésil).
Au-delà des problèmes de désagrégation, de nombreuses difficultés techni-
ques subsistent pour une représentation judicieuse des pays en développement
dans les modèles globaux. Dʼun côté, elles tiennent à la disponibilité et à la
validation des données et, de lʼautre, à la nature des problèmes méthodolo-
giques posés par la représentation de systèmes économiques, énergétiques et
dʼusage des sols au travers dʼun ensemble dʼéquations et de variables mathé-
matiques. Lʼapproche de ces problèmes dans les modèles globaux existants
est identique à celle des pays développés, alors que les hypothèses théoriques
retenues ne sont pas toujours appropriées pour décrire la réalité des pays en
développement.
Nous examinerons ici les principaux déterminants des émissions de CO2
– puisquʼil sʼagit du gaz à effet de serre (GES) le plus important et qui a la
plus longue durée de vie. Sa concentration dans lʼatmosphère est actuellement
responsable de plus de la moitié du réchauffement climatique et sa part est
appelée à sʼaccroître dans lʼavenir. À côté des déterminants sociaux et éco-
nomiques des émissions de GES (tels que la croissance démographique et
économique), la combustion des énergies fossiles et les transformations qui
interviennent dans lʼusage des sols sont les déterminants clés des émissions
de CO2 dans les pays en développement.
Nous traiterons successivement de ces grandes difficultés de représen-
tation des systèmes économiques, des systèmes énergétiques et des chan-
gements dʼusage des sols. Et en conclusion, nous ferons un certain nombre
de propositions et recommandations pour travailler à lʼavenir à donner une
186 LES MODÈLES DU FUTUR

représentation plus précise des pays en développement dans les modèles glo-
baux. À lʼévidence, du fait de la forte hétérogénéité des pays en développement
– et même des différentes régions au sein dʼun même pays –, la nature des
problèmes rencontrés variera selon les cas envisagés.

PROBLÈMES ET LIMITES LIÉS À LA MODÉLISATION


ÉCONOMIQUE DES PAYS EN DÉVELOPPEMENT

La représentation dʼune économie à travers un modèle est une tâche aussi


utile que difficile. En effet, une bonne représentation peut aider à prévoir
le niveau dʼactivité économique ainsi que des variables liées à ce dernier,
comme le taux de chômage par exemple. Les modèles économiques peuvent
ainsi aider à la formulation de politiques gouvernementales et permettre à
la société dʼévaluer ces politiques. Ces modèles servent aussi très souvent à
justifier et à influencer les décisions stratégiques des entreprises concernant
le lieu, le moment et le montant de leurs investissements.
Néanmoins, représenter correctement lʼinteraction entre les agents et les
secteurs dʼune économie est un exercice complexe qui fait appel à la fois à la
théorie économique, aux mathématiques et à lʼinformatique. Les modèles en
question ont lʼambition de représenter, de façon simplifiée, lʼéconomie dʼun
ou de plusieurs pays, et la complexité de lʼexercice est proportionnelle au
nombre de pays représentés. Pour plusieurs raisons, cette évaluation se montre
beaucoup plus délicate dès quʼil sʼagit des pays en développement.
Le premier problème du modélisateur est celui du choix de lʼécole de
pensée économique à laquelle il va adosser son travail, dans un contexte
où des confrontations importantes existent quant à la théorie du développe-
ment. Ensuite, la théorie économique choisie fournira une série dʼéquations
mathématiques représentant le fonctionnement de lʼéconomie et lʼensemble
des transactions entre les agents qui la composent. Par ailleurs, les modèles
ont besoin dʼune quantité importante de statistiques économiques, sociales
et démographiques. Les modèles économétriques, par exemple, font appel
à des séries temporelles très longues. La portée de ce type de modèles est
réduite si les séries de données sont incomplètes, ou lorsque les changements
dans ces séries sont trop abrupts. À lʼévidence, ces situations se manifestent
fréquemment dans le cas des pays en développement.
Les modèles dʼéquilibre général calculable sont des modèles déterministes
qui permettent une évaluation endogène de certains paramètres et qui sʼap-
puient largement sur les statistiques provenant de la comptabilité nationale
des pays modélisés.
Le système de comptabilité nationale (SCN) et ses matrices de comptabilité
sociale (MCS) se proposent de représenter de façon quantitative lʼensemble des
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 187

transactions dʼune économie [OCDE, 1959]. Les MCS mettent en évidence les
relations entre les structures de production et la distribution des revenus ainsi
que les flux de capitaux et les transactions financières, tant au niveau domestique
que dans le reste du monde. La structure du tableau obtenu dépend de limitations
empiriques telles que les données disponibles et les moyens de traitement de
ces données [Sand-Zantman, 1995].
À partir dʼune MCS représentant une économie en situation dʼéquilibre,
les modèles dʼéquilibre général calculable peuvent estimer les changements
causés par certaines modifications de lʼenvironnement économique – comme
lʼaugmentation ou la baisse des taux dʼintérêt, du niveau de la demande,
des taxes, etc. Pourtant, lʼefficacité de ces modèles est directement liée à la
consistance et à la disponibilité de données statistiques, notamment celles qui
proviennent du système de comptabilité nationale.
Fréquemment, dans le cas des pays en développement, ces modèles ne sont
pas capables de répondre de façon satisfaisante aux besoins des politiques
économiques à long terme. En effet, les modèles, les concepts et les référents
employés ne correspondent pas exactement à ce qui se passe dans ces pays,
car des aspects importants de leur réalité ne sont pas révélés ou pas inclus
dans leur système de comptabilité nationale. Pour cette raison, les modèles
économiques perdent beaucoup de leur capacité opérationnelle pour lʼanalyse
de long terme dans les pays en développement. Par conséquent, dans ces pays,
la formulation de la politique économique est plus un instrument de gestion
conjoncturel, basé sur une analyse de court terme.
Une autre limitation des SCN est liée aux problèmes dʼordre conceptuel,
méthodologique et statistique. Dans le cas des pays en développement, ce type
dʼinconsistance intrinsèque au SCN est plus fort pour deux raisons principales.
Tout dʼabord, les activités traditionnelles et dans leur sillage toute lʼéconomie
informelle – par exemple lʼéconomie de subsistance – ne font pas partie du
circuit des transactions économiques monétarisées et elles nʼexistent donc
pas pour le SCN. Or, ces activités ont une importance relative beaucoup plus
grande dans les pays en développement, ce qui rend dʼautant plus difficile
une représentation fidèle de leurs économies par les modèles. La deuxième
raison tient à lʼincohérence des statistiques économiques de base et du défi-
cit dʼinformations sur plusieurs phénomènes économiques importants pour
lʼélaboration des agrégats. De ce fait, les économistes et les statisticiens qui
travaillent sur le SCN sont parfois obligés dʼutiliser des procédés dʼestima-
tion des données qui ne sont pas toujours capables de reproduire toutes les
transactions économiques manquantes.
Une représentation statistique chère aux économistes et aux modélisateurs
est constituée par le tableau qui décrit les relations intersectorielles : quels
biens, en quelle quantité sont utilisés dans la production dʼun autre bien ?
(Combien dʼacier, dʼénergie, etc., pour produire un véhicule automobile par
188 LES MODÈLES DU FUTUR

exemple ?) Tous les biens dʼune économie se trouvent ainsi représentés dans
ce tableau.
La construction de ces tableaux demande énormément de travail et est très
coûteuse. En général, les pays en développement nʼont pas la même facilité que
les pays développés pour les construire périodiquement. Le caractère incomplet
de statistiques économiques importantes comme celles des consommations
intermédiaires, plus accentué chez les pays en développement, limite aussi
lʼutilisation des modèles dans ces pays.
Les agrégats du SCN sont exprimés en unités monétaires. La monétarisa-
tion des statistiques est indispensable pour lʼagrégation macroéconomique.
Imaginons, par exemple, la production dʼun pays et la manière dont il est
possible dʼexprimer cette production en un seul agrégat, avec un seul chif-
fre. Puisque nous ne pouvons pas additionner des quantités physiques de
nature différente pour agréger la production, il est nécessaire de convertir la
production physique en valeur monétaire. Cette procédure est réalisée par la
multiplication des quantités des divers biens produits dans une économie par
leurs prix respectifs.
Les économistes sʼintéressent beaucoup à la variation des prix, mais aussi
à la variation des quantités physiques. Pour annuler lʼeffet de la variation de
prix sur la valeur nominale dʼun agrégat macroéconomique1, ils font appel
à un indice statistique qui mesure la variation des prix pendant une certaine
période. Plus lʼamplitude de la variation des prix est grande, plus la transfor-
mation des variables nominales en variables réelles devient approximative.
Pourtant, ces dernières sont très importantes pour lʼexercice de modélisation.
Or, du fait des problèmes dʼhyperinflation, les statistiques réelles des pays
en développement sont moins exactes et moins consistantes que celles des
pays développés ; et lʼapplication des modèles économiques au cas des pays
en développement devient encore plus compliquée et limitée.

PROBLÈMES DE REPRÉSENTATION DU SYSTÈME ÉNERGÉTIQUE

Production d’énergie et niveaux de consommation

Les systèmes énergétiques dans les pays en développement sont, en règle


générale, très différents des systèmes existants dans les pays développés tant
au plan de la production et de la conversion quʼau plan du transport et de
lʼusage final. Lʼoffre et la demande se présentent très différemment en termes
quantitatifs comme en termes qualitatifs. La consommation dʼénergie par tête

1. La valeur nominale dʼun agrégat macroéconomique ne comprend pas seulement les variations
des quantités physiques, mais aussi celles des prix.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 189

est beaucoup plus élevée dans les pays développés, au point que, pour à peine
20 % de la population mondiale, ces pays considérés dans leur ensemble sont
responsables de la plus grande part de la consommation mondiale dʼénergie
[AIE, 2006]. Sur le plan de lʼoffre, de nombreux pays en développement
font reposer la plus grande partie de leur production dʼénergie sur les sour-
ces traditionnelles de biomasse, alors que les pays développés comblent la
majeure partie de leurs besoins énergétiques à lʼaide des énergies fossiles dont
une part croissante est transformée en électricité pour une consommation en
usage final.
Les populations rurales des pays en développement utilisent encore une
grande quantité de bois de chauffage, de charbon de bois et de déchets agricoles
et/ou animaux pour assurer leurs besoins énergétiques domestiques tels que
chauffage et cuisson. Alors que la plupart des pays dʼAmérique latine sont
devenus dès à présent majoritairement des sociétés urbaines, en Afrique et en
Asie les populations rurales sont au contraire et resteront vraisemblablement
encore longtemps dominantes. Les données sur les sources traditionnelles
de biomasse sont rarement disponibles par le seul fait que lʼessentiel de leur
production et de leur usage sʼeffectue par lʼintermédiaire de circuits non
commerciaux. Lʼinformation disponible recouvre le plus souvent de simples
estimations fondées sur la structure des populations et sur des moyennes de
consommation des ménages. Les incertitudes qui pèsent alors sur les chiffres
de la consommation énergétique sont de ce fait beaucoup plus fortes que
pour les énergies qui passent par les circuits commerciaux. Lʼestimation de la
dynamique et des tendances futures de ces niveaux de consommation dʼénergie
peut ainsi se révéler particulièrement délicate.
Une question importante consiste à estimer les parts renouvelables et non
renouvelables de lʼusage total de biomasse. La déforestation provoquée par
lʼusage de la biomasse comme source énergétique peut être considérable dans
les pays en développement, surtout en Afrique et en Asie, alors que, dans le
contexte plus large de lʼAmérique latine, des facteurs tels que lʼexpansion de
la frontière agricole sont plus pertinents comme facteurs déterminants de la
déforestation. À première vue, il peut ne pas sembler particulièrement crucial
de savoir si la déforestation a été induite par les besoins de consommation
dʼénergie ou non, puisque les émissions de CO2 qui en résultent peuvent être
estimées à partir de lʼétendue des surfaces défrichées (donnée disponible à
partir de lʼimagerie satellitaire) et dʼindications sur la densité de la biomasse
(voir la section suivante). En réalité, les inventaires dʼémissions de GES
rendent compte séparément des émissions dues à la combustion dʼénergies
fossiles et de celles dont lʼorigine réside dans les changements dʼusage des
sols, phénomènes qui incluent pourtant des émissions qui rélèvent à la fois
dʼusages énergétiques et dʼusages non énergétiques. Cependant, la compré-
hension des tendances récentes et des modifications structurelles du niveau
190 LES MODÈLES DU FUTUR

de consommation de biomasse traditionnelle est nécessaire pour forger des


scénarios concernant les niveaux futurs de la demande énergétique, car elles
constituent un déterminant de poids de la combustion croissante des énergies
fossiles dans les pays en développement.
À côté des ménages ruraux et des activités agricoles, la biomasse tradi-
tionnelle est également utilisée dans des secteurs industriels spécifiques de
certains pays en développement tels que les céramiques, le saumon de fonte2 et
les procédés agroalimentaires, entre autres. On la retrouve également dans les
zones périurbaines où lʼon recourt au charbon de bois pour assurer les besoins
énergétiques des ménages. La déforestation induite peut alors être beaucoup
plus importante que celle qui tient au seul usage de bois de chauffage, dès
lors que lʼusage du charbon de bois rend possible un accroisssement de la dis-
tance de transport acceptable entre les zones forestières et la localisation des
consommateurs. Une partie de lʼoffre de charbon de bois à usage énergétique
industriel est ordinairement assurée par les circuits dʼéconomie informelle de
la déforestation illégale, qui sʼexplique elle-même par la faible application
des lois et des règlements sur lʼenvironnement fréquemment constatée dans
les pays en développement.
La migration de la population rurale vers les villes est une tendance conti-
nue dans la plupart des pays en développement. Elle est à lʼorigine dʼune
pression accrue tendant à la croissance de lʼoffre dʼénergie commerciale
(électricité, produits pétroliers, bioénergies modernes), avec les exigences
dʼinvestissement correspondantes qui représentent un lourd fardeau pour les
économies des pays en développement. La carence en investissements aboutit
à un déficit dʼaccès à des sources dʼénergie modernes telles que lʼélectricité,
même dans les zones urbaines. En dehors des rythmes de croissance éco-
nomique globale, lʼévolution des niveaux de distribution des revenus sera
déterminante pour évaluer les parts sectorielles futures du PIB et les niveaux
de consommation dʼénergie. Une possible amélioration de la distribution des
revenus – actuellement marquée par de profondes distorsions – est à même
de provoquer le déclenchement dʼune forte consommation dʼélectricité et de
produits pétroliers (en particulier dʼessence lorsque les ménages auront accès
à lʼautomobile). Lʼinteraction entre ces questions sociales, économiques et
énergétiques dans les pays en développement est actuellement très faiblement
représentée dans les modèles globaux et nécessite dʼêtre améliorée dans son
traitement.

2. Produit dans le cadre de techniques traditionnelles à partir du minerai de fer, le saumon de


fonte (ou gueuse de fonte) est un alliage qui fond à une température plus basse que lʼacier ou le fer
forgé.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 191

La dotation en ressources énergétiques

De nombreux pays en développement disposent dʼimportantes ressources


naturelles telles que la surface des terres, lʼeau et des conditions climatiques
favorables. Ces caractéristiques sont synonymes de potentiels dʼénergie
renouvelable souvent plus élevés que dans les pays développés. Dans les
pays en développement, en effet, on trouve de considérables ressources
dʼénergie solaire, éolienne, hydroélectrique ou encore bioénergétique prêtes
à être mobilisées dans le futur, comme lʼillustre lʼencadré suivant dans le
cas du Brésil.

ENCADRÉ 1. – ARGUMENTS EN FAVEUR DʼUN DÉVELOPPEMENT DE LA BIOMASSE AU BRÉSIL

* Part de la biomasse dans lʼoffre totale dʼénergie : 30 % (en 2004).


* Principales ressources dʼénergie en biomasse : bois, charbon de bois, bagasse
de canne à sucre, bale du riz, éthanol provenant de la canne à sucre, huiles végétales,
biodiesel.
* Forte disponibilité en terres agricoles :
– surface des terres utilisées par le secteur agricole : 50 millions dʼhectares ;
– surface des terres utilisées par les cultures de canne à sucre : 5 millions
dʼhectares ;
– surface estimée des terres destinées à la production dʼéthanol : 2,5 millions
dʼhectares ;
– surface totale des terres agricoles du Brésil : 140 millions dʼhectares (à
lʼexclusion des terres propices à la plantation forestière) ;
– surface des terres encore disponibles pour lʼagriculture : 90 millions
dʼhectares.
Source : La Rovere et alii [2006].

Cette dotation en ressources énergétiques présente un certain nombre de


difficultés pour sa représentation appropriée dans les modèles énergétiques,
généralement conçus sur la base des systèmes énergétiques des pays dévelop-
pés. En particulier, un réel effort est nécessaire pour opérer une désagrégation
judicieuse des ressources de biomasse primaire telles que le bois issu de
différents types de couverture végétale, les déchets organiques de différentes
sources (déchets urbains, animaux, agro-industriels), des combustibles secon-
daires tels que le bois de chauffage traditionnel et le charbon de bois, et des
bioénergies modernes liquides (éthanol, huiles végétales, biodiesel), gazeuses
(biogaz) et solides (bagasse de canne à sucre, bale du riz).
Parallèlement aux difficultés de la collecte des données pour une cali-
bration convenable des modèles, une représentation exacte de la bioénergie
implique dʼintégrer la modélisation dʼautres aspects tels que lʼusage des
sols et celui des produits de base. Les exigences en surface disponible pour
de grands programmes de bioénergie peuvent avoir des conséquences sur
192 LES MODÈLES DU FUTUR

dʼautres activités liées aux usages du sol, et en particulier sur la production


alimentaire. Les liens entre la production de biocarburants liquides modernes
et le marché des produits de base internationaux doivent être examinés pour
évaluer les coûts dʼopportunité de la bioénergie en regard dʼautres usages
des ressources en biomasse (par exemple lʼéthanol face au sucre, le biodiesel
face à lʼhuile de ricin, lʼhuile de palme, le soja). Des facteurs pertinents non
négligeables tels que lʼeffet des subventions à la production domestique de
bioénergie, les tarifs douaniers sur les importations de bioénergie adoptés par
les pays développés, le résultat des négociations de lʼOMC ou encore lʼimpact
des programmes de bioénergie à grande échelle sur les prix internationaux
des feedstocks, réclament une forte extension des modèles existants.
Dans les pays à potentiel hydroélectrique substantiel, la représentation
du secteur électrique dans les modèles énergétiques nécessite également des
ajustements importants, alors quʼils sont construits encore actuellement sur
la base dʼun système dominant de production thermique de lʼélectricité dans
les pays développés. La courbe de charge est en effet très différente puisque
la succession des saisons sèches et humides devient plus pertinente que
les variations quotidiennes pour décrire, comme potentiel énergétique, des
systèmes de production dʼélectricité basés sur des centrales hydroélectriques
dotées de vastes réservoirs permettant le stockage de lʼeau. Le dispatching
(échelonnement séquentiel dʼactivation des centrales de production électri-
que pour remplir la courbe de charge) change aussi avec lʼhydroélectricité
utilisée pour assurer la courbe de charge en base (coûts fixes élevés et faibles
coûts dʼexploitation) et une électricité thermique (à lʼexception du nucléaire)
mobilisée comme complément pour assurer les pics de la courbe de charge
(coûts fixes faibles et coûts en combustible élevés).
Le développement de la production dʼélectricité est un problème clé dans
le contexte dʼune croissance de la demande souvent rapide dans les pays en
développement. Les potentiels hydroélectriques doivent être recensés pour
une représentation modélisée adéquate des ressources énergétiques en hié-
rarchisant les coûts. Les contraintes en capital sont en outre exacerbées par la
longueur du temps de construction des grands barrages et par lʼindivisibilité
des investissements qui implique des coûts élevés payables dʼavance (la
construction dʼune centrale hydroélectrique réalisée à un niveau inférieur à la
capacité de production électrique dʼun site donné peut conduire à un gaspillage
de lʼénergie potentielle alors que la construction modulaire nʼest pas toujours
possible). Les hypothèses sur le taux dʼescompte deviennent ainsi un facteur
crucial dʼoptimisation de lʼoffre dʼénergie. Des agents économiques différents
ayant des attentes variées en matière de retour sur investissements, le cadre
institutionnel du système énergétique doit être correctement représenté dans
les modèles.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 193

Influence du cadre institutionnel sur le système énergétique

Le secteur énergétique présente un problème de fond : les investissements y


sont très lourds et tout dépend plus quʼailleurs des logiques de décision. Dans
les pays en développement, on note une nette prédominance des entreprises
publiques, et cette caractéristique va déterminer très fortement les critères
dʼinvestissement dès lors quʼun programme de réformes sera envisagé. Le
retour sur investissements attendu pourra être long ou court, mais dʼautant
plus court que le marché de court terme devra sʼadosser sur des financements
publics longs. Les modèles existants font lʼhypothèse que les imperfections de
marché sont temporaires ; mais sʼil nʼest déjà pas certain que cette hypothèse
se vérifie pour les pays développés, cela ne peut être que plus aléatoire encore
pour les pays en développement. Dʼautre part, lʼaccès aux ressources financiè-
res est totalement différent dans les pays en développement. Par conséquent,
lʼadoption de modèles de décision optimale pose problème.

PROBLÈMES DANS LA REPRÉSENTATION DE LʼUSAGE DES SOLS

La question des usages du sol concerne un ensemble de secteurs signi-


ficatifs de lʼéconomie des pays en développement pour plusieurs raisons :
1) les activités agricoles (et dans une moindre mesure les activités forestières)
représentent un poids élevé dans les économies en phase moins avancée de leur
développement ; 2) les usages du sol touchent potentiellement un nombre très
important de secteurs traditionnels (agriculture, élevage, forêt, bois de feu),
modernes comme la bioénergie, ou encore les services environnementaux aux
écosystèmes ; 3) certains des plus importants parmi les pays en développement
sont aussi ceux qui disposent de très grandes surfaces, avec des potentiels
agricoles élevés (Brésil, Inde, Chine) ; 4) enfin les phases de développement
sʼaccompagnent dʼune modification profonde de lʼutilisation des sols, avec
de nombreuses conséquences économiques et environnementales sur site et
hors site.
Alors que, dans les pays du Nord, les grandes catégories dʼusage des sols
sont en général fixées (en Europe, de nombreuses barrières légales existent
qui empêchent la libre conversion des terres entre agriculture et forêt par
exemple), dans les pays du Sud au contraire, des tensions multiples et hété-
rogènes (économiques, sociales, culturelles, technologiques, agronomiques,
alimentaires, énergétiques, environnementales) sʼexpriment et conditionnent
lʼintensité et la localisation des changements dans lʼusage des sols que les
garde-fous légaux, peu nombreux, peinent à maîtriser.
Cette multiplicité des déterminants en cause et des acteurs concernés com-
plique grandement le problème de la prospective en matière dʼusage des sols
194 LES MODÈLES DU FUTUR

dans le Sud. Il faut tout dʼabord sʼassurer de prendre en compte les principaux
arbitrages sur les usages, puis contourner les obstacles méthodologiques de
la modélisation.

Arbitrages et enjeux

Le premier niveau dʼarbitrage concerne le choix entre usages traditionnels


et usages modernes issus de la transformation des produits de la terre sous
la contrainte de la technologie et des espaces disponibles. Cʼest le cas, par
exemple, de la question du passage des formes traditionnelles de biomasse
– énergie (le bois de feu est la première source dʼénergie des ménages en
Inde, en Chine, en Afrique subsaharienne et en Asie du Sud-Est) vers des
formes plus modernes (biocarburants, gazéification de la biomasse). Si les
200 Mha de forêt tropicale défrichés entre 1980 et 1995 avaient été utilisés
pour des cultures énergétiques « modernes » au rendement de 300 GJ/ha/an,
alors 60 EJ/an dʼénergie auraient pu être produits par ce biais, soit plus que
lʼensemble de toutes les sources non fossiles actuelles. La question de la
soutenabilité (alimentaire et environnementale) de la production agricole
sʼétend donc à celle des nouveaux débouchés énergétiques, avec comme
conséquence la nécessité dʼun couplage avec les approches des systèmes
énergétiques qui prévoient lʼorientation de lʼensemble du « portefeuille »
des sources dʼénergie.
Un deuxième niveau dʼarbitrage concerne lʼensemble des usages « com-
merciaux » et les contraintes et objectifs environnementaux : services procu-
rés par les écosystèmes, gestion du carbone, conservation ou réhabilitation
dʼécosystèmes protégés des activités humaines pour maintenir la biodiversité,
maîtrise de la progression urbaine, lutte contre la déforestation. Par exemple,
la future demande européenne de bioéthanol doit pouvoir sʼanalyser en termes
de capacité dʼexportation brésilienne, et donc soulève la question de la locali-
sation des terres utilisées pour produire la biomasse avec, comme conséquence
éventuelle, la disparition de zones contenant des espèces végétales ou animales
uniques (écosystèmes du cerrado notamment).
De même, la question de la sécurité alimentaire aboutit à un dilemme envi-
ronnemental, car elle devra se faire soit par lʼintensification de l’agriculture,
avec comme conséquences lʼappauvrissement des sols, la dégradation du cycle
de lʼeau par excès de pesticides et dʼengrais ou des problèmes dʼérosion, le
surpâturage, la désertification et lʼaugmentation de lʼémission de gaz à effet
de serre, soit par le développement d’une agriculture extensive aboutissant à
la disparition de surfaces forestières ou de savanes, et donc à des problèmes
de biodiversité et de stabilité des écosystèmes. Ces nouveaux problèmes
militent pour une révolution « doublement verte » [Griffon, 2006] : à la fois
agronomique et écologique.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 195

Enfin, le problème de la stabilisation du climat et de la maîtrise des émis-


sions de gaz à effet de serre crée un lien indirect entre les politiques dʼusage
des sols et les politiques énergétiques au niveau global [Gitz et alii, 2006].
Lʼusage des sols aura un impact significatif sur le niveau de lʼeffort de réduc-
tion des émissions fossiles requis pour stabiliser le climat [Gitz et Ciais,
2003]. Cela sʼexplique autant par le fait que la déforestation est une source
importante dʼémissions de carbone (34 % des émissions cumulées entre 1850
et 1998 – Watson, 2000) que du fait que les écosystèmes primaires se com-
portent à lʼheure actuelle comme un important puits de carbone. Or ce dernier
disparaîtrait en même temps que la substitution à ces écosystèmes de terres
agricoles : les terres vierges de lʼAmazonie (non touchées par la déforestation)
absorbent annuellement autant de carbone que lʼEurope occidentale en émet
par combustion dʼénergies fossiles.
Cette nécessité de maintenir les « stocks » continentaux de carbone (ou
de les augmenter) crée une opportunité pour le renforcement des politiques
multilatérales de conservation forestière qui, jusquʼà présent, ont échoué de
manière continue.

Les implications redistributives des politiques d’usage des terres

Les terres relèvent de la propriété foncière et, par conséquent, un troisième


niveau de lecture concerne les implications en termes de distribution de la
rente et dʼéquité des politiques. La maximisation des rentes foncières est
un déterminant essentiel des choix dʼusage des sols. En effet, au Brésil par
exemple, la déforestation est principalement liée à la captation des profits
issus dʼactivités productrices dérivées (récolte de bois, élevage bovin, puis
éventuellement cultures dʼexportation comme celle du soja). Cette captation
est favorisée par le faible coût de la terre et du travail, et elle est contrainte
par les coûts dʼaccès aux marchés [Andersen et alii, 2002]. Parmi les facteurs
dʼexpansion de cultures telles que le soja, il faut noter le rôle central de la
recherche agronomique dans la maîtrise des technologies et celui des politiques
dʼinfrastructure routière [Cattaneo, 2001].
Cela nʼest pas sans poser des problèmes dʼéquité dès lors que la distribution
de la propriété foncière est inégale : plutôt que dʼentraîner un développement
des activités productives localement, la déforestation débouche davantage
sur une concentration des revenus et, à un degré moindre, sur une augmen-
tation de lʼemploi urbain à travers lʼorganisation du soutien à lʼagriculture
mécanisée.
La description du partage de la rente entre producteurs, secteurs de trans-
formation et consommateurs, à lʼintérieur des pays du Sud mais aussi entre
le Nord et le Sud, est un sujet peu abordé jusquʼici par la modélisation. Mais
il est appelé à devenir incontournable à lʼheure de la création de nouveaux
196 LES MODÈLES DU FUTUR

marchés (ceux de la bioénergie par exemple), du lancement de programmes


biodiesel, du renforcement du programme éthanol au Brésil, ou encore de la
réforme de lʼorganisation du commerce des produits agricoles.
Enfin, si la sécurité alimentaire nʼest plus un problème au niveau global,
des problèmes dʼautosuffisance alimentaire régionale subsistent. Le retard
agronomique de lʼAfrique, par exemple, présente dʼimportantes implications
géopolitiques (notion dʼarme alimentaire) et économiques (vente dʼautres
produits en échange de lʼimportation des produits alimentaires). Ces phé-
nomènes appellent un traitement associé des questions spécifiques dʼécono-
mie et de technologie agricole et des questions dʼordre macroéconomique
[Coxhead et Jayasuriya, 1994]. Lʼintégration de lʼensemble de ces enjeux
au niveau des outils dʼévaluation nʼest pas sans poser de nombreux défis
méthodologiques.

Questions méthodologiques concernant la prospective


des usages du sol dans les pays en développement

À la différence de secteurs comme les services et lʼindustrie pour lesquels


des approches en moyenne régionale sont souvent suffisantes, le traitement de
la question de lʼusage des sols fait apparaître une difficulté supplémentaire,
celle qui est « constitutive » de lʼanalyse au niveau spatial. En effet, la loca-
lisation des changements est souvent aussi importante que leur amplitude,
et les contraintes naturelles (configuration des lieux, nature des sols, climat)
sʼexercent de manière différente selon les zones affectées.
Ce traitement « spatial » du problème est aussi réclamé par la dimension
le plus souvent locale des instruments politiques et économiques de gestion,
de régulation ou de planification des usages du sol. Or, lʼintroduction de la
spatialisation complique grandement le travail de modélisation sous trois
aspects principaux : 1) elle augmente la dimension du problème dans le champ
économique [Nelson, 2002] ; 2) elle requiert la mise en place de procédures
coordonnées entre des approches de modélisation différentes pour rendre pos-
sible lʼéchange dʼinformations [Bockstael, 1996], notamment entre les bases
de données économiques dont le découpage est essentiellement administratif
et les bases de données environnementales par nature spatialisées ; 3) dès
lors que les modèles ont une dimension globale, des problèmes dʼintégration
dʼéchelles se posent.
Cette nécessité dʼun traitement spatial pose immédiatement le problème
du choix de lʼéchelle du modèle. Et la question de lʼéchelon de décision surgit
aussitôt puisquʼune large variété dʼéchelles existe du local au global. Le fait
que les premiers déterminants de lʼusage des sols soient issus de la sphère
économique nʼest pas sans poser, dès le départ, des difficultés techniques liées à
la caractéristique régionalisée des modèles économiques alors que les modèles
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 197

dʼusage des sols reposent sur une description spatiale. Ces difficultés peuvent
être de différentes natures : faible disponibilité des données économiques
géographiquement référencées (ou problème de confidentialité, comme dans
le cas de lʼUnion européenne où la base de données existante sur lʼéconomie
des exploitations agricoles ne peut révéler la localisation précise des fermes,
mais seulement leur appartenance à une grande région agricole) ; risque dʼun
manque de capacité dʼadaptation des modèles uniquement économiques ;
problèmes de compatibilité de lʼanalyse économique fondamentale avec des
approches par modèles multiagents ou à automates cellulaires ; difficulté du
calibrage des approches multiagents ou à automates.
Enfin, une dernière difficulté émerge du fait que les données économiques
sont fondées sur le découpage administratif des territoires, alors que les don-
nées biophysiques ou environnementales le sont le plus souvent sur la base
dʼun découpage géoréférencé.
Dans les pays en développement, les analyses de lʼusage des sols sont
souvent fortement affaiblies par lʼabsence de données statistiques issues
de recensements agricoles et forestiers [Nelson et Geoghegan, 2002]. Cette
caractéristique est dʼautant plus dommageable que lʼhétérogénéité au niveau
des écosystèmes et agrosystèmes est importante [Grainger, 1999]. Cela limite
beaucoup les outils utilisables, avec comme conséquence majeure le fait
que des causalités peuvent être sous-estimées du seul fait que les données
manquent [Veldkamp, 2001]. Selon certains [Tinker, 1997], « des auteurs ont
même perdu de leur crédibilité par lʼexpression de conclusions excessives
fondées à lʼévidence sur des données statistiquement pauvres ». Lʼutilisation
de données satellitaires peut combler une carence en données biologiques
ou écosystémiques [Vance et Geoghegan, 2002], mais le problème persiste
souvent pour les données économiques.

Conflit entre les méthodologies en présence

Du fait de la complexité des questions posées et des problèmes dʼéchelle et


de données, de nombreuses approches ont émergé. Nous citerons : les modèles
stochastiques (décrivant des probabilités de transition), les modèles empiri-
ques ou statistiques (basés sur des formes réduites), les modèles à automates
cellulaires, les modèles mécanistes ou basés sur des processus, les modèles
multiagents, ou encore les modèles économiques utilisés à différents niveaux3
(micro, méso ou macro). Ces approches diffèrent par leur base théorique propre
à une discipline déterminée, par les unités et échelles dʼobservation considé-
rées, par les méthodes analytiques utilisées, par la nature des données quʼelles

3. Une discussion des forces et des faiblesses respectives de ces approches sort du cadre de
cette étude, mais le lecteur pourra consulter à ce sujet Geist et Lambin [2002].
198 LES MODÈLES DU FUTUR

exigent en amont, par les déterminants et contraintes quʼelles permettent de


prendre en compte et, finalement, par leur capacité à être utilisées avec dʼautres
outils et approches hors du champ strict de lʼusage des sols.
Aucune équipe de recherche nʼa réussi, à lʼheure actuelle, à coupler des
modèles économiques, énergétiques et dʼusage des sols à lʼéchelle globale et
de manière spatialisée4. Certaines équipes, comme celle du modèle IMAGE
[Alcamo et alii, 2002], traitent la spatialisation mais pas lʼéconomie, dʼautres
rendent compte de lʼéconomie et de lʼénergie, mais ne font pas intervenir la
spatialisation [Sands et Leimbach, 2003].
À ces difficultés sʼajoutent la question des effets du changement climati-
que lui-même sur les systèmes agricoles et forestiers, et celle des stratégies
dʼadaptation. Pour être étendues aux pays en développement, ces analyses
butent encore sur plusieurs obstacles. Il sʼagira par exemple de lʼabsence de
validité des projections climatiques dans certaines zones (notamment les zones
de mousson), ou du peu de données économiques et agronomiques disponibles
sur le progrès technique concernant les principales cultures tropicales.
Lʼintégration des composantes économiques, énergétiques et climatiques
de manière spatialisée en tenant compte des spécificités des pays en déve-
loppement est le nouveau défi posé à la modélisation intégrée de lʼusage des
sols. Les enjeux de la construction de tels modèles sont nombreux, au premier
rang desquels la conservation des forêts tropicales, le soutien de lʼagriculture,
lʼorganisation des futurs marchés de puits de carbone et de bioénergie ainsi
que la gestion de la biodiversité. Il sʼagit aussi de doter les différents niveaux
de décision, nationaux et internationaux, dʼoutils dʼévaluation qui permettent
de sortir des impasses récurrentes sur la question stratégique de la régulation
des usages du sol envisagée du point de vue de lʼautorité et de la souveraineté
nationales.

CONCLUSION

La problématique liée à la limitation des émissions de gaz à effet de serre


face au défi du changement climatique est très représentative de la question
posée par ce chapitre, qui est celle de lʼidentification des limites de lʼexercice
de modélisation économique, énergétique et dʼusage des sols dans le cas des
pays en développement.

4. Une des voies de recherche les plus prometteuses réside dans le couplage des deux grandes
catégories dʼapproche existantes : les approches à dominante « automates cellulaires » locales [par
exemple Soares-Filho, 2006] ou globales [par exemple Alcamo et alii, 2002] dʼune part, et les
approches à dominante économique locales, régionales [par exemple Adams et alii, 1996] ou globales
[par exemple Sands et Leimbach, 2003] dʼautre part.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 199

Les émissions de gaz à effet de serre ont un lien direct avec le niveau
dʼactivité économique dʼun pays, avec sa façon de produire et de consommer
lʼénergie, mais aussi avec sa manière dʼutiliser les sols. Les secteurs tradi-
tionnels et informels de lʼéconomie sont de bons exemples de lʼintersection
entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs
correspondent à une partie importante de la production économique, de la
consommation énergétique, de lʼusage des sols et des émissions de gaz à
effet de serre.
Or, dans les pays en développement en général, les secteurs traditionnels
et informels représentent la plus grande partie de la production agricole, de
lʼusage des sols, de lʼemploi et de la consommation énergétique des ménages.
En même temps quʼils contribuent fortement aux émissions de gaz à effet de
serre, leur représentation par des modèles mathématiques est plus complexe
et limitée.
La dynamique de transition des pays en développement est essentielle-
ment un processus de transformation des activités dites traditionnelles en
activités modernes, à travers une myriade de processus simultanés tels que la
monétarisation, le développement du marché, la pénétration technologique,
le renforcement des institutions et de lʼéducation [Shukla, 1995].
La représentation de cette dynamique exige des changements importants
dans les modèles conçus le plus souvent pour et par les pays développés. Selon
Shukla [1995], la représentation des pays en développement par les modèles
peut être améliorée, entre autres, par : 1) une meilleure représentation des
secteurs traditionnels et informels ; 2) lʼidentification plus efficace des barrières
à lʼintroduction des technologies ; 3) lʼanalyse des politiques de bifurcation
concernant différents modes de transport, dʼirrigation, ainsi que la production
et la consommation des différents carburants ; 4) une analyse approfondie des
politiques relatives à lʼusage des sols, y compris la production de biomasse
moderne et le reboisement ; 5) le traitement autonome du secteur traditionnel,
notamment dans ses besoins dʼinvestissement ; 6) le développement de bases
de données sur les activités économiques liées aux émissions des GES.
En ce qui concerne la modélisation du secteur énergétique, la longue
durée de vie de la plupart des technologies comme lʼimpact à long terme des
décisions dʼinvestissement sur lʼéconomie, sur les ressources naturelles et sur
lʼenvironnement rendent nécessaire une planification de long terme qui doit
forcément prendre en compte les interactions entre ces trois axes dʼanalyse.
Les politiques gouvernementales changeantes et les incertitudes macroécono-
miques augmentent la complexité de la planification et de la prise de décision
dans le secteur en question.
Dans la littérature scientifique, nous pouvons trouver un vaste éventail de
modèles traitant, dʼune manière assez complète, les problèmes concernant la
planification et la politique énergétique dans le contexte des pays développés.
200 LES MODÈLES DU FUTUR

La portée et les caractéristiques méthodologiques dʼun modèle particulier


dépendent des problèmes spécifiques de politique ou de planification que
les modèles veulent exposer. Bien que la plupart des modèles disponibles le
fassent dans le contexte des pays développés, ils sont aussi utiles pour ana-
lyser certains problèmes propres aux pays en développement. Des questions
telles que lʼamélioration de lʼexécution opérationnelle, lʼimpact du « mix »
technologique et les effets de certains aspects de la privatisation du secteur
peuvent, par exemple, être étudiés dans le contexte dʼun pays en développe-
ment à lʼaide dʼun modèle créé pour et par un pays développé.
Cependant, les pays en développement diffèrent de manière significative
des pays développés : une répartition des revenus plus inégale, une pauvreté
plus accentuée, la prédominance des styles de vie et des marchés traditionnels
propres aux secteurs ruraux, une pression sur la demande énergétique souvent
fortement réprimée, une tendance au changement du type de consommation
de lʼénergie passant de la biomasse traditionnelle à la biomasse moderne en
raison de lʼaugmentation de la population urbaine, des changements soudains
de politique énergétique et lʼexistence de multiples barrières aux flux de
capitaux et à la diffusion technologique [Pandey, 2002].
Ces caractéristiques sont essentielles pour la planification et la politique
énergétique dans les pays en développement. Or, les modèles mondiaux,
construits à partir du profil du système énergétique des pays industriels, ne sont
pas réellement adaptés pour traiter la problématique spécifique aux pays en
développement. Pour cette raison, une très grande incertitude règne quant aux
résultats de ces modèles appliqués aux pays en développement. Les éléments
qui caractérisent la dynamique du marché de lʼénergie spécifique des pays en
développement doivent donc être incorporés dans les modèles mondiaux.
Lʼintégration des composantes économiques, énergétiques, climatiques
et spatiales propres aux pays en développement est le nouveau défi posé à la
modélisation intégrée. Son élaboration révèle avec toujours plus dʼintensité
les nombreux enjeux liés aux pays en développement : poids des secteurs
traditionnels et informels, passage de la biomasse traditionnelle à la biomasse
moderne, demande réprimée dʼénergie, besoins de développement, conser-
vation des forêts tropicales, soutiens unilatéraux à lʼagriculture, bioénergie,
biotechnologie et biodiversité.

RÉFÉRENCES BIBLIOGRAPHIQUES

ADAMS D. M., ALIG R. J., CALLAWAY J. M., MCCARL B. A. et WINNETT S. M. (1996), « The
forest and agricultural sector optimization model (FASOM) : model structure and policy
applications », Res. Pap. PNW-RP-495, Department of Agriculture, Forest Service, Pacific
Northwest Research Station, Portland, Oregon.
MODÈLES MONDIAUX ET REPRÉSENTATION DES PAYS EN DÉVELOPPEMENT 201

AIE (Agence internationale de lʼénergie) (2006), World Energy Outlook.


ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwer
Academic Publishers, Dordrecht.
ALCAMO J. et HEINRICH T. (2002), « Critical regions : a model-based estimation of world water
resources sensitive to global change », Aquatic Sciences, n° 64, p. 352-362.
ANDERSEN L. et alii (2002), The Dynamics of Deforestation and Economic Growth in the
Brazilian Amazon, Cambridge University Press, Cambridge.
BOCKSTAEL N. E (1996), « Modeling economics and ecology : the importance of spatial
perspective », American Journal of Agricultural Economics, n° 78, p. 1168-1180.
CATTANEO A. (2001), « Deforestation in the Brazilian Amazon : comparing the impacts of
macroeconomic shocks, land tenure and technological change », Land Economics, vol. 77,
n° 2, mai, p. 219-240.
COXHEAD I. et JAYASURIYA S. (1994), « Technical change in agriculture and land degradation
in developing countries : a general equilibrium analysis », Land Economics, vol. 70,
n° 1, p. 20-37.
– (2001), « Technical change in agriculture and land degradation in developing countries : a
general equilibrium analysis », Land Economics, vol. 70, n° 1, p. 20-37.
GEIST H. J. et LAMBIN E. F. (2002), « Proximate causes and underlying forces of tropical
deforestation », Bioscience.
GIEC (2000), Special Report on Emission Scenarios.
GITZ V. et CIAIS P. (2003), « Amplifying effects of land-use change on atmospheric CO2
levels », Global Biogeochemical Cycles, vol. 17, n° 2.
GITZ V., HOURCADE J.-C. et CIAIS P. (2006), « The timing of biological carbon sequestration
and carbon abatement in the energy sector under optimal strategies against climate risks »,
The Energy Journal, vol. 27, n° 3, p. 113-133.
GRAINGER A. (1999), « Constraints on modeling the deforestation and degradation of tropical
open woodlands », Global Ecology and Biogeography, n° 8, p. 179-190.
GRIFFON M. (2006), Nourrir la planète, Odile Jacob, Paris.
LA ROVERE E. L., PEREIRA A. S. et SIMÕES A. F. (2006), « Biofuels and sustainable energy
development in Brazil », World Development (à paraître).
NELSON R. R. (2002), « Bringing institutions into evolutionary growth theory », Journal of
Evolutionary Economics, n° 12, p. 17-28.
NELSON G. C. et GEOGHEGAN J. (2002), « Deforestation and land-use change : sparse data
environments », Agricultural Economics, n° 27, p. 201-216.
OCDE (1959), Comptes nationaux, vol. 1. Principaux agrégats, éditions de lʼOCDE, Paris.
PANDEY R. (2002), « Energy policy modelling : agenda for developing countries », Energy
Policy, n° 30, p. 97-106.
SAND-ZANTMAN A. (1995), « Modèles dʼéquilibre général calculable et répartition des revenus
dans les pays en voie de développement : quelques éléments dʼévaluation », Revue du
Tiers-Monde, vol. 36, n° 142, avril-juin, p. 441-442.
SANDS R. D. et LEIMBACH M. (2003), « Modeling agriculture and land-use in an integrated
assessment framework », Climatic Change, n° 56, p. 185-210.
SHUKLA P. R. (1995), « Greenhouse gas models and abatement costs for developing nations :
a critical assessment », Energy Policy, vol. 23, n° 8, p. 677-687.
SOARES-FILHO B. S. et alii (2006), « Modeling conservation in the Amazon basin », Nature,
n° 440, p. 520-523.
TINKER P. B. (1997), « The environmental implications of intensified land-use in developing
countries », Phil. Trans. R. Soc., Lond. B 352, p. 1023-1033.
202 LES MODÈLES DU FUTUR

VANCE C. et GEOGHEGAN J. (2002), « Temporal and spatial modeling of tropical deforestation :


a survival analysis linking satellite and household survey data », Agricultural Economics,
vol. 27, n° 3, p. 317-332.
VELDKAMP A. et LAMBIN E. F. (2001), « Predicting land-use change », Agriculture, Ecosystems
and Environment, n° 85, p. 1-6.
WATSON R. T. et alii (2000), « Land-use, land-use change, and forestry », A Special Report
of the IPCC, Cambridge University Press, Cambridge.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 203

Pour une morale de la modélisation économique


des enjeux climatiques en contexte dʼexpertise

Olivier Godard

Une combinaison nouvelle de certitude et dʼincertitude se dégage de la


question énergétique en cette première décennie du nouveau siècle. Lʼune et
lʼautre déstabilisent les anticipations et les repères et concourent à donner à
lʼavenir un visage inquiétant. La déstabilisation est multiforme, à la fois interne
et externe. Elle est dʼabord interne en Europe, avec lʼouverture à la concur-
rence des grandes entreprises du secteur, voire leur privatisation. Introduite
au nom des effets bénéfiques de la concurrence pour les consommateurs, cette
réforme a rapidement provoqué une forte hausse des prix et rend incertaine
la disponibilité de capacités suffisantes dʼapprovisionnement et de production
à lʼavenir. Par ailleurs lʼénergie est de nouveau associée à la peur de manquer
(que se passera-t-il une fois le pic pétrolier franchi ?). La déstabilisation se fait
externe lorsque les périls géopolitiques débouchent sur une menace terroriste
de grande ampleur ou sur le risque dʼune conflagration majeure avec le monde
musulman, là où se trouve la plus grande part des réserves dʼhydrocarbures.
Elle est externe, encore, lorsque lʼavenir énergétique voit sa donne radicalement
reconfigurée par les perspectives de bouleversement du climat de la planète
sous lʼeffet des émissions massives et croissantes de gaz à effet de serre depuis
le XIXe siècle. Lʼusage de lʼénergie fossile est, on le sait, le grand coupable dans
cette affaire.

LES PRÉVISIONS ÉCLAIRENT-ELLES ?

Une certitude est désormais acquise : les systèmes et les usages énergéti-
ques qui ont soutenu le développement économique depuis plusieurs décennies
devront se transformer en profondeur dʼici 2050. Cʼest là que la certitude cède
la place à lʼincertitude. Comment reconfigurer les systèmes énergétiques pour
tenir compte simultanément de toutes les contraintes et de toutes les menaces
204 LES MODÈLES DU FUTUR

dʼun monde profondément inégal et lancé plus que jamais dans la course à la
croissance matérielle ?
Les inerties liées aux capacités de production installées, aux infrastructures
et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen
terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil
est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et
prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé
de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie,
de la Commission européenne, de la Conférence mondiale de lʼénergie, des
centres universitaires, des commissions gouvernementales et des bureaux
dʼétude spécialisés ?
Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces
exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation
est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-
quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public
de la modélisation dans un contexte de délibération sur lʼaction à conduire
que ce texte est consacré, en prenant appui sur le traitement des enjeux du
climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la
photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce
quʼon pourrait appeler une morale du cadrage de la modélisation économique
des enjeux climatiques en situation dʼexpertise, en considérant successivement
le moyen terme (10 à 20 ans) et la longue durée.
Le propos sera introduit par quelques questions sur la pratique de la modé-
lisation, en ayant particulièrement en vue lʼévolution récente vers des modèles
intégrés climat-économie. Puis le questionnement abordera le moyen terme en
décortiquant deux exemples dʼusage de la modélisation économique dans le
domaine énergie-climat. Le premier, international, remonte à 1992 et touche
à lʼaccueil fait aux États-Unis aux propositions de la Commission européenne
dʼalors en matière de politique de lʼeffet de serre. Le second, français, est
plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par
le Commissariat général du Plan en 1996-1998 à la demande du ministre de
lʼIndustrie.
Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est
tenu compte des générations futures éloignées dans la modélisation à long
terme. Lʼun des traits notables des modèles traitant du changement climati-
que est en effet leur longue portée temporelle. Présenter des trajectoires et
des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les
climatologues, certains économistes se sont enhardis à faire de même. Par

1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine
fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans
lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être
considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». Lʼauteur le souligne lui-même,
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 205

exemple certains font valoir les bénéfices nets que des pays comme la Chine
ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du
changement climatique annoncé…

DES QUESTIONS SUR LA MODÉLISATION

Susciter des réflexes ou éveiller la réflexion ?

Le recours à la modélisation en contexte dʼexpertise soulève nombre de


questions. Que penser, par exemple, de lʼeffet de réalité imposé par la forme
dans laquelle les résultats sont présentés ? La confusion du modèle et de la
réalité, du présent effectif et de lʼavenir possible, menace là où on recourt
aux mêmes indicateurs, aux mêmes supports de communication des résultats
pour rendre compte de situations ou de phénomènes réels ou bien de possibles
imaginés. Ne peut-on pas discerner ici ou là des pratiques visant à façonner les
représentations et les anticipations, voire à susciter adhésions ou répulsions en
jouant sur des réflexes politiques et culturels plus que sur la réflexion ?
Dans les affaires humaines où la parole émise fait partie de la réalité
quʼelle prend pour objet, lʼexpertise prend un statut particulier : lʼénoncé
de lʼexpert, quʼil soit conçu dans ce but ou que cela se fasse à son corps
défendant, interagit avec la réalité dont il trace le tableau, et contribue à faire
quʼelle advienne ou quʼelle nʼadvienne pas, selon les cas. Comme lʼobserve
Jean-Pierre Dupuy [2002, chap. 10 et 11] à propos des prophéties de catastro-
phes, lʼexpertise économique et la prévision sociale font surgir un problème
particulier dʼéquilibre entre avenir projeté, anticipations, comportements et
réalisation de lʼavenir.

La modélisation intégrée, ennemie du pluralisme ?

La gageure, lʼaccomplissement ultime ou la visée tendancielle, comme on


voudra, que porte lʼidée de modèle intégré à la fois climatique et économique
est de parvenir à un point fixe – Dupuy [2000] parle dʼéquilibre projeté. Les
anticipations et les comportements des acteurs humains suscités par les ima-
ges de lʼavenir économique et climatique que les modèles créent doivent être
intégrés par ces modèles pour faire advenir un des avenirs possibles quʼils
décrivent. Après de multiples itérations, la pluralité des avenirs possibles ne se
réduit-elle pas immanquablement comme peau de chagrin pour laisser la place
à un avenir prévu unique et inéluctable ? Cela signifierait que la prospective

ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron
une centaine dʼannées.
206 LES MODÈLES DU FUTUR

assistée par modélisation intégrée ne pourrait éviter in fine de verser dans le


registre de la prophétie autoréalisatrice, ce qui manifesterait son incompatibi-
lité avec un principe de pluralité assumée des représentations de lʼavenir.
Cʼest ainsi que prévisions et scénarios donnent à voir des doublements ou
triplements inéluctables des consommations énergétiques et enserrent les parts
respectives futures des énergies dans des marges assez étroites. Sʼagirait-il
donc pour nos contemporains de lire les prévisions énergétiques comme le
grand-livre déjà écrit de lʼavenir de lʼhumanité, de se faire spectateurs de
lʼavenir sans jamais pouvoir basculer collectivement de lʼautre côté, celui
des auteurs du livre ? Plus sʼaffirment les démarches de prévision de lʼavenir
collectif, plus les acteurs sont implicitement cantonnés à des comportements
dʼadaptation aux contraintes perçues. Or lʼavenir dépend des choix des hom-
mes dʼaujourdʼhui. Sous quelle forme le modéliser de façon à mettre en valeur
leur liberté et leur pouvoir dʼinitiative ?

Comment éviter les catastrophes prévues ?

Sʼagissant de la crainte commune dʼun avenir catastrophique, lʼidée dʼéqui-


libre projeté résultant dʼune modélisation totalement intégrée soulève une
difficulté majeure. Pour ne pas être catastrophique, lʼavenir réalisé sous lʼeffet
de lʼaction humaine devrait paradoxalement se maintenir à lʼécart de lʼavenir
que les hommes auraient anticipé. Le livre de Dupuy sur le Catastrophisme
éclairé se conclut en effet sur cette maxime étrange, dérivée de celle de Hans
Jonas [1990] : « Obtenir une image de lʼavenir suffisamment catastrophiste
pour être repoussante et suffisamment crédible pour déclencher les actions
qui empêcheraient sa réalisation, à un accident près2. »
Or, face au problème du changement climatique, le risque existe sérieu-
sement de voir opinions et gouvernants passer dʼun seul coup du scepti-
cisme quant à une menace jugée théorique et lointaine au sentiment que nous
sommes déjà inéluctablement engagés dans une aventure à lʼissue peut-être
catastrophique, tel un destin. Dans les deux cas, bien que pour des raisons
opposées, il nʼy a pas de place pour une action collective capable de mordre
sur le problème, au-delà des gesticulations dʼusage.

Les risques de manipulation de l’expertise par les décideurs

On pourrait lire les interrogations précédentes comme une suspicion envers


une catégorie dʼexperts – ces économistes qui proposent les résultats de
leurs modèles pour aider les décideurs à choisir les politiques à conduire à
long terme. Avouons-le, la suspicion doit aussi sʼexercer envers le bord des

2. Dupuy [2002, p. 214 – souligné par O. G].


POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 207

décideurs. Ne voit-on pas assez couramment responsables politiques et éco-


nomiques mobiliser telle ou telle expertise à lʼappui de leurs projets ou de
leurs thèses sans être trop regardants sur les conditions dans lesquelles ladite
expertise est rendue, sur ce quʼelle dit vraiment ou sur les conditions, vite
oubliées quand cela arrange, de validité des conclusions ? Nʼarrive-t-il pas que
des experts soient enjoints de parvenir à certains résultats définis dʼavance,
ou soient plongés dans la sidération à la découverte de ce que les décideurs
leur font dire ou tirent de leurs travaux ?
La relation entre modélisation et décision, entre expertise et action, doit
certainement être revisitée des deux côtés si lʼon veut éviter les conclusions
par trop naïves [Godard, 2001].

1992 : LES IMPACTS DʼUNE TAXE CARBONE AUX ÉTATS-UNIS ET EN EUROPE

Les faits

En 1991, la Commission européenne avait proposé que les États-Unis et


le Japon rejoignent lʼUnion dans lʼinstauration, sur leurs territoires respec-
tifs, dʼune taxe sur les émissions de CO2 du secteur industriel. Dʼun niveau
initial équivalant à 3 dollars le baril, la taxe était conçue pour augmenter dʼun
dollar par an jusquʼen 2000, ce qui aurait alors représenté un doublement du
prix du pétrole de lʼépoque. En juin 1992 devait se tenir à Rio de Janeiro le
Sommet de la Terre, à lʼoccasion duquel devait être solennellement adoptée
la Convention-cadre des Nations unies sur les changements climatiques, en
négociation depuis deux ans.
Deux économistes réputés, Alan Manne (Stanford University) et Richard
Richels (Electric Power Research Institute), spécialistes de la modélisation
économique des politiques de lʼénergie, avaient utilisé leur modèle Global 2100
pour évaluer les conséquences de lʼapplication aux États-Unis de cette pro-
position européenne. Leurs travaux antérieurs avaient contribué à convaincre
dès 1990 lʼentourage du président Bush que lʼintérêt des États-Unis était de
ne pas sʼengager dans une politique active de réduction des émissions de
gaz à effet de serre. Ces deux auteurs ont rendu publics en février 1992 les
résultats provisoires de leur étude sous la forme dʼun draft diffusé hors des
cercles scientifiques et notamment auprès de la presse de référence. Le docu-
ment comprenait en particulier un graphique comparant le coût économique
de cette taxe en pourcentage du PIB (produit intérieur brut) pour lʼEurope et
pour les États-Unis (voir la figure 1, p. 209). Le contenu énergétique de la
croissance américaine étant à peu près le double de celui de lʼEurope, il en
ressortait que les Américains auraient à supporter un coût beaucoup plus élevé
que les Européens sʼils appliquaient le schéma de taxation proposé. Dès lʼan
208 LES MODÈLES DU FUTUR

2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 %
de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %.
Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun
tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces
commentaires ont été repris par certains journaux américains, dont le New York
Times. Moquant la Commission européenne, cette presse souligna combien
peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis,
où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé
lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-
tionale ! On ne peut naturellement pas imputer les choix politiques américains
à une seule étude ni à quelques articles de presse. Néanmoins la diffusion
de ces résultats dans une période clé des négociations a renforcé le camp de
ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action
significative de limitation des émissions de gaz à effet de serre. Finalement,
ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la
Commission, qui lʼavait avancée de manière conditionnelle, y a finalement
renoncé avant le Sommet de Rio.
Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en
question a été soumis à la revue Energy Policy, revue académique de réfé-
rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et
Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article
présentant les mêmes résultats, à une exception notable près, celle de la figure
comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la
figure 2 ci-contre). La situation était désormais complètement inversée ! Les
États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-
duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur
du coût était considérablement modifié, puisque ce dernier était multiplié par
quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle,
de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient
modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement
lʼexplication.

Une comparaison des pertes de PIB dues à la taxe carbone

La différence entre le draft et lʼarticle publié tenait aux hypothèses utilisées


concernant le traitement de la fiscalité de lʼénergie dans la situation de base.
Dans la première simulation rendue publique en 1992, ils nʼavaient pris en
compte aucune notion de distorsion économique imputable aux impôts sur
lʼénergie, alors que cette fiscalité était alors – et demeure – beaucoup plus
élevée en Europe quʼaux États-Unis. Or, selon la théorie économique de la
fiscalité, plus on taxe un bien déjà taxé, plus les pertes de bien-être entraînées
par la distorsion des choix des contribuables sont fortes, étant multiplicatives et
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 209

FIGURE 1. – LE GRAPHE PRÉSENTÉ DANS LE DRAFT DE LʼARTICLE DE FÉVRIER 1992

% du PIB

FIGURE 2. – LE GRAPHE DANS LʼARTICLE DʼENERGY POLICY DE JANVIER 1993

% du PIB

non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-
ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication.
Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre
en compte les coûts économiques des distorsions supplémentaires imputables
à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme
distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone
devenait considérablement plus élevé en Europe quʼaux États-Unis.
La publication finale nʼa soulevé à ma connaissance aucun commentaire
dans la presse américaine sur les avantages considérables que les États-Unis
auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope.
Le Sommet de Rio était déjà loin.

3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources
financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous
parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.
210 LES MODÈLES DU FUTUR

Des jeux d’influence

Lʼépisode est instructif sur les enjeux dʼune expertise économique inter-
nationale. Il éclaire aussi en creux certains éléments dʼune morale de la
modélisation en situation dʼexpertise. Commençons par une observation
factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent
dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation
toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur
le résultat final. Ces documents prétendent souvent apporter des révélations
sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue
critique par des pairs.
Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-
sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que
veulent leurs clients. Les économistes impliqués dans le cas cité comptent
parmi les plus réputés et influents sur la scène du changement climatique. Ils
ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts
intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion
sur lʼusage de la modélisation économique en contexte dʼexpertise concerne
bien le cœur de la profession.

Le choix des indicateurs

Une question politiquement sensible concerne les indicateurs choisis


pour présenter les résultats. Ici, comme souvent, les auteurs utilisent une
représentation agrégée, celle dʼun pourcentage du PIB. Cette solution a
lʼavantage de la simplicité. Est-ce une raison suffisante ? Les composantes
et hypothèses retenues pour faire de cet indicateur le reflet de lʼobjectif
poursuivi par une société ont en effet des fondements fragiles ou contestables
mis en évidence de longue date. Ainsi le PIB nʼest pas un indicateur de bien-
être mais dʼactivité. De plus, en tant quʼindicateur de flux, il ne fait pas la
distinction entre vraie création de richesses et diminution des stocks et des
capacités. Toutefois il entre en résonance immédiate avec les préoccupations
courantes de la plupart des gouvernants et des dirigeants dʼentreprise des
pays occidentaux, peu sensibles aux enjeux de long terme. Cela a pour effet
que lʼindicateur choisi mobilise des croyances réflexes, des préjugés et de
fausses intuitions.

4. Ce groupe dʼexperts a été constitué sous lʼégide de lʼOrganisation météorologique mondiale


et du Programme des Nations unies pour lʼenvironnement à la fin de 1988. Il implique plusieurs
centaines de chercheurs à travers le monde. Ses principaux rapports ont été remis en 1990, 1995 et
2001. Le quatrième sera publié en 2007. Voir les chapitres V et VI de cet ouvrage.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 211

Dans dʼautres cas, comme lorsque certains travaux économiques donnent à


voir des coûts négatifs5, les mêmes réflexes et fausses intuitions alimentent un
sentiment profond dʼincrédulité. Si le résultat faux du draft de mars 1992 nʼa
soulevé aucune objection manifeste de la part du public destinataire, cʼest
quʼil donnait une expression précise à une croyance commune, convention
partagée par un monde dʼexperts, de représentants dʼintérêts économiques et
de dirigeants formant une communauté de croyances.
Dans ce contexte, les modélisateurs devraient sʼinterdire de manier des
indicateurs aussi saturés dʼeffets de fascination et de croyance6, si du moins
leur but est de susciter la réflexion, quitte à ce que leurs résultats soient moins
immédiatement lisibles. Il y a certainement là une limite à mettre à la recherche
de la pertinence pratique et à la satisfaction la plus complaisante des demandes
directes que les décideurs font aux modélisateurs.

Un sens différent selon le contexte

Lʼépisode rapporté attire également lʼattention sur les différences de signi-


fication prise par un résultat donné selon que lʼon se trouve dans un contexte
scientifique ou dans un contexte dʼexpertise [Roqueplo, 1997]. Dans un
contexte scientifique, cʼest à juste titre que des économistes ne perçoivent
pas un changement de résultats provoqué par un changement dʼhypothèses ou
une modification des équations du modèle comme un échec portant atteinte à
leur crédit. Ces essais-erreurs concourent à lʼexploration scientifique normale
dʼun problème. Les problèmes commencent lorsque les résultats contingents
ainsi obtenus sont utilisés pour éclairer des choix de politique.
Lorsque les chercheurs se font experts, on attend dʼeux quʼils parlent
au nom de la réalité, et non pas selon le jeu de leurs hypothèses et de leurs
modèles. Les divers utilisateurs (responsables politiques, presse, lobbies, etc.)
tendent à se focaliser sur les résultats, pour les prendre ou pour les rejeter, en
délaissant leur dépendance vis-à-vis de toute la construction scientifique qui
leur donne sens. Des énoncés hypothétiques à valeur relative sont pris pour
des énoncés positifs de valeur absolue.
Ce changement de signification, les chercheurs qui se prêtent à lʼexpertise
devraient en être conscients. Cela impliquerait de leur part une réserve dans
la diffusion de leurs travaux tant que ces derniers nʼont pas encore été soumis

5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz
à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la
pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais
insuffisamment connues.
6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du
développement humain) du Programme des Nations unies pour le développement ou dʼautres
indicateurs cherchant à cerner le caractère durable du développement.
212 LES MODÈLES DU FUTUR

à la discussion critique par des pairs. De plus, le recours à lʼexpertise devrait


éviter dʼêtre ponctuel et sʼinscrire dans un processus de dialogue en profondeur
mené entre les différentes équipes de modélisation, les experts de différentes
provenances et les différents usagers de ces travaux.

1996-1998 : LE GROUPE ÉNERGIE 2010-2020 EN FRANCE

Depuis trente ans, lʼambition de prévoir lʼavenir a laissé assez largement la


place à une approche plus ouverte qui est celle de scénarios construits à partir
dʼensembles cohérents dʼhypothèses agencées autour dʼune idée principale.
Les visages de lʼavenir possible sont devenus multiples, dans certaines limi-
tes. Cette évolution est a priori davantage en phase avec une reconnaissance
explicite de la liberté de chaque pays de sʼengager dans telle ou telle voie.
Ce nʼest pas une mince avancée intellectuelle. Elle ne sʼest pas faite sans
rencontrer des résistances qui, toutes, nʼont pas encore cédé aujourdʼhui,
comme cela va être montré à présent.
De façon régulière, dans les années 1980-1990, le gouvernement français
faisait réaliser des prévisions énergétiques pour le pays afin dʼasseoir ses pro-
pres choix, notamment pour lʼinvestissement. En 1996-1998, ce fut un groupe
présidé par Pierre Boisson qui le fit. De ce travail animé par une commission
plénière sʼappuyant sur les travaux de quatre ateliers spécialisés dʼexperts,
il est résulté un rapport de synthèse, Énergie 2010-2020. Les chemins d’une
croissance sobre [Commissariat général du Plan, 1998b].

La construction de trois scénarios énergétiques pour la France

Les réflexions et propositions du groupe Énergie 2010-2020 se sont


appuyées sur les travaux de quatre ateliers dʼexperts. Au nombre de ces
derniers, lʼatelier A27 a reçu le mandat dʼélaborer des bilans énergétiques
prospectifs pour la France aux horizons 2010 et 2020 [Commissariat général
du Plan, 1998a ; Godard, 1998]. Lʼavenir énergétique à lʼhorizon 2020 était
perçu comme assez incertain pour différentes raisons. On peut citer lʼimpré-
visibilité de la scène énergétique mondiale, les changements de lʼorganisation
économique du secteur énergétique, lʼamorce éventuelle du remplacement du
parc électronucléaire français, le devenir de la convention-cadre sur le climat8
adoptée dans le cadre des Nations unies en 1992, ou encore les transformations

7. Président de lʼatelier : François Moisan (ADEME) ; rapporteur général : Olivier Godard


(CNRS).
8. Au moment où les travaux ont été engagés, le protocole de Kyoto (décembre 1997) nʼavait
pas encore été adopté.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 213

envisageables dans le secteur des transports (progrès technique, modification


en profondeur de lʼaction publique et mutation des comportements).
Parmi les nouveaux facteurs affectant la scène énergétique française,
une place particulière revenait à la démultiplication des pôles dʼimpulsion
stratégique. Lʼaction gouvernementale nationale devait désormais trouver sa
place au sein dʼun ensemble plus large dʼactions et de décisions concourant à
transformer le paysage énergétique. Autorités communautaires européennes,
grands opérateurs publics et privés, collectivités locales étaient devenus des
acteurs à part entière dʼune politique énergétique. Ces éléments convergeaient
pour appeler les pouvoirs publics à exercer différemment leur rôle et à choisir
de nouvelles priorités.
Cette situation nouvelle devait trouver son expression dans les orientations
méthodologiques des travaux de lʼatelier A2 ; il convenait en particulier de
faire ressortir la dimension sociopolitique des choix techniques et économiques
que la France devait faire dʼici 2020.

L’approche : des scénarios incarnant


le devenir possible de la société française

Les responsables de lʼatelier ont voulu une méthode dʼexploration de


lʼavenir qui reconnaisse explicitement le caractère ouvert et incertain de ce
dernier. À leurs yeux, cela disqualifiait une approche reposant sur la seule
projection de tendances passées estimées par des méthodes économétriques.
De même, la méthode consistant à établir une unique projection de référence
assortie de différentes variantes sur des questions précises ne leur avait pas
semblé apporter lʼouverture suffisante. En 1996-1998, le sentiment prévalait
chez les experts que des changements importants allaient affecter la société
française et le monde autour dʼelle, pas seulement le secteur énergétique. Il
convenait donc de donner une représentation des perspectives énergétiques
du pays qui les inscrivent dans différentes évolutions économiques et sociales
possibles de la société française et de son contexte international.
Cʼest ainsi que fut adoptée lʼidée de construire trois scénarios de référence
se différenciant sur des hypothèses dʼévolution de la société française et de
lʼEurope. Ces scénarios plantaient différents contextes plausibles dʼici 2020 en
fonction desquels les différents acteurs de la scène énergétique, et parmi eux
les pouvoirs publics français, auraient à concevoir leurs stratégies. À ces évo-
lutions de société diverses correspondaient en particulier des changements du
regard porté sur le rôle de lʼÉtat, sʼagissant à la fois du contour de ses domaines
dʼintervention légitime et du choix des modalités de son action.
Les trois scénarios construits reposaient ainsi sur des hypothèses socio-
politiques contrastées. Le premier scénario, dénommé « société de marché »,
sʼorganisait autour dʼune réduction du niveau dʼintervention économique de
214 LES MODÈLES DU FUTUR

lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus
large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait
également de la contraction de lʼhorizon temporel des différents acteurs sous
lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie,
y compris la production électrique, était un bien ordinaire laissé à la régulation
du marché. Le deuxième scénario, appelé « État industriel », correspondait au
retour dʼun État interventionniste dans le domaine économique et industriel au
nom dʼune identification des intérêts à long terme de la nation avec la force
et la compétitivité de son industrie. La conception des différentes politiques
publiques, par exemple les politiques dʼenvironnement (effet de serre), y
était systématiquement utilisée pour favoriser la compétitivité et lʼessor de
lʼindustrie française, dans les limites autorisées par les règles européennes
et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un
bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois
ordinaires du marché. Le troisième scénario, désigné comme « État protec-
teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des
valeurs de protection de la santé de la population, de prévention des risques
technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle
locale que planétaire. Il laissait davantage aux entreprises, aux organisations
professionnelles et aux partenaires sociaux le soin de piloter les mutations
économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-
rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique
volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et
de la demande pour les rendre compatibles avec les objectifs sociaux et envi-
ronnementaux du pays.
Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-
économiques9 de façon à être aussi plausibles, complets et cohérents les uns
que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel.
Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au
statut de variantes.
La priorité ayant été donnée à lʼexploration des conséquences de trois
évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-
nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la
période), la croissance démographique et les prix internationaux de lʼénergie
(un pétrole à 24 dollars9510 le baril de 2005 à 2020). Le taux dʼactualisation
utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été

9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation
économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs
et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur
énergétique et lʼautre un modèle dʼéquilibre général calculable.
10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme
référence : ici, des dollars de 1995.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 215

fixé à 8 % pour S2 et S3, et à 12 % pour S1. Cette approche contrastait avec


les exercices antérieurs qui proposaient des scénarios ne se différenciant que
par la combinaison taux de croissance/prix de lʼénergie.

Nucléaire ou gaz ?

Du côté de lʼoffre, lʼune des variables de changement les plus spectaculaires


selon les scénarios était le parc de production électrique, dans le cas où les cen-
trales nucléaires devraient être déclassées après trente ans de service. Dans ce
cas, le renouvellement du parc devait commencer à être engagé à partir de 2007.
Cependant, lʼexpertise technique alors disponible considérait quʼune extension à
40 ans était envisageable sans affecter la sûreté nucléaire. Avec cette extension, le
problème du renouvellement du parc nucléaire français ne devait alors quʼeffleu-
rer la fin de la période considérée, lʼessentiel du renouvellement du parc devant
intervenir postérieurement à 2020. Chaque scénario a donc été décliné selon
deux variantes : 30 ans et 40 ans de durée de vie des centrales nucléaires.
Deux facteurs sont apparus décisifs : le niveau de la demande et le fait
quʼavec un taux dʼactualisation de 12 %, tel quʼutilisé dans S1, le gaz devenait
plus rentable que le nucléaire : dans ce scénario, le remplacement des centrales
nucléaires déclassées devait en conséquence se faire avec des turbines à gaz
à cycle combiné.
Si en 2010 le nucléaire devait fournir environ 74 % des besoins dʼélectricité
quel que soit le scénario, cette contribution devait relativement sʼabaisser dʼici
2020 pour se situer dans une fourchette de 61 à 69 % pour une durée de vie des
centrales de 40 ans. Pour une durée de vie de 30 ans, la situation du parc électri-
que devait se modifier plus rapidement et de façon plus forte. En 2020, 85 % du
parc nucléaire existant devait être déclassé et remplacé, selon les scénarios, par
de nouveaux équipements nucléaires ou par des cycles combinés à gaz. Si, dans
S2, le nucléaire devait continuer à se tailler la part du lion, dans S1 la totalité
des besoins de base et semi-base devaient être couverts par des cycles combinés
à gaz. Enfin, dans S3, les nouveaux moyens de base devaient encore faire appel
au nucléaire11, mais la capacité nécessaire devait être inférieure de 50 % à celle
de S2. Au total, en 2020, la contribution du nucléaire au bilan électrique devait
sʼélever à 68 % dans S2, à 60 % dans S3, mais seulement à 13 % dans S1.

De la croissance… pour les émissions de CO2

Du point de vue de lʼémission de gaz à effet de serre, les trois scénarios


étudiés définissaient des contextes très contrastés, même si les différences

11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de
sortie ou de gel du nucléaire.
216 LES MODÈLES DU FUTUR

les plus importantes ne devaient pas se manifester à lʼhorizon 2010, celui du


protocole de Kyoto, mais à lʼhorizon 2020. Dans S1, les émissions de CO2
devaient sʼaccroître dans une proportion comprise entre 54 et 73 % de 1990
à 2020 selon les variantes, loin de toute idée de stabilisation au niveau de
1990. Dans S2, elles devaient moins augmenter mais ne se stabilisaient pas :
lʼaccroissement des émissions totales dʼorigine énergétique étaient dʼenviron
26 % dans les deux variantes. Seul le scénario S3 parvenait à se rapprocher,
sans lʼatteindre, dʼune stabilisation des émissions de CO2 dʼorigine énergétique
au niveau de 1990. Un chiffre retenait particulièrement lʼattention : selon que
les centrales nucléaires en déclassement étaient remplacées par des turbines à
gaz ou par dʼautres centrales nucléaires, les émissions de CO2 sʼaccroissaient
de 30 MtC, soit environ 30 % des émissions liées à lʼénergie de 1990, année
de référence de la convention Climat et du protocole de Kyoto !
Quel que soit le scénario, les transports devaient représenter, selon les
scénarios et les variantes, autour de 46 % des émissions totales, directes et
indirectes, de CO2 dʼorigine énergétique du pays en 2020 pour la variante
V40, et entre 38 et 47 % pour la variante V30.
Le diagnostic était ainsi posé : du point de vue dʼune politique de lʼeffet de
serre, les responsables politiques et économiques français avaient trois défis
principaux à relever. Le premier concernait le renouvellement du parc électri-
que, entre nucléaire et gaz. Le deuxième était la maîtrise des consommations
du secteur habitat-tertiaire, avec en particulier lʼenjeu de la réhabilitation
thermique du parc immobilier ancien. Le troisième était lʼinfléchissement
nécessaire de la croissance des transports recourant aux carburants fossiles
et celui du déploiement territorial des activités. La maîtrise des émissions de
CO2 pour la période 2000-2020 nʼallait pas pouvoir être acquise au « fil de
lʼeau » sans dispositifs nouveaux ni changements dans la nature et lʼintensité
des politiques menées jusquʼalors.
Lʼaffaire était jugée dʼautant moins simple que les transformations sociopo-
litiques favorables à une maîtrise des consommations énergétiques (S3) étaient
aussi celles qui devaient rendre politiquement moins aisé le remplacement des
centrales nucléaires existantes par de nouvelles centrales nucléaires. Les combi-
naisons crédibles entre hypothèses techniques et hypothèses sociopolitiques ne
conduisaient donc pas à dégager une perspective forte dans laquelle la France
pourrait réduire de façon importante ses émissions de CO2 à lʼhorizon 2020.

L’accueil réservé aux scénarios par les experts et les gestionnaires

Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer
se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun
rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques
levées de boucliers dans lʼadministration et chez les partisans du nucléaire.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 217

Concernant lʼapproche retenue pour élaborer les scénarios, je retiendrai


trois réactions suscitées par leur diffusion. La première met en jeu des prati-
ciens des modèles, la deuxième une administration ministérielle, la troisième
une ministre du gouvernement de lʼépoque.
Lors dʼune présentation des scénarios dʼÉnergie 2010-2020 devant un
groupe dʼexperts émanant du Conseil dʼanalyse économique12, cʼest le scep-
ticisme qui fut exprimé par plusieurs collègues goûtant peu la novation
méthodologique apportée. Cela ne correspondait pas, à leurs yeux, à lʼétat
de lʼart et conduisait à des résultats manquant de lisibilité. Il aurait fallu sʼen
tenir à la solution robuste consistant à construire une projection centrale
déterminée par les hypothèses de croissance et de prix, puis à étudier à la
marge différentes variantes permettant dʼétudier certains points de façon
plus précise ! Lʼapproche retenue, poursuivaient-ils, avait obligé les experts
de lʼatelier à introduire de nombreuses hypothèses ad hoc ou discutables sur
les changements sociaux dʼensemble au lieu de se caler sur une connaissance
scientifiquement éprouvée des données énergétiques et des relations quʼelles
entretiennent avec les grands déterminants économiques. Elle ne permettait pas
non plus dʼévaluer clairement des politiques alternatives – qui auraient dû être
testées sous forme de variantes –, puisque les principales différences prises en
compte portaient sur des variables de société et non sur des variables dʼaction
sous contrôle des autorités publiques. Cʼétait donc lʼutilité de la démarche
adoptée qui était également contestée. Il en résultait, au total, quʼouvrir les
représentations de lʼavenir énergétique en considérant les transformations
économiques et sociales possibles nʼétait méthodologiquement pas bienvenu.
Cela portait atteinte à la fois au caractère scientifique de lʼexercice et à son
utilisation pratique par des décideurs gouvernementaux.
Cette ligne de critique fut implicitement confirmée par la manière dont
les administrations en charge du dossier de lʼeffet de serre se sont saisies des
résultats. Constatant que seul le scénario S3 permettait approximativement
à la France de stabiliser ses émissions de CO2 dʼorigine énergétique sur son
territoire, ces administrations ont « décidé » dʼadopter ce scénario comme
référence pour concevoir le premier Plan-climat du pays.
Sʼil pouvait se comprendre dʼun point de vue quantitatif, un tel choix
contrevenait frontalement à la conception qui avait présidé à la construction
des trois scénarios de lʼexercice Énergie 2010-2020. Ces derniers ne formaient
pas un menu offert aux responsables gouvernementaux : les évolutions globales
possibles de la société à partir desquelles les scénarios étaient construits ne
dépendaient que de façon partielle des choix de politiques des gouvernements
et bien davantage des comportements et attitudes dʼun grand nombre dʼacteurs
sociaux. Il aurait fallu que les pouvoirs publics recherchent des politiques

12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.
218 LES MODÈLES DU FUTUR

énergétiques suffisamment robustes pour sauvegarder lʼessentiel de leur


validité quelles que soient les évolutions effectives de la société. Lʼapproche
pluraliste de lʼavenir de la société que les scénarios exprimaient supposait
que le pouvoir de construire lʼavenir était distribué dans la société, sans
être le monopole du gouvernement. Cʼest pourtant à la représentation dʼun
gouvernement maître de la société comme dʼun engin à laquelle les acteurs
de lʼadministration ont alors manifesté leur attachement. Une modélisation
déterministe présentant un avenir tendanciel unique, mais construit autour de
variables de pilotage gouvernemental sʼajustait bien mieux à leur représenta-
tion politique dualiste du couple « engin-pilote » !
De façon paradoxale, le fait de travailler avec des représentations multi-
ples de lʼavenir nʼa fait ainsi lʼaffaire ni des décideurs ni des praticiens de la
modélisation. Il y a là matière à sʼinterroger sur le rapport quʼentretient lʼart
de gouverner avec la liberté collective.

Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas

Durant lʼautomne 1998, la décision de principe du gouvernement allemand


de sortir son pays du nucléaire a relancé le débat en France. Mme Voynet, chef de
file des Verts et ministre de lʼAménagement du territoire et de lʼEnvironnement,
a alors estimé que la France avait, elle aussi, à envisager la perspective dʼun
retrait du nucléaire pour la production électrique. Dans une interview au jour-
nal Libération du 23 octobre 1998, la ministre affirmait : « Un rapport récent
du Commissariat général du plan montre quʼil existe des voies permettant de
concilier la diversification énergétique, la sortie du nucléaire et le respect de
nos engagements en matière de lutte contre lʼeffet de serre. »
Par « respect des engagements en matière de lutte contre lʼeffet de serre »,
elle signifiait la stabilisation des émissions provenant du territoire français, en
écartant le recours aux possibilités dʼéchange international des quotas prévues
par le protocole de Kyoto. Elle sʼétait élevée à plusieurs reprises contre ces
mécanismes dʼéchange. Dʼailleurs, en vue de la Conférence des Parties à la
convention Climat qui devait se tenir à Buenos Aires deux semaines plus tard,
la France avait rejoint lʼAllemagne et lʼAutriche pour réaffirmer la nécessité
dʼimposer des plafonds stricts sur ce type dʼéchanges, de façon à contraindre
chaque État à réaliser sur son territoire lʼessentiel des réductions dʼémission
que lui imposaient les quotas acceptés à Kyoto13.

13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des
ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 %
de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont
encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette
exigence quʼaux tout derniers moments de la négociation.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 219

Cette intervention publique mobilisant la légitimité de lʼexpertise du


Commissariat général du Plan à lʼappui dʼune thèse et dʼun programme
politique illustre lʼambiguïté des rapports entre lʼexpertise et le décideur
politique14. Dʼune façon générale les décideurs recherchent le concours des
experts soit pour éclairer ex ante, soit pour légitimer ex post leurs prises de
position ou leurs décisions. Il leur arrive parfois de ne pas souhaiter que les
experts présentent de façon trop nette les contraintes imposées par la réalité
et rendent visibles les contradictions de leur propre discours.
La ministre avait formellement raison grâce à une pirouette : les engage-
ments de Kyoto arrivaient à échéance en 2012 et personne ne proposait que
la France soit sortie du nucléaire à cet horizon. Sur le fond, sa déclaration
sʼopposait frontalement aux conclusions des travaux du groupe Énergie 2010-
2020. Si, conformément aux exigences dʼune démocratisation des choix
technologiques majeurs, la France entendait préserver la possibilité de choisir,
le moment venu – vers 2020 –, un mode différent de production électrique,
symbolisé par la fameuse « sortie du nucléaire », elle ne pouvait pas éviter
de choisir entre les deux options suivantes15 :
— œuvrer pour que les « instruments de flexibilité » prévus à Kyoto
(lʼéchange international de quotas) continuent de prévaloir de façon ample
comme composante centrale de lʼaction internationale dans la période post-
Kyoto, et donc renoncer aux idées de restriction forte des échanges interna-
tionaux de quotas ;
— se retirer de la convention Climat ou, plus subtilement, contribuer
activement à faire échouer les négociations sur le régime qui doit prendre le
relais du protocole de Kyoto après 2012.
Lʼexercice Énergie 2010-2020 était porteur dʼun message clair : dans un
régime de type Kyoto, la récupération dʼune liberté de choix des Français
sur les filières de production dʼélectricité avait pour condition absolue la
possibilité juridique dʼacquérir des quotas de CO2 sur le marché internatio-
nal pour des montants pouvant atteindre plusieurs dizaines de pour-cent des
émissions de 1990. Il était étrange dʼobserver que, du fait de son hostilité
idéologique au marché, la ministre chef de file des Verts soutenait une position
internationale qui, lʼemportant, aurait condamné la France à ne pas pouvoir
sortir du nucléaire au moment où elle en aurait eu la possibilité technique.

14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et
par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité
des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].
15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant
quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment
de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions
significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des
Français sous la tutelle des autres pays.
220 LES MODÈLES DU FUTUR

Il était troublant de constater quʼune expertise qui avait cherché à mettre en


évidence les problèmes de choix et à révéler les tensions entre objectifs était
présentée par le politique devant lʼopinion publique comme la justification
dʼune position opposée.

LA REPRÉSENTATION DE LʼAVENIR LOINTAIN

Nous nous sommes intéressés jusquʼà présent à des travaux de modéli-


sation portant sur un horizon dʼune vingtaine dʼannées. Franchissons cette
limite, portons le regard sur le traitement du temps long intergénérationnel et
soulevons quelques points dʼinterrogation.

L’utilitarisme et le sacrifice des droits

La plupart des économistes qui contribuent aux recherches sur le change-


ment climatique abordent les effets à long terme du changement climatique ou
ceux des politiques de prévention et dʼadaptation en utilisant les catégories de
coût et de bénéfice et en recourant à des fonctions agrégées dʼutilité collective.
Ils supposent ainsi que le but poursuivi est de maximiser le niveau de cette
utilité à travers le temps. Ils appliquent ces catégories à des entités politico-
territoriales qui sont soit des pays, soit des entités régionales présentant une
certaine unité politique, comme lʼUnion européenne, lʼAmérique du Nord,
la Chine, lʼInde.
Ce faisant, une continuité est formellement établie entre la manière de
représenter les effets sur le bien-être des générations présentes et celle qui
concerne des hommes qui vivront peut-être à différents horizons temporels,
mais qui nʼexistent pas présentement (générations futures). Cette façon de faire
est facilitée par le cadre normatif de lʼutilitarisme qui identifie une substance,
lʼutilité ou le bien-être, en la détachant des hommes qui en sont en quelque
sorte les dépositaires.
On a reproché à bon droit à lʼutilitarisme dʼêtre une éthique du sacrifice
[Rawls, 1987 ; Dupuy, 1992] en étant indifférent aux droits en tant que tels :
le bien-être de tous vaut bien le sacrifice de quelques-uns. Une forme atténuée
de cette idée sous-tend le critère standard de lʼanalyse coûts-avantages [Pearce
et alii, 2006] quʼest le critère de compensation potentielle de Hicks-Kaldor :
une décision est bonne si les avantages lʼemportent sur les coûts, car il serait
possible aux bénéficiaires des avantages de verser des compensations à ceux
qui supportent surtout les coûts, tout en restant bénéficiaires. Ce critère nʼoblige
pas au sacrifice, mais il nʼélève aucune barrière conceptuelle et méthodologi-
que à son règne. Toute approche reconnaissant la primauté du juste sur le bien
[Forsé et Parodi, 2004] ne saurait se satisfaire de tels exercices économiques
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 221

sur le bilan intertemporel des coûts et des avantages comme manière de définir
lʼaction qui convient.
Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au
nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-
tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures
éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le
temps historique, des entités politiques pertinentes (les États…) ; celui de la
non-existence des générations futures ; celui de leur non-identité.

Entretenir la croyance dans la permanence des identités collectives

Tout travail de prospective à long terme propose un cadrage sur lʼorga-


nisation du monde dans un avenir lointain. La façon de le faire ne saurait
être innocente. Constatons que la projection à long terme des découpages
politiques actuels en États-nations (la France, lʼAllemagne, les États-Unis,
etc.) est une pratique courante. Elle est contestable et arbitraire en ce quʼelle
postule une permanence à travers le temps, soit de formes politiques historiques
– les États-nations – soit dʼun découpage territorial particulier. Un regard sur
le XXe siècle passé a certes montré des stabilités politiques, mais également
des bouleversements significatifs, par exemple lʼeffondrement des empires
coloniaux, lʼéclatement de lʼURSS et la réunification de lʼAllemagne, sans
parler de la formation de lʼUnion européenne.
Passé la durée du demi-siècle, le postulat de stabilité politique prend une
signification latente : celle de donner aux identités politiques actuelles un
semblant dʼéternité. Le message subliminal est donc de donner à croire quʼen
dépit des dangers, menaces et transformations de toutes sortes, rien ne changera
fondamentalement dans le cadre actuel dʼorganisation politique des sociétés :
les Français peuvent compter sur une France éternelle…
Lorsquʼelle prend cette forme, la prospective à long terme sert-elle la
réflexion ? En confortant lʼidée de permanence des États, ne réaffirme-t-elle
pas lʼintangibilité et la primauté du principe de leur souveraineté ? Or on est
fondé à voir dans ce principe lʼobstacle principal au développement de lʼaction
collective de lʼhumanité et à lʼémergence de nouvelles formes de régulation
planétaire. De même que la prescription efface du système juridique actif la
plupart des crimes et délits commis entre contemporains, il y aurait lieu, par
pédagogie éthique et pour éduquer lʼimagination, dʼeffacer progressivement
de la représentation des enjeux à long terme tout ce qui perpétue lʼorganisation
politique actuelle du monde, avec les identifications et les oppositions identi-
taires entre « eux » et « nous » qui vont avec. Pour ces échéances lointaines, la
priorité serait dʼapprendre aux générations présentes à sʼidentifier aux intérêts
de lʼhumanité en général.
222 LES MODÈLES DU FUTUR

Cette proposition semble aller paradoxalement dans le sens de lʼabstraction


utilitariste, indifférente aux identités particulières et aux droits des personnes.
Il nʼy a là rien de mécanique puisque, sur ce chemin de la décentration vis-
à-vis des identités politiques particulières, on trouve aussi le Hans Jonas du
Principe responsabilité [1990] qui fait de lʼidée dʼhumanité le centre de sa
réflexion éthique.

Le problème de la non-existence des générations éloignées

Les générations éloignées nʼexistent pas, cʼest une lapalissade. Pourtant


ce constat soulève des difficultés considérables pour tout raisonnement accor-
dant à lʼidée de droits un statut éthique premier, supérieur à celui reconnu à
la recherche du bien-être. Comment les générations futures pourraient-elles,
en tant que telles, avoir des droits ? La justice a pour objet lʼinstitution de
droits dévolus à des personnes et pour aboutissement pratique des procédures
impartiales dʼarbitrage entre des revendications conflictuelles formulées par
les titulaires de tels droits. Or plusieurs auteurs ont fait remarquer que, nʼayant
pas encore dʼexistence, les générations futures éloignées ne sauraient avoir
de droits [Beckerman et Pasek, 2001] : lʼexistence est une précondition de la
faculté dʼune personne de se voir reconnaître des droits. Il suffit de remplacer
le terme « droits » par « obligations » pour sʼen convaincre. Dira-t-on sans
sourciller que les générations futures ont, en tant que telles, des obligations
envers les générations actuelles ?
Certes, le système juridique sait distinguer entre lʼattribution de la person-
nalité juridique et la reconnaissance du statut de sujet de droit. Par exemple,
les enfants à naître ou les mineurs ont la personnalité juridique, mais ne
sont pas en état de faire valoir leurs droits par eux-mêmes. Sʼagissant des
générations futures, lʼincapacité de faire valoir ses droits par soi-même nʼest
donc pas un obstacle insurmontable. La difficulté est autre : lʼattribut dʼun
être présuppose logiquement lʼexistence de cet être. Faute dʼexister… Les
personnes qui viendront au monde à une date future disposeront alors de
droits, mais ces droits ne pourront jamais sʼexercer que vis-à-vis de leurs
contemporains, ceux avec lesquels elles auront à nouer des coopérations et à
surmonter des désaccords.
Cʼest ainsi la pertinence des supputations sur le droit au bien-être des
générations éloignées qui est ici mise en cause par cette ligne dʼargumentation.
Lʼutilitarisme nʼa pas cette difficulté à affronter [Birnbacher, 1994].

Le problème de la non-identité

Abordons à présent le problème de la non-identité soulevé initialement


par Thomas Schwartz [1978] et Derek Parfit [1984]. Il se présente lorsque
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 223

lʼidée de justice est construite à partir des plaintes ou reproches que pourraient
formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre
des générations présentes. La question posée est la suivante : comment des
personnes vivant dans un avenir lointain pourraient-elles être en position de
reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde
reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif
soit anticipé par les générations antérieures. Admettons que, soucieuses de
justice, ces dernières changent leurs comportements en conséquence. Cʼest
alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-
lement modifiée. Les personnes hypothétiques futures qui auraient adressé
des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les
reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées
à la suite dʼautres choix des générations antérieures. La théorie du reproche
est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien
entre dommage et droit, et entre dommage et identité.
Remarquons que la notion de dommage est elle-même dépendante de celle
de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits
respectifs nʼont pas été définis par une institution, il est impossible de qualifier
une situation en termes de dommages occasionnés par lʼun et subis par lʼautre,
sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de
lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est
problématique, cela a été montré plus haut. On ne saurait, par exemple, faire
état du droit à la vie des générations futures.
Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire
Perruche en France, lʼidée de dommages subis par une personne devient
impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-
rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun
handicap congénital ne peuvent pas faire reproche à leurs parents de leur
avoir occasionné un dommage. En effet, si les parents avaient pris certaines
dispositions pour éviter la naissance dʼun enfant handicapé, les personnes
nées sans ce handicap auraient été des personnes différentes de celles qui sont
handicapées. Lʼexpression « mettre au monde » signifie bien cette solidarité
la plus intime entre les humains et le monde qui leur est donné et qui résulte
de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du
monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là
nʼen est pas détachable.
En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-
che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-
raient retirer les générations futures de telle ou telle évolution qui résulterait
des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des
dommages et des avantages attribuables aux actions des générations antérieu-
res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie
224 LES MODÈLES DU FUTUR

et invariante dans le cadre de comparaison retenu. Seule la situation de ces


personnes devrait pouvoir être affectée, dans des proportions variables, par
les actions incriminées16. En réalité, choisir un profil intertemporel différent
de coûts et dʼavantages, cʼest également choisir de faire advenir au monde
dʼautres personnes. La comparaison ne tient plus.
Récapitulons. Des personnes sans existence ne sauraient subir de domma-
ges puisque la notion de droits ne leur est pas applicable. Une fois venues à
lʼexistence, la condition dans laquelle certaines personnes se trouvent placées
peut certes être caractérisée en termes de handicap par rapport à la condition
moyenne de leurs contemporains, mais pas de dommages imputables aux
générations antérieures, puisquʼil nʼexiste aucun sens dans lequel les généra-
tions postérieures vivantes auraient des droits sur les générations antérieures
qui ne seraient déjà plus de leur monde.
Nous voilà avec deux voies bouchées : celle qui envisage les bénéfices
et les dommages affectant les générations éloignées ; celle qui envisage de
reconnaître des droits à ces générations futures. Trois voies de solution à
explorer demeurent néanmoins. La première consisterait à élaborer un concept
de justice coupé de toute idée de reproche formulé par des personnes victimes
dʼune injustice, ce qui est à première vue assez problématique. La deuxième
est celle de la recherche dʼune dépersonnalisation des termes du jugement.
Lʼutilitarisme nʼest pas la seule pensée à le faire. La réflexion proposée par
Hans Jonas, préoccupée par la survie de lʼhumanité et par celle de lʼhumain
dans lʼhumanité, en est une autre, qui récuse les calculs de coûts et dʼavantages
mâtinés de probabilités. Le mal suprême étant, aux yeux de Jonas, la fin de
lʼhumanité, lʼimpératif kantien est reformulé par lui en ces termes : « Agis de
façon que les effets de ton action ne soient pas destructeurs pour la possibilité
future dʼune telle vie » [Jonas, 1990, p. 30-31]. Sans adhérer aux maximes
dʼaction que Jonas en tire, frappées de contradiction interne [Godard et alii,
2002], retenons lʼidée dʼexplorer une modélisation prospective dégagée des
calculs de bénéfices et de dommages, mais considérant les dangers et risques
dʼatteinte fondamentale à lʼhumanité.
Une troisième piste ouverte à lʼexploration future sʼappuie sur les diffé-
rentes formes de promesses que les générations présentes veulent faire aux
générations futures. Il nʼest plus question ici de droits des générations futures,
mais de désir des vivants de transmettre à ceux qui les suivront tout ou partie
de la richesse patrimoniale dont ils ont hérité et usé, augmentée de ce quʼils
jugent être leur contribution à lʼexpérience humaine, celle en laquelle ils
souhaitent être reconnus.

16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte
reste la même dans les différents cas de figure examinés.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 225

Du point de vue de la modélisation, cette troisième approche sʼexprime-


rait à travers une approche séquentielle des choix intertemporels [Hourcade,
1997]. Lʼétude des choix possibles combinerait alors deux éléments. Dʼun
côté, lʼhorizon du calcul et de lʼoptimisation se limiterait au monde qui est
bien connu et appréhendé empiriquement par ceux qui sont en position de faire
des choix pour la collectivité. De lʼautre côté, lʼexercice serait encadré par une
attention soutenue portée aux conditions terminales léguées aux générations
suivantes, sans vouloir préjuger de ce que seront les meilleurs choix pour
ces dernières. Pour paraphraser une formule célèbre du Rapport Brundtland
[Commission mondiale sur lʼenvironnement et le développement, 1988], il
sʼagit pour les vivants dʼaujourdʼhui de préserver les capacités de vie humaine
des générations futures et dʼétablir indirectement un lien avec elles en leur
léguant les biens constituant le patrimoine de lʼhumanité, progressivement
enrichi des apports des générations successives. Pour les choix touchant un
avenir lointain, lʼaccent doit être mis sur une modélisation de la transmission
intergénérationnelle des patrimoines.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical
Research, vol. 110, septembre.
BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University
Press, Oxford.
BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie
morale », Paris.
COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3,
octobre, p. 1-44.
COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois
scénarios énergétiques pour la France », Paris, septembre.
– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé
par Pierre Boisson, La Documentation française, Paris.
COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous,
Éditions du Fleuve, Montréal.
DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale,
Calmann-Lévy, Paris.
– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences :
projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.
– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.
FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix
moraux, PUF, « Sociologies », Paris.
GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans
COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance
sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris,
p. 317-404.
226 LES MODÈLES DU FUTUR

– (2001), « Lʼexpertise économique du changement climatique planétaire – 1. Modèles


dʼorganisation de lʼexpertise. – 2. Sur la scène internationale, le GIEC. – 3. Sur la
scène française, autour du Commissariat général du Plan », Annales des Mines, série
« Responsabilité et environnement », n° 21, p. 23-65.
– (2003), « Comment organiser lʼexpertise scientifique sous lʼégide du principe de
précaution ? », Revue de l’électricité et de l’électronique, n° 11, p. 38-47.
GODARD O., HENRY C., LAGADEC P. et MICHEL-KERJAN E. (2002), Traité des nouveaux risques.
Précaution, crise, assurance, Gallimard, « Folio-Actuel », Paris.
GOSSERIES A. (2004), Penser la justice entre les générations : de l’affaire Perruche à la réforme
des retraites, Aubier, « Alto », Paris.
HOURCADE J.-C. (1997), « Précaution et approche séquentielle de la décision face aux risques
climatiques de lʼeffet de serre », dans GODARD O. (dir.), Le Principe de précaution
dans la conduite des affaires humaines, Éditions de la MSH et INRA-Éditions, Paris,
p. 259-294.
JONAS H. (1990), Le Principe responsabilité. Une éthique pour la civilisation technologique,
Le Cerf, Paris.
MANNE A. et RICHELS R. (1992), « The E. C. proposal for combining carbon and energy
taxes – the implications for future CO2 emissions », draft, EPRI et Stanford University,
24 février.
– (1993), « The E. C. proposal for combining carbon and energy taxes – the implications for
future CO2 emissions », Energy Policy, janvier, p. 5-12.
PARFIT D. (1984), Reasons and Persons, Clarendon Press, Oxford.
PEARCE D., ATKINSON G. et MOURATO S. (2006), Cost-Benefit Analysis and the Environment
– Recent Developments, publications de lʼOCDE, Paris.
RAWLS J. (1987), Théorie de la justice, Le Seuil, « Empreintes », Paris.
ROQUEPLO P. (1997), Entre savoir et décision, l’expertise scientifique, INRA-Éditions,
« Sciences en questions », Paris.
SCHWARTZ T. (1978), « Obligations to posterity », dans SIKORA R. I. et BARRY B. (dir.),
Obligations to Future Generations, Temple University Press, Philadelphie, p. 3-13.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 203

Pour une morale de la modélisation économique


des enjeux climatiques en contexte dʼexpertise

Olivier Godard

Une combinaison nouvelle de certitude et dʼincertitude se dégage de la


question énergétique en cette première décennie du nouveau siècle. Lʼune et
lʼautre déstabilisent les anticipations et les repères et concourent à donner à
lʼavenir un visage inquiétant. La déstabilisation est multiforme, à la fois interne
et externe. Elle est dʼabord interne en Europe, avec lʼouverture à la concur-
rence des grandes entreprises du secteur, voire leur privatisation. Introduite
au nom des effets bénéfiques de la concurrence pour les consommateurs, cette
réforme a rapidement provoqué une forte hausse des prix et rend incertaine
la disponibilité de capacités suffisantes dʼapprovisionnement et de production
à lʼavenir. Par ailleurs lʼénergie est de nouveau associée à la peur de manquer
(que se passera-t-il une fois le pic pétrolier franchi ?). La déstabilisation se fait
externe lorsque les périls géopolitiques débouchent sur une menace terroriste
de grande ampleur ou sur le risque dʼune conflagration majeure avec le monde
musulman, là où se trouve la plus grande part des réserves dʼhydrocarbures.
Elle est externe, encore, lorsque lʼavenir énergétique voit sa donne radicalement
reconfigurée par les perspectives de bouleversement du climat de la planète
sous lʼeffet des émissions massives et croissantes de gaz à effet de serre depuis
le XIXe siècle. Lʼusage de lʼénergie fossile est, on le sait, le grand coupable dans
cette affaire.

LES PRÉVISIONS ÉCLAIRENT-ELLES ?

Une certitude est désormais acquise : les systèmes et les usages énergéti-
ques qui ont soutenu le développement économique depuis plusieurs décennies
devront se transformer en profondeur dʼici 2050. Cʼest là que la certitude cède
la place à lʼincertitude. Comment reconfigurer les systèmes énergétiques pour
tenir compte simultanément de toutes les contraintes et de toutes les menaces
204 LES MODÈLES DU FUTUR

dʼun monde profondément inégal et lancé plus que jamais dans la course à la
croissance matérielle ?
Les inerties liées aux capacités de production installées, aux infrastructures
et à lʼaménagement du territoire laissent peu dʼinconnues à court et moyen
terme (15 ans) quant aux besoins et aux moyens de les satisfaire. De plus, sʼil
est un domaine qui a été lʼobjet constant de lʼattention des prévisionnistes et
prospectivistes, cʼest bien celui de lʼénergie. Notre avenir nʼest-il pas éclairé
de mille lumières grâce aux efforts de lʼAgence internationale de lʼénergie,
de la Commission européenne, de la Conférence mondiale de lʼénergie, des
centres universitaires, des commissions gouvernementales et des bureaux
dʼétude spécialisés ?
Toutefois, éclairés, le sommes-nous totalement et sans trompe-lʼœil par ces
exercices ? Au-delà des intentions diverses des modélisateurs, la modélisation
est-elle si innocente lorsque, sʼappuyant sur la formalisation la plus sophisti-
quée, elle livre ses chiffres sur la scène publique ? Cʼest en effet à lʼusage public
de la modélisation dans un contexte de délibération sur lʼaction à conduire
que ce texte est consacré, en prenant appui sur le traitement des enjeux du
climat. On se réfère parfois, dans le monde de la critique de cinéma ou de la
photographie, à lʼidée dʼune morale du regard. Je propose ici de réfléchir à ce
quʼon pourrait appeler une morale du cadrage de la modélisation économique
des enjeux climatiques en situation dʼexpertise, en considérant successivement
le moyen terme (10 à 20 ans) et la longue durée.
Le propos sera introduit par quelques questions sur la pratique de la modé-
lisation, en ayant particulièrement en vue lʼévolution récente vers des modèles
intégrés climat-économie. Puis le questionnement abordera le moyen terme en
décortiquant deux exemples dʼusage de la modélisation économique dans le
domaine énergie-climat. Le premier, international, remonte à 1992 et touche
à lʼaccueil fait aux États-Unis aux propositions de la Commission européenne
dʼalors en matière de politique de lʼeffet de serre. Le second, français, est
plus récent. Il concerne les travaux du groupe Énergie 2010-2020 animé par
le Commissariat général du Plan en 1996-1998 à la demande du ministre de
lʼIndustrie.
Sur ce fond dʼexpériences, la réflexion sʼélargira à la manière dont il est
tenu compte des générations futures éloignées dans la modélisation à long
terme. Lʼun des traits notables des modèles traitant du changement climati-
que est en effet leur longue portée temporelle. Présenter des trajectoires et
des bilans sur un siècle ou deux – voire bien au-delà1 – nʼeffrayant pas les
climatologues, certains économistes se sont enhardis à faire de même. Par

1. Par exemple, le géophysicien David Archer [2005] modélise le devenir du CO2 dʼorigine
fossile sur plusieurs dizaines de milliers dʼannées et conclut que la durée de vie moyenne du CO2 dans
lʼatmosphère est dʼenviron 30 000 ans, du fait que 15 à 20 % des émissions anthropiques doivent être
considérées comme demeurant dans lʼatmosphère « pour lʼéternité ». Lʼauteur le souligne lui-même,
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 205

exemple certains font valoir les bénéfices nets que des pays comme la Chine
ou la Russie retireraient durablement, à partir de 2100 jusquʼen 2200, du
changement climatique annoncé…

DES QUESTIONS SUR LA MODÉLISATION

Susciter des réflexes ou éveiller la réflexion ?

Le recours à la modélisation en contexte dʼexpertise soulève nombre de


questions. Que penser, par exemple, de lʼeffet de réalité imposé par la forme
dans laquelle les résultats sont présentés ? La confusion du modèle et de la
réalité, du présent effectif et de lʼavenir possible, menace là où on recourt
aux mêmes indicateurs, aux mêmes supports de communication des résultats
pour rendre compte de situations ou de phénomènes réels ou bien de possibles
imaginés. Ne peut-on pas discerner ici ou là des pratiques visant à façonner les
représentations et les anticipations, voire à susciter adhésions ou répulsions en
jouant sur des réflexes politiques et culturels plus que sur la réflexion ?
Dans les affaires humaines où la parole émise fait partie de la réalité
quʼelle prend pour objet, lʼexpertise prend un statut particulier : lʼénoncé
de lʼexpert, quʼil soit conçu dans ce but ou que cela se fasse à son corps
défendant, interagit avec la réalité dont il trace le tableau, et contribue à faire
quʼelle advienne ou quʼelle nʼadvienne pas, selon les cas. Comme lʼobserve
Jean-Pierre Dupuy [2002, chap. 10 et 11] à propos des prophéties de catastro-
phes, lʼexpertise économique et la prévision sociale font surgir un problème
particulier dʼéquilibre entre avenir projeté, anticipations, comportements et
réalisation de lʼavenir.

La modélisation intégrée, ennemie du pluralisme ?

La gageure, lʼaccomplissement ultime ou la visée tendancielle, comme on


voudra, que porte lʼidée de modèle intégré à la fois climatique et économique
est de parvenir à un point fixe – Dupuy [2000] parle dʼéquilibre projeté. Les
anticipations et les comportements des acteurs humains suscités par les ima-
ges de lʼavenir économique et climatique que les modèles créent doivent être
intégrés par ces modèles pour faire advenir un des avenirs possibles quʼils
décrivent. Après de multiples itérations, la pluralité des avenirs possibles ne se
réduit-elle pas immanquablement comme peau de chagrin pour laisser la place
à un avenir prévu unique et inéluctable ? Cela signifierait que la prospective

ces résultats sʼécartent de la vulgate scientifique qui a diffusé lʼidée dʼun pas de temps dʼenviron
une centaine dʼannées.
206 LES MODÈLES DU FUTUR

assistée par modélisation intégrée ne pourrait éviter in fine de verser dans le


registre de la prophétie autoréalisatrice, ce qui manifesterait son incompatibi-
lité avec un principe de pluralité assumée des représentations de lʼavenir.
Cʼest ainsi que prévisions et scénarios donnent à voir des doublements ou
triplements inéluctables des consommations énergétiques et enserrent les parts
respectives futures des énergies dans des marges assez étroites. Sʼagirait-il
donc pour nos contemporains de lire les prévisions énergétiques comme le
grand-livre déjà écrit de lʼavenir de lʼhumanité, de se faire spectateurs de
lʼavenir sans jamais pouvoir basculer collectivement de lʼautre côté, celui
des auteurs du livre ? Plus sʼaffirment les démarches de prévision de lʼavenir
collectif, plus les acteurs sont implicitement cantonnés à des comportements
dʼadaptation aux contraintes perçues. Or lʼavenir dépend des choix des hom-
mes dʼaujourdʼhui. Sous quelle forme le modéliser de façon à mettre en valeur
leur liberté et leur pouvoir dʼinitiative ?

Comment éviter les catastrophes prévues ?

Sʼagissant de la crainte commune dʼun avenir catastrophique, lʼidée dʼéqui-


libre projeté résultant dʼune modélisation totalement intégrée soulève une
difficulté majeure. Pour ne pas être catastrophique, lʼavenir réalisé sous lʼeffet
de lʼaction humaine devrait paradoxalement se maintenir à lʼécart de lʼavenir
que les hommes auraient anticipé. Le livre de Dupuy sur le Catastrophisme
éclairé se conclut en effet sur cette maxime étrange, dérivée de celle de Hans
Jonas [1990] : « Obtenir une image de lʼavenir suffisamment catastrophiste
pour être repoussante et suffisamment crédible pour déclencher les actions
qui empêcheraient sa réalisation, à un accident près2. »
Or, face au problème du changement climatique, le risque existe sérieu-
sement de voir opinions et gouvernants passer dʼun seul coup du scepti-
cisme quant à une menace jugée théorique et lointaine au sentiment que nous
sommes déjà inéluctablement engagés dans une aventure à lʼissue peut-être
catastrophique, tel un destin. Dans les deux cas, bien que pour des raisons
opposées, il nʼy a pas de place pour une action collective capable de mordre
sur le problème, au-delà des gesticulations dʼusage.

Les risques de manipulation de l’expertise par les décideurs

On pourrait lire les interrogations précédentes comme une suspicion envers


une catégorie dʼexperts – ces économistes qui proposent les résultats de
leurs modèles pour aider les décideurs à choisir les politiques à conduire à
long terme. Avouons-le, la suspicion doit aussi sʼexercer envers le bord des

2. Dupuy [2002, p. 214 – souligné par O. G].


POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 207

décideurs. Ne voit-on pas assez couramment responsables politiques et éco-


nomiques mobiliser telle ou telle expertise à lʼappui de leurs projets ou de
leurs thèses sans être trop regardants sur les conditions dans lesquelles ladite
expertise est rendue, sur ce quʼelle dit vraiment ou sur les conditions, vite
oubliées quand cela arrange, de validité des conclusions ? Nʼarrive-t-il pas que
des experts soient enjoints de parvenir à certains résultats définis dʼavance,
ou soient plongés dans la sidération à la découverte de ce que les décideurs
leur font dire ou tirent de leurs travaux ?
La relation entre modélisation et décision, entre expertise et action, doit
certainement être revisitée des deux côtés si lʼon veut éviter les conclusions
par trop naïves [Godard, 2001].

1992 : LES IMPACTS DʼUNE TAXE CARBONE AUX ÉTATS-UNIS ET EN EUROPE

Les faits

En 1991, la Commission européenne avait proposé que les États-Unis et


le Japon rejoignent lʼUnion dans lʼinstauration, sur leurs territoires respec-
tifs, dʼune taxe sur les émissions de CO2 du secteur industriel. Dʼun niveau
initial équivalant à 3 dollars le baril, la taxe était conçue pour augmenter dʼun
dollar par an jusquʼen 2000, ce qui aurait alors représenté un doublement du
prix du pétrole de lʼépoque. En juin 1992 devait se tenir à Rio de Janeiro le
Sommet de la Terre, à lʼoccasion duquel devait être solennellement adoptée
la Convention-cadre des Nations unies sur les changements climatiques, en
négociation depuis deux ans.
Deux économistes réputés, Alan Manne (Stanford University) et Richard
Richels (Electric Power Research Institute), spécialistes de la modélisation
économique des politiques de lʼénergie, avaient utilisé leur modèle Global 2100
pour évaluer les conséquences de lʼapplication aux États-Unis de cette pro-
position européenne. Leurs travaux antérieurs avaient contribué à convaincre
dès 1990 lʼentourage du président Bush que lʼintérêt des États-Unis était de
ne pas sʼengager dans une politique active de réduction des émissions de
gaz à effet de serre. Ces deux auteurs ont rendu publics en février 1992 les
résultats provisoires de leur étude sous la forme dʼun draft diffusé hors des
cercles scientifiques et notamment auprès de la presse de référence. Le docu-
ment comprenait en particulier un graphique comparant le coût économique
de cette taxe en pourcentage du PIB (produit intérieur brut) pour lʼEurope et
pour les États-Unis (voir la figure 1, p. 209). Le contenu énergétique de la
croissance américaine étant à peu près le double de celui de lʼEurope, il en
ressortait que les Américains auraient à supporter un coût beaucoup plus élevé
que les Européens sʼils appliquaient le schéma de taxation proposé. Dès lʼan
208 LES MODÈLES DU FUTUR

2000, le coût de cette taxe pour les Américains aurait été de lʼordre de 0,4 %
de leur PIB, tandis que lʼEurope nʼaurait eu à supporter quʼun coût de 0,2 %.
Les auteurs évoquaient, dans leurs commentaires, les effets possibles dʼun
tel déséquilibre des coûts sur la compétitivité relative des deux régions. Ces
commentaires ont été repris par certains journaux américains, dont le New York
Times. Moquant la Commission européenne, cette presse souligna combien
peu vraisemblable et peu souhaitable aurait été le ralliement des États-Unis,
où lʼon nʼaime guère les taxes, à une mesure qui aurait si nettement avantagé
lʼEurope et si nettement pénalisé les États-Unis dans la compétition interna-
tionale ! On ne peut naturellement pas imputer les choix politiques américains
à une seule étude ni à quelques articles de presse. Néanmoins la diffusion
de ces résultats dans une période clé des négociations a renforcé le camp de
ceux qui étaient hostiles à la fois à toute taxe sur le carbone et à toute action
significative de limitation des émissions de gaz à effet de serre. Finalement,
ni les États-Unis ni le Japon nʼont voulu de cette proposition de taxe et la
Commission, qui lʼavait avancée de manière conditionnelle, y a finalement
renoncé avant le Sommet de Rio.
Lʼhistoire de ce travail dʼexpertise ne sʼest pas arrêtée là. Lʼarticle en
question a été soumis à la revue Energy Policy, revue académique de réfé-
rence pour les spécialistes du domaine, et publié en janvier 1993 [Manne et
Richels, 1993], six mois après le Sommet de Rio. Il sʼagissait du même article
présentant les mêmes résultats, à une exception notable près, celle de la figure
comparant le coût respectif de la taxe en Europe et aux États-Unis (voir la
figure 2 ci-contre). La situation était désormais complètement inversée ! Les
États-Unis apparaissaient comme les grands gagnants – relatifs – de lʼintro-
duction coordonnée dʼune taxe sur le CO2. Pour lʼEurope, lʼordre de grandeur
du coût était considérablement modifié, puisque ce dernier était multiplié par
quatre : à lʼhorizon 2010, ce coût passait, entre les deux versions de lʼarticle,
de 0,3 à 1,2 point de PIB. Les auteurs ne mentionnaient pas quʼils avaient
modifié leurs résultats initiaux sur ce point, mais en donnaient indirectement
lʼexplication.

Une comparaison des pertes de PIB dues à la taxe carbone

La différence entre le draft et lʼarticle publié tenait aux hypothèses utilisées


concernant le traitement de la fiscalité de lʼénergie dans la situation de base.
Dans la première simulation rendue publique en 1992, ils nʼavaient pris en
compte aucune notion de distorsion économique imputable aux impôts sur
lʼénergie, alors que cette fiscalité était alors – et demeure – beaucoup plus
élevée en Europe quʼaux États-Unis. Or, selon la théorie économique de la
fiscalité, plus on taxe un bien déjà taxé, plus les pertes de bien-être entraînées
par la distorsion des choix des contribuables sont fortes, étant multiplicatives et
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 209

FIGURE 1. – LE GRAPHE PRÉSENTÉ DANS LE DRAFT DE LʼARTICLE DE FÉVRIER 1992

% du PIB

FIGURE 2. – LE GRAPHE DANS LʼARTICLE DʼENERGY POLICY DE JANVIER 1993

% du PIB

non pas additives3. Ce point avait été soulevé par plusieurs collègues, notam-
ment de lʼOCDE, lors du processus de relecture de lʼarticle avant publication.
Les auteurs avaient donc modifié leur modélisation sur ce point pour prendre
en compte les coûts économiques des distorsions supplémentaires imputables
à la nouvelle taxe projetée, surtout en Europe. Considérant lʼimpôt comme
distorsif dès le premier dollar versé, le coût de distorsion dʼune taxe carbone
devenait considérablement plus élevé en Europe quʼaux États-Unis.
La publication finale nʼa soulevé à ma connaissance aucun commentaire
dans la presse américaine sur les avantages considérables que les États-Unis
auraient pu retirer dʼune taxe sur le carbone dans sa compétition avec lʼEurope.
Le Sommet de Rio était déjà loin.

3. Cette théorie ne voit dans la fiscalité en place que le moyen de collecter les ressources
financières nécessaires au financement de dépenses publiques. Les marchés sont supposés être tous
parfaitement concurrentiels et répondre au mieux aux préférences des consommateurs.
210 LES MODÈLES DU FUTUR

Des jeux d’influence

Lʼépisode est instructif sur les enjeux dʼune expertise économique inter-
nationale. Il éclaire aussi en creux certains éléments dʼune morale de la
modélisation en situation dʼexpertise. Commençons par une observation
factuelle : lorsque des négociations internationales sʼaccélèrent ou approchent
dʼune échéance convenue, différents groupes dʼintérêts mettent en circulation
toutes sortes dʼétudes encore sous la forme de drafts, dans le but de peser sur
le résultat final. Ces documents prétendent souvent apporter des révélations
sur une réalité jusquʼalors ignorée, mais nʼont pas fait lʼobjet dʼune revue
critique par des pairs.
Ces jeux dʼinfluence ne concernent pas seulement des experts de troi-
sième catégorie, membres douteux dʼofficines prêtes à démontrer tout ce que
veulent leurs clients. Les économistes impliqués dans le cas cité comptent
parmi les plus réputés et influents sur la scène du changement climatique. Ils
ont depuis régulièrement contribué au travail du GIEC (Groupe dʼexperts
intergouvernemental sur lʼévolution du climat4). Le besoin dʼune réflexion
sur lʼusage de la modélisation économique en contexte dʼexpertise concerne
bien le cœur de la profession.

Le choix des indicateurs

Une question politiquement sensible concerne les indicateurs choisis


pour présenter les résultats. Ici, comme souvent, les auteurs utilisent une
représentation agrégée, celle dʼun pourcentage du PIB. Cette solution a
lʼavantage de la simplicité. Est-ce une raison suffisante ? Les composantes
et hypothèses retenues pour faire de cet indicateur le reflet de lʼobjectif
poursuivi par une société ont en effet des fondements fragiles ou contestables
mis en évidence de longue date. Ainsi le PIB nʼest pas un indicateur de bien-
être mais dʼactivité. De plus, en tant quʼindicateur de flux, il ne fait pas la
distinction entre vraie création de richesses et diminution des stocks et des
capacités. Toutefois il entre en résonance immédiate avec les préoccupations
courantes de la plupart des gouvernants et des dirigeants dʼentreprise des
pays occidentaux, peu sensibles aux enjeux de long terme. Cela a pour effet
que lʼindicateur choisi mobilise des croyances réflexes, des préjugés et de
fausses intuitions.

4. Ce groupe dʼexperts a été constitué sous lʼégide de lʼOrganisation météorologique mondiale


et du Programme des Nations unies pour lʼenvironnement à la fin de 1988. Il implique plusieurs
centaines de chercheurs à travers le monde. Ses principaux rapports ont été remis en 1990, 1995 et
2001. Le quatrième sera publié en 2007. Voir les chapitres V et VI de cet ouvrage.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 211

Dans dʼautres cas, comme lorsque certains travaux économiques donnent à


voir des coûts négatifs5, les mêmes réflexes et fausses intuitions alimentent un
sentiment profond dʼincrédulité. Si le résultat faux du draft de mars 1992 nʼa
soulevé aucune objection manifeste de la part du public destinataire, cʼest
quʼil donnait une expression précise à une croyance commune, convention
partagée par un monde dʼexperts, de représentants dʼintérêts économiques et
de dirigeants formant une communauté de croyances.
Dans ce contexte, les modélisateurs devraient sʼinterdire de manier des
indicateurs aussi saturés dʼeffets de fascination et de croyance6, si du moins
leur but est de susciter la réflexion, quitte à ce que leurs résultats soient moins
immédiatement lisibles. Il y a certainement là une limite à mettre à la recherche
de la pertinence pratique et à la satisfaction la plus complaisante des demandes
directes que les décideurs font aux modélisateurs.

Un sens différent selon le contexte

Lʼépisode rapporté attire également lʼattention sur les différences de signi-


fication prise par un résultat donné selon que lʼon se trouve dans un contexte
scientifique ou dans un contexte dʼexpertise [Roqueplo, 1997]. Dans un
contexte scientifique, cʼest à juste titre que des économistes ne perçoivent
pas un changement de résultats provoqué par un changement dʼhypothèses ou
une modification des équations du modèle comme un échec portant atteinte à
leur crédit. Ces essais-erreurs concourent à lʼexploration scientifique normale
dʼun problème. Les problèmes commencent lorsque les résultats contingents
ainsi obtenus sont utilisés pour éclairer des choix de politique.
Lorsque les chercheurs se font experts, on attend dʼeux quʼils parlent
au nom de la réalité, et non pas selon le jeu de leurs hypothèses et de leurs
modèles. Les divers utilisateurs (responsables politiques, presse, lobbies, etc.)
tendent à se focaliser sur les résultats, pour les prendre ou pour les rejeter, en
délaissant leur dépendance vis-à-vis de toute la construction scientifique qui
leur donne sens. Des énoncés hypothétiques à valeur relative sont pris pour
des énoncés positifs de valeur absolue.
Ce changement de signification, les chercheurs qui se prêtent à lʼexpertise
devraient en être conscients. Cela impliquerait de leur part une réserve dans
la diffusion de leurs travaux tant que ces derniers nʼont pas encore été soumis

5. De tels coûts négatifs se présentent lorsque les actions de réduction des émissions de gaz
à effet de serre contribuent à dʼautres objectifs comme la réduction de la pollution locale ou la
pénétration de techniques éco-efficaces rentables dans les conditions économiques courantes mais
insuffisamment connues.
6. Par exemple, les modélisateurs pourraient être invités à utiliser lʼIDH (lʼindicateur du
développement humain) du Programme des Nations unies pour le développement ou dʼautres
indicateurs cherchant à cerner le caractère durable du développement.
212 LES MODÈLES DU FUTUR

à la discussion critique par des pairs. De plus, le recours à lʼexpertise devrait


éviter dʼêtre ponctuel et sʼinscrire dans un processus de dialogue en profondeur
mené entre les différentes équipes de modélisation, les experts de différentes
provenances et les différents usagers de ces travaux.

1996-1998 : LE GROUPE ÉNERGIE 2010-2020 EN FRANCE

Depuis trente ans, lʼambition de prévoir lʼavenir a laissé assez largement la


place à une approche plus ouverte qui est celle de scénarios construits à partir
dʼensembles cohérents dʼhypothèses agencées autour dʼune idée principale.
Les visages de lʼavenir possible sont devenus multiples, dans certaines limi-
tes. Cette évolution est a priori davantage en phase avec une reconnaissance
explicite de la liberté de chaque pays de sʼengager dans telle ou telle voie.
Ce nʼest pas une mince avancée intellectuelle. Elle ne sʼest pas faite sans
rencontrer des résistances qui, toutes, nʼont pas encore cédé aujourdʼhui,
comme cela va être montré à présent.
De façon régulière, dans les années 1980-1990, le gouvernement français
faisait réaliser des prévisions énergétiques pour le pays afin dʼasseoir ses pro-
pres choix, notamment pour lʼinvestissement. En 1996-1998, ce fut un groupe
présidé par Pierre Boisson qui le fit. De ce travail animé par une commission
plénière sʼappuyant sur les travaux de quatre ateliers spécialisés dʼexperts,
il est résulté un rapport de synthèse, Énergie 2010-2020. Les chemins d’une
croissance sobre [Commissariat général du Plan, 1998b].

La construction de trois scénarios énergétiques pour la France

Les réflexions et propositions du groupe Énergie 2010-2020 se sont


appuyées sur les travaux de quatre ateliers dʼexperts. Au nombre de ces
derniers, lʼatelier A27 a reçu le mandat dʼélaborer des bilans énergétiques
prospectifs pour la France aux horizons 2010 et 2020 [Commissariat général
du Plan, 1998a ; Godard, 1998]. Lʼavenir énergétique à lʼhorizon 2020 était
perçu comme assez incertain pour différentes raisons. On peut citer lʼimpré-
visibilité de la scène énergétique mondiale, les changements de lʼorganisation
économique du secteur énergétique, lʼamorce éventuelle du remplacement du
parc électronucléaire français, le devenir de la convention-cadre sur le climat8
adoptée dans le cadre des Nations unies en 1992, ou encore les transformations

7. Président de lʼatelier : François Moisan (ADEME) ; rapporteur général : Olivier Godard


(CNRS).
8. Au moment où les travaux ont été engagés, le protocole de Kyoto (décembre 1997) nʼavait
pas encore été adopté.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 213

envisageables dans le secteur des transports (progrès technique, modification


en profondeur de lʼaction publique et mutation des comportements).
Parmi les nouveaux facteurs affectant la scène énergétique française,
une place particulière revenait à la démultiplication des pôles dʼimpulsion
stratégique. Lʼaction gouvernementale nationale devait désormais trouver sa
place au sein dʼun ensemble plus large dʼactions et de décisions concourant à
transformer le paysage énergétique. Autorités communautaires européennes,
grands opérateurs publics et privés, collectivités locales étaient devenus des
acteurs à part entière dʼune politique énergétique. Ces éléments convergeaient
pour appeler les pouvoirs publics à exercer différemment leur rôle et à choisir
de nouvelles priorités.
Cette situation nouvelle devait trouver son expression dans les orientations
méthodologiques des travaux de lʼatelier A2 ; il convenait en particulier de
faire ressortir la dimension sociopolitique des choix techniques et économiques
que la France devait faire dʼici 2020.

L’approche : des scénarios incarnant


le devenir possible de la société française

Les responsables de lʼatelier ont voulu une méthode dʼexploration de


lʼavenir qui reconnaisse explicitement le caractère ouvert et incertain de ce
dernier. À leurs yeux, cela disqualifiait une approche reposant sur la seule
projection de tendances passées estimées par des méthodes économétriques.
De même, la méthode consistant à établir une unique projection de référence
assortie de différentes variantes sur des questions précises ne leur avait pas
semblé apporter lʼouverture suffisante. En 1996-1998, le sentiment prévalait
chez les experts que des changements importants allaient affecter la société
française et le monde autour dʼelle, pas seulement le secteur énergétique. Il
convenait donc de donner une représentation des perspectives énergétiques
du pays qui les inscrivent dans différentes évolutions économiques et sociales
possibles de la société française et de son contexte international.
Cʼest ainsi que fut adoptée lʼidée de construire trois scénarios de référence
se différenciant sur des hypothèses dʼévolution de la société française et de
lʼEurope. Ces scénarios plantaient différents contextes plausibles dʼici 2020 en
fonction desquels les différents acteurs de la scène énergétique, et parmi eux
les pouvoirs publics français, auraient à concevoir leurs stratégies. À ces évo-
lutions de société diverses correspondaient en particulier des changements du
regard porté sur le rôle de lʼÉtat, sʼagissant à la fois du contour de ses domaines
dʼintervention légitime et du choix des modalités de son action.
Les trois scénarios construits reposaient ainsi sur des hypothèses socio-
politiques contrastées. Le premier scénario, dénommé « société de marché »,
sʼorganisait autour dʼune réduction du niveau dʼintervention économique de
214 LES MODÈLES DU FUTUR

lʼÉtat et dʼune redéfinition de ses modes dʼaction allant dans le sens dʼune plus
large confiance dans les mécanismes régulateurs de marché. Il sʼaccompagnait
également de la contraction de lʼhorizon temporel des différents acteurs sous
lʼeffet des pressions et sanctions concurrentielles. Dans ce scénario lʼénergie,
y compris la production électrique, était un bien ordinaire laissé à la régulation
du marché. Le deuxième scénario, appelé « État industriel », correspondait au
retour dʼun État interventionniste dans le domaine économique et industriel au
nom dʼune identification des intérêts à long terme de la nation avec la force
et la compétitivité de son industrie. La conception des différentes politiques
publiques, par exemple les politiques dʼenvironnement (effet de serre), y
était systématiquement utilisée pour favoriser la compétitivité et lʼessor de
lʼindustrie française, dans les limites autorisées par les règles européennes
et celles de lʼOrganisation mondiale du commerce. Lʼénergie demeurait un
bien stratégique pour la souveraineté nationale, dérogeant de ce fait aux lois
ordinaires du marché. Le troisième scénario, désigné comme « État protec-
teur de lʼenvironnement », faisait prioritairement de lʼÉtat le gardien des
valeurs de protection de la santé de la population, de prévention des risques
technologiques et de préservation de lʼenvironnement aussi bien à lʼéchelle
locale que planétaire. Il laissait davantage aux entreprises, aux organisations
professionnelles et aux partenaires sociaux le soin de piloter les mutations
économiques compatibles avec le cadre fixé. En résumé, S1 était un scéna-
rio de plus grand laisser-faire des marchés, S2 un scénario dʼune politique
volontariste de lʼoffre, et S3 un scénario de maîtrise conjointe de lʼoffre et
de la demande pour les rendre compatibles avec les objectifs sociaux et envi-
ronnementaux du pays.
Ces trois scénarios ont été traduits sous la forme dʼhypothèses technico-
économiques9 de façon à être aussi plausibles, complets et cohérents les uns
que les autres. Aucun de ces scénarios nʼétait considéré comme tendanciel.
Aucun ne constituait le scénario de référence qui aurait renvoyé les autres au
statut de variantes.
La priorité ayant été donnée à lʼexploration des conséquences de trois
évolutions sociopolitiques, un jeu unique dʼhypothèses a été retenu concer-
nant la croissance économique (un taux annuel moyen de 2,3 % sur toute la
période), la croissance démographique et les prix internationaux de lʼénergie
(un pétrole à 24 dollars9510 le baril de 2005 à 2020). Le taux dʼactualisation
utilisé pour les choix dʼinvestissement énergétique et le calcul des coûts a été

9. Ces hypothèses technico-économiques ont été introduites dans deux cadres de modélisation
économique permettant de déterminer des équilibres offre/demande pour les divers secteurs productifs
et pour les différents marchés de lʼénergie. Lʼun était un modèle technico-économique du secteur
énergétique et lʼautre un modèle dʼéquilibre général calculable.
10. Ce chiffre de 95 en indice exprime le « millésime » de la valeur du dollar pris comme
référence : ici, des dollars de 1995.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 215

fixé à 8 % pour S2 et S3, et à 12 % pour S1. Cette approche contrastait avec


les exercices antérieurs qui proposaient des scénarios ne se différenciant que
par la combinaison taux de croissance/prix de lʼénergie.

Nucléaire ou gaz ?

Du côté de lʼoffre, lʼune des variables de changement les plus spectaculaires


selon les scénarios était le parc de production électrique, dans le cas où les cen-
trales nucléaires devraient être déclassées après trente ans de service. Dans ce
cas, le renouvellement du parc devait commencer à être engagé à partir de 2007.
Cependant, lʼexpertise technique alors disponible considérait quʼune extension à
40 ans était envisageable sans affecter la sûreté nucléaire. Avec cette extension, le
problème du renouvellement du parc nucléaire français ne devait alors quʼeffleu-
rer la fin de la période considérée, lʼessentiel du renouvellement du parc devant
intervenir postérieurement à 2020. Chaque scénario a donc été décliné selon
deux variantes : 30 ans et 40 ans de durée de vie des centrales nucléaires.
Deux facteurs sont apparus décisifs : le niveau de la demande et le fait
quʼavec un taux dʼactualisation de 12 %, tel quʼutilisé dans S1, le gaz devenait
plus rentable que le nucléaire : dans ce scénario, le remplacement des centrales
nucléaires déclassées devait en conséquence se faire avec des turbines à gaz
à cycle combiné.
Si en 2010 le nucléaire devait fournir environ 74 % des besoins dʼélectricité
quel que soit le scénario, cette contribution devait relativement sʼabaisser dʼici
2020 pour se situer dans une fourchette de 61 à 69 % pour une durée de vie des
centrales de 40 ans. Pour une durée de vie de 30 ans, la situation du parc électri-
que devait se modifier plus rapidement et de façon plus forte. En 2020, 85 % du
parc nucléaire existant devait être déclassé et remplacé, selon les scénarios, par
de nouveaux équipements nucléaires ou par des cycles combinés à gaz. Si, dans
S2, le nucléaire devait continuer à se tailler la part du lion, dans S1 la totalité
des besoins de base et semi-base devaient être couverts par des cycles combinés
à gaz. Enfin, dans S3, les nouveaux moyens de base devaient encore faire appel
au nucléaire11, mais la capacité nécessaire devait être inférieure de 50 % à celle
de S2. Au total, en 2020, la contribution du nucléaire au bilan électrique devait
sʼélever à 68 % dans S2, à 60 % dans S3, mais seulement à 13 % dans S1.

De la croissance… pour les émissions de CO2

Du point de vue de lʼémission de gaz à effet de serre, les trois scénarios


étudiés définissaient des contextes très contrastés, même si les différences

11. On notera donc que S3, le scénario « environnement », nʼétait pas du tout un scénario de
sortie ou de gel du nucléaire.
216 LES MODÈLES DU FUTUR

les plus importantes ne devaient pas se manifester à lʼhorizon 2010, celui du


protocole de Kyoto, mais à lʼhorizon 2020. Dans S1, les émissions de CO2
devaient sʼaccroître dans une proportion comprise entre 54 et 73 % de 1990
à 2020 selon les variantes, loin de toute idée de stabilisation au niveau de
1990. Dans S2, elles devaient moins augmenter mais ne se stabilisaient pas :
lʼaccroissement des émissions totales dʼorigine énergétique étaient dʼenviron
26 % dans les deux variantes. Seul le scénario S3 parvenait à se rapprocher,
sans lʼatteindre, dʼune stabilisation des émissions de CO2 dʼorigine énergétique
au niveau de 1990. Un chiffre retenait particulièrement lʼattention : selon que
les centrales nucléaires en déclassement étaient remplacées par des turbines à
gaz ou par dʼautres centrales nucléaires, les émissions de CO2 sʼaccroissaient
de 30 MtC, soit environ 30 % des émissions liées à lʼénergie de 1990, année
de référence de la convention Climat et du protocole de Kyoto !
Quel que soit le scénario, les transports devaient représenter, selon les
scénarios et les variantes, autour de 46 % des émissions totales, directes et
indirectes, de CO2 dʼorigine énergétique du pays en 2020 pour la variante
V40, et entre 38 et 47 % pour la variante V30.
Le diagnostic était ainsi posé : du point de vue dʼune politique de lʼeffet de
serre, les responsables politiques et économiques français avaient trois défis
principaux à relever. Le premier concernait le renouvellement du parc électri-
que, entre nucléaire et gaz. Le deuxième était la maîtrise des consommations
du secteur habitat-tertiaire, avec en particulier lʼenjeu de la réhabilitation
thermique du parc immobilier ancien. Le troisième était lʼinfléchissement
nécessaire de la croissance des transports recourant aux carburants fossiles
et celui du déploiement territorial des activités. La maîtrise des émissions de
CO2 pour la période 2000-2020 nʼallait pas pouvoir être acquise au « fil de
lʼeau » sans dispositifs nouveaux ni changements dans la nature et lʼintensité
des politiques menées jusquʼalors.
Lʼaffaire était jugée dʼautant moins simple que les transformations sociopo-
litiques favorables à une maîtrise des consommations énergétiques (S3) étaient
aussi celles qui devaient rendre politiquement moins aisé le remplacement des
centrales nucléaires existantes par de nouvelles centrales nucléaires. Les combi-
naisons crédibles entre hypothèses techniques et hypothèses sociopolitiques ne
conduisaient donc pas à dégager une perspective forte dans laquelle la France
pourrait réduire de façon importante ses émissions de CO2 à lʼhorizon 2020.

L’accueil réservé aux scénarios par les experts et les gestionnaires

Sur le fond, que la France, sous lʼemprise dʼun vent libéral, puisse préférer
se détourner du nucléaire pour le gaz était une perspective nouvelle venant dʼun
rapport officiel préparé au sein de la sphère publique ! Elle a suscité quelques
levées de boucliers dans lʼadministration et chez les partisans du nucléaire.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 217

Concernant lʼapproche retenue pour élaborer les scénarios, je retiendrai


trois réactions suscitées par leur diffusion. La première met en jeu des prati-
ciens des modèles, la deuxième une administration ministérielle, la troisième
une ministre du gouvernement de lʼépoque.
Lors dʼune présentation des scénarios dʼÉnergie 2010-2020 devant un
groupe dʼexperts émanant du Conseil dʼanalyse économique12, cʼest le scep-
ticisme qui fut exprimé par plusieurs collègues goûtant peu la novation
méthodologique apportée. Cela ne correspondait pas, à leurs yeux, à lʼétat
de lʼart et conduisait à des résultats manquant de lisibilité. Il aurait fallu sʼen
tenir à la solution robuste consistant à construire une projection centrale
déterminée par les hypothèses de croissance et de prix, puis à étudier à la
marge différentes variantes permettant dʼétudier certains points de façon
plus précise ! Lʼapproche retenue, poursuivaient-ils, avait obligé les experts
de lʼatelier à introduire de nombreuses hypothèses ad hoc ou discutables sur
les changements sociaux dʼensemble au lieu de se caler sur une connaissance
scientifiquement éprouvée des données énergétiques et des relations quʼelles
entretiennent avec les grands déterminants économiques. Elle ne permettait pas
non plus dʼévaluer clairement des politiques alternatives – qui auraient dû être
testées sous forme de variantes –, puisque les principales différences prises en
compte portaient sur des variables de société et non sur des variables dʼaction
sous contrôle des autorités publiques. Cʼétait donc lʼutilité de la démarche
adoptée qui était également contestée. Il en résultait, au total, quʼouvrir les
représentations de lʼavenir énergétique en considérant les transformations
économiques et sociales possibles nʼétait méthodologiquement pas bienvenu.
Cela portait atteinte à la fois au caractère scientifique de lʼexercice et à son
utilisation pratique par des décideurs gouvernementaux.
Cette ligne de critique fut implicitement confirmée par la manière dont
les administrations en charge du dossier de lʼeffet de serre se sont saisies des
résultats. Constatant que seul le scénario S3 permettait approximativement
à la France de stabiliser ses émissions de CO2 dʼorigine énergétique sur son
territoire, ces administrations ont « décidé » dʼadopter ce scénario comme
référence pour concevoir le premier Plan-climat du pays.
Sʼil pouvait se comprendre dʼun point de vue quantitatif, un tel choix
contrevenait frontalement à la conception qui avait présidé à la construction
des trois scénarios de lʼexercice Énergie 2010-2020. Ces derniers ne formaient
pas un menu offert aux responsables gouvernementaux : les évolutions globales
possibles de la société à partir desquelles les scénarios étaient construits ne
dépendaient que de façon partielle des choix de politiques des gouvernements
et bien davantage des comportements et attitudes dʼun grand nombre dʼacteurs
sociaux. Il aurait fallu que les pouvoirs publics recherchent des politiques

12. Placé auprès du Premier ministre, ce conseil a été créé par Lionel Jospin en 1997.
218 LES MODÈLES DU FUTUR

énergétiques suffisamment robustes pour sauvegarder lʼessentiel de leur


validité quelles que soient les évolutions effectives de la société. Lʼapproche
pluraliste de lʼavenir de la société que les scénarios exprimaient supposait
que le pouvoir de construire lʼavenir était distribué dans la société, sans
être le monopole du gouvernement. Cʼest pourtant à la représentation dʼun
gouvernement maître de la société comme dʼun engin à laquelle les acteurs
de lʼadministration ont alors manifesté leur attachement. Une modélisation
déterministe présentant un avenir tendanciel unique, mais construit autour de
variables de pilotage gouvernemental sʼajustait bien mieux à leur représenta-
tion politique dualiste du couple « engin-pilote » !
De façon paradoxale, le fait de travailler avec des représentations multi-
ples de lʼavenir nʼa fait ainsi lʼaffaire ni des décideurs ni des praticiens de la
modélisation. Il y a là matière à sʼinterroger sur le rapport quʼentretient lʼart
de gouverner avec la liberté collective.

Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas

Durant lʼautomne 1998, la décision de principe du gouvernement allemand


de sortir son pays du nucléaire a relancé le débat en France. Mme Voynet, chef de
file des Verts et ministre de lʼAménagement du territoire et de lʼEnvironnement,
a alors estimé que la France avait, elle aussi, à envisager la perspective dʼun
retrait du nucléaire pour la production électrique. Dans une interview au jour-
nal Libération du 23 octobre 1998, la ministre affirmait : « Un rapport récent
du Commissariat général du plan montre quʼil existe des voies permettant de
concilier la diversification énergétique, la sortie du nucléaire et le respect de
nos engagements en matière de lutte contre lʼeffet de serre. »
Par « respect des engagements en matière de lutte contre lʼeffet de serre »,
elle signifiait la stabilisation des émissions provenant du territoire français, en
écartant le recours aux possibilités dʼéchange international des quotas prévues
par le protocole de Kyoto. Elle sʼétait élevée à plusieurs reprises contre ces
mécanismes dʼéchange. Dʼailleurs, en vue de la Conférence des Parties à la
convention Climat qui devait se tenir à Buenos Aires deux semaines plus tard,
la France avait rejoint lʼAllemagne et lʼAutriche pour réaffirmer la nécessité
dʼimposer des plafonds stricts sur ce type dʼéchanges, de façon à contraindre
chaque État à réaliser sur son territoire lʼessentiel des réductions dʼémission
que lui imposaient les quotas acceptés à Kyoto13.

13. La proposition soumise pendant lʼété 1998 par la présidence autrichienne du Conseil des
ministres européen aboutissait à un potentiel maximal dʼéchanges pour chaque pays dʼenviron 2,5 %
de ses émissions de 1990. En novembre 2000, à la conférence de La Haye, les Européens se sont
encore présentés en exigeant la fixation de plafonds stricts sur les échanges, ne renonçant à cette
exigence quʼaux tout derniers moments de la négociation.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 219

Cette intervention publique mobilisant la légitimité de lʼexpertise du


Commissariat général du Plan à lʼappui dʼune thèse et dʼun programme
politique illustre lʼambiguïté des rapports entre lʼexpertise et le décideur
politique14. Dʼune façon générale les décideurs recherchent le concours des
experts soit pour éclairer ex ante, soit pour légitimer ex post leurs prises de
position ou leurs décisions. Il leur arrive parfois de ne pas souhaiter que les
experts présentent de façon trop nette les contraintes imposées par la réalité
et rendent visibles les contradictions de leur propre discours.
La ministre avait formellement raison grâce à une pirouette : les engage-
ments de Kyoto arrivaient à échéance en 2012 et personne ne proposait que
la France soit sortie du nucléaire à cet horizon. Sur le fond, sa déclaration
sʼopposait frontalement aux conclusions des travaux du groupe Énergie 2010-
2020. Si, conformément aux exigences dʼune démocratisation des choix
technologiques majeurs, la France entendait préserver la possibilité de choisir,
le moment venu – vers 2020 –, un mode différent de production électrique,
symbolisé par la fameuse « sortie du nucléaire », elle ne pouvait pas éviter
de choisir entre les deux options suivantes15 :
— œuvrer pour que les « instruments de flexibilité » prévus à Kyoto
(lʼéchange international de quotas) continuent de prévaloir de façon ample
comme composante centrale de lʼaction internationale dans la période post-
Kyoto, et donc renoncer aux idées de restriction forte des échanges interna-
tionaux de quotas ;
— se retirer de la convention Climat ou, plus subtilement, contribuer
activement à faire échouer les négociations sur le régime qui doit prendre le
relais du protocole de Kyoto après 2012.
Lʼexercice Énergie 2010-2020 était porteur dʼun message clair : dans un
régime de type Kyoto, la récupération dʼune liberté de choix des Français
sur les filières de production dʼélectricité avait pour condition absolue la
possibilité juridique dʼacquérir des quotas de CO2 sur le marché internatio-
nal pour des montants pouvant atteindre plusieurs dizaines de pour-cent des
émissions de 1990. Il était étrange dʼobserver que, du fait de son hostilité
idéologique au marché, la ministre chef de file des Verts soutenait une position
internationale qui, lʼemportant, aurait condamné la France à ne pas pouvoir
sortir du nucléaire au moment où elle en aurait eu la possibilité technique.

14. Dʼoù lʼimportance des enjeux attachés, dʼun côté, à la définition conjointe par les décideurs et
par les experts dʼun cadrage précis des questions posées aux experts et, de lʼautre côté, à la publicité
des travaux des experts, y compris des avis minoritaires. Sur ces points, voir Godard [2003].
15. Une troisième option aurait été de miser sur la bonne volonté des autres États en supposant
quʼils accorderaient à la France le surcroît de quotas supplémentaires nécessaires (30 %) au moment
de négocier les objectifs à lʼhorizon 2020, alors quʼeux-mêmes devraient consentir des réductions
significatives. Peu crédible, cette dernière option aurait de toute façon placé la liberté de choix des
Français sous la tutelle des autres pays.
220 LES MODÈLES DU FUTUR

Il était troublant de constater quʼune expertise qui avait cherché à mettre en


évidence les problèmes de choix et à révéler les tensions entre objectifs était
présentée par le politique devant lʼopinion publique comme la justification
dʼune position opposée.

LA REPRÉSENTATION DE LʼAVENIR LOINTAIN

Nous nous sommes intéressés jusquʼà présent à des travaux de modéli-


sation portant sur un horizon dʼune vingtaine dʼannées. Franchissons cette
limite, portons le regard sur le traitement du temps long intergénérationnel et
soulevons quelques points dʼinterrogation.

L’utilitarisme et le sacrifice des droits

La plupart des économistes qui contribuent aux recherches sur le change-


ment climatique abordent les effets à long terme du changement climatique ou
ceux des politiques de prévention et dʼadaptation en utilisant les catégories de
coût et de bénéfice et en recourant à des fonctions agrégées dʼutilité collective.
Ils supposent ainsi que le but poursuivi est de maximiser le niveau de cette
utilité à travers le temps. Ils appliquent ces catégories à des entités politico-
territoriales qui sont soit des pays, soit des entités régionales présentant une
certaine unité politique, comme lʼUnion européenne, lʼAmérique du Nord,
la Chine, lʼInde.
Ce faisant, une continuité est formellement établie entre la manière de
représenter les effets sur le bien-être des générations présentes et celle qui
concerne des hommes qui vivront peut-être à différents horizons temporels,
mais qui nʼexistent pas présentement (générations futures). Cette façon de faire
est facilitée par le cadre normatif de lʼutilitarisme qui identifie une substance,
lʼutilité ou le bien-être, en la détachant des hommes qui en sont en quelque
sorte les dépositaires.
On a reproché à bon droit à lʼutilitarisme dʼêtre une éthique du sacrifice
[Rawls, 1987 ; Dupuy, 1992] en étant indifférent aux droits en tant que tels :
le bien-être de tous vaut bien le sacrifice de quelques-uns. Une forme atténuée
de cette idée sous-tend le critère standard de lʼanalyse coûts-avantages [Pearce
et alii, 2006] quʼest le critère de compensation potentielle de Hicks-Kaldor :
une décision est bonne si les avantages lʼemportent sur les coûts, car il serait
possible aux bénéficiaires des avantages de verser des compensations à ceux
qui supportent surtout les coûts, tout en restant bénéficiaires. Ce critère nʼoblige
pas au sacrifice, mais il nʼélève aucune barrière conceptuelle et méthodologi-
que à son règne. Toute approche reconnaissant la primauté du juste sur le bien
[Forsé et Parodi, 2004] ne saurait se satisfaire de tels exercices économiques
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 221

sur le bilan intertemporel des coûts et des avantages comme manière de définir
lʼaction qui convient.
Cependant, tant lʼutilitarisme que les critiques qui lui sont adressées au
nom de lʼéquité et dʼune théorie des droits rencontrent des problèmes redou-
tables lorsquʼil sʼagit dʼaborder les relations avec les générations futures
éloignées. Jʼen retiendrai trois : celui du postulat de permanence, à travers le
temps historique, des entités politiques pertinentes (les États…) ; celui de la
non-existence des générations futures ; celui de leur non-identité.

Entretenir la croyance dans la permanence des identités collectives

Tout travail de prospective à long terme propose un cadrage sur lʼorga-


nisation du monde dans un avenir lointain. La façon de le faire ne saurait
être innocente. Constatons que la projection à long terme des découpages
politiques actuels en États-nations (la France, lʼAllemagne, les États-Unis,
etc.) est une pratique courante. Elle est contestable et arbitraire en ce quʼelle
postule une permanence à travers le temps, soit de formes politiques historiques
– les États-nations – soit dʼun découpage territorial particulier. Un regard sur
le XXe siècle passé a certes montré des stabilités politiques, mais également
des bouleversements significatifs, par exemple lʼeffondrement des empires
coloniaux, lʼéclatement de lʼURSS et la réunification de lʼAllemagne, sans
parler de la formation de lʼUnion européenne.
Passé la durée du demi-siècle, le postulat de stabilité politique prend une
signification latente : celle de donner aux identités politiques actuelles un
semblant dʼéternité. Le message subliminal est donc de donner à croire quʼen
dépit des dangers, menaces et transformations de toutes sortes, rien ne changera
fondamentalement dans le cadre actuel dʼorganisation politique des sociétés :
les Français peuvent compter sur une France éternelle…
Lorsquʼelle prend cette forme, la prospective à long terme sert-elle la
réflexion ? En confortant lʼidée de permanence des États, ne réaffirme-t-elle
pas lʼintangibilité et la primauté du principe de leur souveraineté ? Or on est
fondé à voir dans ce principe lʼobstacle principal au développement de lʼaction
collective de lʼhumanité et à lʼémergence de nouvelles formes de régulation
planétaire. De même que la prescription efface du système juridique actif la
plupart des crimes et délits commis entre contemporains, il y aurait lieu, par
pédagogie éthique et pour éduquer lʼimagination, dʼeffacer progressivement
de la représentation des enjeux à long terme tout ce qui perpétue lʼorganisation
politique actuelle du monde, avec les identifications et les oppositions identi-
taires entre « eux » et « nous » qui vont avec. Pour ces échéances lointaines, la
priorité serait dʼapprendre aux générations présentes à sʼidentifier aux intérêts
de lʼhumanité en général.
222 LES MODÈLES DU FUTUR

Cette proposition semble aller paradoxalement dans le sens de lʼabstraction


utilitariste, indifférente aux identités particulières et aux droits des personnes.
Il nʼy a là rien de mécanique puisque, sur ce chemin de la décentration vis-
à-vis des identités politiques particulières, on trouve aussi le Hans Jonas du
Principe responsabilité [1990] qui fait de lʼidée dʼhumanité le centre de sa
réflexion éthique.

Le problème de la non-existence des générations éloignées

Les générations éloignées nʼexistent pas, cʼest une lapalissade. Pourtant


ce constat soulève des difficultés considérables pour tout raisonnement accor-
dant à lʼidée de droits un statut éthique premier, supérieur à celui reconnu à
la recherche du bien-être. Comment les générations futures pourraient-elles,
en tant que telles, avoir des droits ? La justice a pour objet lʼinstitution de
droits dévolus à des personnes et pour aboutissement pratique des procédures
impartiales dʼarbitrage entre des revendications conflictuelles formulées par
les titulaires de tels droits. Or plusieurs auteurs ont fait remarquer que, nʼayant
pas encore dʼexistence, les générations futures éloignées ne sauraient avoir
de droits [Beckerman et Pasek, 2001] : lʼexistence est une précondition de la
faculté dʼune personne de se voir reconnaître des droits. Il suffit de remplacer
le terme « droits » par « obligations » pour sʼen convaincre. Dira-t-on sans
sourciller que les générations futures ont, en tant que telles, des obligations
envers les générations actuelles ?
Certes, le système juridique sait distinguer entre lʼattribution de la person-
nalité juridique et la reconnaissance du statut de sujet de droit. Par exemple,
les enfants à naître ou les mineurs ont la personnalité juridique, mais ne
sont pas en état de faire valoir leurs droits par eux-mêmes. Sʼagissant des
générations futures, lʼincapacité de faire valoir ses droits par soi-même nʼest
donc pas un obstacle insurmontable. La difficulté est autre : lʼattribut dʼun
être présuppose logiquement lʼexistence de cet être. Faute dʼexister… Les
personnes qui viendront au monde à une date future disposeront alors de
droits, mais ces droits ne pourront jamais sʼexercer que vis-à-vis de leurs
contemporains, ceux avec lesquels elles auront à nouer des coopérations et à
surmonter des désaccords.
Cʼest ainsi la pertinence des supputations sur le droit au bien-être des
générations éloignées qui est ici mise en cause par cette ligne dʼargumentation.
Lʼutilitarisme nʼa pas cette difficulté à affronter [Birnbacher, 1994].

Le problème de la non-identité

Abordons à présent le problème de la non-identité soulevé initialement


par Thomas Schwartz [1978] et Derek Parfit [1984]. Il se présente lorsque
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 223

lʼidée de justice est construite à partir des plaintes ou reproches que pourraient
formuler, si elles en avaient la possibilité, les personnes futures à lʼencontre
des générations présentes. La question posée est la suivante : comment des
personnes vivant dans un avenir lointain pourraient-elles être en position de
reprocher quoi que ce soit aux générations antérieures quant à lʼétat du monde
reçu en héritage ? Admettons que cela soit possible et que ce reproche putatif
soit anticipé par les générations antérieures. Admettons que, soucieuses de
justice, ces dernières changent leurs comportements en conséquence. Cʼest
alors toute lʼhorlogerie des relations de procréation qui se trouverait éga-
lement modifiée. Les personnes hypothétiques futures qui auraient adressé
des reproches à leurs ancêtres ne seraient jamais venues à lʼexistence et les
reproches nʼauraient pas pu être formulés. Dʼautres personnes seraient nées
à la suite dʼautres choix des générations antérieures. La théorie du reproche
est frappée dʼincohérence logique. Un double lien doit être élucidé : le lien
entre dommage et droit, et entre dommage et identité.
Remarquons que la notion de dommage est elle-même dépendante de celle
de droits, comme lʼavait montré Ronald Coase [1960] : tant que les droits
respectifs nʼont pas été définis par une institution, il est impossible de qualifier
une situation en termes de dommages occasionnés par lʼun et subis par lʼautre,
sauf à recourir à lʼidée hasardeuse dʼun droit naturel hors de lʼhistoire et de
lʼinstitution. Or lʼusage, pour les générations futures, de lʼidée de droits est
problématique, cela a été montré plus haut. On ne saurait, par exemple, faire
état du droit à la vie des générations futures.
Ensuite, comme Axel Gosseries [2004] lʼa démontré à propos de lʼaffaire
Perruche en France, lʼidée de dommages subis par une personne devient
impropre lorsque lʼattribut quʼon serait tenté de qualifier ainsi est insépa-
rable de lʼidentité des personnes concernées. Les personnes souffrant dʼun
handicap congénital ne peuvent pas faire reproche à leurs parents de leur
avoir occasionné un dommage. En effet, si les parents avaient pris certaines
dispositions pour éviter la naissance dʼun enfant handicapé, les personnes
nées sans ce handicap auraient été des personnes différentes de celles qui sont
handicapées. Lʼexpression « mettre au monde » signifie bien cette solidarité
la plus intime entre les humains et le monde qui leur est donné et qui résulte
de toute une histoire à la fois naturelle et humaine. Quel que soit lʼétat du
monde transmis, lʼidentité des personnes futures qui habiteront ce monde-là
nʼen est pas détachable.
En conséquence, si lʼon assoit lʼidée de justice sur celle de légitime repro-
che, il nʼest pas valide de spéculer sur les bénéfices et les dommages que pour-
raient retirer les générations futures de telle ou telle évolution qui résulterait
des décisions de leurs ancêtres. En effet, pour entrer dans la comptabilité des
dommages et des avantages attribuables aux actions des générations antérieu-
res, lʼanalyse devrait se rapporter à des personnes futures à lʼidentité définie
224 LES MODÈLES DU FUTUR

et invariante dans le cadre de comparaison retenu. Seule la situation de ces


personnes devrait pouvoir être affectée, dans des proportions variables, par
les actions incriminées16. En réalité, choisir un profil intertemporel différent
de coûts et dʼavantages, cʼest également choisir de faire advenir au monde
dʼautres personnes. La comparaison ne tient plus.
Récapitulons. Des personnes sans existence ne sauraient subir de domma-
ges puisque la notion de droits ne leur est pas applicable. Une fois venues à
lʼexistence, la condition dans laquelle certaines personnes se trouvent placées
peut certes être caractérisée en termes de handicap par rapport à la condition
moyenne de leurs contemporains, mais pas de dommages imputables aux
générations antérieures, puisquʼil nʼexiste aucun sens dans lequel les généra-
tions postérieures vivantes auraient des droits sur les générations antérieures
qui ne seraient déjà plus de leur monde.
Nous voilà avec deux voies bouchées : celle qui envisage les bénéfices
et les dommages affectant les générations éloignées ; celle qui envisage de
reconnaître des droits à ces générations futures. Trois voies de solution à
explorer demeurent néanmoins. La première consisterait à élaborer un concept
de justice coupé de toute idée de reproche formulé par des personnes victimes
dʼune injustice, ce qui est à première vue assez problématique. La deuxième
est celle de la recherche dʼune dépersonnalisation des termes du jugement.
Lʼutilitarisme nʼest pas la seule pensée à le faire. La réflexion proposée par
Hans Jonas, préoccupée par la survie de lʼhumanité et par celle de lʼhumain
dans lʼhumanité, en est une autre, qui récuse les calculs de coûts et dʼavantages
mâtinés de probabilités. Le mal suprême étant, aux yeux de Jonas, la fin de
lʼhumanité, lʼimpératif kantien est reformulé par lui en ces termes : « Agis de
façon que les effets de ton action ne soient pas destructeurs pour la possibilité
future dʼune telle vie » [Jonas, 1990, p. 30-31]. Sans adhérer aux maximes
dʼaction que Jonas en tire, frappées de contradiction interne [Godard et alii,
2002], retenons lʼidée dʼexplorer une modélisation prospective dégagée des
calculs de bénéfices et de dommages, mais considérant les dangers et risques
dʼatteinte fondamentale à lʼhumanité.
Une troisième piste ouverte à lʼexploration future sʼappuie sur les diffé-
rentes formes de promesses que les générations présentes veulent faire aux
générations futures. Il nʼest plus question ici de droits des générations futures,
mais de désir des vivants de transmettre à ceux qui les suivront tout ou partie
de la richesse patrimoniale dont ils ont hérité et usé, augmentée de ce quʼils
jugent être leur contribution à lʼexpérience humaine, celle en laquelle ils
souhaitent être reconnus.

16. Dans les modèles, cela se traduit par le fait que la fonction dʼutilité collective prise en compte
reste la même dans les différents cas de figure examinés.
POUR UNE MORALE DE LA MODÉLISATION ÉCONOMIQUE… 225

Du point de vue de la modélisation, cette troisième approche sʼexprime-


rait à travers une approche séquentielle des choix intertemporels [Hourcade,
1997]. Lʼétude des choix possibles combinerait alors deux éléments. Dʼun
côté, lʼhorizon du calcul et de lʼoptimisation se limiterait au monde qui est
bien connu et appréhendé empiriquement par ceux qui sont en position de faire
des choix pour la collectivité. De lʼautre côté, lʼexercice serait encadré par une
attention soutenue portée aux conditions terminales léguées aux générations
suivantes, sans vouloir préjuger de ce que seront les meilleurs choix pour
ces dernières. Pour paraphraser une formule célèbre du Rapport Brundtland
[Commission mondiale sur lʼenvironnement et le développement, 1988], il
sʼagit pour les vivants dʼaujourdʼhui de préserver les capacités de vie humaine
des générations futures et dʼétablir indirectement un lien avec elles en leur
léguant les biens constituant le patrimoine de lʼhumanité, progressivement
enrichi des apports des générations successives. Pour les choix touchant un
avenir lointain, lʼaccent doit être mis sur une modélisation de la transmission
intergénérationnelle des patrimoines.

RÉFÉRENCES BIBLIOGRAPHIQUES

ARCHER D. E. (2005), « The fate of fossil fuel CO2 in geological time », Journal of Geophysical
Research, vol. 110, septembre.
BECKERMAN W. et PASEK J. (2001), Justice, Posterity and the Environment, Oxford University
Press, Oxford.
BIRNBACHER D. (1994), La Responsabilité envers les générations futures, PUF, « Philosophie
morale », Paris.
COASE R. H. (1960), « The problem of social cost », Journal of Law and Economics, vol. 3,
octobre, p. 1-44.
COMMISSARIAT GÉNÉRAL DU PLAN (1998a), Énergie 2010-2020 – Rapport de l’atelier « Trois
scénarios énergétiques pour la France », Paris, septembre.
– (1998b), Énergie 2010-2020. Les chemins d’une croissance sobre, rapport du groupe présidé
par Pierre Boisson, La Documentation française, Paris.
COMMISSION MONDIALE SUR LʼENVIRONNEMENT ET LE DÉVELOPPEMENT (1988), Notre avenir à tous,
Éditions du Fleuve, Montréal.
DUPUY J.-P. (1992), Le Sacrifice et l’envie. Le libéralisme aux prises avec la justice sociale,
Calmann-Lévy, Paris.
– (2000), « Philosophical foundations of a new concept of equilibrium in the social sciences :
projected equilibrium », Philosophical Studies, vol. 100, n° 3, p. 323-345.
– (2002), Pour un catastrophisme éclairé. Quand l’impossible est certain, Le Seuil, Paris.
FORSÉ M. et PARODI M. (2004), La Priorité du juste. Éléments pour une sociologie des choix
moraux, PUF, « Sociologies », Paris.
GODARD O. (1998), « Annexe 1. Les scénarios énergétiques de la France 2010-2020 », dans
COMMISSARIAT GÉNÉRAL DU PLAN, Énergie 2010-2020. Les chemins d’une croissance
sobre, rapport du groupe présidé par Pierre Boisson, La Documentation française, Paris,
p. 317-404.
226 LES MODÈLES DU FUTUR

– (2001), « Lʼexpertise économique du changement climatique planétaire – 1. Modèles


dʼorganisation de lʼexpertise. – 2. Sur la scène internationale, le GIEC. – 3. Sur la
scène française, autour du Commissariat général du Plan », Annales des Mines, série
« Responsabilité et environnement », n° 21, p. 23-65.
– (2003), « Comment organiser lʼexpertise scientifique sous lʼégide du principe de
précaution ? », Revue de l’électricité et de l’électronique, n° 11, p. 38-47.
GODARD O., HENRY C., LAGADEC P. et MICHEL-KERJAN E. (2002), Traité des nouveaux risques.
Précaution, crise, assurance, Gallimard, « Folio-Actuel », Paris.
GOSSERIES A. (2004), Penser la justice entre les générations : de l’affaire Perruche à la réforme
des retraites, Aubier, « Alto », Paris.
HOURCADE J.-C. (1997), « Précaution et approche séquentielle de la décision face aux risques
climatiques de lʼeffet de serre », dans GODARD O. (dir.), Le Principe de précaution
dans la conduite des affaires humaines, Éditions de la MSH et INRA-Éditions, Paris,
p. 259-294.
JONAS H. (1990), Le Principe responsabilité. Une éthique pour la civilisation technologique,
Le Cerf, Paris.
MANNE A. et RICHELS R. (1992), « The E. C. proposal for combining carbon and energy
taxes – the implications for future CO2 emissions », draft, EPRI et Stanford University,
24 février.
– (1993), « The E. C. proposal for combining carbon and energy taxes – the implications for
future CO2 emissions », Energy Policy, janvier, p. 5-12.
PARFIT D. (1984), Reasons and Persons, Clarendon Press, Oxford.
PEARCE D., ATKINSON G. et MOURATO S. (2006), Cost-Benefit Analysis and the Environment
– Recent Developments, publications de lʼOCDE, Paris.
RAWLS J. (1987), Théorie de la justice, Le Seuil, « Empreintes », Paris.
ROQUEPLO P. (1997), Entre savoir et décision, l’expertise scientifique, INRA-Éditions,
« Sciences en questions », Paris.
SCHWARTZ T. (1978), « Obligations to posterity », dans SIKORA R. I. et BARRY B. (dir.),
Obligations to Future Generations, Temple University Press, Philadelphie, p. 3-13.
LES COULOIRS DE LA PERSUASION 227

10

Les couloirs de la persuasion. Usages de la communication,


tissu associatif et lobbies du changement climatique

Emmanuel Paris

Les moyens de communication sont devenus à lʼère électronique par-


ticulièrement nombreux, puissants et disponibles. Une telle abondance de
capteurs et de diffuseurs dʼinformation, et avec eux dʼusagers – enquêteurs,
interprétants –, réunit les conditions matérielles et intellectuelles pour à la
fois encadrer et déborder les visions du futur. Nous proposons dans ce texte
dʼanalyser la communication du futur en termes de « cadrages interprétatifs »,
de concurrence des visions entre des récits à visée consensuelle principalement
diffusés par les médias et des analyses critiques formulées à leur propos en
divers endroits de la société [Miller, 2000].
La médiatisation du changement climatique et du développement durable
constitue notre objet dʼétude pour trois raisons. Dʼabord, ces deux phénomènes
présentent la caractéristique commune de faire venir à eux toutes sortes de
projections dans lʼavenir – du droit de chacun à prétendre à une qualité de vie
à la fraternité entre les peuples, en passant par lʼinstauration dʼune relation
harmonieuse entre lʼhumanité et la nature [Watson et alii, 2001]. Deuxième
raison : la communication médiatique, entendue comme la distribution dʼune
même information à un nombre étendu de personnes, offre lʼavantage de mon-
trer qui dit quoi à qui, avec quels effets, à des niveaux dépassant dʼemblée la
relation dʼindividu à individu [Wolton, 1998]. La médiatisation, parce quʼelle
informe massivement, semble être le lien social le plus approprié pour traiter
de thèmes immenses tels le réchauffement climatique et le changement géné-
ralisé de mode de vie. Troisième et dernière raison : changement climatique et
développement durable apparaissent indissociables dans lʼespace médiatique
français, et cette spécificité est suffisamment remarquable pour que nous
essayions de comprendre un tel entrelacement.
Le titre de ce chapitre, « Les couloirs de la persuasion », constitue une
métaphore commode pour traiter ces différents points. Cadres de perception
médiatique, lieux de négociation, configuration de parcours dʼexposition,
228 LES MODÈLES DU FUTUR

ces couloirs seront en quelque sorte notre fil directeur : une fois spécifiés les
liens entre changement climatique et développement durable dans lʼespace
médiatique français, nous analyserons la façon dont les médias produisent
une représentation principalement menaçante du changement climatique et
rassurante du développement durable ; nous examinerons ensuite les lobbies
et les associations comme lieux de production de conformismes estampillés
« changement climatique » et « développement durable » ; enfin, nous trai-
terons des parcours de deux expositions traitant du changement climatique
et du développement durable et les réactions critiques quʼils ont suscitées
auprès de leurs visiteurs.

GENÈSE DʼUN ENTRELACEMENT MÉDIATIQUE

Lʼintrication du changement climatique et du développement durable dans


les médias français a connu plusieurs phases, des années 1970 à ce jour, et il
semble quʼun tel phénomène soit propre au contexte médiatique hexagonal.
De la problématique de la « couche dʼozone » à celle de lʼ« effet de serre »
en passant par celle des « pluies acides », du « réchauffement climatique »
au « changement climatique », le sociologue Philippe Roqueplo [1993] a
donné quelques exemples historiques du rôle joué par les médias pour relier
anomalies atmosphériques, dégradation de lʼenvironnement, modes de vie
voués à lʼaccélération des échanges et à la consommation de masse, et plus
récemment, responsabilité vis-à-vis des générations futures.
Dès le début des années 1970, la presse française stigmatisait déjà le pro-
tectionnisme du gouvernement américain sous couvert dʼétudes publiées par
quelques-uns de leurs scientifiques sur les modifications non naturelles de la
chimie de lʼatmosphère. Le Concorde sʼétait vu alors interdit de survol du
territoire américain. Il était supposé contribuer à la destruction de la couche
dʼozone et, ce faisant, modifier dangereusement la protection naturelle contre
les rayonnements ultraviolets, cause, entre autres effets, de cancers de la peau.
Au milieu des années 1970, lʼusage massif de chlorofluorocarbones (CFC)
dans les aérosols des ménagères était à son tour dénoncé dans les médias
hexagonaux pour ses conséquences néfastes sur la couche dʼozone, avec en
perspective les mêmes conséquences épidémiologiques désastreuses.
Dans la première moitié des années 1980, lʼaffaire des pluies acides faisait
lʼobjet dʼune couverture conséquente de la part des médias français, relayant
une vive polémique issue dʼoutre-Rhin. Constatant le dépérissement rapide
des forêts dʼépineux de lʼest de la France, les journaux français reprenaient
à leur compte les conférences scientifiques pointant le rôle joué par les gaz
dʼéchappement des industries pétrochimiques et des automobiles dans lʼacidi-
fication des pluies. À la fin des années 1980, la création par les Nations unies
LES COULOIRS DE LA PERSUASION 229

du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC)


et la publication de ses premiers rapports ont généré dans la presse française
des « unes » alarmistes sur lʼévolution du climat : « La Terre perd la boule »
(Libération, 22 juin 1989). À lʼépoque, la fonte anormalement élevée des
glaces polaires mentionnée dans les premiers rapports scientifiques de cette
instance inspirait aux médias français des considérations sur une élévation
dramatique du niveau de la mer imputable au phénomène appelé « effet de
serre » : « La Camargue sous les flots ? » (Le Parisien, 19 avril 1990). Si ce
sujet était encore controversé dans la communauté scientifique, il apparais-
sait aux médias suffisamment alarmant pour permettre toutes sortes dʼalertes
sur la vulnérabilité dʼîles et de zones côtières de plus en plus aménagées en
France et dans le monde.

Le tournant du Sommet de Rio

Le premier Sommet de la Terre, à Rio en 1992, parce quʼil rassemblait


des gouvernants du monde entier autour de questions environnementales, a
encouragé les médias français à traiter lʼeffet de serre comme un enjeu déter-
minant du développement de la planète au XXIe siècle. Les années 1990 ont
donné lieu à toutes sortes de controverses, à propos du changement climatique,
dans les médias français : depuis la validité réelle ou infondée dʼun effet de
serre, alimenté par les activités humaines, jusquʼau lien entre événements
naturels catastrophiques et changement climatique (cyclones très meurtriers
en 1998 en Amérique centrale, tempêtes de 1999 en France, canicule de 2003
en Europe de lʼOuest, ouragan Katrina en 2005), en passant par lʼincertitude
dʼune adaptation de lʼhumanité à une planète profondément modifiée. « Le
réchauffement planétaire va remodeler le paysage français » (Le Monde,
27 novembre 1998). Depuis la conférence de Kyoto en 1997 jusquʼà ce jour,
les sujets consacrés au changement climatique dans les médias français se
sont notablement accrus, et ils alternent bien souvent avec dʼautres reportages
qui soit critiquent la politique du laisser-faire ultralibéral incarnée par les
gouvernements américains de Bush père et fils – « Laisser faire le marché
ou réguler, enjeu de la nouvelle conférence sur le climat » (Le Monde, 1er et
2 novembre 1998) –, soit décrivent des modes de vie économes, tenant compte
dʼimpératifs environnementaux : « Objecteur de croissance » (Libération,
27 juin 2005).

En quête de récits consensuels

Ces présentations bicéphales du problème, à la fois ancré dans la nature


(le climat) et dans la culture (le mode de vie), ne sont pas particulières à la
médiatisation du changement climatique. Les historiens ont montré combien
230 LES MODÈLES DU FUTUR

les sociétés dʼavant lʼère de la communication avaient fréquemment lié les


aléas du temps avec des croyances collectives [Le Roy Ladurie, 1967]. On
pourrait dire par conséquent que, en entrelaçant depuis plus de trente ans et
aussi systématiquement des phénomènes naturels anormaux à des activités
humaines, à des modes de vie, les médias français ont perpétué une doxa, une
« parole dominante » à laquelle tout le monde est appelé à se conformer, basée
sur la peur et la culpabilité (« nous avons mal agi et nous devons en assumer
les conséquences, la plupart difficilement prévisibles et dangereuses »). Sans
doute une telle intrication de la problématique du changement climatique
avec celle du développement durable tient-elle pour partie aux grands récits
mythologiques [Bonnefoy et alii, 1999]. Le changement climatique serait
la version la plus récente de ces punitions divines sanctionnant les humains
pour leurs mauvais agissements, et le développement durable symboliserait le
moyen de racheter ces fautes. Sans doute aussi, les prises de parole répétées
du président de la République sur le lien entre réchauffement climatique et
responsabilité vis-à-vis des générations futures ont incité les médias français
à perpétuer et à renouveler cette intrication [Chirac, 2002]. Mythologies
anciennes toujours valables dans lʼimaginaire collectif contemporain, huma-
nisme affiché au sommet de lʼÉtat : ce sont là autant dʼéléments constitutifs
dʼun « ordre culturel dominant » particulièrement prisé de médias toujours à
la recherche de communication consensuelle [Hall, 1994]. Ajuster son point
de vue en fonction de ce qui fonde lʼordre établi selon lʼopinion publique,
cʼest en effet pour un média le moyen le plus efficace de sʼattirer une audience
maximale. Cette quête perpétuelle de synchronisme avec ce que déclare penser
le plus grand nombre, notamment en matière de changement climatique et de
développement durable, nous conduit à traiter des cadrages interprétatifs des
médias à propos de ces deux phénomènes. En effet, les médias ne font pas
que concevoir leurs messages en fonction des sondages qui témoignent jour
après jour de lʼétat de lʼopinion publique : ils diffusent en retour aux Français
des visions particulières de la nature du risque climatique, des réponses à y
apporter, et se donnent ainsi les moyens dʼorienter leurs perceptions.

AMBIVALENCE DE LA COMMUNICATION PERSUASIVE DES MÉDIAS

La communication des médias français au sujet du changement climati-


que et du développement durable sʼinscrit dans une actualité consacrée plus
largement à la médiatisation de lʼinsécurité [Macé, 2002]. En quoi doit-on
avoir peur ? Les médias veulent nous persuader de ce qui est préoccupant,
de ce qui doit nous inquiéter, notamment quand ils nous indiquent ce qui fait
événement dans lʼactualité. Ils ne se font pas la simple caisse de résonance du
monde tel quʼil va. Ils construisent aussi un monde représenté, ils mettent en
LES COULOIRS DE LA PERSUASION 231

« récit » le monde [Ricœur, 1991], et, de ce point de vue, la communication


faite à propos du changement climatique est très significative.

Violence climatique

Les journalistes privilégient certains régimes de preuve quand il sʼagit


dʼénoncer la nature de la violence climatique et les cadres de sa perception.
Pour quʼune situation attire lʼattention des journalistes, il faut quʼelle soit
« événementialisable », quʼelle réponde dʼemblée à la définition sociale,
commercialement rentable, de lʼévénement digne de faire la une des médias
[Champagne, 1991]. La « catastrophe », la « crise » constituent pour eux un
matériau particulièrement rentable dʼun point de vue commercial [Véron,
1981]. Les médias français traitent le changement climatique en termes essen-
tiellement catastrophistes, relevant dʼune violence, exprimant un sentiment
dʼurgence, et cela relève dʼun choix de leur part. Tour à tour anomalie naturelle
identifiée par les scientifiques, problème révélateur dʼune économie globalisée,
catastrophe qui révèle lʼimprévoyance de lʼappareil politique dʼun pays, les
significations données à lʼévénement par les médias peuvent être variées et le
glissement de lʼune à lʼautre rapide, notamment grâce au choix des illustrations
[Paris, 2003]. Pourraient-ils médiatiser le changement climatique autrement ?
On peut penser quʼils pourraient plus souvent se faire lʼécho dʼeffets directs
du changement climatique positifs, par exemple lʼémergence dʼun « tourisme
de la fraîcheur » dans des régions profitant peu jusque-là de ce type de déve-
loppement économique.

Confiance en un monde devenu raisonnable

Il serait cependant inexact de résumer les couloirs de la persuasion média-


tique à la seule construction dʼun changement climatique violent, insécurisant.
Si les médias français traitent du changement climatique essentiellement en
termes catastrophistes, ils le relient par ailleurs bien souvent au développement
durable dans leurs comptes rendus, ce qui les conduit à produire aussi une
autre symbolique, basée sur la confiance en un monde devenu plus raisonnable
grâce au développement durable. Cette deuxième facette de la communication
persuasive des médias repose sur la description de technologies et de com-
portements présentés comme « exemplaires ».
Énergies alternatives, éco-conception de lʼhabitat, tri sélectif, covoitu-
rage et vélo citoyen : les reportages traitant de la vie quotidienne à lʼère du
développement durable sont désormais nombreux dans les journaux télévisés
des chaînes généralistes publiques et privées. Lʼanalyse de la couverture du
sujet « environnement » dans les journaux télévisés français montre que cette
façon de privilégier des sciences, des technologies et des comportements au
232 LES MODÈLES DU FUTUR

détriment dʼautres parce quʼils sont considérés comme écologiquement ver-


tueux, est une pratique qui nʼa pas attendu la médiatisation du changement
climatique pour exister [de Cheveigné, 2000]. Selon les périodes, de 1950 à
nos jours, les exemples de personnes ou de situations concrètes présentés à la
télévision pour parler du respect de lʼenvironnement et le montrer ont varié.
Paysans, campagnards, citadins, là pour transformer le paysage en lieu de
richesses matérielles, là pour embellir le paysage, là pour préserver le paysage
des dégradations : les figures médiatiques des comportements écologistes
exemplaires ont évolué selon les contextes historiques, mais elles ont pour
point commun dʼassurer à la collectivité que la relation entre environnement
et population est saine. Cette évolution des figures « écologiquement correc-
tes » semble atteindre un paroxysme aujourdʼhui. Nicolas Hulot, personnalité
particulièrement médiatisée, dont la cote dʼaffection auprès des Français nʼa
dʼégale que celle dʼun Zidane ou dʼun abbé Pierre, met en scène, par exemple
dans ses émissions mensuelles Ushuaïa, une sacralisation totalement assumée
du milieu naturel [Hulot et alii, 2005].

Du poids des stéréotypes

Bien souvent les médias français, tout à leurs efforts pour construire un
couloir de la persuasion qui à la fois fasse peur et rassure, qui insiste sur la
violence climatique pour mieux la relativiser, oublient – ou choisissent de ne
pas traiter – des questions pourtant fondamentales en matière de changement
climatique et de développement durable : ils ne rendent tout simplement pas
compte des injustices sociales engendrées par ces deux phénomènes. Les
relations Nord-Sud sont ainsi peu traitées, alors que nombre de travaux mon-
trent lʼinégalité face au risque climatique selon que lʼon vit dans lʼhémisphère
Nord ou lʼhémisphère Sud [Van Ypersele, 2006]. Il en va de même quant au
développement durable : les exemples de « bonne conduite » montrés par les
médias mettent souvent en scène des Français appartenant aux classes aisées,
capables dʼen assumer le coût financier. Ces représentations médiatiques font
fi de la difficulté des populations pauvres à mettre en œuvre les préceptes
dʼun mode de vie écologique, quand les études de lʼInstitut français de lʼen-
vironnement (lʼIFEN) et de lʼAgence de lʼenvironnement et de la maîtrise de
lʼénergie (lʼADEME) pointent régulièrement lʼinégale prise de conscience de
la nécessité de changer son mode de vie selon que lʼon habite dans des quartiers
défavorisés ou dans les centres-villes [Dobré et Caraire, 2000].
Ce que nous avons appelé « couloirs de la persuasion médiatique » – que
nous aurions pu aussi désigner comme « vision conformiste » ou « ordre
culturel dominant » – est tel que les médias peuvent donc en venir à nier les
réalités sociales du changement climatique et du développement durable dans
la mesure où elles ne cadrent pas avec leur perception de ce qui fait consensus.
LES COULOIRS DE LA PERSUASION 233

Cʼest vrai quand nos médias traitent de ces sujets dans lʼhexagone, mais cʼest
encore plus flagrant quand ils traitent de ces phénomènes à lʼétranger. La
couverture médiatique française du premier anniversaire de lʼinondation de
la Nouvelle-Orléans par lʼouragan Katrina est à cet égard édifiante. Tout en
continuant à propager la vision dʼune violence climatique synonyme dʼinsé-
curité, les médias ont privilégié les reportages aux côtés de représentants des
forces de lʼordre chargées de réprimer les comportements inciviques. Ils ont
insisté sur un supposé « chacun pour soi » – affirmation après tout normale
au pays de lʼargent roi et des self-made men – et ont passé sous silence les
actes individuels et collectifs de résilience, les multiples solidarités qui se
sont mises en place spontanément pour reconstruire les quartiers et palier les
déficiences de lʼÉtat fédéral [Bordreuil et Lovell, 2006].

EN COULISSE : COMMUNICATION DES LOBBIES ET DES ASSOCIATIONS

Cette fabrication du consensus médiatique à propos du changement climati-


que et du développement durable ne relève pas exclusivement des médias : les
associations et les lobbies y jouent aussi un rôle prépondérant. Communiquant
sur le changement climatique, ils poursuivent un même double objectif :
— sensibiliser lʼopinion publique de telle manière quʼelle adhère à leur
perception du changement climatique et que la politique quʼils prônent en
matière de développement durable soit considérée comme nécessaire ;
— établir un « dialogue constructif » avec les décideurs pour que ces
solutions soient mises en œuvre.
En France, ils sont particulièrement actifs pour persuader – ou dissua-
der – lʼopinion publique que lʼénergie nucléaire est une « énergie propre »,
capable dʼoffrir un développement économique qui ne soit plus basé sur des
énergies fossiles massivement émettrices de gaz à effet de serre [Mons, 2006].
Nous proposons par conséquent dʼétudier quelques-unes de leurs stratégies
communicationnelles.

Les lobbies

À la racine de la politique de persuasion menée par les lobbies du change-


ment climatique, il y a lʼorganisation pour leur compte par des grandes agences
de communication spécialisées (par exemple, Euro RSCG Corporate) dʼune
myriade de colloques, principalement sur Paris où se trouvent les centres de
décision [Grossman et Saurugger, 2004]. Ces nombreuses manifestations ont
dʼabord pour fonction de réunir des scientifiques, des industriels et des hom-
mes politiques autour de débats extrêmement sélectionnés. Si lʼon considère
la filière nucléaire, des scientifiques – qui sont parfois des prix Nobel –, des
234 LES MODÈLES DU FUTUR

membres du Commissariat à lʼénergie atomique (CEA) interviennent dans


des tables rondes aux côtés dʼélus et de membres des directions de grandes
entreprises telles quʼEDF ou le groupe AREVA pour traiter des problèmes liés
aux déchets, à lʼavenir de la politique énergétique en France, des problèmes
technologiques posés par les centrales de quatrième génération. Outre la
reproduction dʼun microcosme, ces nombreux colloques ont pour utilité de
déboucher sur la production de documents de synthèse qui sont envoyés ensuite
aux journalistes scientifiques de la presse quotidienne nationale (Le Monde,
Libération, Le Figaro…) et/ou de grand poids régional (Ouest-France – le
plus gros tirage de la presse écrite française) pour signaler le renouvellement
incessant du consensus. La même méthode – haute fréquence des conféren-
ces et colloques près des centres de décision, puis envoi de documents aux
parlementaires et aux journalistes spécialisés – est employée par les lobbies
pétroliers et céréaliers des biocarburants.
Le cercle traditionnel des experts de la politique énergétique sʼélargit
cependant ces dernières années, et cet élargissement doit beaucoup à la com-
munication. Pendant longtemps, un petit cercle de 200-300 personnes sys-
tématisait les allers-retours entre les services ministériels de lʼIndustrie, des
Finances, les instances internationales, les cabinets des directions du CEA civil
et militaire, les multiples filiales dʼAREVA ou de Total, lʼÉcole des mines,
Polytechnique, les laboratoires CNRS de recherche en physique des particules
(Grenoble, Saclay, CERN). Ce club si fermé à lʼorigine est en train de muer,
et suscite désormais dans lʼespace médiatique de nouvelles capillarités. Face
à un Jean-Marc Jancovici, consultant en politique énergétique, pro-nucléaire
et dont le site est fréquemment cité dans les blogs des internautes intéressés
par les questions climatiques, un Benjamin Dessus, président et fondateur
de lʼassociation Global Chance, est tout aussi présent sur les sites Internet
antinucléaires – à propos notamment du rapport affirmant lʼobsolescence du
générateur EPR, dont il est coauteur. À la différence du cercle traditionnel,
ces experts sont marginaux, à lʼinterface des filières industrielles, du monde
politique et des associations de la « société civile ». Ainsi, Global Chance
est prestataire dʼétudes pour Greenpeace, tout comme peut lʼêtre le Réseau
Action Climat-France (RAC-France) ou Négawatt, dont Greenpeace publie
les rapports sur son site et les diffuse auprès de la presse.

Les associations

Les associations procèdent symétriquement, en organisant la contre-exper-


tise et en misant sur des experts « communicants » pour mieux solliciter ensuite
lʼinfrastructure médiatique. Un travail dʼinvestigation est mené, sʼappuyant la
plupart du temps sur des documents dʼentreprise envoyés par des « lanceurs
dʼalarme », employés de la filière industrielle [Bernstein et Jasper, 1998].
LES COULOIRS DE LA PERSUASION 235

Ces documents peuvent être rendus publics par les associations – la plupart
animées par quelques bénévoles dont ce nʼest pas le métier principal – alors
même que les journalistes ne le feraient pas dʼeux-mêmes, notamment en
raison des investissements lourds du groupe Total-Elf-Fina ou EDF auprès des
centrales dʼachat dʼespaces publicitaires. Le réseau « Sortir du nucléaire » a
par exemple récemment dévoilé un rapport dʼétudes EDF sur lʼEPR indiquant
quʼil nʼest pas dimensionné pour supporter un scénario 11-Septembre ; ce
rapport a été repris par nombre de titres de la presse écrite dans des articles
consacrés aux débats publics organisés pour discuter des enjeux de ce nouveau
réacteur. En 1999 déjà – soit deux ans après sa création –, le réseau avait rendu
public lʼincident du Blayais sur la base dʼinformations émanant dʼemployés
de la centrale (les terrains contigus au bâtiment abritant le réacteur avaient
été inondés durant la tempête de décembre 1999 par des vagues qui étaient
passées par-dessus la digue).
Il sʼagit ici dʼun second type dʼélargissement du cercle des experts habilités
(par les médias, par le sérail lui-même) à accéder à lʼespace médiatique où se
forgent les représentations collectives du changement climatique et du rôle que
doit y jouer le nucléaire. Il concerne surtout des ONG, en particulier anglo-
saxonnes, qui jouent un rôle central dans la communication des associations au
sujet du changement climatique. Cette place dominante peut sʼexpliquer par la
culture du lobbying de ces organisations ; Greenpeace définit son management
par « secteurs à couvrir », et il sʼagit pour chaque responsable dʼinfluer sur
tout acteur public – décideur, relais dʼopinion – concerné par la thématique
environnementale quʼil a en charge. À la fois très populaire (lʼONG revendi-
que 85 000 adhérents payants, à comparer aux 15 000 adhérents de « Sortir
du nucléaire ») et élitiste (seuls quelques militants employés à plein temps
interviennent au nom de lʼassociation), Greenpeace fait donc le lien entre
les petites organisations à la vie associative peu fournie, très parisiennes,
bénéficiant de facilités dʼentrée dans lʼespace médiatique, tel RAC-France,
et une nébuleuse dʼassociations en province. Ces dernières sont souvent
constituées de riverains des sites environnementaux ou industriels affectés
par le changement climatique ou qui constituent un risque environnemental.
On peut y voir un héritage de lʼengagement des Français dans les structures
collectives de proximité, particulièrement puissant durant les années 1970. Si
les adhérents de ces associations à lʼancrage local nʼont pas le même capital
socioculturel que ceux des petites structures proches des centres de décision
à Paris, ils utilisent tout comme eux les ressources offertes par les nouvelles
technologies de lʼinformation et de la communication (les NTIC) pour inter-
venir dans lʼespace médiatique dédié à la mise en signification du changement
climatique [Ollitrault, 1999]. Lʼexpérience vécue y est une forme dʼexpertise
revendiquée comme équivalente, voire supérieure, à lʼanalyse logique des
travaux des contre-experts.
236 LES MODÈLES DU FUTUR

Supériorité des lobbies industriels

Il reste que les politiques menées au sujet du changement climatique et


du développement durable doivent encore peu aux opérations de persuasion
des associations, et beaucoup à celles des lobbies industriels. Cela ne signifie
pas que lʼintervention des groupements dʼintérêts privés dans les couloirs des
lieux de pouvoir débouche mécaniquement sur des décisions favorables aux
intérêts économiques quʼils représentent. Aux dires des décideurs que nous
avons pu rencontrer lors de nos enquêtes, les lobbies industriels rencontrent
des succès très inégaux. Ces variations sʼexpliquent par la grande diversité
des intérêts en présence à lʼintérieur même des filières industrielles. Elles
se justifient aussi par les différentes configurations des lieux de pouvoir :
leur concentration diffère à Paris et à Bruxelles, et les professionnels de
la persuasion sʼorganisent en conséquence. Ces efforts pour sʼadapter aux
formes sans cesse renouvelées des événements et à la topographie variée des
lieux de pouvoir coûtent cher et avantagent par conséquent les groupements
dʼintérêts privés. La puissance de frappe communicationnelle des grands
groupes industriels est par ailleurs sans commune mesure avec celle des
services publics. À titre dʼexemple : lʼADEME a vu son budget rogné de
30 % depuis trois ans quand, durant la même période, le budget publicitaire
dʼEDF dans la presse quotidienne nationale a augmenté de 73 %, passant de
2,6 à 4,5 millions dʼeuros – et le nombre de pages de publicité consacrées à
cette entreprise sʼest accru de 91,4 % (source : TNS Media Intelligence). Si
lʼélargissement des cercles dʼexperts participant dans lʼespace médiatique
à des opérations de persuasion concernant le changement climatique et le
développement durable relève sans doute dʼun renouvellement plus général
des « réservoirs à idées » français [Desmoulins, 2002], la prédominance des
groupements dʼintérêts privés dans le cours des décisions de politique publi-
que environnementale reste, pour cette raison au moins, incontestée. Cette
supériorité de la politique de persuasion menée par les lobbies industriels
peut se mesurer dans les médias par la prédominance du discours producti-
viste, présentant lʼénergie comme une source quasi inépuisable, au détriment
dʼargumentaires démontrant le contraire et concluant à la nécessité de mieux
maîtriser la demande.
Lobbies et, dans une moindre mesure, associations parviennent à persuader
les décideurs, les relais dʼopinion et les médias des choix à faire en matière
de changement climatique et de développement durable. Des décisions sont
prises au nom de la collectivité à la suite de campagnes de communication et de
relations publiques dont cette dernière nʼa bien souvent pas connaissance. Une
nouvelle question, sans doute la plus importante, doit être posée : quels usages
sont faits de la communication pour expliquer directement aux Français ce
que sont le changement climatique et le développement durable ? Et comment
LES COULOIRS DE LA PERSUASION 237

réagissent-ils aux visions du changement climatique et du développement


durable que les professionnels de la communication leur proposent ?

EXPOSITIONS ENVIRONNEMENTALISTES ET CITOYENNETÉ

Pour traiter la question de lʼéducation civique au changement climatique


et au développement durable dans le cadre dʼopérations de communication,
nous avons analysé les expositions « Climax » et « Nouveaux paris, la ville
et ses possibles », qui se sont tenues ces dernières années à la Cité des scien-
ces et de lʼindustrie et au Pavillon de lʼArsenal1. « Climax » avait pour sujet
les politiques dʼaménagement du territoire possibles à lʼère du changement
climatique, et « Nouveaux paris… » se proposait de traiter du renouvellement
de lʼurbanisme parisien dans les prochaines décennies ; toutes deux avaient
pour point commun de publiciser des discours faisant autorité et, dans une
moindre mesure, les rationalités qui les sous-tendent. La Cité des sciences,
Gaz de France, lʼADEME et des climatologues dʼune part ; le Pavillon de
lʼArsenal, la Mairie de Paris, des architectes-urbanistes et des démographes
dʼautre part : un collège mixte de communicants, de scientifiques, dʼexperts et
de décideurs présentait, dans les deux cas, des visions de lʼécosystème global
en général et du développement des villes en particulier. Les citoyens, pour
lʼoccasion visiteurs dʼun dispositif scénographié, étaient appelés à sʼy référer
pour envisager leur conduite future. Par leur dimension éthique, sociale et
collective, ces expositions voulaient illustrer la question du vivre-ensemble
et mettaient à lʼépreuve le musée dans sa vocation revendiquée de faire de
ses murs un lieu dʼincitation à la citoyenneté.
Ces prospectives du futur, dans la mesure où elles étaient exposées pour
engager une réflexion politique, pour initier un mode de vivre-ensemble
« convenable », méritent que nous nous demandions si les deux musées sont
parvenus à susciter un débat, et si tel est le cas, si les visiteurs y ont occupé
une place centrale. Autrement dit, est-ce que le fait pour lʼinstitution muséale
de programmer des expositions à vocation citoyenne initie réellement en ses
murs un espace public de citoyenneté ?

Des visiteurs perplexes

La plupart des visiteurs rencontrés lors de notre enquête se sont dépla-


cés jusquʼaux musées parce quʼils étaient soucieux du devenir des sociétés

1. « Climax, changement climatique » du 28 octobre 2003 au 3 juillet 2005, « Nouveaux paris,


la ville et ses possibles » du 17 mars 2005 au 31 août 2005. Étude des publics réalisée auprès dʼune
trentaine de visiteurs des deux expositions, à base dʼentretiens semi-directifs et dʼobservations de
comportements de visite.
238 LES MODÈLES DU FUTUR

industrialisées, et préoccupés en premier lieu par lʼévolution des rapports quʼel-


les entretiennent à la nature. Sensibilisés aux problèmes environnementaux,
mais ne sʼestimant cependant pas suffisamment informés, ils voulaient saisir
cette double opportunité offerte par « Climax » et « Nouveaux paris… ». Le
succès de « Climax » en termes de fréquentation (plus de 450 000 visiteurs :
une des expositions de la Cité des sciences les plus visitées depuis la création
du musée) indique que, au lieu dʼêtre discrédité a priori parce que trop peu
informatif, le discours institutionnel suscitait au contraire de lʼintérêt. De
fait, au sortir des deux parcours dʼexposition, les personnes interrogées se
référaient systématiquement à lʼavis des experts pour donner ensuite leur
sentiment. Ils avouaient cependant après coup quʼils nʼavaient pas compris
le sens profond de ces expositions. Était-ce une manifestation artistique, la
présentation dʼactions publiques déjà en cours, ou la publicisation de projets de
cabinets dʼurbanistes répondant à une commande ? Leur perplexité sʼexprimait
dʼautant plus quʼils ne parvenaient plus incidemment à croire dans les recom-
mandations des experts. Cette déception sur la forme prise par lʼexposition
se doublait dʼune frustration : celle de ne pas pouvoir repartir du musée avec,
en tête, des gestes à faire qui pouvaient limiter voire faire cesser les dégra-
dations de lʼenvironnement. Ce nʼest quʼaprès cinq mois dʼexposition que la
Cité des sciences et de lʼindustrie, alertée par des études de public, a décidé
dʼajouter au parcours de « Climax » un mur sur lequel lʼADEME donnait des
suppléments dʼinformation et dressait une liste de « gestes écologiques » à
accomplir au quotidien.
« Climax » et « Nouveaux paris… » traitaient de lʼhumanité confrontée à
un avenir essentiellement problématique, et de la manière dont elle pourrait
éventuellement sʼen sortir. Les solutions proposées ne montraient jamais des
collectifs en train dʼœuvrer pour le changement – ce qui est pourtant le registre
normal de lʼaction publique –, mais des artefacts dʼhumains déambulant dans
des espaces déjà réaménagés. Cette déshumanisation de lʼaction publique,
au profit de la gestion du futur par une prolifération dʼobjets, a contribué à
faire des visions proposées par les experts des utopies inconvenantes pour
les visiteurs. Le choix de sous-traiter à des experts de la numérisation la pro-
duction de « Climax » avait été, entre autres raisons, motivé par la volonté
de rendre « spectaculaire le risque climatique » [Lahalle, 2005]. Celui de
confier une exposition sur les possibilités dʼun aménagement écologique de
Paris à un artiste japonais et à un architecte-urbaniste français sʼétait fondé
notamment sur leur capacité à « dépayser » les habitués dʼun lieu [Michelin,
2005]. Le choix de montrer des lieux réaménagés, plutôt que les collectifs qui
ont œuvré à leur réforme – décision commune aux deux récits –, a eu pour
principal effet de décrédibiliser ces scénarisations. Les visions proposées par
ces experts, dont lʼune des compétences reconnues est de performer le réel,
ont été régulièrement taxées dʼirréalistes par les visiteurs que nous avons
LES COULOIRS DE LA PERSUASION 239

rencontrés durant notre enquête : « Il faudrait indiquer plus concrètement


quelles sont les solutions pour améliorer la question du territoire. Quʼest-ce
qui va se passer ? On montre plutôt ce quʼil faut faire, mais pas ce quʼon va
faire » ; « ce quʼils montrent dans lʼexposition, jʼai lʼimpression que ça ne va
pas se faire » ; « le changement climatique est bien présenté, mais les solutions
sont trop utopiques » ; « la souris nʼest pas maniable et lʼinterface austère. Il
faudrait des images concrètes et qui marquent les esprits ».

Débattre sans se parler

La défiance éprouvée par les visiteurs à lʼégard des récits proposés par
les deux expositions sʼexplique par ailleurs par la condition dʼisolement dans
laquelle ils se sont vite trouvés une fois sur le parcours, alors que précisément
ils étaient venus à lʼexposition pour en sortir. De plus de quatre-vingts à regar-
der passivement mais ensemble le film quelques mètres plus tôt, les visiteurs
de « Climax » pouvaient devenir actifs mais discriminés puisque répartis en
tout petits groupes de nombre insuffisant, à raison de cinq tables pouvant
accueillir chacune deux ou trois personnes, dans la salle du « simulateur ».
Quant à « Nouveaux paris… », la ventilation des sous-thèmes sur trois étages
avec, pour chacun, une scénographie alvéolaire des contenus séparait de fait
les visiteurs.
Cette conception nʼétait pas celle du forum, puisquʼil sʼagissait en lʼoccur-
rence dʼune communication décidée unilatéralement et à laquelle une foule
pouvait sʼexposer, mais en silence. Lʼoral ne primait pas dans les parcours
de « Climax » et de « Nouveaux paris… », lʼune préférant à la discussion la
visualisation dʼimages numérisées animées et lʼinteractivité avec des interfaces
complexes, lʼautre la lecture de cartes, de maquettes et de graphiques. Cette
observation soulève un problème de fond : peut-on débattre de lʼinquiétude
quʼinspire le changement climatique et de la confiance qui émane de la mul-
tiplication dʼactions labellisées « développement durable » sans se parler
(au-delà des relations interpersonnelles) des raisons pour lesquelles chacun
se sent inquiet et/ou confiant ?
Notre enquête a permis dʼavoir accès à certains écrits envoyés a posteriori
par des visiteurs de « Climax » aux acteurs du processus de conception-réalisa-
tion de lʼexposition : « Très convaincu de lʼimportance de la sensibilisation du
grand public au changement de climat, […] je suis allé à lʼexposition “Climax”
une première fois, pour préparer une visite avec mes petits-enfants. Jʼai été
si étonné, pour ne pas dire effaré, par le contenu de lʼexposition, que jʼy suis
retourné une deuxième fois pour prendre des notes en vue de faire part de
mes réactions aux organisateurs ; nʼayant eu le temps de transcrire ces notes
manuscrites que quinze jours après cette seconde visite, jʼai eu des scrupules
devant leur sévérité et suis allé une troisième fois à la Villette. Voici mes
240 LES MODÈLES DU FUTUR

commentaires » ; « je suis bouleversé de ma visite à lʼexposition “Climax”


à la conception de laquelle vous avez, je crois, participé. Bouleversé et en
colère, car lʼinsuffisance des données présentées et lʼorientation qui lui est
donnée font de ce travail un outil à désinformer. Vu la dimension et la gravité
du problème traité, cʼest vraiment très grave » ; « on ronronne également que
“depuis plusieurs années, Gaz de France est impliqué dans une démarche de
développement durable. […] Le principal enjeu pour le groupe Gaz de France
consiste à maîtriser tout au long de la chaîne gazière ses propres émissions
de gaz à effet de serre, mais surtout à encourager et permettre à ses clients de
limiter leurs émissions en les accompagnant dans leur consommation éner-
gétique”. Ce qui revient à dire que, puisque Gaz de France sʼinscrit dans un
engagement volontaire dans la réduction de gaz à effet de serre, lʼindividu
est coupable de ne rien faire. Ce qui revient à dire que lʼindividu, dans son
quotidien, dans le simple fait quʼil soit vivant et quʼil respire, est considéra-
blement nuisible à la planète ».

OPINIONS ET/OU SAVOIRS

Communiquer au sujet du changement climatique et du développement


durable, cʼest organiser son récit de telle façon que ce récit manifeste osten-
siblement les signes du pouvoir – pouvoir conféré au savant qui sait ce quʼil
est raisonnable de dire et penser, pouvoir conféré à lʼindustriel qui sait ce quʼil
est raisonnable de faire pour une société du plein emploi, pouvoir conféré à
lʼhomme politique qui sait ce quʼil est raisonnable de décider pour le bien-être
de la collectivité – et quʼil discrédite tous les récits du futur jugés « déraisonna-
bles » [Bourdieu, 1982]. Aux cadrages interprétatifs à prétention consensuelle
diffusés dans les médias répondent des débordements, des analyses critiques,
qui portent moins sur les définitions de ce que sont le changement climatique
et le développement durable que sur les incohérences dans la façon dʼen par-
ler. Les exemples foisonnent et concernent aussi bien les climatologues, les
journalistes, les publicitaires que les internautes lambda.

Que dire du film Le jour dʼaprès ?

Le cas de la diffusion en France, à partir de mai 2004, du film Le jour


d’après, récit dʼune catastrophe glaciaire sʼabattant en quelques jours sur la
moitié nord des États-Unis, consécutive au ralentissement puis à lʼarrêt brutal
de la circulation du Gulf Stream, est exemplaire dʼun cadrage interprétatif
qui se veut consensuel et génère finalement des désaccords. Précédant de
quelques jours sa sortie en salle, des entretiens publiés dans la presse écrite
française avec Jean Jouzel, climatologue de renom, tendaient à discréditer
LES COULOIRS DE LA PERSUASION 241

un tel scénario, car « ce que le film décrit est très peu probable » et « cet
événement cinématographique risque de jeter le trouble dans une opinion
publique encore peu avertie », concluant que « la science cède vite le pas à
la science-fiction » (L’Express, 24 mai 2004). Discréditer la science-fiction,
« impure » parce quʼelle jetterait le discrédit sur la science climatologique en
optant pour la déraison (en lʼoccurrence, mettre en scène une glaciation alors
quʼun réchauffement est plus probable) : cette prise de parole de Jean Jouzel
dans lʼespace public médiatique cherchait effectivement à faire autorité. Or ce
point de vue nʼest pas partagé par toute la communauté scientifique : Myles
Allen, un climatologue anglais tout aussi renommé au Royaume-Uni, prenait
quelques jours après lʼexact contre-pied à propos des effets supposés de ce
film de science-fiction sur sa discipline, les qualifiant de « vertueux » dans
la mesure où ce film pouvait être un très bon support pédagogique (Nature,
n° 429, mai 2004). Deux années plus tard, le parti pris du film Le Jour d’après
ne semble dʼailleurs plus si déraisonnable aux climatologues français, lʼhypo-
thèse dʼun arrêt brutal du Gulf Stream redevenant pertinente après la parution
de travaux sur lʼécoulement anormalement rapide des glaciers arctiques dans
lʼocéan Atlantique (Le Monde 2, 12 août 2006).
Le fait pour un climatologue de renom comme Jean Jouzel de rejeter
dʼemblée un film traitant du changement climatique parce quʼil ne montre
pas ce qui est considéré par la discipline, à ce moment-là, comme le futur
probable illustre une caractéristique forte de la communication du change-
ment climatique et du développement durable dans les médias français. Ce
scientifique est invité par le système médiatique à sʼexprimer non pas pour sa
compétence de savant, mais comme personne susceptible dʼavoir une opinion
à propos dʼun produit de communication, quand bien même il ne serait pas
rôdé à la critique des médias. Ainsi, producteur premier dʼinformations au
sujet du changement climatique, le scientifique occupe pourtant une position
précaire dans lʼespace public tant il est contraint dʼemprunter des cadres de
perception qui ne sont pas les siens.

Une exemplarité problématique

La régression est sans fin, puisque les médias eux-mêmes sʼavèrent occuper
une position précaire dans lʼespace public. Communiquant au sujet du change-
ment climatique et/ou du développement durable, ils produisent des cadrages
interprétatifs à visée consensuelle absolument contradictoires, susceptibles
par conséquent de donner lieu à des contestations radicales. Le groupe TF1,
première chaîne de télévision en termes dʼaudience, peut ainsi tout à la fois
programmer des émissions environnementalistes prescrivant des comporte-
ments respectueux, telles Ushuaïa ou Terre mère (sur LCI), et la retransmission
de courses de Formule 1, véhicules extrêmement énergétivores.
242 LES MODÈLES DU FUTUR

À lʼintérieur même des rédactions, les journalistes « spécialisés » dans le


changement climatique et le développement durable peuvent tenir un discours
à visée conformiste, qui porte en lui cependant les germes de son déborde-
ment. Ainsi, pour répondre à Michel Field, présentateur du 18-20 heures sur
LCI, lui demandant fin août 2006 si lʼété écoulé avait été anormal, Jean-Louis
Caffier sʼest référé aux communiqués de Météo France annonçant dès le mois
de juin que lʼété 2006 serait « anormalement froid » et il a conclu que les
« prévisions à long terme sont désormais fiables », notamment parce quʼelles
sʼappuient sur des « données chiffrées, donc objectives ». Quelques jours plus
tard cependant, Météo France a publié un nouveau communiqué indiquant que
lʼété 2006 était statistiquement le deuxième été le plus chaud de lʼhistoire de
la météorologie, juste après lʼété caniculaire de 2003.
Lʼemploi dʼun discours consensuel dans les encarts publicitaires peut aussi
discréditer dʼemblée lʼannonceur en révélant sa partialité dans la définition
de la cause commune. Les concepteurs-rédacteurs de lʼagence de publicité
Euro RSCG C&O ont par exemple choisi en juillet 2005 pour une campagne
publicitaire le slogan « Vous êtes lʼénergie de ce monde. Nous sommes fiers
dʼêtre la vôtre », et dʼajouter : « Le plus important dans lʼénergie, cʼest ce que
vous en faites. » Deux phrases qui tentaient de jouer sur les fibres citoyenne
et environnementaliste, mais qui disaient lʼexact contraire puisquʼil sʼagis-
sait, par cette campagne de presse, de valoriser une entreprise publique sur le
point dʼêtre privatisée, cʼest-à-dire déliée de la collectivité pour appartenir à
un cercle plus restreint dʼactionnaires, motivés par des considérations avant
tout financières.
Sur des forums de discussion Internet, il est tout aussi possible de voir cette
articulation entre consensus et dissensus, exemplarité et discrédit. Citons par
exemple le fait dʼêtre propriétaire dʼune Toyota Prius, voiture à motorisation
hybride popularisée par les stars dʼHollywood. Produit symbolisant la réussite
du développement durable ? Pis-aller qui exempte trop facilement son conduc-
teur dʼun engagement plus profond en faveur du respect de lʼenvironnement ?
En tout cas, les propriétaires de Prius qui témoignent sur la toile à propos de
lʼexemplarité de leur acte dʼachat sont très souvent confrontés à des réactions
virulentes de la part dʼautres internautes.

CONCLUSION

Nombreux sont les défis auxquels devraient se confronter les professionnels


de la communication. Lʼinjonction formulée par les institutions et la société
civile de mettre en débat le changement climatique, le développement dura-
ble et leurs interprétations, se heurte bien souvent, lors de la mise en œuvre
dʼopérations de communication, à des choix organisationnels bridant la mise
LES COULOIRS DE LA PERSUASION 243

en relation des interlocuteurs potentiels. À lʼagora, lʼespace public qui organise


sans filtre les échanges de points de vue, ont succédé désormais toutes sortes
de couloirs de la persuasion, de dispositifs qui étouffent la discussion à trop
vouloir la « rationaliser » et marginalisent toute position dissonante.
Organiser le dissensus nʼest pas polémiquer. La difficulté dʼannoncer au
grand public des phénomènes démesurés nécessite que ne soit plus remis en
question le point de vue très majoritairement partagé par la communauté cli-
matologique sur le rôle néfaste des gaz à effet de serre produits par les activités
humaines dans lʼévolution du climat depuis cinquante ans. Entretenant des
polémiques parfois teintées de mauvaise foi, les médias brouillent lʼinitiative
extraordinairement rare que tentent les climatologues depuis la création du
GIEC : celle de sʼadresser directement aux décideurs, aux relais dʼopinion
et à lʼopinion publique malgré leur réticence coutumière à se confier aux
journalistes.
Plutôt que dʼénoncés disant ce que le futur sera – selon une description
rigoureuse des faits et en confrontant les diverses interprétations possibles –,
lʼinfrastructure médiatique est demandeuse dʼopinions : de considérations
personnelles sur le ressenti que chacun éprouve face à des produits de com-
munication. Ce mode de fonctionnement se montre contre-productif pour
la diffusion et lʼappropriation collective des connaissances. En optant pour
lʼopinion plutôt que pour le savoir, pour le sensationnel plutôt que pour la vie
comme elle va, la présentation de documents plutôt que le partage des savoirs
par des échanges oraux, la publicité et la polémique plutôt que la pédagogie,
la communication du changement climatique et du développement durable
instaure des couloirs de la persuasion : des visions conformistes, un ordre
culturel dominant et des analyses critiques qui, loin de la favoriser, perturbent
la décision collective portant sur ce que demain devra être et sur la manière
de sʼy prendre.

RÉFÉRENCES BIBLIOGRAPHIQUES

BERNSTEIN M. et JASPER J. M. (1998), « Les tireurs dʼalarme dans les conflits sur les risques
technologiques. Entre intérêts particuliers et crédibilité » (1996), Politix, n° 44, 4e trimestre,
p. 109-134.
BONNEFOY Y. (dir.) (1999), Dictionnaire des mythologies et des religions des sociétés
traditionnelles et du monde antique, Flammarion, Paris.
BOURDIEU P. (1982), Ce que parler veut dire. L’économie des échanges linguistiques, Fayard,
Paris.
BORDREUIL S. et LOVELL A. (2006), « La Nouvelle-Orléans, un nouvel élan », Libération,
22 septembre, p. 28-29.
CHIRAC J. (2002), Discours de M. Jacques Chirac, Président de la République devant l’Assemblée
plénière du Sommet mondial du développement durable, service de communication de
lʼÉlysée, Paris.
244 LES MODÈLES DU FUTUR

DESMOULINS L. (2002), « French public policy research institutes and their political impact
as another illustration of the French exception », dans MCGANN J. et WEAVER R. (dir.),
Think Tanks and Civil Societies. Catalysts for Ideas and Action, Transaction Publishers,
New York, p. 139-167.
CHAMPAGNE P. (1991), « La construction médiatique des malaises sociaux », Actes de la
recherche en sciences sociales, n° 90, p. 64-75.
DE CHEVEIGNÉ S. (2000), L’Environnement dans les journaux télévisés. Médiateurs et visions
du monde, CNRS Éditions, Paris.
DOBRE M. et CARAIRE C. (2000), La Sensibilité écologique des Français à travers l’opinion
publique, Institut français de lʼenvironnement, Paris.
GROSSMAN E. et SAURUGGER S. (2004), « Les groupes dʼintérêt français : entre exception
française, lʼEurope et le monde », Revue internationale de politique comparée, vol. 11,
n° 4, p. 523-532.
HALL S. (1994), « Codage/décodage », Réseaux, n° 68, novembre-décembre, p. 29-39.
HULOT N., RAHBI P. et ZARACHOWICZ W. (2005), Graines de possibles : regards croisés sur
l’écologie, Calmann-Lévy, Paris.
LAHALLE M.-P. (2005), « Climax / expo simulation / changement climatique », présentation de
lʼexposition le 18 mai 2005 lors du séminaire de lʼIDDRI sur les risques climatiques, en
ligne sur http://www.iddri.org/iddri/telecharge/climat/risques_climatiques/s05-2_lahalle.
pdf
LE ROY LADURIE E. (1967), Histoire du climat depuis l’an mil, Flammarion, Paris.
MACÉ E. (2002), « Le traitement médiatique de la sécurité », dans MUCCHIELLI L. et ROBERT
Ph. (dir.), Crime et sécurité. L’état des savoirs, La Découverte, Paris, p. 33-41.
MICHELIN N. (dir.) (2005), Nouveaux Paris. La ville et ses possibles, Éditions du Pavillon de
lʼArsenal et A. & J. Picard, Paris.
MILLER C. A. (2000), « The dynamics of framing environmental values and policy : four
models of societal processes », Environmental Values, n° 9, p. 211-233.
MONS L. (2006), Les Enjeux de l’énergie. Pétrole, nucléaire, et après ?, Larousse, Paris.
OLLITRAULT S. (1999), « De la caméra à la pétition Web. Le répertoire médiatique des
écologistes », Réseaux, n° 98, p. 153-185.
PARIS E. (2003), « Décrire, illustrer, convaincre. Les usages médiatiques contradictoires des
images de la modélisation climatique », Annales des Ponts et Chaussées, n° 107-108,
juillet-décembre, p. 63-72.
RICŒUR P. (1991), Temps et récit, tome 1. L’intrigue et le récit historique, Le Seuil, « Points-
essais », Paris (1re édition 1983).
ROQUEPLO P. (1993), Climats sous surveillance. Limites et conditions de l’expertise scientifique,
Economica, Paris.
VAN YPERSELE J.-P. (dir.) (2006), Changements climatiques. Impasses et perspectives, Syllepse,
Paris.
VÉRON E. (1981), Construire l’événement : les médias et l’accident de Three Miles Island,
Éditions de Minuit, Paris.
WATSON R. T. et THE CORE WRITING TEAM (dir.) (2001), Climate Change 2001 : Synthesis
Report. Contribution of Working Groups I, II, and III to the Third Assessment Report
of the Intergovernmental Panel on Climate Change, Cambridge University Press,
Cambridge.
WOLTON D. (1998), Penser la communication, Flammarion, Paris.
Introduction 245

Les auteurs


Amy est directeur de recherche au CNRS et directrice adjointe du Centre Alexandre
Dahan Koyré, où elle dirige le master « Histoire des sciences, technologies, sociétés »
Dalmedico de l’EHESS. Spécialiste de l’histoire des sciences et des milieux mathématiques
dans leur contexte politique et culturel, ses travaux ont porté dernièrement sur
la seconde moitié du xxe siècle : mathématiques appliquées, interactions des
mathématiques avec d’autres disciplines, théorie du chaos, modèles et pratiques
de modélisation, changement climatique... Elle a écrit ou assuré la direction de
plusieurs ouvrages dont les plus récents sont Les Sciences pour la guerre, 1940-
1960, en collaboration avec D. Pestre (Éditions de l’EHESS, Paris, 2004), et
Jacques-Louis Lions, un mathématicien d’exception entre recherche, industrie
et politique (La Découverte, Paris, 2005). (dahan@damesme.cnrs.fr)
Michel est maître de conférences à l’université de Paris-IX Dauphine et chercheur
Armatte associé au Centre Alexandre Koyré, coresponsable du séminaire de l’EHESS
intitulé « Histoire du calcul des probabilités et de la statistique ». Sa thèse
soutenue en 1995 a pour sujet « l’histoire du modèle linéaire en statistique et
économétrie ». Il a publié de très nombreux articles sur l’histoire de la statis-
tique (xixe et xxe siècle) et de l’économétrie. Ses thèmes actuels de recherche
englobent la modélisation des systèmes complexes (climat et modèles intégrés).
Il conduit également plusieurs dispositifs nationaux d’enseignement numérique
en économie et gestion. (Armatte@dauphine.fr)
Christian est professeur à l’Institute of Physical Resource Theory de la Chalmers
Azar University of Technology (Göteborg, Suède), où il est titulaire de la chaire
« Énergie et environnement ». Physicien de formation, ses recherches portent
sur les stratégies d’atténuation du changement climatique (modélisation des
systèmes, évaluation des technologies, analyse des politiques). Il siège dans les
comités éditoriaux de plusieurs journaux scientifiques et a été auteur principal
au sein du GIEC (Groupe d’experts intergouvernemental sur l’évolution du
climat). Il a été conseiller du Premier commissaire européen sur l’environnement
et est actuellement conseiller du ministre suédois de l’Environnement, membre
de la commission Pétrole auprès du Premier ministre suédois. (christian.azar@
fy.chalmers.se)
Vincent est ingénieur du corps du GREF, chercheur du CIRAD, affecté au CIRED. Il
Gitz est spécialiste de la modélisation intégrée du lien entre occupation des sols et
cycle du carbone. (gitz@centre-cired.fr)

Olivier est docteur d’État en sciences économiques, directeur de recherche au CNRS


Godard et professeur à l’École polytechnique (Paris). Ses recherches concernent prin-
cipalement l’environnement et le développement durable. Ses travaux récents
portent sur le principe de précaution et la décision en univers controversé,
les systèmes de permis négociables pour la pollution acide et le changement
climatique, l’organisation de l’expertise scientifique. Ses derniers ouvra-
ges sont : Permis transférables nationaux et politiques environnementales.
Conception et application (Éditions de l’OCDE, Paris, 2001), et, avec C. Henry,
P. Lagadec et E. Michel-Kerjan, Traité des nouveaux risques. Précaution,
crise, assurance (Gallimard, « Folio-Actuel », Paris, 2002). (olivier.godard@
shs.polytechnique.fr)
Hélène est docteur en physique. Après plusieurs années passées dans le journalisme
Guillemot scientifique, elle achève une thèse en histoire des sciences à l’EHESS (Centre
Alexandre Koyré) sur l’histoire de la modélisation du climat en France à l’heure
du changement climatique. (helene.guillemot@noos.fr)

Jean- est directeur du Centre international de recherche sur l’environnement et le


Charles développement (CIRED) depuis 1987, directeur de recherche au CNRS et
Hourcade directeur d’études à l’EHESS depuis 1999. De 1995 à 2002, il a été membre
de la délégation française officielle aux négociations de la convention Climat
(COP 4 à COP 8). Au plan international, il a été co-coordinateur du groupe de
rédaction de divers chapitres du volume III (en charge des questions d’économie)
dans le deuxième (1995-1996) et le troisième (1998-2001) rapport d’évaluation
du GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat), et
il est auteur principal dans le IVe rapport. (hourcade@centre-cired.fr)
Emilio est professeur au département PPE (programme de planification énergétique) au
Lèbre Centre d`études intégrées sur les changements climatiques et l’environnement
La Rovere (institut de recherche et 3e cycle en génie) de l’Université fédérale de Rio de
Janeiro au Brésil (Centro Clima/COPPE/UFRJ). Il est membre du GIEC et a
participé à plusieurs COP comme membre de la délégation brésilienne. (emi-
lio@ppe.ufrj.br)
Pierre est ingénieur de recherche CNRS au Centre international de recherche sur
Matarasso l’environnement et le développement (CIRED). À la confluence de l’économie
et de la géophysique, ses recherches portent sur la modélisation intégrée de
l’économie et du climat, et sur la modélisation des systèmes énergétiques. Il a
publié plusieurs articles sur la structure des modèles apparus dans le cadre des
controverses concernant les réponses à apporter à l’effet de serre anthropique.
Il enseigne aussi à l’École nationale des ponts et chaussées et anime le groupe
d’analyse thématique « Socio-économie de l’énergie » dans le cadre du pro-
gramme Énergie du CNRS. (matarasso@centre-cired.fr)
Emmanuel est enseignant-chercheur à l’université Paris XIII et membre du
Paris LABSIC (Laboratoire des sciences de l’information et de la commu-
nication). Ses recherches portent sur la communication scientifique et
concernent aussi bien la communication entre chercheurs que la diffu-
sion des connaissances auprès du grand public. Il a notamment étudié
la médiatisation du phénomène climatique El Niño (sur laquelle portait
sa thèse), les visiteurs d’expositions consacrées à l’environnement et
la collaboration des internautes à des programmes de modélisation
climatique. (manu-paris@wanadoo.fr)
André est doctorant au CIRED et chercheur à la COPPE (Brésil), où il
Santos Pereira collabore aux recherches d’Emilio La Rovere.
Élodie est ancienne élève de l’ENS-Cachan, agrégée de mathématiques,
Vieille et prépare un doctorat en histoire des sciences à l’EHESS (Centre
Blanchard Alexandre Koyré) sur le débat des années 1970 autour de la crois-
sance économique et les modèles mathématiques globaux qui y ont
participé. (elodvb@hotmail.com)
Table

Introduction : Modèles et fabrications du futur : du débat sur la croissance au débat


climatique et retour
par Amy Dahan Dalmedico ……………………………………………………… 7

I. Le débat sur la croissance des années 1970 et ses outils

1. Croissance ou stabilité ? Lʼentreprise du Club de Rome et le débat autour


des modèles
par Élodie Vieille Blanchard …………………………………………………… 21
Des modèles pour appréhender le futur 22
Le Club de Rome et la modélisation 22
L’événement des Limits to Growth 27
L’IIASA et la modélisation globale 28
L’économiste William Nordhaus 31
Des modèles qui « fabriquent le futur » 32
Méthodologie versus idéologie : une dichotomie à dépasser 33
Modèles et « cosmologies » 34
Technologie versus nature 35
Le point de vue des pays en développement 38
Le futur de Herman Kahn 39
Relations internationales et rapport au futur 39
Postérité des modèles et éléments de conclusion 40

2. La construction historique des paradigmes de modélisation intégrée :


William Nordhaus, Alan Manne et lʼapport de la Cowles Commission
par Pierre Matarasso ………………………………………………………… 44
Lʼémergence dʼune nouvelle conception de « lʼéconomie-monde » 44
Modèles et communautés épistémiques 47
Une tradition intellectuelle forte et ancienne 50
Les cercles de Cambridge et de Vienne 51
Von Neumann, le formalisme de l’analyse d’activités 53
La Cowles et le rôle de Koopmans 55
Lʼémergence des modèles intégrés du climat 56
Alan Manne : de la logistique aux politiques climatiques 56
William Nordhaus : de la critique du modèle du Club de Rome au modèle DICE 57
Science et politique dans le changement climatique 59
Conclusion 59

3. Les économistes face au long terme : lʼascension de la notion de scénario


par Michel Armatte …………………………………………………………… 63
Les temps de lʼéconomie 63
Le temps de la conjoncture et du très court terme 64
Le temps des comptes annuels et de la prévision à court terme 64
Le temps de la planification et de la projection à moyen terme 65
Le temps (très) long de la nouvelle histoire économique 68
Le temps long de la prospective 69
La démarche prospective 69
Les lieux français de la prospective 71
Les méthodes de la démarche prospective 73
Retour sur la méthode des scénarios 75
Scénario exploratoire ou d’anticipation : scénario de l’inacceptable (DATAR) 76
Méthodes de construction des scénarios : l’étude « Interfuturs » 77
Les valeurs au fondement des scénarios 78
Scénario et modèle : Worldscan et Scanning the Future (CPB) 79
Les scénarios SRES du GIEC 83
Conclusion 86

II. L’alerte climatique, la gouvernance


mondiale du régime climatique

4. Les modèles numériques de climat


par Hélène Guillemot ………………………………………………………… 93
Les débuts de la modélisation climatique 94
Les premiers modèles de circulation de l’atmosphère 94
Modèles de prévision du temps et modèles de climat 95
Les dynamiques multiples de la modélisation 97
La montée des préoccupations environnementales 98
La construction des modèles 99
Les paramétrisations au centre des recherches et des incertitudes 99
Les paradoxes des paramétrisations 101
Expériences numériques 102
Données d’observation et validation 103
Archives des paléoclimats 104
Modéliser le système Terre 105
Coupler océan et atmosphère 105
Simuler le changement climatique 106
Intégrer de nouveaux milieux et de nouvelles disciplines 107
Du complexe au simple, allers et retours 109
Nouveaux défis, le retour au local ? 110
5. Le régime climatique, entre science, expertise et politique
par Amy Dahan Dalmedico …………………………………………………… 113
La mise en place du régime climatique 114
Une tradition longue d’interactions entre le scientifique et le politique 114
Le Groupe d’experts intergouvernemental sur l’évolution du climat 116
Les COP, forums hybrides du régime climatique 118
Cartographie des pays suivant les intérêts en présence 119
Le fonctionnement de lʼexpertise 122
Premières tensions politiques 122
Le processus d’expertise GIEC : modèle linéaire classique ? 124
La pratique d’une expertise réflexive 125
L’élargissement du champ de l’expertise 126
La méthodologie du GIEC entre science et politique, les scénarios 127
Les enjeux géopolitiques du cadrage du régime du changement climatique 129
Adaptation et pays en développement 129
La modélisation numérique globale, un « langage du Nord » ? 130
Validité universelle des énoncés scientifiques versus confiance morale 132
Le GIEC confronté à ces enjeux géopolitiques 134
Quelles leçons tirer du fonctionnement du régime climatique ? 135

6. Les modèles dans les débats de politique climatique : entre le Capitole


et la Roche tarpéienne ?
par Jean-Charles Hourcade …………………………………………………… 140
Évaluation des politiques : et si on regardait le scénario de référence ? 141
Les enjeux d’un dialogue récurrent entre deux modeling tribes 141
D’une astuce technique à une vision du fonctionnement du monde 142
Les conséquences d’un débat à demi entamé 146
Sélection des outils dʼincitation ; de la difficulté de dissiper des mirages 149
Quand les modèles montrent que la gratuité est tellement chère qu’on ne saurait
l’accepter 150
De quelques bonnes raisons d’un déficit de conviction sur une thèse juste 151
Coûts politiques d’effets d’hypnose persistants 153
Évaluer les dommages : de la gestion de croyances contradictoires 156
Ce que révèle la négligence d’un raisonnement pourtant simple 156
Les vrais enjeux de l’analyse coût-bénéfice 158
Conclusion 162

III. Fabrication des futurs :


batailles de représentation et délibération publique

7. Les émissions optimales de CO2 le sont-elles vraiment ?


par Christian Azar …………………………………………………………… 167
Les événements à faible probabilité mais aux impacts catastrophiques 169
La sensibilité 169
Les jugements de valeur 170
Conclusion 171
Les méthodes dʼévaluation des coûts 171
La sensibilité 173
Les jugements de valeur 173
Conclusion 173
Le choix du taux dʼactualisation 174
La sensibilité 174
Les jugements de valeur 174
Conclusion 177
Le choix des critères de décision 177
La sensibilité 178
Les jugements de valeur 178
Conclusion 179
Remarques pour conclure 180

8. Modèles mondiaux et représentation des pays en développement


par Emilio Lèbre La Rovère, Vincent Gitz, André Santos Pereira …………… 184
Problèmes et limites liés à la modélisation économique des pays en développement 186
Problèmes de représentation du système énergétique 188
Production d’énergie et niveaux de consommation 188
La dotation en ressources énergétiques 191
Influence du cadre institutionnel sur le système énergétique 193
Problèmes dans la représentation de lʼusage des sols 193
Arbitrages et enjeux 194
Les implications redistributives des politiques d’usage des terres 195
Questions méthodologiques concernant la prospective des usages du sol
dans les pays en développement 196
Conflit entre les méthodologies en présence 197
Conclusion 198

9. Pour une morale de la modélisation économique des enjeux climatiques


en contexte dʼexpertise
par Olivier Godard …………………………………………………………… 203
Les prévisions éclairent-elles ? 203
Des questions sur la modélisation 205
Susciter des réflexes ou éveiller la réflexion ? 205
La modélisation intégrée, ennemie du pluralisme ? 205
Comment éviter les catastrophes prévues ? 206
Les risques de manipulation de l’expertise par les décideurs 206
1992 : les impacts dʼune taxe carbone aux États-Unis et en Europe 207
Les faits 207
Une comparaison des pertes de PIB dues à la taxe carbone 208
Des jeux d’influence 210
Le choix des indicateurs 210
Un sens différent selon le contexte 211
1996-1998 : le groupe énergie 2010-2020 en France 212
La construction de trois scénarios énergétiques pour la France 212
L’approche : des scénarios incarnant le devenir possible de la société française 213
Nucléaire ou gaz ? 215
De la croissance… pour les émissions de CO2 215
L’accueil réservé aux scénarios par les experts et les gestionnaires 216
Le politique, ou comment faire dire à une expertise ce qu’elle ne dit pas 218
La représentation de lʼavenir lointain 220
L’utilitarisme et le sacrifice des droits 220
Entretenir la croyance dans la permanence des identités collectives 221
Le problème de la non-existence des générations éloignées 222
Le problème de la non-identité 222

10. Les couloirs de la persuasion. Usages de la communication, tissu associatif


et lobbies du changement climatique
par Emmanuel Paris ………………………………………………………… 227
Genèse dʼun entrelacement médiatique 228
Le tournant du Sommet de Rio 229
En quête de récits consensuels 229
Ambivalence de la communication persuasive des médias 230
Violence climatique 231
Confiance en un monde devenu raisonnable 231
Du poids des stéréotypes 232
En coulisse : communication des lobbies et des associations 233
Les lobbies 233
Les associations 234
Supériorité des lobbies industriels 236
Expositions environnementalistes et citoyenneté 237
Des visiteurs perplexes 237
Débattre sans se parler 239
Opinions et/ou savoirs 240
Que dire du film Le jour dʼaprès ? 240
Une exemplarité problématique 241
Conclusion 242

Les auteurs .……………………………………………………………………… 245


Composition :

Achevé dʼimprimer sur les


presses de lʼimprimerie
France-Quercy à Cahors
en janvier 2007. Dépôt
légal février 2007.

Imprimé en France