Vous êtes sur la page 1sur 274

INTRODUCTION

1

Collection « Recherches »

LA COLLECTION « RECHERCHES » À LA DÉCOUVERTE

Un nouvel espace pour les sciences humaines et sociales

Depuis le début des années 1980, on a assisté à un redéploiement considérable de la recherche en sciences humaines et sociales : la remise en cause des grands systèmes théoriques qui dominaient jusquʼalors a conduit à un éclatement des recherches en de multiples champs disciplinaires indépendants, mais elle a aussi permis dʼouvrir de nouveaux chantiers théoriques. Aujourdʼhui, ces travaux commencent à porter leurs fruits : des paradigmes novateurs sʼélaborent, des liens inédits sont établis entre les disciplines, des débats passionnants se font jour. Mais ce renouvellement en profondeur reste encore dans une large mesure peu visible, car il emprunte des voies dont la production éditoriale traditionnelle rend difficilement compte. Lʼambition de la collection « Recherches » est précisément dʼaccueillir les résultats de cette « recherche de pointe » en sciences humaines et sociales : grâce à une sélection éditoriale rigoureuse (qui sʼappuie notamment sur lʼexpérience acquise par les directeurs de collection de La Découverte), elle publie des ouvrages de toutes disciplines, en privilégiant les travaux trans et multidisciplinaires. Il sʼagit principalement de livres collectifs résultant de programmes à long terme, car cette approche est incontestablement la mieux à même de rendre compte de la recherche vivante. Mais on y trouve aussi des ouvrages dʼauteurs (thèses remaniées, essais théoriques, traductions), pour se faire lʼécho de certains travaux singuliers.

Lʼéditeur

SOUS LA DIRECTION DE

Amy Dahan Dalmedico

Les modèles du futur

Changement climatique et scénarios économiques :

enjeux scientifiques et politiques

Publié avec le concours du CNRS et du ministère de l’Enseignement supérieur et de la Recherche

LA DÉCOUVERTE

2007

ISBN : 978-2-7071-5013-4

Le logo qui figure sur la couverture de ce livre mérite une explication. Son objet est dʼalerter le lecteur sur la menace que représente pour lʼavenir de lʼécrit, tout particulièrement dans le domaine des sciences humaines et sociales, le développement massif du photocopillage. Le Code de la propriété intellectuelle interdit en effet expressément, sous peine des sanctions pénales réprimant la contrefaçon, la photocopie à usage collectif sans autorisation des ayants droit. Or, cette pratique est généralisée dans les établissements dʼenseignement et à lʼuniversité, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles et de les faire éditer correctement est aujourdʼhui menacée. Nous rappelons donc quʼaux termes des articles L. 122-10 à L. 122-12 du Code de la propriété intellectuelle toute photocopie à usage collectif, intégrale ou partielle, est interdite sans autori- sation du Centre français dʼexploitation du droit de copie (CFC, 20, rue des Grands-Augustins, 75006 Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite sans lʼautorisation de lʼéditeur.

Si vous désirez être tenu régulièrement informé de nos parutions, il vous suffit dʼenvoyer vos nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque, 75013 Paris. Vous recevrez gratuitement notre bulletin trimestriel À la Découverte. Vous pouvez également retrouver lʼensemble de notre catalogue et nous contacter sur notre site www.editionsladecouverte.fr

© Éditions La Découverte, Paris, 2007.

Sommaire

Introduction Modèles et fabrications du futur : du débat sur la croissance au débat climatique et retour par Amy Dahan Dalmedico

7

I. Le débat sur la croissance des années 1970 et ses outils

1. Croissance ou stabilité ? Lʼentreprise du Club de Rome et le débat autour des modèles par Élodie Vieille Blanchard

2. La construction historique des paradigmes de modélisation intégrés :

William Nordhaus, Alan Manne et lʼapport de la Cowles Commission par Pierre Matarasso

3. Les économistes face au long terme : lʼascension de la notion de scénario par Michel Armatte

21

44

63

II. L’alerte climatique, la gouvernance mondiale du régime climatique

4. Les modèles numériques de climat par Hélène Guillemot

5. Le régime climatique, entre science, expertise et politique par Amy Dahan Dalmedico

6. Les modèles dans les débats de politique climatique : entre le Capitole et la Roche tarpéienne ? par Jean-Charles Hourcade

93

113

140

III. Fabrication des futurs : batailles de représentation et délibération publique

7. Les émissions optimales de CO 2 le sont-elles vraiment ? par Christian Azar

167

8. Modèles mondiaux et représentation des pays en développement par Emilio Lèbre La Rovère, Vincent Gitz, André Santos Pereira

184

9. Pour une morale de la modélisation économique des enjeux climatiques en contexte dʼexpertise par Olivier Godard

203

10. Les couloirs de la persuasion. Usages de la communication, tissu associatif et lobbies du changement climatique par Emmanuel Paris

227

Les auteurs

245

Introduction

Modèles et fabrications du futur :

du débat sur la croissance au débat climatique et retour

Amy Dahan Dalmedico

Parmi les dégradations environnementales et les risques apparus au cours de ces dernières décennies, la question de lʼeffet de serre anthropique 1 et des changements climatiques qui devraient en résulter est certainement lʼune des plus complexes à saisir collectivement. La menace est-elle vraiment si grave ? Quelles sont les modalités de son évaluation ? Selon quelles procédures, à partir de quels savoirs envisage-t-on des réponses politiques et sociales à la hauteur du péril ? Vastes questions qui mobilisent, toutes, lʼétude des régimes de production des savoirs scientifiques (sciences de la nature et/ou sciences économiques et sociales) dans leurs interactions avec le politique 2 et que cet ouvrage a pour ambition de contribuer à éclairer. Considérons en premier lieu le point de vue de la science du climat :

comment les climatologues en arrivent-ils à affirmer que le climat va chan- ger, et avec telle ou telle ampleur ? Quels sont les outils et les méthodes des chercheurs engagés dans ce domaine ? Quʼen est-il des incertitudes relatives à ces assertions ? Pour toutes ces questions, les modèles numériques sont lʼoutil privilégié de la discipline, ils jouent un rôle fondamental tant dans la connaissance du climat présent et passé que dans les projections à long terme ou encore dans la mesure de la « sensibilité » à lʼeffet anthropique. Le besoin de confronter et de valider les résultats des modèles, la nécessité dʼévaluer lʼétat des connaissances et des réponses possibles ont dʼailleurs conduit, dès 1988, à la constitution de formes singulières et inédites dʼexpertise – avec notamment la création du Groupe dʼexperts intergouvernemental sur lʼévolution du climat (le GIEC 3 ) – qui méritent notre attention.

1. Cʼest-à-dire lié aux activités humaines.

2. Pour une mise en perspective historique de cette question, voir le livre de Dominique Pestre,

Science, argent et politique, publié aux Éditions de lʼINRA en 2003.

8

LES MODÈLES DU FUTUR

En raison des caractéristiques globales et planétaires de la question, de lʼampleur des dégâts possibles et des implications considérables quʼaurait pour nos sociétés la réduction des émissions de gaz à effet de serre, le réchauf- fement climatique pose, en second lieu, une question inédite aux sciences économiques : aider à définir les actions à entreprendre face au phénomène. Et contribuer, à ce titre, à élaborer des réponses qui devront être acceptées depuis le niveau mondial jusquʼau niveau local. Or, il sʼavère là aussi que les sciences économiques ne savent traiter la complexité de ce problème quʼen recourant à des modèles. Il importe donc de mettre à plat ces derniers, de savoir comment ils sont élaborés, partagés, perfectionnés par la communauté des économistes. Mais aussi de comprendre dʼoù ils viennent, ce quʼils ignorent ou charrient implicitement. Il nous faut saisir le rôle que ces modèles jouent dans dʼautres arènes que les milieux académiques – forums de négociations internationales, organismes de décisions dans des cadres nationaux, espace public ou médias – et les malentendus éventuels qui en résultent. Les modèles ont donc un statut hégémonique dans deux ensembles (au moins) de communautés de chercheurs (des sciences de la nature et des sciences économiques) engagés dans le domaine du changement climatique. Mais une autre notion joue également un rôle prééminent : celle de scénario. En effet, pour tous ceux qui cherchent à fournir des prédictions numériques et des savoirs quantitatifs sur le futur éloigné de notre planète et celui de nos sociétés, les scénarios dʼévolution socio-économique sont incontournables ; ils entrent en inputs des modèles proprement climatiques et ils interviennent dans la nouvelle génération des modèles dits intégrés qui couplent modèles dʼactivités humaines (évolution énergétique, usage des sols…) et modèles « de lʼunivers ». Ainsi, dans la fabrication des futurs, une relation incestueuse entre modèle et scénario tend à sʼétablir : le scénario intervient dans les modè- les et le modèle permet de produire des scénarios. Il nous a semblé que cette relation méritait dʼêtre auscultée. En troisième lieu, enfin, la dimension proprement géopolitique caractérise massivement le changement climatique. Après la convention de Rio en 1992, des Conférences des Parties (les COP 4 ) se réunissent annuellement sous lʼégide de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC 5 ) et deviennent des arènes de négociation internationale sur la politique climatique. En moins de dix ans, le sujet est passé dʼune préoccu- pation scientifique complexe à un thème politique qui divise la diplomatie internationale, met en compétition les intérêts économiques, voit sʼaffronter

4. COP : Conference of Parties. « La Conférence des Parties est lʼorgane suprême de la convention

[la Convention-cadre des Nations unies sur les changements climatiques, CCNUCC]. Elle prend, dans

les limites de son mandat, les décisions nécessaires pour en promouvoir la mise en œuvre effective » (article 22 de la convention Climat, point 2).

INTRODUCTION

9

les conceptions du droit, fait diverger les choix politiques et reconfigure les alliances. La négociation sur le climat et la politique climatique se confirme comme lʼune des plus difficiles, en particulier parce quʼelle exige une avancée déterminante de la gouvernance mondiale. Une course paraît engagée entre la dégradation du climat et la capacité de décision politique des pays de la planète. Son moteur est puissant : cʼest notre communauté de destin sur cette terre. Derrière la question du multilatéralisme et au-delà des inégalités Nord- Sud quʼil faut affronter, se profile une question autrement cruciale : celle de la capacité de lʼhumanité à faire face collectivement à son avenir. Lʼalerte sur lʼeffet de serre a puissamment relancé les efforts de production dʼimages du futur. La production de ces divers scénarios du futur, associés à lʼémer- gence de la notion de développement durable, devient dʼailleurs un enjeu suffisamment critique dans les débats de politique internationale pour être soumise à une « évaluation par les pairs » dans le cadre du Groupe dʼexperts intergouvernemental sur lʼévolution du climat. Sur les questions politiques, notre objectif nʼa pas été – car ce nʼétait pas exactement notre compétence – dʼétudier dans le détail le processus des négociations ayant conduit au protocole de Kyoto et dʼen faire le bilan à lʼheure où les perspectives dʼengagement pour la période qui va au-delà de 2012 sont fort peu claires 6 . Nous avons abordé la dimension géopolitique du problème climatique plutôt du point de vue des science studies que de celui des sciences politiques, en insistant sur les questions suivantes : comment les enjeux géopolitiques croisent-ils, dans ce contexte, les enjeux scientifiques ? Comment fonctionne la fabrication de consensus scientifiques pour la décision politique, et quel est lʼimpact de cette fabrique sur la vie scientifique elle- même ? Peut-on évaluer le poids de la communauté scientifique et la qualité du travail effectué par les organismes dʼexpertise, notamment le GIEC, dans le processus politique ? Lʼétude dʼautres controverses scientifico-techniques contemporaines a montré que les logiques scientifique et politique ne se déve- loppent pas séparément ; au contraire, elles interagissent et sʼhybrident parfois étroitement. Quʼen est-il dans le domaine du changement climatique ?

6. Au bénéfice du processus, on pourrait inscrire lʼémergence dʼun cadre relativement « éthique » permettant la fixation dʼengagements de résultats quantifiés concernant les émissions des pays industrialisés, lʼascension dʼune opinion publique mondiale douée dʼune conscience planétaire (ONG, médias), la réouverture de la négociation Nord-Sud et lʼinvention de mesures de flexibilité. Parmi les insuffisances notoires, il faut souligner lʼabsence de débat sur les modes de vie, la faiblesse des politiques effectivement conduites dans les pays industrialisés, la confiance excessive dans les mécanismes régulateurs de marché et sans doute la lourdeur des règles de lʼONU. Voir lʼarticle de Pierre Radanne, « Les négociations à venir sur les changements climatiques », Études prospectives, n° 1 (publications de lʼIEPF, Montréal, 2004) et la thèse en sciences politiques de Benjamin Denis, La politique internationale du climat. Analyse du processus de construction du cadre international de lutte contre le réchauffement global, soutenue à lʼUniversité libre de Bruxelles en 2006.

10

LES MODÈLES DU FUTUR

En résumé, modèles, scénarios, expertise, interactions entre le scientifique et le politique, fabrication des futurs sont les questions, tant conceptuelles que pratiques, privilégiées dans cet ouvrage. Nous avons voulu les aborder de différents points de vue : méthodologique, historique, épistémologique et politique. Avec cette pluralité dʼangles dʼanalyse qui se superposent et se combinent au fil des chapitres, notre objectif était de promouvoir et dʼencou- rager une attitude réflexive et critique à leur égard.

La première partie de lʼouvrage est une mise en perspective historique dʼun certain nombre dʼoutils – modèle mathématique global, modèle intégré, scénario – devenus récurrents dans le débat climatique. Ces outils ont acquis dès les années 1970 une importance déterminante dans lʼétude du futur à la suite du manifeste lancé par le Club de Rome contre la croissance. En effet, la publication du célèbre Limits to Growth 7 en 1972 et du modèle World de Forrester initie une large discussion, tant académique que publique, sur la viabi- lité de notre société de croissance et lʼépuisement des ressources de la planète. Ce débat sʼarticule également autour dʼautres modèles globaux, mis en place progressivement au cours de la décennie, qui apportent chacun un éclairage et des conclusions spécifiques sur cette question de la croissance. Élodie Vieille Blanchard revisite cette époque, tant les modèles que les controverses – notam- ment la critique féroce de lʼéconomiste William Nordhaus, qui va construire le modèle DICE (Dynamic Integrated Model of Climate and Economy) en réaction à World. Elle cherche à mettre en lumière la manière dont chaque modèle est porteur de présupposés idéologiques implicites, en particulier un rapport spécifique à la technologie et à la nature. Ces cosmologies concourent, dit-elle, avec le choix dʼune méthodologie propre de modélisation, à construire une image du futur et à énoncer certaines prescriptions sur les meilleurs choix présents à faire pour nos sociétés dans la perspective de ce futur. Les avocats de la croissance zéro, quʼils aient été critiqués ou approuvés, ont suscité à leur époque un grand intérêt, y compris dans le milieu académi- que. Ce nʼest plus le cas de nos jours, pourquoi ? Dans son étude sur la genèse de la modélisation intégrée, Pierre Matarasso propose une explication et une réponse à cette interrogation. Deux structures de modèle économique jouent un rôle particulièrement important dans la modélisation intégrée du changement climatique : les modèles de « croissance optimale » et les modèles « dʼana- lyse dʼactivités ». Les premiers sont à la base des approches dites top-down (approche globale et généralement agrégée de lʼéconomie), les seconds sont au cœur des approches bottom-up (approche par les technologies). Deux auteurs importants sʼillustrent dans chacune de ces approches : William Nordhaus avec

7. Rapport au Club de Rome traduit en français sous le titre Halte à la croissance ! et paru aux éditions Fayard en 1972.

INTRODUCTION

11

son modèle DICE de croissance optimale ; Alan Manne et le modèle MARKAL (Market Allocation Model) dʼanalyse dʼactivités. Ces deux modèles ont fait école, ont été déclinés par de très nombreux auteurs ; ils ont suscité un effort coopératif international, aujourdʼhui repris par le G8. Grâce aux archives de la Cowles Foundation, lʼun des centres américains les plus importants de la mathématisation des sciences économiques, Pierre Matarasso propose un récit des origines, à la fois intellectuelles et politiques, de ces paradigmes de modé- lisation à travers les travaux de Ramsey et de von Neumann, lʼémergence de la recherche opérationnelle et la critique du Club de Rome. Cette inscription dans le mainstream de la science économique expliquerait ainsi, pour lui, la suprématie des modèles de croissance à la Nordhaus et la marginalisation de la tradition issue du Club de Rome. Dans les années 1970, la construction des représentations du futur éner- gétique se fonde sur des modèles économétriques très simples de prévision de croissance des consommations par extrapolation du passé sur de grands agrégats. La croissance énergétique est ainsi rigidement liée à la croissance économique ; la prolongation des tendances à vingt ou trente ans laisse imagi- ner une convergence vers le mode de vie américain. La technologie nucléaire est souvent là pour répondre à la raréfaction des ressources de combustibles, avec son cortège de filières dont le développement est censé sʼenchaîner harmonieusement pour mettre fin à notre assujettissement aux ressources épuisables et sauver le rêve dʼune société opulente. Des représentations uto- piques concurrentes émergent simultanément, révélant un optimisme similaire mais opposé pour des solutions technologiques alternatives, mobilisant les énergies renouvelables à grande échelle et témoignant dʼune efficacité éner- gétique jamais atteinte. Cʼest notamment de cette confrontation que va naître lʼapproche exploratoire du futur énergétique de moyen-long terme par scénario pour balayer le champ des futurs possibles, en ouvrant les boîtes noires des dynamiques macroéconomiques et des comportements agrégés. Cʼest à une étude en profondeur de lʼattitude des économistes face au long terme que se livre Michel Armatte. Après avoir passé en revue les différents temps de lʼéconomie et les méthodes qui y sont associées (la conjoncture, les budgets, la planification), il souligne que la méthodologie privilégiée des éco- nomistes pour les raisonnements de long terme est le recours aux modèles théo- riques de croissance. Lʼun des plus célèbres, le modèle de Solow, a dʼailleurs inspiré Nordhaus pour son modèle DICE. Or la démarche prospective – dont Michel Armatte évoque les moments forts et les principaux lieux (français et américains) – sʼen distingue nettement. Ses principales caractéristiques – le volontarisme des projections et surtout la pluralité des futurs – la rendent a priori suspecte aux yeux des économistes. Michel Armatte sʼarrête alors sur la méthode des scénarios au centre de la démarche prospective. Lʼexamen de plusieurs cas historiques de construction de scénarios – « scénarios de

12

LES MODÈLES DU FUTUR

lʼinacceptable » (DATAR), scénario « Interfuturs » (OCDE), Scanning the Future (scénario néerlandais)… – lui permet dʼexplorer les articulations pos- sibles entre modèle et scénario, en particulier dans le cas des scénarios SRES 8 utilisés par le GIEC dans le domaine du changement climatique. Il met ainsi en évidence le double caractère des scénarios : quantification rattachée à la tra- dition des modèles intégrés et forme qualitative (narrative storyline) dʼimage ou de récit qui restitue une cohérence et permet une large diffusion. Vers la fin des années 1980, la question du réchauffement climatique global fait irruption sur la scène tant scientifique que géopolitique et médiatique. La deuxième partie de cet ouvrage est principalement consacrée à lʼalerte climatique, considérée dans ses rapports au politique : fonctionnement de lʼexpertise, définition des politiques climatiques. À lʼheure où un certain « anarchisme épistémologique » se manifeste 9 , nous avons souhaité fournir au lecteur une introduction à la modélisation numérique globale du climat. Domaine de longue tradition scientifique, développé depuis les années 1960, la modélisation du climat a été stimulée par plusieurs dynamiques. Premièrement, des dynamiques instrumentales : dʼune part, la puissance croissante des ordi- nateurs a été un élément moteur du développement des modèles ; dʼautre part, les technologies spatiales ont permis dʼengranger une quantité croissante de mesures et de données dʼobservation, sans lesquelles aucun modèle ne pour- rait exister. Deuxièmement, une dynamique opérationnelle, car la prévision météorologique a revêtu depuis les années 1950 une importance stratégique croissante. Sans omettre, évidemment, la logique des dynamiques proprement scientifiques. Hélène Guillemot nous offre une description très informée des pratiques de construction des modèles numériques de climat et de leurs mutations sous lʼinfluence des problématiques du changement climatique. Ces modèles se sont progressivement complexifiés depuis les premiers modèles de circulation atmosphérique jusquʼaux modèles du « système Terre », qui intègrent désormais un nombre croissant de milieux et dʼinteractions entre eux (océans, sols, hydrologie, végétation, pollutions chimiques, cycle du carbone, etc.). Lʼintroduction des sols, par exemple, a entraîné lʼintroduction de tout un ensemble de savoirs, de pratiques, dʼacteurs et de modèles nou- veaux. Non seulement elle sʼinscrit dans la tendance irrésistible d’intégration dʼéléments de plus en plus hétérogènes, de mécanismes et de rétroactions de plus en plus complexes – intégration indissociable de lʼeffort de réduction des incertitudes –, mais lʼintervention des surfaces amorce un mouvement de

8. Abréviation consacrée pour le Special Report on Emissions Scenarios publié par lʼIPCC (Intergovermental Panel on Climate Change, dénomination anglo-saxonne du GIEC) en 2000. 9. Nous faisons référence ici à la critique de Claude Allègre, grand scientifique mais extérieur au domaine de la climatologie, déclarant avec arrogance : « Je doute et jʼai le droit de douter ! » Cet anarchisme nʼa rien à voir avec les controverses instruites entre spécialistes et chercheurs engagés dans le domaine qui sont le lot ordinaire de la recherche.

INTRODUCTION

13

retour vers des questions et des préoccupations plus locales. Hélène Guillemot accompagne ses descriptions dʼune réflexion épistémologique sur les princi- pales méthodologies à lʼœuvre, le souci de validation des modèles, la néces- sité des « traductions » et le caractère pluridisciplinaire des pratiques que lʼordinateur favorise. Modèles, simulations, paramétrisations, couplage de modèles, intégration, complexité sont les notions principales (ou les concepts) qui y jouent un rôle clé. En moins de dix ans, on lʼa dit, le changement climatique est passé du statut de sujet scientifique complexe à celui dʼun thème politique aux enjeux majeurs. La structuration du GIEC en trois groupes de travail, les études quʼil suscite, lʼagenda quʼil définit ont contribué à reconfigurer lʼensemble du champ. À partir de 1995, les Conférences des Parties réunies annuelle- ment deviennent des arènes de négociations internationales sur le sujet en même temps que des forums hybrides où se croisent des groupes de plus en plus variés. Progressivement, les préoccupations centrales de la recherche se modifient, de nouvelles pratiques apparaissent ; les enjeux géopolitiques croisent les questions scientifiques. Un seul exemple ici suffira à lʼillustrer. La question posée dans la convention de Rio était celle dʼune inflexion des trajectoires dʼémissions des pays industrialisés, cʼest-à-dire passer dʼune croissance continue à une stabilisation, puis à une réduction de ces émissions. Depuis, les travaux scientifiques du GIEC ont introduit une question concrète déterminante : quelle dégradation du climat acceptons-nous ? Cette question en a amené dʼautres en cascade : vers quelle concentration en carbone se stabiliser ? Quelles sont les trajectoires dʼémissions qui conduisent à cette concentration ? Vers quelle répartition des émissions entre les pays industria- lisés et les pays en développement doit-on aller ? Lʼobjectif principal dʼAmy Dahan est de revenir sur cette évolution, sur le rôle déterminant quʼy ont joué le GIEC et dʼautres institutions du régime. À partir du point de vue des études sociales des sciences, elle propose une réflexion sur les relations entre science, politique et expertise dans ce domaine. Elle accorde une attention privilégiée aux liens entre expertise scientifique et gouvernance globale, marquée en particulier par la tension des rapports Nord-Sud. En revenant sur la cartographie des communautés scientifiques, des institutions et des acteurs, elle sʼattache à mettre en évidence lʼhybridation croissante des dynamiques scientifiques et des politiques. Elle analyse notamment le fonctionnement et le positionnement du GIEC, véritable fer de lance du régime climatique qui, dʼun

côté, revendique un modèle traditionnel dʼexpertise scientifique et, de lʼautre, joue un rôle déterminant dans lʼarticulation avec le politique. Afin de réfléchir

à ce que cet exemple nous enseigne sur les liens entre science et politique à

lʼéchelle internationale, sur les questions de construction et de fonctionnement,

à cette échelle, de lʼexpertise, prise entre normes de scientificité et exigences de délibération démocratique.

14

LES MODÈLES DU FUTUR

Jean-Charles Hourcade prend acte de lʼambiguïté qui préside à toute convocation des modèles économiques dans la détermination des politiques climatiques qui pourraient être préconisées. Dans ce contexte, souligne-t-il, les modèles peuvent être vus comme un langage de communication entre disciplines, comme un langage de négociation entre acteurs séparés par des divergences dʼintérêts et de visions du monde et, aussi, comme un outil de détermination des paramètres « objectifs » permettant de définir les bonnes politiques. Il décortique lʼutilisation – nécessaire et inévitable, dit-il – de métaphores par les modélisateurs pour rendre compte en langage « naturel » de la syntaxe interne de leurs outils ; et de la manière dont ces métaphores débouchent souvent sur des jeux sémantiques qui ont un effet structurant sur la délibération publique, précisément parce que les notions utilisées repren- nent alors un sens commun en partie dissocié de celui quʼelles revêtent dans la communication interne entre modélisateurs. Jean-Charles Hourcade étudie ce mécanisme autour de trois groupes de notions qui ont eu et continueront dʼavoir un impact réel sur les débats stratégiques : les notions dʼéquilibre et dʼoptimum (de quel scénario de base parle-t-on ?), les coûts et les bénéfices des politiques climatiques (faut-il agir ou pas ?), « lʼévidence » du prix unique du carbone comme garant de lʼefficacité. Techniques de modélisation à lʼori- gine, lʼéquilibre général, le sentier optimal ou les anticipations rationnelles se révèlent ainsi être également des métaphores qui véhiculent des perceptions du fonctionnement de lʼéconomie, ce qui les empêche de jouer leur rôle de clarificateur du débat. Jean-Charles Hourcade sʼinterroge sur lʼexistence dʼune matrice commune entre les constructeurs de modèles et leurs « clients », voire leurs critiques, permettant de comprendre les effets de croyance et dʼhypnose qui ont pu contribuer à des blocages décisionnels ; matrice nécessairement complexe et dont le fonctionnement ne peut quʼêtre historiquement situé. Il suggère cependant quʼelle comporte trois dimensions structurantes : le rap- port à lʼincertitude et à la controverse, lʼimpression de « tangibilité » et de transparence versus lʼopacité des artefacts et, enfin, une confrontation à portée idéologique plus fondamentale autour de la question du « constructivisme », du type de la position dʼHayek, cʼest-à-dire contestant la possibilité même de définir des politiques climatiques. La troisième partie de lʼouvrage laisse place à plusieurs études qui soit approfondissent, sous certains angles, lʼanalyse critique des modèles écono- miques de changement climatique engagée dans les chapitres précédents, soit abordent leurs dimensions éthiques ou communicationnelles. Par exemple, le cadre tant des modèles de croissance optimale que des modèles dʼanalyse dʼactivités est fondé sur le concept dʼoptimalité. Cʼest ce concept même quʼin- terroge Christian Azar. Quoique lʼeffet de serre soit considéré comme lʼun des problèmes environnementaux les plus sérieux, certaines études économiques – dont le célèbre modèle DICE de Nordhaus – continuent à dire quʼil serait

INTRODUCTION

15

optimal de laisser les émissions de gaz à effet de serre être multipliées par trois au cours du siècle à venir. Dʼautres études, en revanche, concluent que des réductions considérables seraient justifiées par les seuls motifs économiques. Christian Azar cherche à cerner précisément les raisons de ces divergences, et il se concentre sur quatre questions cruciales qui interviennent dans les analyses économiques de lʼeffet de serre : les « surprises » climatiques catas- trophiques (événements de faible probabilité, mais aux conséquences énor- mes), les méthodes dʼévaluation des coûts, le choix du taux dʼactualisation et, enfin, le choix des critères de décision. Il met en lumière le rôle décisif de ces questions dans les conclusions politiques tirées des modèles économiques du changement climatique, et en particulier comment elles impliquent, chacune, des choix éthiques significatifs. Cette conclusion simple de la présence de choix éthiques et de jugements de valeur dans les modélisations économi- ques doit être reconnue très largement, plaide Christian Azar, car lʼéconomie est trop souvent perçue comme un outil neutre, apte à fournir les politiques « optimales » aux décideurs. Emilio Lèbre La Rovere, Vincent Gitz et André Santos Pereira discutent les principales difficultés de représentation, par les modèles mondiaux, du système de lʼéconomie, du système énergétique et de lʼusage des sols dans les pays en développement. Ils passent en revue différents obstacles : dis- ponibilité et qualité des données, imperfection des marchés, spécificité des ressources dʼénergies renouvelables, dynamiques dʼoccupation du territoire, etc. La question fondamentale quʼils soulèvent – celle de lʼidentification des limites de lʼexercice de modélisation dans le cas des pays en développement – est finalement très représentative de la problématique générale de limitation des émissions de gaz à effet de serre face au défi du changement climatique. Ces émissions ont un lien direct avec le niveau dʼactivité économique dʼun pays, sa façon de produire et de consommer lʼénergie, mais aussi sa manière dʼutiliser les sols. Or, les secteurs traditionnels et informels de lʼéconomie dans les pays en développement sont un exemple privilégié de lʼintersection entre ces trois axes dʼanalyse. En effet, les activités intégrées par ces secteurs correspondent à une partie importante de la production agricole, de la consom- mation énergétique des ménages et de lʼusage des sols. Paradoxalement, ces secteurs contribuent dʼautant plus fortement aux émissions de gaz à effet de serre que leur représentation par des modèles mathématiques est plus complexe et limitée. Les auteurs attendent des équipes de modélisation travaillant dans les pays en développement quʼelles rendent mieux compte de ces problèmes. La densité des travaux de prévision et de prospective énergétique ne supprime pas le sentiment de grande incertitude que nous éprouvons vis- à-vis de lʼavenir ; elle tend même à imposer lʼimage dʼun avenir joué très largement sans nous. Olivier Godard nous invite à réfléchir à la manière dont la conception de la modélisation à long terme, dans le champ de lʼénergie

16

LES MODÈLES DU FUTUR

et du climat, pourrait servir ou desservir la liberté collective. Il sʼappuie en particulier sur deux épisodes précis de lʼhistoire de la modélisation dans ce domaine : lʼusage en 1992 du modèle Global 2100 par Alan Manne et Richard Richels pour évaluer lʼimpact du projet européen de taxation des émissions de carbone et les travaux menés en France en 1996-1998 par le groupe Énergie 2010-2020 du Commissariat général du Plan. Plusieurs questions émergent de ces deux exemples. La modélisation utilisée en contexte dʼex- pertise nʼa-t-elle pas souvent pour enjeu, plus ou moins tacite, de façonner les représentations et les anticipations, voire dʼexciter des réflexes, plutôt que de susciter la réflexion et dʼêtre un vecteur de lumière permettant dʼéclairer les consciences ? Olivier Godard aborde aussi les modalités dʼune prise en charge explicite de la pluralité des avenirs possibles. Mais lʼinscription dʼune telle pluralité au cœur de la modélisation est-elle vraiment souhaitée, tant par les décideurs que par les modélisateurs ? Nʼest-elle pas contradictoire avec le projet dʼune modélisation intégrée, qui aurait internalisé toutes les variables humaines et naturelles ? Il sʼinterroge également sur les hypothèses normatives qui assignent aux « générations futures » une forme de repré- sentation identique à celle des générations actuelles, sans sʼembarrasser des problèmes nombreux que pose le statut éthique de ces générations éloignées. Un utilitarisme simpliste lui paraît le substrat implicite de ces modèles éco- nomiques à long terme. Cʼest sous un autre angle quʼEmmanuel Paris, spécialiste des sciences de lʼinformation et de la communication, explore également la question des rap- ports entre liberté collective et maîtrise du futur. « Le futur nous appartient. » On peut comprendre cette formule ainsi : dans une société démocratique, la voix de chacun compte pour dire de quoi demain doit être fait, et comment sʼy prendre. Dans cette acception, la définition collective du futur prendrait consistance sous deux conditions : la conscience partagée par tous de lʼintérêt de prendre connaissance de lʼavis de chacun au sujet de ce que doit être le futur et lʼexistence dʼun système capable dʼorganiser de manière « pure et parfaite » lʼéchange des points de vue à ce sujet. Emmanuel Paris explore la validité dʼune telle interprétation, selon laquelle le futur nous appartiendrait effectivement, la communication des paroles exprimées à ce sujet en faisant foi. Quel rôle joue alors lʼactualité dans la communication du changement climatique ? En effet, au fil des semaines se succèdent dans les médias les descriptions de crises durant lesquelles le problème posé à la société par ce phénomène environnemental est redéfini. Ces traductions incessantes sont le fait dʼindividus et de collectifs poursuivant dans lʼespace public un même double objectif : modifier les représentations sociales du phénomène et mener le processus de résolution collective des problèmes quʼil pose.

INTRODUCTION

17

Les auteurs réunis ici ne se revendiquent pas, on lʼaura compris, dʼun même point de vue ou dʼune approche identique. Historiens et sociologues des sciences, économistes ou spécialistes des sciences de lʼinformation et de la communication nʼont pas les mêmes méthodes ni les mêmes traditions intellectuelles ; ils ne se posent généralement pas les mêmes questions. De plus, il subsiste toujours, dans les échanges, des chocs entre visions du monde distinctes, entre points de vue optimistes et pessimistes, qui sont le produit dʼhistoires idiosyncrasiques complexes. Cet ouvrage est le résultat dʼun projet de recherche interdisciplinaire 10 qui sʼest déroulé pendant quatre ans (2003-2006). Et de très nombreux séminai- res, ateliers de travail et journées dʼétudes, ouverts à des chercheurs et des doctorants de diverses disciplines, ont offert lʼopportunité de confrontations approfondies 11 . Par ce retour répété sur les notions et les énoncés les plus courants, nous avons été, en un sens, contraints à la réflexivité. Cʼest celle-ci que nous nous sommes attachés à transmettre. Réflexivité ne signifie pas manque de conviction ou indifférence. Le débat sur la croissance des années 1970 a suscité un courant intellectuel qui a forgé les outils du débat climatique. Aujourdʼhui, ce débat nous renvoie, via les questions énergétiques et environnementales, aux questions posées par lʼépuisement des ressources et la durabilité du développement, donc au débat sur la croissance. La boucle semble bouclée. Pourtant, la qualité du débat sur le changement climatique dans lʼopinion publique reste insatisfaisante. Or, aucune négociation sur la réduction des émissions ne peut déboucher sur des résultats significatifs si elle nʼest pas fondée sur un large débat public. La première bataille est culturelle : il nous faut construire un imaginaire de long terme concernant les politiques, les modes de vie et les futurs. Et il faut souhaiter évidemment que cette construction intervienne par une avancée de culture collective et non par la pression de

10. Ce projet a été soutenu financièrement par le ministère de lʼEnseignement supérieur et de

la Recherche dans le cadre dʼune ACI « Travail, techniques, théories. Travail interdisciplinaire en

sciences humaines et sociales ». Saluons ici quelques participants actifs du projet qui ne figurent pas comme contributeurs de lʼouvrage : Jean-Yves Grandpeix, Jean-Louis Dufresne, Hubert Kieken,

Venance Journé, Kostas Chatzis, Gilles Crague et un jeune doctorant, Stefan Aykut. Remercions également Julie Koskas et Patrick Mabire pour leur aide dans la traduction et la mise au point des articles de nos collègues étrangers. Je suis aussi très reconnaissante à Dominique Caillé pour sa collaboration rigoureuse dans la préparation finale du manuscrit.

11. Celles-ci se sont encore élargies à des anthropologues, des politistes, des écologues…, et

elles ont culminé au cours dʼun colloque international qui sʼest tenu à lʼÉcole nationale des ponts et chaussées (Paris) en mars 2006, coorganisé par Amy Dahan et Jean-Charles Hourcade.

18

LES MODÈLES DU FUTUR

contraintes institutionnelles ou, pire, par des violences armées et guerrières 12 . La question de la lutte contre le changement climatique jette un défi inédit à notre société, à notre civilisation. Lʼefficacité de lʼensemble nécessite lʼen- gagement de chacun. La vitalité démocratique, la qualité des comportements démocratiques pourraient bien devenir des facteurs déterminants pour maîtriser lʼeffet de serre. Un débat public est à construire ; une parole collective doit émerger. Puisse cet ouvrage issu dʼun effort de recherche lui-même collectif et interdisciplinaire y contribuer !

12. Voir le dossier de la revue Le Débat (n° 13, janvier-février 2005) : « La démocratie peut-elle faire face à une catastrophe climatique ? »

INTRODUCTION

19

I.

Le débat sur la croissance des années 1970 et ses outils

1

Croissance ou stabilité ? Lʼentreprise du Club de Rome et le débat autour des modèles

Élodie Vieille Blanchard

À la fin des années 1960, un groupe international, composé principalement de personnalités du monde des affaires et de la politique, se forme à lʼinitiative dʼun industriel italien, Aurelio Peccei. Son objectif est dʼétudier « les dangers globaux qui menac[ent] lʼhumanité », comme « la surpopulation, la dégra- dation de lʼenvironnement, la pauvreté dʼenvergure mondiale et le mauvais usage de la technologie ». Ce groupe, dont la constitution est officielle depuis septembre 1968, et qui a pris pour nom « le Club de Rome » suite à une réunion fondatrice dans la capitale italienne, fait appel à des personnalités du monde scientifique et de la planification pour mener des recherches sur ces questions. Le premier résultat dʼun travail de modélisation réalisé dans ce cadre est la publication, en 1972, dʼun rapport sur les « limites de la croissance ». Ce rapport, en anglais The Limits to Growth, présente diverses simulations effectuées avec un modèle mathématique, et porte un message politiquement radical : il préconise dʼarrêter la croissance économique et démographique glo- bale, sans quoi, annonce-t-il, le monde devra faire les frais dʼun effondrement généralisé – de la production, du niveau de vie et, de fait, de la population. Suite à la sortie de ce livre, un débat sur « lʼavenir global » de nos sociétés sʼengage, et il sʼarticule autour de la mise en place dʼun certain nombre de « modèles mathématiques ». Dans les années qui précèdent, un certain nombre dʼouvrages avaient déjà soulevé le problème des implications du « progrès » dans le long terme, et appelé à ralentir lʼempreinte technologique sur la nature. Silent Spring, de Rachel Carson, ouvrage fondateur du mouvement écolo- giste américain, en est un exemple significatif [Carson, 1962]. Il condamne lʼapplication obsessionnelle de la technologie chimique à la lutte contre les insectes et appelle à une maîtrise des populations fondée au contraire sur une connaissance des écosystèmes, sʼappuyant sur leurs mécanismes naturels. Par ailleurs, au cours des années 1960, plusieurs économistes hétérodoxes avaient déjà développé une critique de la croissance économique, et appelé à la mise en

22

LES MODÈLES DU FUTUR

place dʼune « société de stabilité » [Boulding, 1966 ; Daly, 1971 ; Georgescu- Roegen, 1971]. Le Club de Rome nʼa donc pas inventé la « croissance zéro ». En revanche, la question de la viabilité du chemin que suit notre société glo- bale est exprimée, pour la première fois, en des termes mathématiques, les données du problème étant mises en relation au sein dʼun modèle, et lʼappel

à un mode de vie plus stable, en équilibre avec la nature, se voit investi de

lʼautorité dʼun ordinateur, celui sur lequel les simulations ont été effectuées. Le débat autour de la croissance, initié par la parution des Limits to Growth,

porte en lui des enjeux philosophiques et politiques majeurs. Il donne lieu

à lʼexpression de diverses représentations du lien entre société et environ-

nement naturel, et laisse transparaître toute une variété de positionnements concernant les priorités pour notre société globale dans le long terme. Nous souhaitons retracer ici ce débat dans ses grandes lignes et saisir la spécificité de lʼobjet « modèle » comme instrument dʼinvestigation, dʼargumentation et de communication. Après avoir décrit lʼémergence du projet du Club de Rome et sa mise en place, nous brosserons le tableau des modèles et des groupes participant au débat. Nous tenterons alors de comprendre comment, au sein de chacun dʼentre eux, sʼarticulent une méthodologie et un système de valeurs bien particuliers, qui concourent à en faire les porteurs de voix diverses sur le sujet de la croissance, témoins dʼintérêts sociaux et économiques variés.

DES MODÈLES POUR APPRÉHENDER LE FUTUR

Aurelio Peccei, le fondateur du Club de Rome, est paradoxalement issu du milieu de lʼindustrie, dans lequel la croissance est vue comme une bénédiction plutôt que comme un danger. Pour lʼentreprise FIAT notamment, il a assumé des responsabilités importantes dans le cadre de projets censés « développer » le tiers monde et visant à diffuser dans ces pays nos modes de production et de consommation. Mais dès le milieu des années 1960, son discours sʼest teinté dʼinquiétude à propos du « progrès », de ses conséquences sur lʼenvi- ronnement et sur les êtres humains, avec une insistance sur la nécessité de le comprendre et de le maîtriser. Cʼest dans ce souci que Peccei a fondé le Club de Rome à la fin des années 1960, avec Alexander King, alors directeur des affaires scientifiques à lʼOCDE. Dès lʼorigine, il sʼest agi de mobiliser les méthodologies systémiques issues du domaine militaire pour essayer de mieux comprendre les « grands problèmes de lʼépoque ».

Le Club de Rome et la modélisation

Erich Jantsch, consultant auprès de lʼOCDE pour les questions de prévision technologique, et Hasan Ozbekhan, cybernéticien, ont participé à lʼélaboration

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

23

des premiers projets. Ce dernier a développé le concept de « problémati- que mondiale », qui est présenté aujourdʼhui encore comme la raison dʼêtre du Club de Rome. Pour Peccei et ses collègues, les profondes transformations de notre monde technologique créent un faisceau de problèmes dʼéchelle glo- bale, dans des domaines aussi variés que lʼécologie, lʼéducation, la pauvreté ou les institutions politiques, et ces problèmes sont inextricablement liés les uns aux autres. Cʼest ce complexe de problèmes quʼil faut comprendre sous le terme de « problématique ». Initialement, le projet du Club de Rome a été de créer la méthodologie entièrement nouvelle requise par le caractère inédit des questions émergeant dʼun monde en profonde mutation technologique. Mais la réalité en a décidé autrement et le modèle qui a été fondé a abordé les choses dʼune manière bien plus restrictive que prévu : cʼest une métho- dologie existante, la dynamique des systèmes, qui a été mise au service du projet du Club de Rome. Cette méthodologie avait été élaborée au début des années 1960 au MIT (le Massachusetts Institute of Technology), par Jay Forrester, une figure importante du complexe militaro-industriel de la Seconde Guerre mondiale puis de la guerre froide. Ingénieur électrique de formation, celui-ci sʼétait investi dʼabord dans lʼ« effort de guerre » en déve- loppant des appareils techniques militaires, des radars par exemple. Il avait ensuite œuvré à la mise en place de dispositifs plus larges et complexes, en participant notamment au projet SAGE pendant la guerre froide, qui visait à développer un réseau automatisé de contrôle et de commandement (avec des radars disséminés sur lʼintégralité du sol des États-Unis) destiné à détecter lʼarrivée dʼéventuels missiles soviétiques. Un tel projet supposait une double élaboration : celle dʼune infrastructure matérielle et celle dʼun programme de fonctionnement, détaillant en particulier la manière dont lʼinformation devait circuler entre les unités. En 1956, Forrester, nouvellement installé à la Sloan School de Management du MIT, avait alors recyclé ses compétences dʼana- lyse et de gestion des systèmes au service du management, en développant une méthodologie appelée « dynamique industrielle », puis « dynamique des systèmes ». Cette méthodologie, conçue dʼabord pour résoudre des problèmes de gestion des entreprises, a ensuite été appliquée aux problèmes de lʼévo- lution des villes et de divers systèmes biologiques et sociaux. Elle conçoit un système comme un ensemble dʼéléments, liés les uns aux autres par des relations de cause à effet, quʼelle représente sur un schéma comportant des boucles de rétroaction, dans une perspective cybernétique. La programma- tion informatique des modèles de dynamique des systèmes repose sur des équations qui détaillent plus précisément ces relations. Elle donne lieu à des simulations qui présentent lʼévolution discrète du système dans un intervalle de temps donné. Pour répondre à la demande du Club de Rome, formulée à lʼoccasion dʼune rencontre à Berne en juin 1970, Forrester a dʼabord conçu seul, en trois

24

LES MODÈLES DU FUTUR

FIGURE 1. – STRUCTURE DU SYSTÈME MONDIAL POUR WORLD 2

IGURE 1. – S TRUCTURE DU SYSTÈME MONDIAL POUR W ORLD 2 Source : World Dynamics

Source : World Dynamics, J. Forrester [1971].

semaines, la première version dʼun modèle mondial, World 1, comprenant près de 40 équations non linéaires, nourrie avec les données chiffrées de lʼouvrage de Peccei, The Chasm Ahead [1969] et de quelques autres articles du même auteur. Ce modèle devient ensuite World 2 avec lʼimplication du System Dynamics Group, formé autour de Dennis Meadows – un jeune chercheur de 28 ans, qui a obtenu son doctorat en management au MIT –, puis World 3, le modèle présenté dans les Limits to Growth.

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

25

STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME … 25 Lʼéquipe qui développe ce

Lʼéquipe qui développe ce dernier modèle est pluridisciplinaire, interna- tionale, formée de 17 chercheurs, souvent jeunes, en majorité américains, et issus plutôt des sciences de la nature et du management. Il nʼy a aucun éco- nomiste. La structure de base du modèle global reste pratiquement inchangée entre les différentes versions. Elle sʼarticule autour de 5 variables clés : popu- lation, industrie, agriculture, ressources et pollution, la variable population étant centrale et les autres variables affectant son évolution par le biais de

26

LES MODÈLES DU FUTUR

coefficients multiplicateurs de la natalité, ou de la mortalité. Par exemple, une plus grande pollution fait augmenter le taux de mortalité, tandis quʼune plus grande abondance de nourriture fait croître le taux de natalité. Les simulations effectuées avec World 2 et World 3 seront présentées dans des rapports desti- nés au grand public, respectivement World Dynamics [1971] et The Limits to Growth [1972], ce dernier ayant un retentissement public considérable. World Dynamics est lʼœuvre de Forrester seul, tandis que The Limits to Growth est cosigné par quatre auteurs : Donella Meadows, la rédactrice principale, biophysicienne, épouse de Dennis Meadows ; Dennis Meadows lui-même, qui a dirigé le travail de modélisation ; Jørgen Randers, un Norvégien alors doctorant en management au MIT ; William Behrens qui a travaillé sur la partie « ressources » du modèle. Dans chacun des deux rapports, la structure du modèle est présentée sous la forme dʼun schéma qui montre comment ses éléments, décrits par des variables (population, état des ressources…), dépendent les uns des autres, formant des « boucles de rétroaction » (cf. figure 1, pages précédentes). À ce schéma correspond un système dʼéquations, chacune donnant lʼétat dʼune variable à la date t + 1 en fonction de lʼétat dʼautres variables à la date t. Les rapports présentent lʼévolution des variables pour un certain nombre de scénarios : le scénario de base suppose que les tendances présentes se pour- suivront, et le système y expose un comportement overshoot and collapse :

FIGURE 2. – LE COMPORTEMENT OVERSHOOT AND COLLAPSE DU MODÈLE WORLD 2

2. – L E COMPORTEMENT OVERSHOOT AND COLLAPSE DU MODÈLE W ORLD 2 Source : World

Source : World Dynamics, J. Forrester [1971].

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

27

la population et la pollution croissent jusquʼà atteindre une valeur limite, à partir de laquelle elles sʼeffondrent. La qualité de vie décroît également assez rapidement. Les scénarios suivants examinent les conséquences de progrès technologiques dans le domaine de la production, permettant à lʼindustrie dʼêtre moins polluante, ou moins gourmande en ressources naturelles. Ces hypothèses sont traduites par des variations de paramètres du modèle, comme celui qui correspond à la valeur « ressources naturelles à lʼorigine ». Leurs conséquences sont présentées sous la forme dʼun jeu de graphiques comme celui qui apparaît ci-contre (figure 2). On y voit apparaître lʼévolution des variables clés, avec en plus celle de la variable « niveau de vie ». Dans chacun de ces scénarios, on assiste au bout dʼun certain temps à un effondrement du système : les variables « qualité de vie », « population » et « production » croissent puis chutent. Les progrès technologiques ne modifient pas ce schéma comportemental, ils ne font que repousser lʼeffondrement plus loin dans le temps. Les seuls scénarios qui conduisent à un comportement dif- férent sont ceux où lʼon choisit de stabiliser la population et la production, ce à quoi le Club de Rome appelle dans ses rapports. Les simulations présentées dans World Dynamics et The Limits to Growth sont pratiquement les mêmes, mais lʼargumentation autour des simulations est beaucoup plus détaillée dans le second ouvrage. Donella Meadows y mène toute une réflexion sur le bien- fondé dʼune société de stabilité, en sʼappuyant sur des écrits philosophiques et économiques. La bibliographie de World Dynamics, en revanche, est quasi inexistante.

L’événement des Limits to Growth

La publication des Limits to Growth est un événement médiatique de grande envergure. Le magazine américain Time en propose une version syn- thétisée ; les journaux et la télévision en diffusent les méthodes et les conclu- sions, et donnent la parole à ses auteurs. En Europe, le futur président de la Commission du Marché commun, Sicco Mansholt, est profondément ébranlé par les conclusions du Club de Rome et propose de lancer immédiatement en Europe un programme politique de mise en place dʼune « économie de pénurie », contre lequel sʼinsurgent avec vigueur les hommes politiques de tous les bords de lʼéchiquier (en France, Georges Marchais et Raymond Barre protestent publiquement) [Reboul et Te Pass, 1972]. Chez les économistes, qui nʼapprécient pas les méthodes de lʼétude et rejettent ses conclusions, on assiste à une véritable levée de boucliers. La critique du modèle employé par le Club de Rome va donner lieu à la mise en place dʼun certain nombre dʼautres modèles, dans le but de contrer les conclusions des Limits…, en se fondant sur le même type de méthodologie. Dans le milieu académique en général, les réactions sont vives. John Maddox, lʼancien éditeur de Nature,

28

LES MODÈLES DU FUTUR

affirme que la trop grande simplicité du modèle World fait de lʼétude « une absurdité ». Lʼéquipe de la Science Policy Research Unit de lʼuniversité du Sussex, au Royaume-Uni, rédige collectivement une critique particulière- ment détaillée [Cole, 1973]. Cette critique porte dʼabord sur la structure du modèle, qui, selon elle, jette le discrédit sur la technologie comme moyen de résoudre les grands problèmes de société. Elle sʼattaque aussi à la fiabilité du modèle, en montrant que, lorsque lʼon fait tourner le modèle en arrière à partir de 1900, les variables prennent des valeurs aberrantes par rapport à la réalité historique. Enfin, elle dénonce lʼattitude « technocratique » du Club de Rome qui prétend, depuis son centre de recherche déconnecté de la société, dicter au monde la meilleure marche à suivre à partir de données chiffrées. Herman Kahn, le « futurologue » qui a fondé le Hudson Institute – après des années consacrées aux recherches militaires et en particulier à la question de lʼarme nucléaire –, élabore quant à lui, en réponse aux Limits to Growth, un « scénario pour les 200 prochaines années » [Kahn, 1976], où il cherche à montrer que le projet volontariste dʼune croissance zéro nʼest pas pertinent, en argumentant que la société mondiale est en train dʼeffectuer spontanément un virage vers une ère de stabilité « post-industrielle », où la consommation ne sera plus une fin en soi.

L’IIASA et la modélisation globale

Dès la présentation des premiers résultats des modèles World, et avant même la parution des Limits to Growth, la méthodologie et les conclusions du Club de Rome sont critiquées ; deux équipes décident de fonder chacune un nouveau modèle « global » pour apporter de nouveaux éléments de réponse à la question soulevée. La première équipe sʼorganise à Hanovre autour dʼEduard Pestel (pro- fesseur de mécanique à lʼorigine et lʼun des fondateurs du Club de Rome) et à Cleveland autour de Mihajlo Mesarovic (fondateur de la théorie « des systèmes hiérarchiques multiniveaux » qui sera appliquée dans le modèle). Elle inclut des chercheurs en sciences politiques – Barry Hugues et John Richardon Jr –, et sa critique porte principalement sur lʼabsence de prise en compte des disparités régionales démographiques, industrielles et agricoles dans les modèles World, pour lesquels le monde est décrit par un jeu unique de variables globales [Mesarovic et Pestel, 1974]. La seconde équipe est composée principalement de chercheurs des pays du Sud, avec une représentation importante de mathématiciens et dʼécologues, et son étude se voit patronnée par la fondation Bariloche, en Argentine. Pour ce groupe de recherche, les problèmes soulevés dans les Limits to Growth, comme celui de lʼépuisement des ressources, sont essentiellement des problè- mes de pays riches, et, par ailleurs, la catastrophe annoncée par le rapport est

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

29

déjà une réalité présente pour bien des pays du tiers monde. Lʼidée est donc de créer un modèle pour déterminer sʼil est possible de satisfaire les besoins fondamentaux de ces pays, et pour définir les meilleures mesures à prendre pour y parvenir [Herrera, 1977]. Le premier modèle adopte la méthodologie mise en place par Mihajlo Mesarovic à des fins de gestion des entreprises, qui met en évidence, pour un système, la coordination entre différents niveaux de prise de décision et la manière dont des décisions prises dans des secteurs particuliers du système lʼaffectent au niveau global. Ce modèle a pour ambition de faire apparaître lʼhétérogénéité des parties du monde et leur interdépendance. Dans le modèle, les pays sont donc regroupés en 10 grandes régions. Ses résultats sont présentés dans le second rapport au Club de Rome, publié en 1974, et qui diffère du premier par plusieurs aspects. Tout dʼabord, la structure du modèle, vraisem- blablement bien moins facile à schématiser que celle de World, nʼy apparaît pas. Ensuite, chaque chapitre soutient un message particulier quʼil appuie en mettant en avant le comportement de telle ou telle variable sous telle ou telle hypothèse. Par exemple : il faut se mobiliser rapidement pour combler le fossé entre pays riches et pays pauvres ; ou alors : il est bénéfique pour tous les pays de coopérer afin de se partager au mieux les ressources naturelles plutôt que de se battre pour se les approprier. La conclusion générale de lʼouvrage, naturellement plus nuancée que celle du premier rapport au Club de Rome, ne connaît pas de retentissement public. Elle prétend surtout dépasser la dichoto- mie du débat soulevé par les Limits to Growth (pour ou contre la croissance ?) et appelle à cultiver dans le monde une « croissance organique » – qui permette à ses différentes parties de se développer harmonieusement – plutôt quʼune « croissance indifférenciée », insoutenable dans le long terme. Dans le « modèle Bariloche », le monde est découpé en 4 grandes régions :

monde développé, Afrique, Asie, Amérique latine. Le problème auquel le modèle prétend répondre est celui de la satisfaction des besoins fondamentaux de ces trois dernières régions. Ainsi, le rapport rédigé à lʼattention du grand public [Herrera, 1977] commence par dessiner une société normative où des niveaux acceptables de développement auraient été atteints dans les domaines du logement, de lʼalimentation et de lʼéducation. Le modèle, introduit après, prétend estimer la possibilité de réalisation dʼune telle société. La représenta- tion de sa structure ressemble à celle des modèles World : elle fait apparaître des boucles de rétroaction qui montrent comment les variables dépendent les unes des autres. La variable « espérance de vie », qui dépend directement de la satisfaction des besoins fondamentaux et indirectement du niveau de vie, y joue un rôle central. La méthodologie de lʼétude consiste à la maximiser sur chaque période dʼun an et à faire évoluer les autres variables en conséquence. Plus précisément : au début de chaque année et pour chaque région, lʼétat des variables du modèle détermine une quantité totale de ressources humaines et

30

LES MODÈLES DU FUTUR

financières disponibles. Lʼordinateur détermine alors la répartition optimale de ces ressources entre différents secteurs dʼactivité : celle pour laquelle lʼespérance de vie sera maximale à la fin de lʼannée. Ce choix de répartition étant fixé, le modèle tourne alors sur la période suivante et détermine une nouvelle quantité de ressources humaines et financières disponibles pour lʼan- née suivante. Lʼoptimisation est réitérée de proche en proche. La conclusion du rapport est quʼil est possible de parvenir assez rapidement à une situation acceptable pour lʼAmérique latine, et à moyen terme pour lʼAfrique et lʼAsie. Elle stipule aussi que les pays développés devront accepter de stabiliser leur niveau de vie afin de permettre aux plus pauvres de sortir de la misère. Comme chez Mesarovic et Pestel, il y a donc une prise en considération du monde dans sa diversité, et lʼon ne peut envisager lʼévolution de lʼune de ses parties sans tenir compte des autres. Au cours de la décennie 1970, dans la continuité du débat, une petite dizaine de modèles « globaux », à lʼinstar des trois que nous venons de pré- senter, seront mis en place par des équipes situées en différents points du monde. Ces modèles seront tous discutés et évalués au cours de conférences organisées entre 1974 et 1980 par lʼIIASA (International Institute for Applied Systems Analysis, un organisme fondé en 1972 dans les environs de Vienne, à lʼinitiative de Peccei, dans lʼobjectif de rassembler pays de lʼEst et de lʼOuest dans une recherche commune sur les « problèmes de nos sociétés avancées ») [Meadows et alii, 1982]. Les conclusions de ces modèles, qui prétendent ser- vir dʼoutils de décision autant que de réflexion, sont en général synthétisées dans un rapport destiné au grand public. Nous avons vu que les modèles de Mesarovic et Pestel et de la fondation Bariloche réagissaient directement aux conclusions des Limits to Growth sur la question de la croissance globale du monde. Le suivant, MOIRA, sʼinscrit encore dans cette thématique puisquʼil pose la question de la production de nourriture dans un monde en expansion :

comment nourrir une population qui est en train de doubler ? En revanche, les « modèles globaux » conçus par la suite, fondés sur une structure plus classique de modèle économique, prétendent plutôt intégrer divers aspects (économiques, démographiques…) dans un même cadre quʼapporter des éléments nouveaux sur la question des limites de la croissance. Si, pendant la décennie 1970, un certain nombre de personnalités du milieu académique consacrent leur temps et leur énergie à la conception de modèles globaux, ils délaissent pour la plupart cette activité à partir de 1980, soit pour continuer à fonder des modèles « sectoriels » qui répondent à des questions plus ciblées que celle du bien-fondé de la croissance économique (comme Forrester qui se consacre à un modèle de lʼéconomie américaine axé sur les questions dʼinflation et de chômage), soit pour occuper des postes de responsabilité dans le milieu politique ou institutionnel (comme Gehrart Bruckmann, lʼorganisateur des conférences de lʼIIASA, qui ne sʼoccupe

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

31

plus de modélisation globale à partir des années 1980, mais est élu député conservateur au Parlement autrichien, où il sʼoccupe néanmoins de questions environnementales).

L’économiste William Nordhaus

Du côté des économistes, William Nordhaus 1 , de la Cowles Foundation, est celui qui réagit avec le plus de vigueur à la publication des Limits to Growth. Sa critique va déboucher sur un travail de modélisation qui aboutira à la mise en place du modèle DICE (Dynamic Integrated Model of Climate and Economy) au début des années 1990 [Nordhaus, 1992]. Nordhaus sʼinsurge en particulier contre lʼabsence de prise en compte des mécanismes économiques dans World 2 et World 3, qui véhicule selon lui une vision figée des rapports entre lʼhumain et la nature, et conduit à considérer le processus dʼépuisement des ressources comme inéluctable. Il revendique tout dʼabord quʼun modèle de gestion des ressources naturelles admette la possibilité de la « substitution » entre matière, capital et travail, et entre différentes matières premières, ce qui signifie que, dans la production dʼun bien, on peut remplacer lʼapport dʼune matière première par celui dʼune autre, ou diminuer cette quantité de matière première disponible en « améliorant » le processus de production. Nordhaus considère également que les mécanismes de prix peuvent permettre de pré- server efficacement les ressources : si une ressource devient excessivement chère, sa demande va diminuer et son épuisement se ralentir. En 1973, dans un article de la Cowles Foundation, Nordhaus [1973a] propose un modèle de gestion des ressources énergétiques fondé sur un méca- nisme dʼoptimisation intertemporelle, qui vise à minimiser dans le long terme le coût lié à lʼextraction, au transport et au traitement des ressources. Cette notion dʼoptimisation est au cœur du modèle DICE (mis en place au cours des années 1980) qui consiste en une intégration de la contrainte climatique au modèle de croissance optimale de Ramsey. Il sʼagit alors de minimiser, dans le long terme, les coûts liés au changement climatique, de ses dégâts aussi bien que de sa prévention. Alors que les modèles fondés pour le Club de Rome sont aujourdʼhui tombés en désuétude et que les modèles thermo- dynamiques du processus économique nʼont jamais été pris en considération par les décideurs, ce modèle DICE a connu une véritable postérité. Il a donné naissance à tout un courant de modélisation et ses résultats, qui encouragent une attitude dʼattentisme par rapport au changement climatique, ont vraisem- blablement influencé la prise de décisions (ou lʼabsence de prise de décisions) de la part des autorités américaines dans la période récente [Sterman et Booth Sweeney, 2002].

1. À propos de cet auteur, on pourra consulter ici même le chapitre rédigé par Pierre Matarasso.

32

LES MODÈLES DU FUTUR

DES MODÈLES QUI « FABRIQUENT LE FUTUR »

Le débat autour de la croissance sʼenracine dans les années 1960, qui voient la montée en puissance du mouvement environnementaliste et les premiers développements dʼune théorie « thermodynamique » du processus économique chez Kenneth Boulding, Nicholas Georgescu-Roegen et Herman Daly. Pour ces auteurs, la science économique classique, qui représente le processus économique comme un cycle économique fermé, déconnecté de son environnement physique, échoue profondément à représenter la transformation irréversible que ce processus fait subir au monde : il faut mettre en place une nouvelle science économique qui prenne en compte ces aspects. Ces auteurs, ainsi que les autres participants au débat sur la croissance, sʼils divergent quant à leurs points de vue, sʼaccordent sur lʼidée quʼà leur époque, il devient nécessaire de « penser le futur », dʼy réfléchir de manière rationnelle, puisque nos sociétés se trouvent à un moment charnière de leur évolution et que lʼêtre humain a acquis des pouvoirs dʼune ampleur nouvelle qui peuvent lui ouvrir les portes du paradis ou le mener à sa perte. Ainsi, Kenneth Boulding évoque la « grande transition » que nos sociétés subissent, Herman Kahn le passage vers la société « post-industrielle », Aurelio Peccei et le Club de Rome la « problématique mondiale » qui émerge des grands changements de notre époque. Si Herman Kahn juge que les problèmes évoqués par le Club de Rome ne sont pas si graves quʼil y paraît, il a été le premier à étudier les dangers liés à la guerre atomique, et à penser dans les détails un monde post-guerre atomique afin que notre société ne soit pas prise au dépourvu dans le cas où celle-ci surviendrait. Nordhaus lui-même a jugé nécessaire de mettre en place un modèle global pour répondre à la question soulevée par le Club de Rome. Dʼune manière générale, les modèles qui ont été conçus lʼont été dans cette perspective de gestion du monde, pour servir dʼoutils aux décideurs plutôt que pour simplement permettre la réflexion et la discussion. Si on sʼintéresse maintenant à la réponse apportée par les modèles et les protagonistes de notre débat à la question « la croissance peut-elle et doit- elle continuer ? », nous observons un échantillon varié de positions : pour les modèles World, la réponse est clairement non. Pour le modèle de Mesarovic et Pestel, elle pourrait continuer, mais à condition de changer de nature et de devenir « organique ». Pour le modèle Bariloche, elle peut et doit se pour- suivre pour les pays du Sud, mais les pays du Nord doivent y renoncer. Pour les modèles de Nordhaus, il nʼy a aucun problème pour que les États-Unis continuent à augmenter leur consommation dʼénergie, à condition que la gestion de cette énergie soit conduite rationnellement.

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

33

Méthodologie versus idéologie : une dichotomie à dépasser

Le débat autour des limites de la croissance a fait couler beaucoup dʼencre dans le domaine de lʼétude des sciences dans les années 1980, la plupart des textes écrits prenant parti pour ou contre le rapport au Club de Rome. Les tentatives de placer ce rapport dans un cadre plus large, afin de comprendre ce qui a contribué à former ses conclusions, nous semblent les plus intéressantes (elles ne sont dʼailleurs pas nécessairement impartiales). Brian Bloomfield [1986], sociologue des sciences britannique, a par exemple réalisé une étude comparée du System Dynamics Group du MIT, à lʼorigine du modèle World 3, et de la Science Policy Research Unit de lʼuniversité du Sussex, qui, comme nous lʼavons vu, a proposé une critique très complète du rapport au Club de Rome. Il sʼest intéressé aux méthodologies prisées par chacun de ces deux groupes, en mettant à leur compte les divergences de position dans le débat sur la croissance. Pour lui, le System Dynamics Group adoptait une position plutôt pessimiste en affirmant que les sociétés humaines auraient à choisir entre la stabilité et la catastrophe. La Science Policy Research Unit adoptait au contraire une position plus optimiste, en affirmant que dʼautres alternatives

étaient possibles. En retraçant lʼhistoire de la dynamique des systèmes, à travers ses applications à lʼindustrie puis à la gestion urbaine, Bloomfield essayait de montrer que cette méthodologie portait en elle certaines rigidités structurelles qui conditionnaient les conclusions du rapport au Club de Rome, tandis que lʼéquipe du Sussex privilégiait une méthodologie plus souple qui le conduisait

à conclure à une plus grande variété dʼoptions pour appréhender lʼavenir.

Dans une autre veine, Philippe Braillard [1982] a replacé le premier rapport au Club de Rome (The Limits to Growth) dans la série des rapports qui se sont succédé pendant la décennie 1970, sans accorder beaucoup dʼintérêt au choix de la dynamique des systèmes comme méthodologie. Il a cherché au contraire

à dégager lʼidéologie sous-jacente à ces rapports, qui ont porté sur des sujets

aussi variés que les déchets, les relations internationales ou lʼéducation, et dont la plupart ne se sont pas appuyés sur un modèle mathématique. Pour

Braillard, tous ces rapports présentaient le devenir « naturel » de la société comme catastrophique, dans quelque domaine que ce soit, et préconisaient un virage radical au présent pour éviter cet avenir catastrophique. Une telle approche consistait donc à ignorer la méthodologie du rapport au Club de Rome, pour ne considérer que lʼidéologie véhiculée par ce groupe. Dans une telle perspective, on pourrait être tenté de ne voir les modèles utilisés par le Club de Rome et les autres groupes impliqués que comme des outils rhétoriques venant appuyer telle ou telle idée préexistante. Certains éléments pourraient nous encourager dans ce sens : lʼintroduction des Limits to Growth présente le modèle comme un véritable outil dʼinvestigation, mis en place pour répondre à une question ouverte. En revanche, des dis-

34

LES MODÈLES DU FUTUR

cours antérieurs énoncent que lʼobjectif du Club de Rome est dʼétudier la manière dʼacheminer nos sociétés vers la stabilité. Le modèle serait donc venu appuyer une option le précédant : il est préférable que nos sociétés vivent en équilibre avec leur environnement plutôt que de subir une transfor- mation permanente sous le signe du « progrès ». De même, si on sʼintéresse au discours de Nordhaus avant la mise en place de ses modèles, on y décèle une volonté dʼassurer pour son pays une augmentation continuelle de la consommation dʼénergie, et les conclusions tirées de son modèle DICE en 1992 [Nordhaus, 1992] sʼinscrivent bien dans ce sens puisquʼelles affirment quʼil est préférable de ne pas prendre de mesures trop drastiques contre le changement climatique, lesquelles se révéleraient plus coûteuses que dʼen réparer les dégâts 2 . Dans notre étude historique, faut-il donc se désintéresser des modèles au prétexte quʼils nʼapportent aucune conclusion nouvelle et se contentent dʼappuyer des idées préexistantes, quʼils ne sont que les gages de rationalité des orientations quʼils préconisent ? Il nous semble pertinent, au contraire, de les étudier précisément afin dʼessayer de comprendre de quelle manière ils parviennent à intégrer certaines préoccupations et certains choix de société dans une forme prétendument objective et rationnelle.

Modèles et « cosmologies »

Venons-en à une étude comparative de trois modèles qui ont posé la question de la croissance au niveau global, en y apportant des réponses différenciées :

le modèle World, le modèle Bariloche et le modèle DICE de Nordhaus. Nous allons voir comment plusieurs thèmes y sont traités, dans les discours péri- phériques comme dans la structure mathématique elle-même, afin de saisir de quelle manière fond et forme sʼarticulent, et en quoi le traitement de ces thèmes contribue à façonner des conclusions différentes en ce qui concerne la « crois- sance ». Nous nous inspirerons du travail de Brian Bloomfield, qui, le premier, a proposé dʼappliquer la notion de « cosmologie » à lʼétude des entreprises de modélisation, dans le but de saisir comment des croyances partagées par des groupes peuvent se trouver intégrées dans des équations mathématiques. Le rapport à la polarité nature/technologie nous semble constituer une dimension particulièrement pertinente pour éclairer la manière dont certaines conceptions du monde façonnent la structure et les conclusions des modèles qui nous intéressent. Dans les Limits to Growth, une certaine vision du progrès technique se dégage du discours aussi bien que des équations. Le discours présente la technologie comme un facteur ambivalent, source dʼun nouveau pouvoir sur nous-mêmes, mais aussi lourde de menaces puisque nous sommes

2. Voir le chapitre rédigé par Christian Azar dans cet ouvrage.

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

35

parfois impuissants à la mettre à notre service, quʼelle risque de nous échapper et de se retourner contre nous. Les extraits qui suivent illustrent bien cette conception : « La révolution industrielle […] a amené une explosion dʼacti- visme, de laideur et dʼopulence » ; la science et la technique qui ont apporté

opulence et santé « furent aussi les agents principaux de la complexité de la situation actuelle, […] ont permis lʼextraordinaire poussée démographique, amené la pollution et autres nuisances et effets nocifs et annexes de lʼindustria- lisation ». Par ailleurs, une vision déshumanisante de la technique se dégage de certains passages : « la motorisation a allégé le poids du travail physique mais lui a retiré toute signification » ; « un sentiment dʼangoisse commence

à se répandre devant une vie qui se vide de toute qualité ». Si la technologie

apparaît comme dangereuse dans les discours, dans le modèle, en revanche, elle est représentée comme un facteur qui ne peut agir sur les problèmes que de manière locale, sans résoudre la crise dans sa globalité. Rappelons que le rapport sʼorganise autour de la présentation des résultats de plusieurs simulations, portant sur lʼévolution du système tout entier. La

première simulation dégage les conséquences dʼune évolution « naturelle » du système social global, cʼest-à-dire dʼune continuation de ses tendances présentes. On y envisage des variables de population et de production croissant exponentiellement dans un environnement où les ressources naturelles et la capacité dʼabsorption de la pollution sont limitées. Cette simulation conduit

à un « effondrement » du système global. Les simulations suivantes étudient

les effets de divers progrès techniques sur lʼévolution du système. De lʼune

à lʼautre, certains paramètres constants du modèle subissent des variations.

Par exemple, dans lʼune des simulations, le paramètre « ressources naturel- les dʼorigine » est multiplié par deux, ce qui correspond à lʼhypothèse que de nouveaux gisements seront découverts, ou que le recyclage permettra à chaque unité de matériau dʼêtre utilisée deux fois au lieu dʼune. Dans une

autre, cʼest le seuil maximal de tolérance de la pollution qui est multiplié par deux. Le schéma évolutif du modèle sous ces hypothèses aboutit également

à un effondrement, la seule différence étant quʼil survient plus tard que dans

la simulation de base. La traduction du « progrès technique » dans le modèle World révèle, selon ses détracteurs, un certain pessimisme concernant les promesses de la technique ; pour eux, il aurait été plus judicieux de supposer que le progrès permettrait aux ressources exploitables de croître aussi vite que leur consommation, et lʼeffet dʼune telle hypothèse sur lʼévolution du système aurait été tout à fait différent.

Technologie versus nature

Pessimisme ou réalisme ? Il est certain que la conception de la technologie est un point essentiel de divergence entre le Club de Rome et ses critiques.

36

LES MODÈLES DU FUTUR

Pour ses critiques, la technologie est toujours plus forte que la nature, elle peut résoudre tous les problèmes. Pour réfuter la conclusion des Limits to Growth, ils abordent lʼune après lʼautre les menaces évoquées par le rapport, afin de montrer que le progrès technologique permettra de les éviter : celle de lʼépuisement des ressources minérales, puis celle du manque de nourriture, puis celle de la pollution… Cʼest donc en abordant les problèmes soulevés par le Club de Rome « tranche par tranche » que les critiques parviennent à démonter les conclusions des Limits. Or, dans ce rapport où lʼêtre humain est conçu comme un élément de la nature – dans laquelle il doit trouver une juste place –, lʼactivité humaine est abordée de manière « systémique », et les interactions entre les secteurs des modèles World font que, si la technologie apporte son soutien à un secteur particulier (par exemple, en doublant les ressources naturelles), alors des répercussions se feront sentir dans un autre secteur du modèle (par exemple, dans celui de la pollution). La représentation de la technologie dans les Limits to Growth est une source de questionnement, compte tenu de lʼappartenance de la plupart des membres du Club de Rome à lʼélite industrielle et/ou politique, peu encline a priori à tenir un discours écologiste qui émanait alors surtout de la contre-culture, compte tenu aussi de lʼenracinement de la dynamique des systèmes dans les questions liées à la croissance des entreprises. Il est certain que le projet du Club de Rome a impliqué des personnes de milieux et dʼintérêts divers. Rappelons quʼAurelio Peccei a développé dès les années 1960 un discours ambivalent à propos de la technologie, tantôt idéalisée, tantôt perçue comme un facteur majeur de déstabilisation sociale et morale. Par la suite, il est allé plus loin en critiquant lʼorientation majoritai- rement matérialiste de nos sociétés et son désintérêt pour des questions plus métaphysiques. Forrester a conçu la première version du modèle World, mais il sʼest consacré avant et après ce projet à des modèles économiques privilé- giant la croissance économique. Cela nous incite à penser que les hypothèses fondatrices du modèle (croissance exponentielle dans un cadre fini, impliquant nécessairement une saturation) émanaient de Peccei, sans doute influencé par la pensée environnementaliste de son époque et marqué par son expérience du « développement » dans les pays du tiers monde. Lʼéquipe pluridisciplinaire qui a travaillé sur le modèle World 3, et en particulier Donella Meadows qui a rédigé le rapport, a apporté une certaine coloration au texte, qui accompagne lʼexposition des simulations de toute une réflexion sur la société de stabilité quʼil convient de construire et ses avantages par rapport à la société existante. Cette réflexion apparaît nourrie de lʼinfluence dʼéconomistes critiques du progrès technique, comme Boulding et Daly, mentionnés plus haut. On sait aussi que le couple Meadows revendiquait un mode de vie particulièrement autosuffisant et écologiste, et que Donella Meadows, qui sʼest toujours présen- tée comme « paysanne aussi bien que chercheuse », avait adopté un mode de

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

37

vie quʼon qualifierait aujourdʼhui de « décroissant », limitant par exemple ses déplacements en avion au minimum en raison de leur impact sur le climat. Chez Nordhaus, et pour la fondation Bariloche, le rapport à la technologie est complètement différent. La technologie nʼest vue ni comme une menace ni comme un outil limité. Au contraire, elle semble pouvoir résoudre tous les problèmes posés par les Limits to Growth, à condition quʼon attende le temps quʼil faut. Le discours de Nordhaus, dans sa critique des modèles World, sʼattaque principalement à ce qui, dans ces modèles, traduit pour lui un manque de confiance dans les technologies du futur. Pour lui lʼhypothèse de la « substitution » devrait être acceptée, car elle exprime la confiance quʼon accorde à la technologie pour dépasser les limites que la nature semble poser : ce qui semble impossible aujourdʼhui en termes de production ne le sera peut-être pas demain. Lorsquʼil fait tourner le modèle de Forrester pour infirmer ses conclusions, il pose dʼabord lʼhypothèse de ressources naturelles illimitées et suppose ensuite quʼil est possible de produire sans polluer du tout. Évidemment, les résultats de ces simulations sont différents de ceux de Forrester. En 1973, Nordhaus part dʼune « contradiction apparente » pour mettre en place un modèle de gestion des ressources énergétiques. Dʼun côté, nous dit-il [Nordhaus, 1973a], ce sont les télévisions, les maisons surchauffées et les transports aériens qui font la grandeur des États-Unis. De lʼautre, certains « pessimistes » mettent en avant les problèmes posés par la consommation croissante dʼénergie dans les pays industrialisés et souhaitent un arrêt de cette croissance. Lʼhypothèse très forte quʼil énonce alors, pour résoudre cette contradiction, consiste en lʼavènement dʼune technologie complètement propre, puisant dans des ressources infinies pour produire de lʼénergie, et en sa généralisation complète sous 150 ans. Il la nomme backstop technology. Le modèle consiste alors à optimiser la gestion des ressources énergétiques dans la période antérieure à la généralisation totale de cette backstop techno- logy. Et cʼest ainsi quʼen 1973 Nordhaus évacue la question de lʼépuisement des ressources énergétiques. Plus tard, vers 1976, il commence à prendre en compte la question du changement climatique et à poser les premiers jalons de son modèle DICE, un modèle dʼoptimisation intertemporelle de la fonction de coût. Dans les articles qui marquent la construction de ce modèle, Nordhaus se montre constamment préoccupé de ce que la consommation dʼénergie des États-Unis puisse continuer à croître exponentiellement (il nʼévoque pas le reste du monde), et fait lʼhypothèse dʼune technologie permettant de ne pas dépasser une certaine concentration de CO 2 dans lʼatmosphère, tout en autori- sant une multiplication par 5 de la consommation énergétique des États-Unis entre 1970 et 2100. Ces hypothèses technologiques sont donc précisément cel- les qui amènent à la conclusion attendue. Elles seront vivement critiquées par un chercheur du MIT, qui élaborera en 1996 un modèle alternatif à DICE : le

38

LES MODÈLES DU FUTUR

modèle FREE (Feedback Rich Energy Economy Model), qui intègre des hypo- thèses tout à fait différentes et conclut à la nécessité dʼune action bien plus drastique et urgente contre le changement climatique [Fiddaman, 1996]. Mais, pour revenir à Nordhaus, on peut remarquer au passage que, le modèle quʼil choisit pour y « greffer » la question du changement climatique étant un modèle de « croissance optimale » (celui de Ramsey), il était a priori peu probable que les conclusions de ses simulations sʼopposent à la croissance…

Le point de vue des pays en développement

Dans le rapport de la fondation Bariloche, le point de vue est celui des pays en développement, et la question de départ est la possibilité de combler le fossé économique entre ces pays et les pays riches. Les hypothèses sur la technologie sont énoncées de manière explicite avant la présentation de la structure du modèle. Dans tous les domaines évoqués, ces hypothèses sem- blent incroyablement optimistes au regard de notre connaissance actuelle :

la technologie devrait nous permettre de disposer de ressources naturelles en quantité toujours croissante, nous dit-on, et dans le modèle, la question de ces ressources naturelles nʼest absolument pas prise en compte (à la différence du modèle de gestion de Nordhaus où lʼon considère leur quantité comme limitée, mais seulement pour un temps fini). La technologie est présentée comme un outil contrôlable, qui peut avoir de bons ou de mauvais effets selon lʼusage quʼon en fait. Ainsi, la technologie nucléaire est vue de façon tout à fait positive, et lʼon considère quʼon doit pouvoir neutraliser aisément ses dangers. La possibilité dʼun changement climatique est rapidement évacuée comme une hypothèse vague et sans crédit. Les méthodes industrielles de production agricole sont très valorisées, avec lʼidée que leurs conséquences néfastes ne sont pas une fatalité mais découlent de mauvaises pratiques. Dʼune manière générale, on a lʼimpression que la nature nʼest pas prise en compte comme une entité vulnérable face aux activités humaines, et quʼaucune acti- vité humaine ne peut avoir sur elle dʼimpact grave. Pour ce modèle, il sʼagit donc dʼoptimiser une production agricole, industrielle et tertiaire sur une période donnée, mais les limitations à cette production ne proviennent pas de lʼenvironnement naturel. Lʼétude conclut quʼil est possible pour les pays du tiers monde dʼat- teindre un bon niveau de vie, même si les pays les plus riches doivent pour cela diminuer un peu le leur. Si la croissance économique est au cœur des modèles World et DICE (décriée dans un cas, valorisée dans lʼautre), elle nʼest pas vraiment centrale pour le modèle Bariloche. La consommation nʼy est pas valorisée pour elle-même au-delà du seuil où les besoins considérés comme élémentaires sont satisfaits. Il est remarquable en tout cas que, si les intérêts de Nordhaus et de la fondation Bariloche divergent dʼévidence,

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

39

leur représentation de la technologie, elle, soit aussi proche. On peut pen- ser que, dans les deux cas, un « intérêt à la croissance » conditionne cette représentation.

Le futur de Herman Kahn

Herman Kahn, qui, sans concevoir de modèle, participe au débat, développe aussi sa propre « cosmologie » concernant les sujets qui nous intéressent dès les années 1960. Sharon Ghamari-Tabrizi, qui a écrit un ouvrage biographique sur le fondateur du Hudson Institute portant essentiellement sur sa période de futurologie militaire, le décrit ainsi : « Il souhaitait évacuer les éléments non sociaux de notre humanité, le terrestre et lʼhumblement biologique. Sous sa cuirasse, lʼhumanité est emmaillotée dans la terre même, lʼair, le feu, lʼeau de lʼExistence – Kahn voulait se débarrasser de cette dépendance » [Ghamari- Tabrizi, 2005]. Dans son ouvrage L’An 2000, publié en 1967, Kahn envisage déjà la pos- sibilité pour les sociétés humaines dʼétablir des colonies dans lʼespace avant le tournant du millénaire. Dans The Next 200 years – sa réponse aux Limits to Growth –, il évoque un certain nombre de possibilités pour dépasser ce quʼil perçoit comme une dépendance pesante de lʼêtre humain à la nature : la fabrication de nourriture synthétique pour couvrir les besoins dʼune population en expansion, ou la production dʼénergie par fusion nucléaire. Son rapport à la nature et à la technologie est donc plus proche de celui de Nordhaus que de celui de lʼéquipe des Meadows.

Relations internationales et rapport au futur

Si la relation à la polarité nature/technologie est celle qui nous semble le mieux caractériser les différences de vision du monde entre les modélisateurs, qui se cristallisent au sein des modèles, dʼautres aspects sont également à mentionner. En premier lieu, la manière dont les relations internationales sont traitées. Il nʼen est pas question dans le modèle World, qui représente un monde agrégé, ce qui a été critiqué (le modèle de Mesarovic et Pestel a été fondé pour dépasser cette insuffisance). Dans le modèle de la fondation Bariloche, les relations internationales sont représentées par différentes formes dʼéchange entre des « blocs » de pays. On y considère que la satisfaction des besoins essentiels pour tous les pays est primordiale. Une croissance continuelle pour les pays riches nʼest donc pas valorisée. Il sʼagit, au contraire, que ces pays riches adoptent des restrictions pour permettre aux plus pauvres dʼatteindre un niveau de vie décent. Le monde est considéré comme un tout organique dont une partie ne doit pas se développer aux dépens des autres parties. Chez Nordhaus, il nʼest pas question de considérer le monde dans son ensemble, mais

40

LES MODÈLES DU FUTUR

de satisfaire les besoins de son pays ou dʼun groupe de pays : le monde « non communiste ». Il nʼy a aucune prise en compte du monde dans sa diversité. Le rapport au futur, quant à lui, diffère sensiblement dʼun modèle à lʼautre. Pour le modèle World et ses différentes versions, il sʼagit, comme lʼa écrit Philippe Braillard, dʼéchapper à un avenir catastrophique en infléchissant le chemin suivi par lʼhumanité. Les simulations aboutissent à une multitude de futurs en fonction des hypothèses initiales, et entre les divers scénarios simulés, on opte pour celui qui aboutit à la situation la moins mauvaise. Dans les Limits to Growth, cʼest cette situation finale qui importe plutôt que la trajectoire qui va y conduire. Ce qui implique quʼon préfère des hypothèses conduisant à une situation finale stable plutôt quʼà une oscillation continuelle du système. Dans chaque simulation, on étudie lʼévolution sur lʼintervalle de temps global. Si le système « survit », le scénario est validé. Sinon il est rejeté. Des analystes de la méthode dite « dynamique des systèmes » ont montré par ailleurs que cette méthodologie associait à chaque système un « comportement type » – parmi trois ou quatre possibles –, et que le comportement overshoot and collapse était lʼun dʼeux. Cela montre à quel point le discours (« nous allons droit dans le mur ») du Club de Rome et son choix méthodologique concourent à délivrer le message des limites de la croissance. Pour les deux autres modèles, il nʼy a pas dʼenjeu vital de type « sauver la planète », et pas de manichéisme « bons/mauvais scénarios ». Il sʼagit dʼoptimiser un paramètre, pour chaque segment dʼune période donnée dans le modèle de la fondation Bariloche, et sur la durée totale de la période pour les modèles de Nordhaus. Le futur nʼest pas présenté comme une menace potentielle. Pour le modèle Bariloche, il est vu comme le cadre potentiel de lʼavènement dʼune société meilleure, et, pour Nordhaus, il nʼest présenté ni comme positif ni comme négatif : cʼest simplement une période à gérer intelligemment. Pour Herman Kahn, qui envisageait jusquʼà lʼexplosion dʼune guerre nucléaire comme un phénomène gérable, les problèmes évoqués dans les Limits to Growth ne se posent évidemment pas comme des questions cru- ciales, dont la prise en charge urgente serait nécessaire pour que lʼhumanité ait un avenir…

POSTÉRITÉ DES MODÈLES ET ÉLÉMENTS DE CONCLUSION

Nous avons abordé ici des modèles intégrant dans leur structure et leurs équations des présupposés très différents sur la place de lʼhomme dans la nature ou les possibilités de la technologie, déclinant la question de la croissance mondiale de plusieurs manières et apportant tout un éventail de réponses à la question initiée par le Club de Rome. Ces réponses semblent correspondre à des positions sociales et culturelles ainsi quʼà des intérêts variés.

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

41

Dans le milieu académique contemporain, on discrédite en général lʼen- treprise de modélisation du Club de Rome – au motif que le modèle créé était beaucoup trop simpliste –, mais on admet quʼelle a permis de soulever des problèmes essentiels et de montrer que les questions environnementales devaient être vraiment prises au sérieux. Cette conclusion partielle et partiale omet un point essentiel. Les avocats de la croissance zéro ont véritablement pris part au débat académique dans les années 1970. On les a approuvés ou critiqués, mais en tout cas, on leur a accordé de lʼintérêt, ce dont témoigne, à lʼépoque, la publication de plusieurs livres destinés exclusivement à contrer leurs affirmations. Aujourdʼhui, la nécessité dʼune société de décroissance ou de stabilité économique nʼest plus reconnue, en général, comme une thèse valide ; au contraire, le modèle DICE de Nordhaus a connu une grande postérité et ses résultats ont été pris au sérieux par des instances politiques influentes. Et pourtant ! Si le modèle World manquait à représenter certains aspects essentiels de la situation mondiale comme les mécanismes économiques, on décèle également, chez les promoteurs de la croissance économique (Nordhaus, Bariloche, Kahn, Maddox…) quelques erreurs gravissimes dʼinterprétation du réel, tel le déni du changement climatique ou la croyance en lʼavènement imminent dʼune source dʼénergie infinie et non polluante. En France, aujourdʼhui, le mouvement pour la décroissance sʼappuie sur les écrits de quelques universitaires, mais cette orientation nʼest pas prise en considération par la science économique, et aucun modèle mathématique ne vient la soutenir [Bernard et alii, 2003]. Aux États-Unis, en revanche, lʼ« économie écologique » a émergé à la fin des années 1980, avec la mise en place dʼun organisme et dʼun journal, dans la continuation de la pensée de Georgescu-Roegen ou Daly mais aussi de Donella Meadows : lʼun des présupposés de ce courant de pensée est précisément lʼexistence de « limi- tes » à notre expansion économique [Ropke, 2004]. La rédactrice des Limits to Growth, décédée en 2001, laisse derrière elle des disciples, en particulier au Sustainability Institute quʼelle a fondé dans le Vermont. Ce centre est à la fois un lieu de recherche et de mise en pratique de la soutenabilité, avec une ferme bio et un écovillage. Des recherches critiques sur la modélisation y sont conduites. Il est particulièrement intéressant, de nos jours, de revisiter le débat des années 1970 sur la croissance zéro, pour y déceler lʼémergence de thèmes cruciaux dans la discussion autour de la gestion du changement climatique, comme le rapport entre pays du Nord et pays du Sud ou les possibilités de la technologie du futur. Lʼintérêt dʼune approche historique et comparative de la modélisation est quʼelle permet de dégager ce qui est implicite aux modèles dʼaujourdʼhui et qui est considéré comme évident parce que commun à tous :

par exemple, cette absence de la thématique de la stabilité économique comme choix de société pertinent.

42

LES MODÈLES DU FUTUR

Lʼavenir – lʼunique, pas celui des modèles – nous dira si la critique acadé- mique de la croissance économique est bien morte, ou si, en ces temps troublés de crise écologique, elle va renaître pour relayer lʼappel « altermondialiste » et politique à une « décroissance soutenable », qui dénonce le dogme du produit national brut comme indicateur ultime de la réussite dʼune société et revendique la définition dʼobjectifs sociaux et écologiques plus concrets.

RÉFÉRENCES BIBLIOGRAPHIQUES

BERNARD M., CHEYNET V. et CLÉMENTIN B. (2003), Objectif décroissance, Parangon, Lyon. BLOOMFIELD B. (1986), Modelling the World – The Social Constructions of System Scientists, Blackwell, Oxford. BOULDING K. (1966), « The economics of the coming spaceship earth », dans JARRETT H. et HOPKINS J. (dir.), Environmental Quality in a Growing Economy, University Press, Baltimore.

B RAILLARD P. (1982), L’Imposture du Club de Rome , PUF, Paris.

CARSON R. (1962), Silent Spring, Riverside Press, Cambridge. COLE H. S. D. (1973), Thinking about the Future : a Critique of the Limits to Growth, Chatto & Windus, Londres.

DALY H. (1971), « Toward a stationary-state economy », dans HARTE J. et SOCOLOW R. (dir.), Patient Earth, Holt, Rinehart & Winston, New York.

F IDDAMAN T. (1996), Feedback Complexity in Integrated Climate-Economy Models, thèse de doctorat, Sloan School of Management, MIT, Cambridge (disponible sur Internet :

home.earthlink.net/~tomfid). FORRESTER J. (1971), World Dynamics, Wright-Allen Press, Cambridge. GEORGESCU-ROEGEN N. (1971), The Entropy Law and the Economic Process, Harvard University Press, Cambridge, Mass. GHAMARI-TABRIZI S. (2005), The Worlds of Herman Kahn, Harvard University Press, Cambridge, Mass. KAHN H. (1976), The Next 200 years, William Morrow & Company, New York. KAHN H. et WIENER A. (1967), L’An 2000. Un canevas de spéculations pour les 32 prochaines années, Robert Laffont, Paris. HERRERA A. (1977), Un monde pour tous, PUF, Paris. M EADOWS D. et D., R ANDERS J. et B EHRENS W. (1972), The Limits to Growth, New York University Books, New York (traduction française : Halte à la croissance !, Fayard, Paris, 1972). MEADOWS D., RICHARDSON J. et BRUCKMANN G. (1982), Groping in the Dark, the First Decade of Global Modelling, Wiley, New York. MESAROVIC M. et PESTEL E. (1974), Stratégie pour demain, Le Seuil, Paris.

N ORDHAUS W. (1973a), « The allocation of energy resources », Cowles Foundation Paper n° 401.

– (1973b), « World dynamics : measurement without data », Cowles Foundation Paper n° 399.

– (1977), « Economic growth and climate : the carbon dioxide problem », Cowles Foundation Paper n° 443.

– (1992), « An optimal transition path for controlling greenhouse gases », Science, vol. 58, p. 1315-1319.

C ROISSANCE OU STABILITÉ ? Lʼ ENTREPRISE DU C LUB DE R OME

43

N ORDHAUS W. et T OBIN J. (1972), « Is growth obsolete ? », Cowles Foundation Paper n° 398 (accessible sur le site Internet de la Cowles Foundation http://cowles.econ.yale. edu/P/). PECCEI A. (1969), The Chasm Ahead, Collier-MacMillan, Londres. REBOUL L. et TE PASS A. (1972), La Lettre Mansholt. Réactions et commentaires, J.-J. Pauvert, Paris. ROPKE I. (2004), « The early history of modern ecological economics », Ecological Economics, n° 50, p. 293-314. STERMAN J. D. et BOOTH SWEENEY L. (2002), « Cloudy skies : assessing public understanding of global warming », System Dynamics Review, n° 18 (2).

44

LES MODÈLES DU FUTUR

2

La construction historique des paradigmes de modélisation intégrée : William Nordhaus, Alan Manne et lʼapport de la Cowles Commission

Pierre Matarasso

ÉMERGENCE Dʼ UNE NOUVELLE CONCEPTION DE « Lʼ ÉCONOMIE- MONDE »

Au début des années 1970, le Club de Rome engage des recherches sur lʼavenir planétaire. Ces recherches tentent de démontrer quʼune croissance indéfinie est impossible en raison des ressources minières limitées et de lʼac- cumulation de pollutions. À la vision traditionnelle de la science économique qui sʼintéresse aux interactions entre des agents humains médiatisées par des marchandises, le Club de Rome oppose la nécessité de rendre compte de lʼinfluence des activités économiques sur la biosphère. Le rapport Limits to Growth, basé sur les travaux de J. Forrester et D. Meadows [Meadows et alii, 1972], sʼefforce de donner à cette approche un fondement scientifique. À partir de cette époque, notre vision de lʼéconomie réelle commence donc à sʼétendre de lʼanalyse des échanges et de la formation des prix vers lʼunivers des phénomènes physiques, chimiques et biologiques de niveau planétaire qui résultent des activités humaines. Par ailleurs, les visions du futur ne peuvent plus se contenter dʼêtre des projections du passé en raison de la croissance des populations, de la raréfaction de certaines ressources, de lʼévolution des techniques et des transformations irréversibles de lʼenvironnement 1 . La question du couplage de modèles économiques avec les modèles de la climatologie et les modèles écologiques se pose. La nécessité dʼappréhen- der le très long terme, bien au-delà des horizons envisagés jusque-là par la « prévision » économique, sʼimpose également. En effet, les climatologues introduisent un « temps long » dans lʼanalyse du climat du fait de lʼinertie considérable (de lʼordre du siècle) des phénomènes géophysiques et géo- chimiques. En termes économiques, la question du changement climatique devient, à partir des années 1980, celle de la comparaison du coût des actions

1. Voir le chapitre précédent rédigé par Élodie Vieille Blanchard.

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

45

de prévention limitant les émissions (passage à une société sobre en énergie) avec le coût des impacts négatifs (les dommages) du changement climatique. Il est donc nécessaire de mettre en balance des événements, des phénomènes, des décisions et des dépenses qui sʼéchelonnent sur une échelle temporelle étendue. Le surgissement dʼun problème nouveau et grave, la nécessité de rendre compte physiquement de lʼimpact des activités humaines sur la bio- sphère et de remonter aux décisions à prendre, va mobiliser de nombreux économistes de talent et les pousser à réactualiser des formes de représentation que lʼémergence des comptabilités nationales et le contexte régulier des Trente Glorieuses avaient rendues temporairement caduques. La science économique des années 1960-1970 croyait pouvoir se passer dʼune étude détaillée de la base matérielle des processus économiques, grâce à lʼéconométrie et aux comptabilités nationales généralisées à la planète entière. La science du changement climatique va décevoir cet espoir et impliquer un retour vers des formes de représentation économique plus anciennes et surtout plus détaillées technologiquement et géographiquement pour le long terme. Ces formes de représentation sʼincarnent dans les modèles de Frank Plumpton Ramsey et de John von Neumann, qui concernent le long terme pour le premier et des représentations élaborées de la production pour le second. Ce retour nous permet de reprendre, à nouveaux frais, lʼhistoire de la pensée économique, de relativiser la parenthèse macro-économétrique pour aller vers des représentations moins inertielles (on passe de la « prévision » à la recherche dʼun contrôle adéquat) et davantage centrées sur les aspects matériels et technologiques (les modèles se développent sur deux plans :

celui des processus et des comptabilités physiques, et celui des contreparties financières de ces processus). La problématique des études économiques qui se développent à la suite des préoccupations environnementales des années 1970 ne se construit donc pas à partir de rien. Elle emprunte largement aux divers mouvements de pensée qui ont éclos depuis la fin de la guerre et ont commencé à bouleverser les scien- ces économiques. Ces mouvements de pensée sont marqués par la Seconde Guerre mondiale et ses conséquences ; ils sʼancrent dans les préoccupations de la reconstruction de lʼEurope et du développement des pays anciennement colonisés – préoccupations qui ne sont dʼailleurs pas sans rapport avec celles qui naissent avec le changement climatique. La tentative de résoudre ces questions bénéficie largement des méthodologies déployées avec lʼeffort de guerre (logistique militaire, commande des radars et engins, développement des automatismes et de lʼinformatique). À la fin de la Seconde Guerre mon- diale, des méthodologies et des questionnements nouveaux imprègnent peu à peu la pensée économique. Von Neumann, dont la confiance immodérée en la technique est bien connue, imagine dès les années 1950 la généralisation de lʼénergie nucléaire, le geo-engineering (modification volontaire et contrôlée

46

LES MODÈLES DU FUTUR

du climat) et, probablement, la conquête dʼautres planètes. Son travail sur les self-reproducing automata donnera naissance à la métaphore des Von Neumann probes qui matérialisent une extension interplanétaire des machines ! Quelques années plus tard, Kenneth E. Boulding, René Dubos et, après eux, Jay Forrester et Dennis Meadows se préoccupent de la finitude des ressources fossiles et de lʼaccumulation des pollutions ; leur optique est centrée sur lʼidée que la planète Terre est le vaisseau spatial à gérer. Tjalling C. Koopmans et Herbert Simon, deux futurs prix Nobel, travaillent dès les années 1950 dans le cadre de la Cowles Commission 2 sur le thème du développement économique en lien aux futures sources dʼénergie jusquʼà imaginer des déploiements massifs de lʼénergie nucléaire dans les pays en développement. Les approches méthodologiques sont diverses :

— John von Neumann avec les automates « autoreproducteurs » et son

travail sur lʼéquilibre général des années 1930 a posé des bases théoriques, mais très idéalisées des problèmes de croissance et de ce que lʼon bapti- serait aujourdʼhui la « soutenabilité » ; il sʼappuie sur des représentations

technologiques détaillées qui convoquent des « processus élémentaires » et « des événements discrets », ce qui nʼest pas étonnant de la part de lʼun des unificateurs de la mécanique quantique ;

— Jay Forrester et Norbert Wiener, qui viennent de la cybernétique appli-

quée à des problèmes militaires (radars, poursuite de cible, guidage…), éla- borent des paradigmes en termes de systèmes dʼéquations différentielles simultanées et de contrôle (notion de feedback) pour modéliser des « systèmes

complexes » ;

— Herbert Simon et Tjalling C. Koopmans cherchent, dans le cadre de

la Cowles Commission, à joindre élaboration mathématique des problèmes économiques et études appliquées (logistique des transports, énergie, prévi- sion…). La Cowles est le lieu où lʼinteraction des économistes et des ingénieurs ayant travaillé pour la Rand Corporation, lʼU.S. Air Force et le Pentagone va se produire autour de la mathématisation de lʼéconomie. Cʼest à partir de ces différents points de vue que vont se développer les paradigmes de modélisation qui sont actuellement à lʼœuvre dans la probléma- tique du changement climatique. Nous allons tenter dʼexpliquer pourquoi les conceptions de von Neumann et Koopmans vont sʼimposer par lʼentremise de leurs héritiers spirituels, William Nordhaus et Alan Manne, qui sont devenus les figures centrales contemporaines de la recherche sur lʼéconomie du chan- gement climatique. Au contraire, Forrester et Meadows seront de plus en plus

2. La Cowles Commission qui deviendra la Cowles Foundation a été fondée par Alfred Cowles après la crise de 1929. Son but est de rapprocher lʼéconomie des sciences exactes par une utilisation systématique des mathématiques. T. C Koopmans jouera un rôle essentiel dans sa direction. Nous donnons plus loin quelques éléments sur lʼhistoire de cet organisme. Un point de vue sur cette organisation : http://cepa.newschool.edu/het/schools/cowles.htm

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

47

contestés à partir des années 1980. La critique qui leur sera opposée sʼattaque autant à leur objectif déclaré de « croissance zéro » quʼà leur méthode, qui repose sur la dynamique des systèmes. On pourrait penser que la suprématie méthodologique de la Cowles Foundation est le résultat de la posture ins- titutionnelle très forte de cette structure, faite de publications scientifiques remarquées et de commandes fédérales (la Cowles produira plusieurs lauréats du prix Nobel en économie). À lʼinverse, la critique académique adressée au Club de Rome paraît provenir de son ambition plus contestataire. Le Club de Rome est une organisation plus européenne quʼaméricaine et il réussit magistralement son opération de communication destinée à lancer lʼalerte, ce que des chercheurs comme Boulding ou Dubos nʼavaient pas réussi à faire. Mais dans un deuxième temps, Limits to Growth va susciter une réaction extrêmement violente et fera lʼobjet dʼun procès en nullité de la part du milieu des sciences économiques. Il est tentant de renvoyer le relatif échec méthodologique du Club de Rome à son message politique radical (la « croissance zéro ») et à sa position institu- tionnelle plus marginale. De même, le succès de la Cowles Foundation semble pouvoir être attribué à sa notoriété académique et politique. Cette explication des succès relatifs de ces deux organisations est légitime, mais elle nʼest que partielle. Il est nécessaire de sʼinterroger également sur les méthodes et les protocoles scientifiques suivis par ces équipes, finalement rivales, en matière de modélisation. Les héritiers spirituels de Koopmans proposent-ils une méthode de modélisation plus adaptée que celle de Forrester ? La prééminence des conceptions de la Cowles Foundation est-elle une conséquence logique de la sélection des méthodes les plus opératoires ou bien une injustice de lʼhistoire vis-à-vis de Forrester et Meadows ? Pourquoi, en dépit de lʼinvention de méthodes de modélisation novatrices, matérialisées par les langages de pro- grammation des systèmes dynamiques Dynamo et Stella, Forrester nʼa-t-il pas la même postérité ? Pourquoi, enfin, le modèle IMAGE, séquelle principale du Club de Rome, reste-t-il confiné au cercle de ses créateurs ? Autant de questions qui impliquent dʼanalyser la formation de « communautés épistémiques » dans le monde de la modélisation liée au changement climatique.

MODÈLES ET COMMUNAUTÉS ÉPISTÉMIQUES

Dès le début des années 1980, des expériences de modélisation dans le domaine de lʼénergie et du changement climatique voient le jour. Ces modélisa- tions constituent à la fois un retour vers des méthodes qui avaient commencé à se développer avec la crise de lʼénergie (1973) et leur prolongement. Diverses équipes dans le monde conjuguent leurs efforts sous lʼégide dʼorganisations comme lʼEnergy Modeling Forum (EMF), créé par des chercheurs de Stanford

48

LES MODÈLES DU FUTUR

en 1976, ou plus tard le Groupe dʼexperts intergouvernemental sur lʼévolu- tion du climat (GIEC). LʼInternational Institute for Applied System Analysis (IIASA), créé en 1974 à Vienne, accueille lui aussi de nombreux chercheurs et joue un rôle important dans la diffusion des idées sur la modélisation envi- ronnementale. LʼIIASA est proche dès lʼorigine de la Cowles Foundation, et Tjalling C. Koopmans fréquente les deux institutions. La collaboration Stanford-IIASA, qui se poursuit dans lʼEMF, est également ancienne. Georges Dantzig, co-inventeur avec Koopmans de la programmation linéaire et de lʼanalyse dʼactivités, séjourne à lʼIIASA où il dirige le premier methodology group. Alan Manne et William Nordhaus séjournent également à lʼIIASA dans les années 1970. À la même époque, George Dantzig fonde le Laboratoire de recherche opérationnelle à Stanford (Stanford Optimisation Laboratory, SOL), avec Alan Manne qui en prendra la direction plus tard. Cʼest dans ces divers lieux que se créent les équipes de modélisation qui vont, par la suite, travailler sur le changement climatique. Dès avant les années 1970 se met donc en place un réseau dʼéconomistes qui partagent une culture commune faite de recherche opérationnelle et de mathématisation de la théorie économique. Ce réseau implique G. B. Dantzig et son équipe du SOL,

T. C. Koopmans et une partie des membres de la Cowles, et enfin lʼIIASA qui fournit un lieu de rencontre et de réflexion orienté vers le long terme, à lʼécart des contraintes académiques 3 . Ce groupe se fera assez vite une obligation de contrer lʼargumentaire du Club de Rome, en particulier pour ce qui concerne la « croissance zéro » [Nordhaus et Tobin, 1972]. Parmi les modèles dʼéconomie planétaire ou de systèmes énergétiques mondiaux, quelques-uns sont devenus rapidement des références qui revêtent plusieurs formes. On peut distinguer :

— des modèles paradigmatiques dont non seulement les équations et les

résultats sont publics, mais également les données, les sources informatiques, les programmes et les modalités de calcul, ce qui permet à de nombreuses

équipes de sʼen inspirer pour les décliner sous diverses formes ;

— des modèles coopératifs dont les sources informatiques et les données

sont disponibles par appartenance à une association de membres (pays et

équipes de recherche) ; ce qui permet là aussi à de nombreuses équipes de bénéficier dʼune expérience collective et de développements coopératifs (un peu sur le mode actuel des développements open source) ;

— des modèles de référence et dʼexpertise développés par des équipes

dans des cadres nationaux ou internationaux, mais dont la maîtrise reste essentiellement dans les mains de lʼéquipe qui les a conçus.

3. La description détaillée de la manière dont la Cowles sʼest engagée dans les questions de ressources non renouvelables et dʼénergie se trouve dans le rapport dʼactivité des années 1970-1973, disponible sur Internet à lʼadresse : http://cowles.econ.yale.edu/P/reports/1970-73.htm, où les rôles respectifs de Koopmans, Nordhaus et Manne y sont précisés.

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

49

Une différence essentielle entre tous ces modèles tient à leurs modalités de développement. On note une croissance spontanée, par emprunt ou colla- boration dʼindividu à individu, dans le cas des modèles « paradigmatiques ». Dans les modèles « coopératifs », la collaboration prend un caractère plus organisé grâce à la mise en place dʼune institution qui assure la diffusion des sources. Le premier type sʼillustre par le modèle DICE (Dynamic Integrated Model of Climate and Economy) de William Nordhaus et le second par le modèle MARKAL (Market Allocation Model), associé en particulier au nom dʼAlan Manne. On peut se convaincre de la diffusion de DICE et MARKAL en comptabilisant leurs occurrences dans la littérature scientifique et dans les communications à lʼEnergy Modeling Forum. Depuis quelques années, le Forum, organisé en commun avec lʼIIASA, est jumelé avec les rencontres de lʼassociation des utilisateurs de MARKAL (ETSAP) : plusieurs dizaines dʼéquipes travaillent ou ont travaillé sur DICE ; les applications de MARKAL dépassent la trentaine de pays et ont mobilisé près de 75 équipes. DICE comme MARKAL sont en général présentés dans des revues ou des livres qui four- nissent les listes dʼéquations, les informations extensives sur les méthodes de résolution et leurs justifications. Le programme informatique commenté est parfois diffusé intégralement. Ces modèles possèdent donc un caractère générique incontestable, les équations sont des « types » dʼéquations qui peu- vent être adaptées à divers contextes (MARKAL) ou diverses préoccupations (DICE). Face à cette diffusion, les autres modèles conservent leur crédibilité mais demeurent restreints aux équipes qui les développent 4 . On pourrait faire remarquer que le modèle du Club de Rome vérifie, en commun avec DICE et MARKAL, les conditions larges de diffusion grâce à lʼutilisation des langages de programmation Dynamo, puis du langage Stella qui sont friendly oriented ; dès le milieu des années 1970, les criti- ques du modèle « Limits to growth » pouvaient en reproduire les résultats. Cependant, il a toujours manqué à Jay Forrester un ancrage dans la science économique et un fondement théorique pour être reconnu par la communauté des économistes. Le modèle IMAGE nʼa pratiquement fait lʼobjet dʼaucune publication dans les journaux scientifiques consacrés de la discipline tandis quʼun consensus méthodologique, se traduisant par de nombreuses publications académiques, sʼest établi assez rapidement autour de DICE et MARKAL. Ce consensus autour des méthodes de la Cowles Foundation est fondé sur une base conceptuelle solide, et également sur le réseau de ceux qui partagent cette base conceptuelle. On entend ici par base conceptuelle une structure de concepts qui permet dʼenseigner les modèles, de guider les nouveaux arrivants vers le développement de problématiques et dʼapplications inédites. La base

4. Cela ne doit pas sʼinterpréter comme une réserve à lʼégard des modèles moins diffusés, nécessaires à lʼenrichissement, à lʼévolution et à la critique des modèles les plus diffusés.

50

LES MODÈLES DU FUTUR

conceptuelle assure lʼintercompréhension entre les différentes équipes de modélisation, elle constitue un paradigme au sens le plus fort de ce terme. On peut opposer aux modélisations possédant ce type dʼarmature concep- tuelle des modèles qui se revendiquent de « lʼart de modéliser », cʼest-à-dire de lʼintuition juste, du tour de main et de lʼà-propos dans la définition des équa- tions. Ces modèles peuvent être utiles et sʼenseigner ; parfois, ils deviennent la norme. Pourtant, lʼexpérience récente des modèles macroéconométriques, qui relèvent souvent de ces sortes de « tour de main », montre que beaucoup nʼont pas survécu. À bien des égards, le modèle IMAGE est presque entiè- rement dénué de bases théoriques unificatrices (en économie du moins), il est composé de multiples modules ad hoc reliés entre eux. Les publications disponibles ne permettent pas de le reproduire : les équations ne sont que partiellement explicitées et les nombreuses routines de résolution ne sont pas décrites. Cʼest un ensemble de connaissances quʼil est difficile de mettre à jour et de transférer (voire dʼexpertiser).

UNE TRADITION INTELLECTUELLE FORTE ET ANCIENNE

Revenons aux origines intellectuelles des modélisations que nous avons qualifiées de « paradigmatiques » ou « coopératives ». Remonter de près de cinquante ans en arrière (de 1970 à 1920) pourrait réclamer une justification. En fait, elle se résume en deux points : 1° DICE est un modèle dit de « crois- sance optimale », qui descend en ligne directe du « modèle de Ramsey » [Ramsey, 1928], devenu une clé de voûte de la science économique contem- poraine. Le modèle de Ramsey a été ensuite réactualisé par Koopmans sous le nom de « modèle de Ramsey-Koopmans » [Nordhaus, 1992a] ; 2° MARKAL et MERGE [Manne, 1994a, 1995] reprennent une représentation du secteur énergétique en « analyse dʼactivités » ; ce formalisme, qui inclut « produc- tions jointes » et « alternatives de production », provient dʼun modèle de la production en économie souvent dit « de von Neumann-Sraffa ». La modélisation de la production que lʼon rencontre dans les deux modèles résulte dʼune préoccupation commune : déterminer des prix dʼéquilibre des biens ; et pour que cela soit possible, il faut que la production soit représen- tée en flux physiques. Dʼune part, le modèle de Ramsey apparaît comme le prototype de la modélisation, une modélisation concentrée à lʼextrême sur le nombre le plus limité possible dʼagrégats macroéconomiques. Dʼautre part, le « modèle de von Neumann-Sraffa » est le prototype théorique des modèles bottom-up, cʼest-à-dire des modèles dʼingénieur où la production est décrite de manière extrêmement détaillée. Ces types de modélisation sont souvent oppo- sés, bien quʼun auteur comme T. C. Koopmans, qui a réactualisé les travaux antérieurs, ait toujours considéré les deux approches comme complémentaires

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

51

[Koopmans, 1964, 1965]. Dʼailleurs, les modèles comme MERGE ETA-Macro et MARKAL-Macro dʼAlan Manne couplent les deux approches. Derrière des modèles comme MARKAL et DICE, nʼy aurait-il quʼune idée judicieuse que lʼon peut attribuer à des individus isolés, ou beaucoup plus que cela : la trace dʼune nouvelle manière de penser les problèmes économiques ? Cʼest cette seconde thèse que je veux suggérer par un bref détour historique :

la naissance des modèles que nous utilisons aujourdʼhui dans le domaine du changement climatique a mobilisé trois générations de chercheurs qui ont œuvré depuis les années 1930 dans une certaine continuité. La puissance descriptive et lʼefficacité opératoire des méthodes qui vont se développer à la Cowles Foundation proviennent dʼun premier élan méthodologique communiqué dʼabord par Wittgenstein, largement retravaillé et débarrassé de ses défauts initiaux par des hommes comme von Neumann, Sraffa, Ramsey, mais également A. N. Whitehead et N. Georgescu-Roegen (coéditeur de Koopmans, 1951a). Une seconde génération est constituée, dans les années 1950, aux USA, par Tjalling C. Koopmans, George B. Dantzig et Herbert Simon qui sont les héri- tiers des précédents. Enfin, la troisième génération, celle de leurs successeurs directement impliqués dans les recherches sur le changement climatique, dont William D. Nordhaus et Allan S. Manne sont les figures principales.

Les cercles de Cambridge et de Vienne

Quelques points de repère historiques situeront notre propos. Rappelons quʼaprès la publication en 1921 par Wittgenstein de son Tractatus logico- philosophicus, deux cercles de discussion se forment à Cambridge et à Vienne. Le premier, informel, autour de Wittgenstein lui-même ; le second, plus formel, est le célèbre cercle de Vienne. À Cambridge, Ludwig Wittgenstein, Piero Sraffa et Frank Plumpton Ramsey poursuivent ensemble et dans lʼen- tourage de Keynes, durant plusieurs années, un débat méthodologique qui se reflète dans les œuvres de chacun dʼentre eux 5 . Ramsey est (en collaboration avec C. K. Ogden) le premier traducteur anglais du Tractatus et se rend en Autriche en 1923 et 1924 pour rencontrer Wittgenstein. Il effectue avec lui une relecture des Investigations philosophiques. Paul Sraffa aura également de longues conversations avec Wittgenstein. Ce dernier considère même que le passage à sa « seconde philosophie » résulte des conversations quʼil a eues avec Ramsey et Sraffa 6 . À Vienne, dans la proximité du cercle, en

5. Voir lʼintroduction des Remarques philosophiques de Wittgenstein (qui cite Ramsey et Sraffa) et celle de Production de marchandises par des marchandises de Sraffa qui, lui, cite Ramsey [Sraffa,

1960].

6. Voir par exemple : http://www.wittgen-cam.ac.uk/cgi-bin/text/biogre.html, « Wittgenstein biographical sketch », et aussi les ressources des Wittgenstein Archives, http://gandalf.aksis.uib. no/wab/

52

LES MODÈLES DU FUTUR

particulier au séminaire mathématique de Karl Menger, Anton Wald puis John von Neumann présentent dans les années 1930 ce qui va constituer une refondation de lʼéconomie mathématique autour du thème de lʼéquilibre général ; à ces réunions participent Oskar Morgenstern et dʼautres membres du cercle [Menger, 1994]. Quelles sont donc les préoccupations clés qui agitent les esprits du « cercle de Cambridge 7 » et du cercle de Vienne, et qui se réfractent dans les modèles de Ramsey et de von Neumann ? Il est possible de les lister ainsi :

— le problème de la description par reconstruction logique du monde à

« notre échelle », pour refonder les approches scientifiques ;

— la tentative dʼopérer cette reconstruction (dans le Tractatus de

Wittgenstein et lʼAufbau de Rudolf Carnap) sur une base « atomistique »,

logiquement structurée ;

— lʼarticulation de cette base atomistique sur les notions duales de

« faits » et de « choses », ou encore de « processus » et « dʼobjets », aux- quelles correspondent des assemblages de propositions du langage ou des mathématiques ;

— le problème de ce qui arrive dans un système « à la fin des temps » :

cʼest la question de lʼarrêt des machines de Türing ou encore… des modèles

de croissance de Ramsey à horizon infini ;

— la recherche dʼun moyen terme entre les représentations en logique

(purement combinatoires) et les représentations en équations différentielles

(trop éloignées des changements qualitatifs) ;

— enfin, lʼavènement théorique et pratique des concepts dʼ« événements

discrets » et de « processus élémentaires » dans la représentation de la produc- tion en économie mais aussi… dans les machines de Türing, dans la théorie

des jeux ou dans le choix des techniques « digitales » en informatique. Ramsey se situe entièrement dans une optique de reconstruction du monde 8 . Cʼest dans cette perspective quʼil écrit son article « A mathematical theory of savings » [Ramsey, 1928], une tentative de traitement logico-mathématique à horizon infini de la question : « How much of its income a nation should save ? » Il sʼagit dʼune reconstruction logique a minima de la vie économique, dans laquelle les agents obéissent à un principe unique de rationalité figuré par la recherche dʼun optimum intertemporel. Faut-il consommer dʼabord ou épargner pour construire du capital qui permettra de produire plus et de consommer davantage ? Lʼidée essentielle du modèle est que la trajectoire optimale est déterminée par lʼextremum dʼune fonction « intertemporelle » représentant lʼutilité des agents économiques. On peut de la sorte déterminer

7. On devrait ici, bien entendu, évoquer Keynes qui jouait un rôle éminent dans ce qui se passait à Cambridge. Mais, comme lʼindique le titre de notre article, lʼanalyse historique ici proposée ne prétend pas à lʼexhaustivité. 8. Voir en particulier Ramsey [1927, 1931].

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

53

lʼaction optimale à chaque période, sans recourir à aucune autre hypothèse de comportement que celle impliquée par cette fonction (ce qui ne serait pas le cas dans une simulation récursive). Lʼidée dʼétudier de cette manière un trajet optimal de lʼéconomie pour des agents humains est neuve et puissante et elle aura une postérité remarquable. Koopmans réactualise cette approche dans Koopmans [1965].

Von Neumann, le formalisme de l’analyse d’activités

Séparément, mais étant probablement au courant de leurs travaux respec- tifs, von Neumann (dès les années 1930) et Sraffa (plus tard) proposent une reconstruction conforme aux principes précédents (logico-atomistiques) de lʼunivers de la production en économie 9 . Cette dernière est décrite par des associations de processus « qui consomment » ou « produisent » des biens. La conception des « processus » comme base de la représentation nʼest pas sans rappeler aussi bien la théorie des jeux, qui transforme un état en un autre, que les « événements discrets » de la machine de Türing (lecture-écriture séquentielle de la bande) ou encore les structures dʼévénements des « auto- mates » de von Neumann. Cʼest lʼémergence dʼune nouvelle conception de la temporalité, une nou- velle manière de considérer les rapports entre « processus » et « objets ». La notion de processus chez Sraffa et von Neumann, qui sert de base à lʼanalyse dʼactivités 10 , décrit notamment le fonctionnement dʼun atelier qui consomme du fer en barre pour produire des vis et des copeaux de fer, qui consomme des machines « neuves »… et qui rejette, à la fin du processus, des machines « usées ». Un processus « différent » est susceptible de produire des vis de même fonction avec des moyens moins mécanisés 11 . Chaque processus est représenté par un processus unitaire, calé sur une usine, une machine, un atelier, une quantité dʼunités produites, etc. Un système complexe réel correspond à un assemblage de multiples processus unitaires, assemblage qui vérifie une règle simple : tout ce qui est consommé doit avoir été produit. Cʼest cette règle qui provoque le dimensionnement des processus les uns par rapport aux autres.

9. David Champernowne, proche de Türing et de Sraffa à Cambridge, est le commentateur de la première traduction de von Neumann en anglais. Voir von Neumann [1937].

10. Pour Koopmans, il nʼy a aucun doute quʼil faut attribuer lʼanalyse dʼactivités à von Neumann.

La conception de von Neumann innove par rapport à Walras ou Leontief et permet en particulier de traiter de manière extrêmement pertinente du capital fixe diversifié techniquement en termes de

flux [Koopmans, 1964].

11. Il y a « productions jointes » car on produit à la fois des objets et des déchets, il y a aussi

« alternatives de production » car un même objet peut être produit par différents processus. Cʼest

une double généralisation des formalismes « à la Leontief » (matrices « rectangulaires » et non « carrées ») comme Dantzig lʼa souvent déclaré.

54

LES MODÈLES DU FUTUR

Le formalisme de lʼanalyse dʼactivités est présenté pour la première fois dans un article, « A model of general equilibrium », présenté dʼabord au séminaire de Menger à Vienne [von Neumann, 1937], puis traduit en anglais après la guerre [von Neumann, 1945]. Le modèle introduit trois innovations majeures qui vont changer la face de lʼéconomie mathématique :

— cʼest un modèle de croissance à horizon infini ;

— le schème descriptif est celui de lʼanalyse dʼactivités avec une représen-

tation « atomistique » de la production, lʼévolution des stocks dʼéquipements étant décrite dans ce cadre ;

— la preuve de lʼexistence de lʼéquilibre utilise des techniques mathéma-

tiques nouvelles pour lʼépoque, qui deviendront elles aussi paradigmatiques dans la discipline 12 . Lʼune des grandes innovations des travaux de Ramsey et von Neumann est relative au traitement du temps : un problème dynamique est ramené, dans sa résolution, à un problème statique (résolution dite « intertempo- relle ») ; on cherche à se mettre dans une situation où les différents groupes dʼéquations sont traités comme un système dʼéquations « simultanées » et non comme une récursion temporelle. En dʼautres termes, on « simulta- néise » les périodes temporelles consécutives dans les résolutions, quʼelles soient analytiques comme chez Ramsey et en théorie des jeux, ou algorith- miques comme dans la programmation linéaire dynamique. La question cruciale des « comportements » est traitée par un calcul sur lʼensemble de la période temporelle, au moyen dʼune procédure mathématique qui anticipe des calculs « intertemporels », portant sur lʼactualisation de lʼutilité espérée. La question du choix des agents résulte de la recherche dʼun optimum pour une fonction intertemporelle, on évite ainsi la question de savoir comment définir des comportements récursifs à chaque période. Cʼest une supposition dʼanticipation parfaite. La tentative de von Neumann et Ramsey sʼapparente à celle de lʼénon- ciation de propositions économiques sur le très long terme, en sʼappuyant sur des considérations aussi minimales que possibles, relatives aux com- portements dont lʼun et lʼautre nʼignorent pas le caractère contingent. Dʼoù ce paradoxe entre des modèles particulièrement simplifiés et une grande richesse dʼinterprétation potentielle [Koopmans, 1964, 1965]. Les modèles DICE et MARKAL, qui sont des déclinaisons des modèles de Ramsey et de von Neumann, sʼenracinent donc dans la tradition de reconstruction de lʼéconomie commencée entre les deux guerres et qui connaît un nouvel essor

à partir des années 1940.

12. On peut mentionner : théorème de Brouwer, topologie, dualité, point selle, minimax…

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

55

La Cowles et le rôle de Koopmans

La Cowles Foundation fut lʼun des lieux dʼaccueil des membres du cer- cle de Vienne fuyant le nazisme. Elle bénéficia en particulier de lʼapport du séminaire de Menger 13 . Les travaux que Koopmans développe empruntent beaucoup aux modèles « de von Neumann » et « de Ramsey » et lui vaudront le prix Nobel dʼéconomie (conjointement avec le russe Kantorovitch 14 ). Deux jeunes participants de la fondation, Kenneth Arrow et Herbert Simon, ont pour maîtres deux autres membres éminents du cercle de Vienne, respectivement Anton Wald et Rudolf Carnap. Koopmans, élève de Timbergen et Frisch, se lance dans une étude des systèmes de transport optimaux. En étudiant systématiquement cette question, de même que celle plus générale des resources allocations, Koopmans se rend compte de leur proximité, dʼune part, avec la théorie de lʼéquilibre général développée par von Neumann et Wald, dʼautre part, avec les représentations en « analyse dʼactivités » et la programmation linéaire développée par Dantzig dans le cadre de lʼU.S. Air Force. À cette époque, lʼanalyse dʼactivités est considérée comme une profonde innovation dans le domaine de la représenta- tion de la production en économie. En 1949 se tient une conférence à laquelle participent la plupart des futurs grands noms de lʼéconomie des États-Unis :

Samuelson, Arrow, Koopmans, Simon, Dantzig, Georgescu-Roegen. Cette conférence donnera la brochure n° 13 de la Cowles Commission. Debreu et Arrow réalisent des prolongements théoriques à ces formalismes et les rattachent à une conception logiquement rigoureuse de lʼéquilibre général [Koopmans, 1951a]. Lʼentreprise de la Cowles sʼoriente vers la mise en place dʼun paradigme économique qui sʼétend de la théorie jusquʼaux applications, peut se décliner à diverses échelles dʼespace et de temps et qui couple analyse dʼactivités et théories de lʼutilité en partie reprises de Ramsey 15 . Parallèlement, la Cowles développe aussi de nombreux travaux économétriques avec, en particulier, Lawrence Klein. Lorsque survient la crise de lʼénergie, Koopmans commence à fréquenter lʼIIASA ; il sʼinterroge avec Simon sur la validité des modèles économétriques pour traiter de ces problèmes où technologies et long terme jouent des rôles importants. Pour Koopmans, statistiques et économétrie sont intéressantes dans les périodes où le futur est dans la droite ligne du passé. Mais si le futur implique des ruptures par rapport au passé, il faut dʼautres méthodes. En particulier, les méthodes économétriques et les fonctions de production sont

13. Voir par exemple : http://cepa.newschool.edu/het/schools/cowles.htm

14. Pour des raisons inexplicables, George Dantzig nʼa pas été associé à ce prix Nobel comme

il aurait dû lʼêtre. Koopmans en fut très affecté et il versa à lʼIIASA la moitié du montant du prix

quʼaurait dû partager Dantzig.

56

LES MODÈLES DU FUTUR

absolument inadaptées à lʼétude du long terme qui exige une représentation explicite des technologies et des processus pour étudier des transitions éner- gétiques « charbon » / « renouvelables » / « nucléaire » [Koopmans 16 , 1978]. Dans ce même texte de 1978, Koopmans détaille les travaux sur lʼénergie de Nordhaus, de Manne et de lʼéquipe de modélisation de ce qui devien- dra MARKAL. Il faut remarquer que Simon présente au même moment les modélisations technico-économiques de Hoffman [Tessmer et alii, 1975] en analyse dʼactivités comme la seule alternative « sérieuse » aux travaux du Club de Rome 17 . Un programme de recherche se met en place entre lʼIIASA et la Cowles (Dantzig est le chef du methodology group à lʼIIASA où Koopmans va lui succéder) qui vise à proposer une alternative méthodologique aussi bien au Club de Rome (explicitement désigné) quʼaux économétriciens de lʼénergie. Lʼannée suivante Nordhaus, membre de la Cowles, publie un essai intitulé « Can we control carbon dioxide ? » [1975].

ÉMERGENCE DES MODÈLES INTÉGRÉS DU CLIMAT

Alan Manne : de la logistique aux politiques climatiques

Alan Manne commence sa carrière à la Rand Corporation. Il travaille alors en termes dʼanalyse dʼactivités à des applications dont les principes sont encore en vigueur aujourdʼhui, aussi bien sur lʼoptimisation des raffineries que sur les routes aériennes optimales. De 1956 à 1961, il est enseignant à Yale et réalise un certain nombre de travaux dans le cadre de la Cowles. En 1962, il fonde avec Dantzig, inventeur de la programmation linéaire, le Laboratoire de recherche opérationnelle à Stanford. Au moment où lʼanalyse dʼactivités se développe rapidement avec la programmation linéaire, la comptabilité nationale aux USA commence à appliquer les méthodes « input-output » de Leontief. La question du lien

16. « À mes yeux, un modèle constitué dʼun ensemble de processus alternatifs [comme lʼanalyse

dʼactivités, ndt] représente une manière plus appropriée de rendre compte des possibilités de production

quʼun modèle input-output [à la Leontief, ndt] ou encore un modèle fondé sur des fonctions de production continues [fonctions de production Cobb-Douglas, CES…, ndt]. »

17. « Il y a peu dʼintérêt à consacrer nos efforts à réaliser des scénarios du genre de ceux que

la “world dynamics” et le Club de Rome ont récemment popularisés. Au lieu de cela, ce qui est nécessaire, ce sont des modèles capables de représenter des états alternatifs et cohérents des systèmes énergétiques au niveau de la production de milliers de terawattheures. À ma connaissance, le seul modèle de ce type est celui de Kenneth Hoffman du Brookhaven National Laboratory, qui est réalisé à partir des techniques de la programmation linéaire [il sʼagit du modèle BESOM, qui deviendra MARKAL, ndt] » [Simon, 1973, p. 1110-1121]. Et plus loin Simon ajoute : « Nous produisons des rapports statistiques et des prévisions détaillées sur de multiples aspects des problèmes de lʼénergie, mais nous manquons des capacités dʼanalyse et de programmation orientées vers la conception de systèmes énergétiques, capacités que nous savons parfaitement mettre en place. »

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

57

entre les deux formalismes est traitée dans la monographie de la Cowles sur lʼanalyse dʼactivités et dans le livre de Samuelson, Dorfman et Solow, Linear Programming and Economic Analysis [1958]. Peu après, Alan Manne [1960] présente une critique du livre de Hollis Chenery et Paul Clark, Interindustry Economics. Dans ce texte, il critique très vivement les méthodes à la Leontief,

les « matrices carrées » input-output, au profit de lʼanalyse dʼactivités (matrices rectangulaires). Les mots sont durs : « Les meilleures capacités dʼanalyse des spécialistes de lʼapproche input-output [à la Leontief, ndt] ont été mises au service de bricolages et de ravaudages autour du formalisme initial ; de telles improvisations auraient pu largement être évitées si lʼon avait eu recours à lʼanalyse dʼactivités. » On ne peut évoquer plus brutalement le « bricolage » de la macroéconomie. Lʼannée suivante, il publie avec Harry Markowitz (futur prix Nobel) une monographie de la Cowles fondée sur lʼespoir dʼune macroéconomie qui reposerait sur une représentation claire des processus liés aux activités humaines en termes de process analysis [Manne et Markowitz,

1960].

Dix ans plus tard environ, ces idées sont reprises par K. C. Hoffman dans

sa thèse pour mettre en place le prototype du modèle MARKAL. Manne est lʼun des premiers à appliquer les méthodes de process analysis au thème sectoriel de lʼénergie, puis en collaborant avec les équipes de MARKAL, à concevoir MARKAL-Macro [Manne, 1994a]. Il étend par ailleurs, à partir des années 1990, les principes du process analysis aux questions de lʼeffet de serre dans le cadre du modèle MERGE [Manne, 1995]. Il apporte une contribution majeure à la structuration du débat sur ce sujet.

William Nordhaus : de la critique du modèle du Club de Rome au modèle DICE

Les années 1970 voient lʼémergence aux USA des premiers travaux qui

critiquent la croissance comme objectif fondamental de lʼactivité économique. Nordhaus, disciple de Koopmans, joue un rôle de premier plan dans la critique du rapport Limits to Growth au travers dʼabord dʼun article rédigé avec Tobin,

« Is growth obsolete ? », en 1972 [Nordhaus et Tobin, 1972]. Il poursuit avec lʼune des critiques les plus systématiques et argumentées des modèles de Forrester et Meadows. Lʼarticle « World Dynamics : measurement without data » [1973a] est le premier pas de son engagement dans une recherche sur les prospectives mondiales en liaison avec le thème de lʼénergie et du CO 2 . Cet article est une analyse technique détaillée de la structure des équations du modèle du Club de Rome et une tentative de considérer le modèle comme « une théorie scientifique » à laquelle on fait passer des épreuves. Nordhaus fait tourner le modèle, réalise des analyses de sensibilité… et arrive à des conclusions dévastatrices :

58

LES MODÈLES DU FUTUR

— la dynamique des systèmes nʼest quʼune variante des techniques de simulation employées en économie depuis longtemps ;

— la représentation économique incluse dans World Dynamics est une

régression par rapport aux travaux sur la croissance économique (sans cohé-

rence macroéconomique…) ;

— le modèle nʼest, en aucune manière, sérieusement validé sur des données

empiriques ;

— il ne fait référence à aucune théorie économique reconnue ;

— les résultats du modèle sont très sensibles à la valeur des paramètres et lʼon obtient des résultats opposés avec de petites modifications ;

— la prospective de long terme est un exercice qui manque de modestie

surtout si lʼon oublie les rétroactions du marché sur les produits rares (pro- cessus de substitution) et le progrès technique. Il reprend la plume pour développer cette fois ses propres convictions. Dans lʼAmerican Economic Review, sous le titre « Resources as a constraint on growth » [Nordhaus, 1974], il est lʼun des premiers économistes à men- tionner le problème de lʼeffet de serre mis en avant par le rapport du MIT de 1970, Man’s Impact on Global Environment. Il séjourne à lʼIIASA après Dantzig et Koopmans, et produit un premier document de travail sur le changement climatique. Dans le contexte de la crise de lʼénergie, Nordhaus développe un modèle énergétique mondial, simplifié en analyse dʼactivités, et entame une collaboration étroite avec les climatologues pour concevoir un modèle de climat réduit quʼil sera possible de coupler à la partie énergétique [Nordhaus, 1979]. Progressivement, Nordhaus précise son raisonnement économique pour le poser en termes dʼéquité intertemporelle et dʼéquité spatiale en sʼorien- tant vers un « modèle de croissance optimale » (à la Ramsey-Koopmans). Cette orientation est sensible dès les années 1980 et constitue la matière de son article « How fast should we graze the global commons ? » [Nordhaus, 1982]. Elle se précise avec des estimations de plus en plus détaillées du coût de la réduction des émissions, fondées sur le recoupement de toutes les études disponibles. Un travail comparable est réalisé sur les impacts du changement climatique. Il parvient ainsi au modèle DICE en 1992, publié dans Science et dont Nordhaus propose dʼenvoyer les sources informatiques à qui le lui demandera. Un livre est édité en 1994 [Nordhaus, 1994]. Chapitre après chapitre, lʼauteur fournit au lecteur, sous des formats clairs, le cadre théorique, lʼensemble des données et le programme informatique pour faire tourner le modèle 18 .

18. Voir Nordhaus [1992a, p. 1315-1319 ; 1993, p. 27-50]. Ces deux textes signalent explicitement que lʼon se place dans le cadre dʼun modèle intertemporel de Ramsey.

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

59

Science et politique dans le changement climatique

Lorsque le changement climatique est devenu un enjeu politique aux États- Unis, les scientifiques américains ont été mis à contribution. Lʼatmosphère « non interventionniste » régnant dans certains milieux politiques nʼa pas été sans répercussions sur les scientifiques. Nordhaus, comme Manne, ont eu tendance à différer ou à vouloir « exporter » les mesures contre le changement climatique. Cʼest la controverse devenue célèbre sur la « when and where flexi- bility ? ». Les modèles de Nordhaus, comme ceux de Manne, ont fait lʼobjet de vives critiques. Ces critiques sont de plusieurs ordres 19 . Dans DICE par exemple, lʼeffort de réduction ne se communique pas au capital installé ; dès que lʼeffort cesse, les émissions se remettent à croître instantanément (en dépit de lʼinstallation vraisemblable dans la réalité dʼun capital qui reste adapté aux faibles émissions). Dans MARKAL-Macro, les changements de technologie énergétique ne se communiquent pas à la structure macroéconomique du fait que précisément celle-ci est un modèle de Ramsey très agrégé. Plus généra- lement, le calcul sur une utilité qui fait lʼobjet dʼune actualisation minimise les dommages à long terme eu égard aux mesures à prendre aujourdʼhui. Paradoxalement, un certain nombre des critiques que Nordhaus avait adressées au Club de Rome sʼappliquent à son propre modèle DICE.

CONCLUSION

Le modèle de Forrester et Meadows (Limits to Growth-World 3) et les modèles MARKAL et DICE sont, en un sens, devenus tous trois des para- digmes. Limits to Growth a trouvé un prolongement dans le modèle IMAGE utilisé aujourdʼhui dans les prospectives SRES (Special Report on Emissions Scenarios) du GIEC 20 . Alors quʼIMAGE nʼa jamais suscité lʼadhésion des économistes, DICE et MARKAL ont entraîné en revanche de nombreuses équipes et permis la création de communautés de travail. Au terme de ce survol

historique, trois raisons semblent à lʼorigine de ces évolutions différentes :

— DICE et MARKAL sʼappuient sur un fondement théorique et pratique,

élaboré depuis plus de cinquante ans ;

— une institution intellectuellement puissante, la Cowles, les a portés sur

le plan scientifique ;

— ces modèles possèdent une unité fonctionnelle qui autorise une appro-

priation méthodologique et informatique efficace, dans le cadre de la diffusion des équations, données et sources informatiques.

19. Voir ici même Christian Azar (chapitre VII). 20. Voir le chapitre de Michel Armatte (chapitre III).

60

LES MODÈLES DU FUTUR

Limits to Growth et IMAGE apparaissent comme des constructions plus « phénoménologiques » dont les fondements théoriques sont moins clairs, autant pour ce qui est des déterminants de la dynamique (comportements) que pour les modes descriptifs des phénomènes physiques. Ces modèles sont davantage des programmes informatiques que des modèles construits sur une théorie (comme DICE) ou un fondement descriptif éprouvé (comme MARKAL), ce qui ne facilite ni leur transmission ni leur critique. DICE et MARKAL sʼinspirent des structures théoriques stylisées des modèles de Ramsey et de von Neumann-Sraffa. Cette stylisation a donné nais- sance à divers paradigmes économiques qui sont comme les grands classiques dont Barthes disait quʼà chaque relecture, on y trouve toujours quelque chose de nouveau. Les deux types de modèles sont utiles mais, pour traiter du long terme, un cadre théorique stylisé est nécessaire à la discussion. Aucun modèle ne saurait prétendre à la vérité – en particulier si son objet est dʼaider à pren- dre des décisions pour éviter les catastrophes sur le long terme. Cependant, à défaut de vérité, un modèle doit proposer une structure de raisonnement très ouverte à la discussion et à lʼéchange dʼarguments mis en forme. Le Club de Rome, à partir dʼune intuition juste, a lancé une alerte essen- tielle mais ne sʼest pas donné tous les outils nécessaires. Sous lʼimpulsion de Koopmans et Simon, la Cowles a commencé à mettre en place des outils plus adaptés. Toutefois, Nordhaus et Manne ne se sont pas affranchis de pré- supposés politiques qui ont probablement guidé les choix de paramètres et lʼusage de méthodes de résolution vers des résultats favorables au statu quo dans lʼaction sur le changement climatique.

RÉFÉRENCES BIBLIOGRAPHIQUES

Une grande partie des textes de la bibliographie peuvent être consultés sur les archives de la Cowles Foundation à lʼadresse suivante : http://cowles. econ.yale.edu/P/ Les numéros des Cowles Foundation Papers (CFP) et des Cowles Monographies (CM) sont indiqués en fin de référence. Les rapports pluriannuels sont également disponibles en ligne.

ARMATTE M. (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A. et PESTRE D, Les Sciences pour la guerre (1940-1960), Presses de lʼEHESS, Paris, p. 129-173. KOOPMANS T. C. (1951a), Activity Analysis of Production and Allocation, proceedings of a conference, par Tjalling C. Koopmans, en collaboration avec A. Alchian, G. B. Dantzig, N. Georgescu-Roegen, P. A. Samuelson, A. W. Tucker, John Wiley, New York (http://

cowles.econ.yale.edu/P/cm/m13/index.htm).

LA CONSTRUCTION HISTORIQUE DES PARADIGMES DE MODÉLISATION INTÉGRÉE

61

– (1951b), « Efficient allocation of resources », Econometrica, vol. 19, n° 4, octobre, CFP

52.

– (1953), « Activity analysis and its application », American Economic Review, vol. 43, n° 2,

mai, CFP 75c.

– (1964), « Economic growth at a maximal rate », The Quarterly Journal of Economics, vol. 78, août, CFP 217.

– (1965), « On the concept of optimal economic growth », Academiae Scientiarum Scripta Varia, vol. 28, n° 1, CFP 238.

– (1973), « Some observations on optimal economic growth and exhaustible resources », dans BOS H. C. (dir.), Economic Structure and Development, Essays in Honor of J. Timbergen, North-Holland, Amsterdam, CFP 396.

– (1978), « The transition from exhaustible to renewable or inexhaustible resources », dans Economic Growth and Resources, St Martin Press, New York, CFP 533.

MANNE A. S. (1960), « Comments on “interindustry economics” », Naval Research Logistics Quarterly, vol. 7, n° 4, décembre, p. 385-391, CFP 167.

– (1974), « Multi-sector models for development planning : a survey », Journal of Development Economics, vol. 1, n° 1, juin, p. 43-69 ; repris dans INTRILIGATOR M. D. et KENDRICK D. A. (dir.), Frontiers of Quantitative Economics, vol. II, North-Holland, Amsterdam, 1974,

p. 449-500.

– (1976), « ETA : A model for energy-technology assessment », Bell Journal of Economics ; repris dans INTRILIGATOR M. D. et KENDRICK D. A. (dir.), Frontiers of Quantitative Economics, vol. III B, 1977, North-Holland, Amsterdam (chap. 12).

– (1977), « ETA-MACRO : A model of energy-economy interactions », dans HITCH C. J. (dir.), Modeling – Energy-Economy Interaction, Resources for the Future, Washington, D.C.

– (1985), « Economic equilibrium : model formulation and solution », Mathematical Programming Study, n° 23.

– (1991), « Global 2100 : an almost consistent model of CO 2 emission limits », Swiss Journal of Economics and Statistics, vol. 127, n° 2.

– (1994a), « MARKAL-Macro, a linked model for energy-economy analysis », dans HAKE J.-F. et alii (dir.), Advances in Systems Analysis : Modelling Energy-Related Emissions on a National and Global Level, conférences du centre de recherche Jülich (with C.-O. Wene),

p. 153-190.

– (1994b), « Energy-related emissions on a national and global level », conférences du

centre de recherche Jülich ; repris dans Energy Policy, vol. 23, n° 1, 1995, p. 17-34 (avec

R. Mendelsohn et R. Richels).

– (1995), « MERGE : a model for evaluating regional and global effects of GHG reduction policies », Energy Policy, vol. 23, n° 1, p. 17-34. MANNE A. S. et MARKOWITZ Harry M. (1960), Studies in Process Analysis : Economy-Wide Production Capabilities, Wiley, New York, CM 19 (http://cowles.econ.yale.edu/P/cm/

m18/index.htm).

MANNE A. S. et RICHELS Richard G. (1992), Buying Greenhouse Insurance – the Economic Costs of Carbon Dioxide Emission Limits, MIT Press, Cambridge, Mass. M EADOWS Donella H., M EADOWS Dennis L., R ANDERS J. et B EHRENS W. (1972), The Limits to Growth : A Report for the Club of Rome’s Project on the Predicament of Mankind, Universe Books, New York. MENGER K. (1994), Reminiscences of the Vienna Circle and the Mathematical Colloquium, Kluwer, Dordrecht. N ORDHAUS W. D. (1973a), « World Dynamics : measurement without data », The Economic Journal, vol. 83, n° 332, décembre, CFP 399.

62

LES MODÈLES DU FUTUR

– (1973b), « The allocation of energy resources », Brookings Papers on Economic Activity, n° 3, CFP 401.

– (1974), « Resources as a constraint on growth », American Economic Review, vol. 64, n° 2, CFP 406.

– (1975), « Can we control carbon dioxyde ? », IIASA working paper.

– (1977), « Economic growth and climate : the case of carbon dioxide », The American Economic Review, mai, CFP 443.

– (1979), The Efficient Use of Energy Resources, Yale University Press, New Haven,

CM 26.

– (1982), « How fast should we graze the global commons ? », American Economic Review, vol. 72, n° 2, mai, CFP 547.

– (1991a), « The cost of slowing climate change : a survey », The Energy Journal, vol. 12, n° 1, printemps, p. 37-65, CFP 775.

– (1991b), « A sketch of the economics of the greenhouse effect », American Economic Review, mai.

– (1991c), « To slow or not to slow : the economics of the greenhouse effect », The Economic Journal, vol. 101, juillet, p. 920-937, CFP 791.

– (1992a), « An optimal transition path for controlling greenhouse gases », Science, vol. 258, 20 novembre, p. 1315-1319, Optimal.science.1192.pdf, CFP 829.

– (1992b), « Lethal model II : the limits to growth revisited », Brooking Papers on Economic Activity, n° 2, CFP 831.

– (1993), « Rolling the Dice : an optimal transition path for controlling greenhouses gases », Resource on Energy Economics, n° 15.

– (1994), Managing the Global Commons : The Economics of Climate Change, MIT Press, Cambridge, Mass.

N ORDHAUS W. D. et T OBIN J. (1972), « Is growth obsolete ? », Economic Growth, N.B.E.R.,

New York ; repris dans Income and Wealth, vol. 38, N.B.E.R., New York, 1973 ; CFP 398

et 398b. R AMSEY F. P. (1927), « Facts and propositions », Aristotelian Society , supplément, vol. 7, p. 153-170.

– (1928), « A mathematical theory of saving », Economic Journal.

– (1931), The Foundation of Mathematics and other Logical Essays, Routledge, Londres.

SIMON H. (1973), « Technology and environment », Management Science, n° 19. SOULEZ A (1985), « Manifeste du cercle de Vienne et autres écrits », Philosophie d’aujourd’hui, PUF, Paris. S RAFFA P. (1960), Production de marchandises par les marchandises , Dunod, Paris. T ESSMER R. G., H OFFMAN K. C., M ARCUSE W. et B ELHING D. J. (1975), « Coupled energy system-economic models and energy planning », Computer and Operation Research, vol. 2, p. 213-224.

VON NEUMANN J. (1937), « Über ein ökonomisches Gleichungssystem und eine Verallgemei- nerung des Brouwerschen Fixpunktsatzes », dans MENGER K. (dir.), Ergebnisse eines mathematischen Kolloquiums (1935-1936), Springer, Vienne.

– (1945), « A model of general economic equilibrium », Review of Economic Studies, vol. 13, n° 1 (1945-1946), p. 1-9. WITTGENSTEIN L. (1961), Tractatus logico-philosophicus, Gallimard, Paris.

LES ÉCONOMISTES FACE AU LONG TERME

63

3

Les économistes face au long terme :

lʼascension de la notion de scénario

Michel Armatte

Lʼenrôlement des économistes dans le débat sur le changement climatique sʼest fait de façon significative mais limitée après la crise de croissance issue du choc pétrolier de 1973, et en réaction à la provocation que représentait pour un économiste classique le brûlot du Club de Rome, Halte à la croissance ! [1972]. La participation des économistes à la question du changement climatique sʼest intensifiée pour devenir massive dans le cadre du Groupe dʼexperts inter- gouvernemental sur lʼévolution du climat (GIEC ; IPCC en anglais) à partir du moment où celui-ci a instauré trois groupes de travail dont deux impliquaient directement les économistes : le groupe 2 sur les impacts du changement clima- tique, et le groupe 3 sur les stratégies de réponse et les politiques de réduction des émissions et dʼadaptation face au changement climatique. Mais le rôle des économistes est aussi apparu important en amont des travaux des climatologues, dans la modélisation des activités (économiques, énergétiques, industrielles et agro-pastorales) productrices de gaz à effet de serre. Or cette modélisation de la croissance sur des échelles de temps de lʼordre du demi-siècle ou davantage constituait un défi nouveau pour une discipline plus habituée à raisonner sur des durées qui sont celles dʼun cycle de production-consommation de biens et services sur un marché où offre et demande sʼajustent rapidement.

LES TEMPS DE LʼÉCONOMIE

La réflexion sur le temps est loin dʼêtre absente de la pensée économique. Elle en est même au centre si lʼon considère que la science économique de Jean-Baptiste Say vise à décrire « les moyens par lesquels les richesses se forment, se distribuent et se consomment ». Sauf lorsquʼil aborde les ques- tions dʼaccumulation du capital, le credo classique ne semble pas trouver de ressources pour penser le long terme avant la fin du XIX e siècle.

64

LES MODÈLES DU FUTUR

Le temps de la conjoncture et du très court terme

Lʼirruption dʼune réflexion projective sur le temps peut être datée des grandes crises économiques de la fin du XIX e , qui sont aussi concomitantes de controverses méthodologiques importantes [Armatte et Desrosières, 2000]. La première grande crise des années 1880-1890, qui se traduit par de grands désordres sur les marchés de lʼemploi et de la finance, découvre ce nouveau thème, les business cycles, la grande affaire des quarante années suivantes. Cʼest une période de forte innovation dans les représentations mentales, puis techniques du mouvement économique, qui sʼincarne dans la vogue des baro- mètres et dans la naissance des principaux instituts de conjoncture européens et nord-américains [Armatte, 1992]. Ces baromètres qui visent à décrire les cycles économiques deviennent des instruments « magiques » de prévision. De cette période date la démarcation stricte entre le temps de la conjoncture, avec ses cycles saisonniers et ses projections à très court terme (1 à 6 mois), et le temps long des évolutions tendancielles ou des fluctuations économiques quʼillustrent les cycles de Kuznets et de Kondratiev (40 ans). La prévision conjoncturelle sʼappuie principalement sur des indicateurs statistiques et des enquêtes auprès des ménages et des chefs dʼentreprises ou encore des dires dʼexperts, et elle produit des notes de synthèse qui se vendent aussi bien aux entrepreneurs quʼaux politiques.

Le temps des comptes annuels et de la prévision à court terme

Les méthodologies de la conjoncture ont été fortement remises en cause après le choc de la crise des années 1930. Son intensité (chômage, lock- out, inflation à des niveaux jamais atteints) et ses conséquences sociales et économiques ont justifié lʼémergence de nouvelles politiques, mais aussi de nouveaux lieux de production de connaissances où lʼon a âprement débattu des méthodologies économiques : le groupe X-Crise en France, la Cowles Commission aux États-Unis et lʼInternational Econometric Society en sont trois exemples. Certaines, comme la Cowles, sortent de la guerre renforcées par la nouvelle alliance militaro-scientifico-industrielle et le nouvel ordre mondial dominé par les États-Unis [Armatte, 2004]. Entre 1930 et 1950, tout un ensemble de technologies se sont développées pour penser le court terme qui est celui de la prévision. La première de ces technologies est celle des « budgets économiques » qui ont accompagné les politiques néokeynésiennes des gouvernements amé- ricains (New Deal) et européens dans leur intervention contre lʼinflation et le chômage. Liée à la construction des comptabilités nationales qui a fourni leur cadre [Fourquet, 1980 ; Vanoli, 2002], la méthode des budgets économiques sʼappuie sur les comptes du passé pour établir les budgets de lʼÉtat qui vont

LES ÉCONOMISTES FACE AU LONG TERME

65

traduire à court terme (horizon 1 à 3 ans) à la fois les évolutions tendanciel- les et les impulsions dʼune politique volontariste dʼintervention étatique. Le budget est une pratique administrative encadrée par la loi de finances, mais calquée sur les pratiques des entreprises. En France, la confection du budget

a été prise en charge dès lʼaprès-guerre par le Service des études économi-

ques et financières du Trésor (SEEF) qui est éclaté en 1965 entre lʼINSEE et la Direction de la prévision (DP). Ces deux institutions se partagent la tâche

– en gros les comptes du passé pour la première, les comptes du futur pour

la seconde – mais collaborent. Le modèle implicite aux budgets est celui de lʼapproche keynésienne qui privilégie le rôle de la demande, et se focalise sur les équilibres de court terme – Keynes ayant eu la boutade célèbre « à long terme nous sommes tous morts ». La méthode dʼélaboration des comptes mise en place par lʼINSEE et la DP part dʼabord du Tableau dʼéchanges industriels entre branches, qui devient plus tard le Tableau des entrées-sorties (TES) en référence aux tableaux input-output de Leontief. Ces tableaux permettent à la fois des analyses de la structure de lʼappareil productif, des vérifications de concordance de sources statistiques hétérogènes et des prévisions ou des orientations politiques. La méthode des tableaux a trouvé un relais, en partie substitutif, dans une seconde approche, celle de lʼéconométrie. Son invention programmée comme synthèse des approches mathématiques (déductives) et statistiques (inducti- ves), dans les cercles concentriques fort restreints de la Cowles Commission et de lʼInternational Econometric Society, a trouvé sa raison dʼêtre et son débouché dans la construction de modèles macroéconométriques. Leurs équations traduisent soit des égalités comptables de principe entre agrégats, soit des relations de comportement que lʼanalyse économique – keynésienne pour lʼessentiel – a mises en avant dans les années 1950. Les comptes sʼappuient sur des découpages en branches et permettent une approche dʼemblée très désagrégée. Les modèles économétriques fonction- nent comme de véritables maquettes de simulation beaucoup plus maniables que les projections des comptes. Ces simulations servent non seulement à explorer les propriétés dynamiques du modèle pour une structure fixe et à faire des tests de sensibilité, mais in fine elles visent à évaluer les effets de politiques économiques ou de perturbations externes en observant des effets de chocs structurels.

Le temps de la planification et de la projection à moyen terme

Il faut maintenant aborder une troisième forme de projection dans le futur, née dans la même période 1930-1950, bien plus volontariste quʼune simple prévision car il sʼagit de choisir un avenir : la planification. Le principe général dʼune planification « à la française » est celui dʼune programmation indicative

66

LES MODÈLES DU FUTUR

et stratégique de moyen terme (4 ou 5 ans) qui se veut une troisième voie entre libéralisme et dirigisme. Pierre Massé, commissaire au Plan entre 1959 et 1966 après une carrière dans lʼindustrie électrique, pense que le marché est incapable de produire seul une économie équilibrée et optimale, surtout dans une situation dʼaprès-guerre où lʼÉtat contrôle plus de 50 % des inves- tissements 1 . La planification autoritaire des objectifs « à la soviétique » est rejetée au profit dʼune économie concertée qui se traduit par des structures très originales : le Commissariat général du Plan, qui compte seulement une à deux centaines dʼexperts fonctionnaires (1960), est assisté du Conseil économique et social et de commissions de modernisation tripartites (25 commissions et 3 500 personnes en 1960) et relayé par des instances régionales. Les objec- tifs prioritaires du Plan ont fortement changé en fonction des urgences de la conjoncture : le I er Plan Monnet (1948-1953) était centré sur la modernisa- tion de lʼappareil productif et lʼeffort dʼéquipement dans six domaines clés :

charbon, électricité, acier, ciment, machines agricoles, transport ; le II e Plan (1954-1957) sur lʼagriculture, les industries de transformation et le logement ; le III e Plan (1958-1961) sur la stabilisation monétaire (nouveau franc de 1958) et lʼinsertion dans le Marché commun ; le IV e Plan (1962-1965) sur une forte croissance (24 %), lʼéquilibre des paiements et le contrôle de lʼinflation, etc. Conçu dʼabord dans un contexte de pénurie, le Plan a dû sʼadapter à la crois- sance et à la société de consommation. La méthodologie du Plan, elle aussi, a évolué. Son histoire sʼentremêle dʼabord avec celle de la comptabilité nationale qui lui a fourni ses premiers cadres comme elle lʼa fait pour la prévision budgétaire. À partir du II e Plan et jusquʼau V e , lʼélaboration par le Commissariat général du Plan, assisté par le travail des commissions, repose dʼabord sur une projection de la croissance du PIB, puis sur le choix des programmes dʼinvestissement et de transfert de lʼÉtat, et enfin dʼun bilan sectoriel. Le TES reste lʼoutil central commun à la prévision budgétaire et à la planification, mais on y greffe des hypothèses dʼévolution de la population active et de la productivité. Pour le IV e Plan, on mobilise lʼinversion du tableau dʼinput-output : partant des objectifs de satisfaction de la demande et des élasticités de revenu, on a pu remonter aux productions nécessaires. Le V e Plan a produit des « esquisses » sur la base dʼun schéma itératif combinant modèles économétriques partiels et évaluations comptables. Le VI e Plan est le premier à mobiliser un modèle macroécono- métrique de simulation (FiFi = physico-financier) dʼenviron 1 000 équations et 7 secteurs. Les comptes centraux établis par FiFi ayant fourni des résultats inquiétants en termes de croissance, chômage et déséquilibre de la balance des paiements, ils ont été corrigés par des projections détaillées obtenues dans les groupes de travail, puis par des arbitrages politiques, jusques et y

1. Lesourne [2004] est du même avis.

LES ÉCONOMISTES FACE AU LONG TERME

67

compris des « discussions nocturnes entre membres des cabinets ministériels au printemps 1971 2 ». Mais dès lors, les objectifs nʼétaient plus justifiés par les grands équilibres du modèle, sauf à le faire tourner à lʼenvers, ce qui ne sʼavérait pas possible 3 . On a donc utilisé le modèle pour produire des variantes, et explorer à la fois ses propriétés formelles, des futurs possi- bles, ou encore des politiques alternatives 4 . Dʼinstrument de prévision, il est devenu instrument de simulation. Mais cette irruption du modèle et lʼabus des variantes ont entraîné quelques biais politiques comme un renforcement des experts et des « groupes techniques » au détriment de la concertation dans les commissions et au Parlement, ou encore des manipulations, par exemple de la Direction du Budget en faveur dʼun désengagement de lʼÉtat, ou dʼun certain patronat en faveur dʼune croissante forte à la japonaise 5 . Il nʼest pas si facile de sélectionner une figure de lʼavenir qui soit à la fois souhaitable (politiquement et socialement), praticable (cʼest-à-dire réalisable) et probable (comme prolongement du présent) comme le voulait P. Massé. Lʼexécution du Plan est également assez problématique, le gouvernement ne disposant quand même pas de toutes les manettes. Au terme de ce parcours sur les trois formes classiques de la projection dans le futur opérée en économie, on est frappé par le fait que leurs différen- ces fondamentales dʼhorizon (quelques mois pour la conjoncture, 1 à 2 ans pour les budgets et 4 ou 5 ans pour le Plan), mais aussi de finalité politique (de la conjoncture quasi déterministe pour laquelle le futur se lit comme une extrapolation du présent à la planification qui incite davantage à la fabrication des futurs quʼà leur prévision) nʼaboutissent pas complètement à les rendre méthodologiquement distinctes, ni même autonomes les unes des autres. On retrouve dans chacun des exercices le même cocktail de quatre méthodes de base – lʼextrapolation statistique tendancielle, la projection des comptes natio-

2. Bernard et Cossé [1974, p. 68]. La tension entre les approches comptables et économétriques

dans les exercices de prévision budgétaire ou de planification a été décrite par Alain Desrosières

[1999] sous la belle formule de « la commission et lʼéquation », et illustrée par des comparaisons éclairantes entre le Plan français et le Plan néerlandais.

3. « Il faut vous confier que le modèle physico-financier ne sait pas marcher à lʼenvers […]. Si

vous remettez la chair à saucisse dans le hachoir à viande et faites tourner celui-ci à lʼenvers, il ne

vous redonnera pas les morceaux de gras et de maigre. Alors, pour faire marcher Fifi à lʼenvers, il faut procéder par tâtonnements » [interview de R. Martin à Europe n° 1, 15 janvier 1970, cité par Bernard et Cossé, 1974].

4. En quelques mois, fin 1969, on a exploré 9 variantes dʼincertitude, 28 variantes de sensibilité,

14 variantes de politique économique et 21 variantes de politique budgétaire et fiscale. « Nous avions

franchi la limite dʼune utilisation honnête du modèle », écrivent Bernard et Cossé, qui signalent les vives réactions des organisations syndicales qui se disent dépossédées.

5. Pour éviter la confusion entre prévision et objectifs, on a dʼailleurs séparé assez artificiellement

le document littéraire livré aux débats parlementaires et les projections économiques pour 1975,

publiées ultérieurement.

68

LES MODÈLES DU FUTUR

naux, la modélisation structurelle et, enfin, la combinaison de dires dʼexperts et de représentants syndicaux –, à des doses évidemment variées.

Le temps (très) long de la nouvelle histoire économique

La « longue durée » nʼappartient pas tant à lʼéconomie quʼà lʼhistoire, et plus précisément à lʼémergence de lʼÉcole des Annales, en 1929. Dans la foulée dʼun Simiand sʼopposant aux « trois idoles de la tribu des historiens », les Annales de Lucien Febvre et Marc Bloch veulent en finir avec lʼhistoire événementielle, politique et individuelle des princes et des guerriers. À la place de tout ce fatras, elles prônent une « nouvelle histoire » dont la méthode est celle des sciences sociales. À côté dʼune histoire des mentalités (Halbwachs, Lévy-Bruhl, Ariès), on va trouver une histoire des mouvements économiques de longue durée, dont le récit est fondé sur la quantification, et que Simiand et Labrousse illustrent par deux ouvrages sur le mouvement des prix en 1932 et 1933. « La mesure est entrée en histoire par les prix… et par la crise de 29 », dira lʼun de leurs disciples, Pierre Chaunu. Cʼest Braudel, patron des Annales de la seconde génération, qui a fait de la longue durée le credo de la nouvelle histoire. Pour François Dosse [1987], cʼest un choix stratégique qui vise à résister à la poussée de lʼanthropologie structurelle de Lévi-Strauss et à celle des sociologues emmenés par Gurvitch. Pour Braudel [1999], la longue durée sʼarticule au court terme de lʼévénementiel ou du conjoncturel, et leur donne sens. Cette pluralité des temps, combinée avec de larges espaces comme la Méditerranée, ou les économies-mondes de Gènes, Venise ou Rotterdam, lui permet de pratiquer une histoire globale, descriptive, structurelle et parfois structuraliste, riche de découvertes, surtout dans le domaine de la circulation des marchandises et des hommes. Cette longue durée de Braudel est cependant inessentielle pour la plupart des économistes – « rien nʼest dans la longue durée qui ne soit dʼabord dans la courte », disait Aftalion. Bien que tentée par quelques-uns comme Alain Minc, Jacques Attali et lʼÉcole de la régulation, la rencontre entre Braudel et les économistes a été un rendez-vous manqué. Dʼune part, parce que le temps long de Braudel sʼest construit contre le temps « court » des écono- mistes – « je soutiens que toute la pensée économique est coincée par cette restriction temporelle », écrit-il [Braudel, 1999, p. 57]. Dʼautre part, parce que lui-même sʼest cantonné dans une exploration des modes de marché alors que les économistes sʼintéressent davantage aux modes de production. Nous insisterons sur un point : le temps de lʼhistorien des Annales, comme celui des économistes « braudéliens-foucaldiens 6 », se focalise sur la durée, sur les

6. Voir les Histoires du temps de J. Attali [1999] et lʼEssai d’analyse de mouvements économiques de longue durée de S. Walery [1987].

LES ÉCONOMISTES FACE AU LONG TERME

69

rythmes de lʼactivité et les dispositifs de contrôle qui sʼy attachent et formatent les rapports de production et lʼencadrement des travailleurs tout au long de lʼhistoire du marché. Cʼest un temps immuable, comme la structure quʼil porte. Dʼoù son fatalisme, plusieurs fois souligné 7 . La flèche du temps conduit à un futur inéluctable, et pas à un avenir choisi parmi des possibles. Ce nʼest pas le temps de lʼhomme dʼaction – ingénieur, entrepreneur, politique – qui doit se projeter dans un avenir de moyen ou long terme. Contrairement aux philo- sophes qui, de Gaston Berger à Paul Ricœur, ont lié réflexion sur le temps et décision collective, les historiens nʼont pas cultivé la dimension praxéologique. Pour ces deux raisons, la longue durée nʼest pas le long terme.

LE TEMPS LONG DE LA PROSPECTIVE

La démarche prospective

Lʼorigine de la prospective se perd dans un passé lointain [Cazes, 1986]. Elle a bénéficié des réflexions lumineuses de Condorcet sur le progrès. Mais sa pratique dans les sociétés modernes date de lʼimmédiat après-guerre, dans les think tanks américains associés à la réflexion stratégique, comme la Rand Corporation fondée en 1948 sur les restes dʼun groupe de travail de la Douglas Aircraft Company. On y travaille aussi bien sur la prévision technologique de long terme (les armes) que sur la stratégie et les possibilités de conflit. Hermann Kahn, qui travaille à la Rand dans les années 1960 sur des scénarios de guerre nucléaire, fondera ensuite le Hudson Institute. Dans cette même période où recherches militaires, industrielles et universitaires sont associées, se crée un autre centre de recherche situé à lʼintersection des domaines de la science, de lʼingénierie, de la gestion et de la politique, le Stanford Research Institute (SRI) qui rassemble plusieurs milliers dʼexperts à temps plein. Un troisième lieu, beaucoup plus modeste (20 chercheurs), est lʼInstitute for the Future, créé en 1968 par R. Amara, qui abrite les activités de Theodore Gordon, parfois désigné comme lʼinventeur de la méthode des scénarios. Le deuxième moment fort de la prospective fait suite à la publication du fameux rapport du Club de Rome [Meadows et alii, 1972]. Lʼélectrochoc quʼil provoque chez les experts de la croissance est tout autant ravageur que le premier choc pétrolier qui lʼaccompagne. Une dizaine dʼinstituts de pros- pective voient le jour dans les dix années qui suivent 8 .

7. « Le cycle de Kondratiev, on le supporte comme on supporte la rotation de la terre », écrit-il

en 1984 [Braudel, 1999, p. 131].

8. Ce sont soit des organismes officiels gouvernementaux comme le Secrétariat (devenu

Institut) suèdois aux études sur le futur créé par Olaf Palme (1972), lʼInstitut de prospective et de

planification (WRR) hollandais, ou lʼIFTF (Institute for the Technologies of the Future) du Japon ;

70

LES MODÈLES DU FUTUR

Le troisième moment fort des études prospectives coïncide avec lʼémer- gence des questions dʼenvironnement et surtout du changement climatique sur la scène internationale. LʼInternational Institute for Applied Systems Analysis (IIASA), fondé à Vienne en 1982 pour permettre aux communau- tés scientifiques des blocs de lʼOuest et de lʼEst de collaborer, et le rapport Bruntland (Our Common Future) ont joué un rôle analogue au Club de Rome et son rapport pour relancer les études. LʼIIASA assure une transition entre les approches du Club de Rome et une exploration des méthodes systémiques, et des modélisations associées au paradigme de lʼévaluation intégrée. En France, la prospective sʼest construite autour de deux personnalités :

Gaston Berger fonde le premier centre de prospective en 1957, qui fusionne un peu plus tard avec lʼassociation Futuribles créée en 1960 par Bertrand de Jouvenel. « Lʼattitude prospective » quʼils proposent dʼadopter repose pour lʼessentiel sur un petit nombre de caractéristiques que lʼon peut ainsi résumer 9 :

— la globalité : on étudie de larges systèmes pour lesquels tous les aspects doivent être pris en compte dans une démarche interdisciplinaire ;

— la vision à long terme, nécessaire même pour une conduite immédiate :

« Notre civilisation est comparable à une voiture qui roule de plus en plus vite sur une route inconnue lorsque la nuit est tombée. Il faut que ses phares

portent de plus en plus loin si lʼon veut éviter la catastrophe » ;

— la prédominance dʼune analyse qualitative ; lʼexpertise doit lʼemporter

sur le calcul : « Il faut que des hommes se rencontrent et non que des chiffres

sʼadditionnent » ; dʼailleurs « la prospective ne cherche pas à prédire » ; pré- vision et prospective doivent néanmoins sʼassocier, car lʼavenir sera le résultat en partie de ce qui est et en partie de ce que nous voulons quʼil advienne ;

— la prétention à la rationalité : la prospective nʼest pas la divination,

« elle sʼappuie à la fois sur un précédent, sur une analogie et sur une extrapo- lation » ; « la prospective est attentive aux causes » ; néanmoins, elle est plus un art quʼune science car elle intègre une imagination, une prise de risque ;

— le caractère volontariste de la projection dans le futur : « cʼest un regard

et cʼest un projet » ; « lʼavenir nʼest ni un mystère absolu, ni une fatalité inexorable ». On retrouve ces caractérisations de la prospective énoncées – avec beau- coup de panache – chez de nombreux auteurs de lʼécole française, comme Pierre Massé, Jérôme Monod, Thierry Gaudin, Jacques Lesourne ou Michel Godet, pour ne prendre que des responsables venus de cinq horizons différents

soit des organismes alternatifs comme le Congressional Clearinghouse for the Future aux États-Unis, la fondation Bariloche en Argentine, ou le GAMMA (Groupe associé Montréal, McGill pour lʼétude de lʼavenir) à lʼuniversité de Montréal. Voir les contributions dʼÉlodie Vieille Blanchard et de Pierre Matarasso dans cet ouvrage. 9. Citations extraites de Berger [1964].

LES ÉCONOMISTES FACE AU LONG TERME

71

(le Plan, la DATAR – Délégation à lʼaménagement du territoire et à lʼaction régionale –, les ministères de lʼIndustrie et de la Recherche, la SEMA – la Société dʼéconomie et de mathématiques appliquées –, le CNAM) et ayant fortement pratiqué et commenté la méthode.

Les lieux français de la prospective

Le Plan est le premier cadre important du développement des recherches prospectives. Les premiers commissaires avaient été sensibles aux visées de long terme et à lʼidentification de tendances lourdes, en particulier Jean Fourastié, lʼinventeur des Trente Glorieuses et du « boom du secteur ter- tiaire ». Pierre Massé, commissaire au Plan entre 1959 et 1966, a défendu la prospective comme une méthode complémentaire de la prévision budgétaire ou macroéconométrique [Massé, 1965]. Dès 1961, il fonde des centres de recherche sʼy consacrant, et qui existent toujours (le CEPREMAP – le Centre pour la recherche économique et ses applications – et le CEPII – le Centre dʼétudes prospectives et dʼinformations internationales). Cette nébuleuse du Plan a contribué aux premières études de prospective, dont la plus célèbre, en 1965, est Réflexions pour 1985 10 . La France, qui sortait alors de lʼépoque coloniale (fin de la guerre dʼAlgérie), de lʼisolement international (traité franco-allemand, relance de lʼEurope) et de la crise monétaire (nouveau franc de 1958), avait besoin « dʼextraire du champ des possibles quelques lignes de lʼavenir, intelligibles pour lʼesprit et utiles pour lʼaction », ce qui nécessitait de sortir du domaine des simples prévisions. La méthode semble sʼêtre réduite à une interprétation des tendances quantitatives de long terme. Le rapport prévoyait une forte croissance (triplement du PNB) permettant une amélioration des conditions de vie, des transports, de la communication, des loisirs, de la formation…, mais aussi quelques conséquences néfastes (conflits, gaspillages, embouteillages…). Un reproche fait encore aujourdʼhui à cet exercice est de sʼen être tenu à un scénario dʼévolution tendancielle et de nʼavoir pas suffisamment incorporé de points de vue hétérodoxes, voire utopiques [Commissariat général du Plan, 2004]. La prospective sʼest développée dans les administrations centrales. Tous les ministères ou presque se sont dotés dʼune cellule de prospective. Les plus importantes sont celles du ministère de lʼIndustrie (lʼOSI, lʼObservatoire des stratégies industrielles) et du ministère de la Recherche (le CPE, le Centre de prospective et dʼévaluation) dans lesquelles Thierry Gaudin a œuvré successi-

10. Le groupe comprenait une équipe permanente – Pierre Guillaumat (président), M me J. Krier,

J. Bernard, E. Claudius-Petit, M. Demonque, L. Estrangin, J. Fourastié, Cl. Gruson, B. de Jouvenel,

Ph. Lamour et G. Levard –, mais sʼest adjoint les collaborations de P. Delouvrier, Cl. Lévi-Strauss,

J. Delors et R. Aron.

72

LES MODÈLES DU FUTUR

vement au développement de la prospective technologique 11 . Mais la DATAR, créée en 1963 sous lʼimpulsion de Jérome Monod, est le cadre majeur des tra- vaux de prospective des années 1960-1970, via le SESAME (Système dʼétudes du schéma dʼaménagement de la France). Cette structure créée en 1968, que Hatem [1993] présente comme un « improbable mariage du marxisme et de

lʼadministration française, de la rue dʼUlm et du Hudson Institute », compre- nait en fait quatre groupes de travail, centrés respectivement sur les scénarios dʼaménagement, sur les analyses de systèmes, sur les prévisions technologiques et sur la modélisation, et un laboratoire – lʼOTAM (lʼOmnium technique dʼamé- nagement) – mandaté pour construire des scénarios. Si, dans le cadre du Plan, il

y

avait continuité entre méthodes de la prévision et méthodes de la prospective,

il

y avait à la DATAR une volonté de rupture « épistémologique » manifeste.

Le SESAME a importé en France les méthodes de la futurologie américaine, qui vont de la simple liste des bonnes pratiques à la confection de scénarios et au croisement dʼexpertises. Le morceau de bravoure de ce groupe est resté la

publication en 1971 des Scénarios de l’inacceptable. Ce titre en dit assez sur le rôle que vont jouer les scénarios dans la méthodologie de la DATAR. La prospective, enfin, est la grande affaire des entreprises qui en usent pour leurs projections stratégiques. Ce qui fait dʼailleurs que les ouvrages de prospective de nos bibliothèques se rangent plus volontiers dans les sections de gestion quʼen économie. Lʼexemple célèbre reste la compagnie Shell dans laquelle Pierre Wack – qui se réclamait autant de Kahn que de Braudel – a développé la planification par scénario et imposé, dès 1969, que son système de modèles mathématiques soit remplacé par des exercices de prospective à

15 ans. Mais si lʼon revient en France, ce sont des entreprises nationalisées comme EDF, SNCF et ELF qui, après avoir utilisé les modèles économétri- ques, se sont tournées délibérément vers lʼutilisation de scénarios contrastés, surtout après le choc pétrolier. La démarche prospective a trouvé un relais académique, principalement au CNAM, autour de la chaire de prospective industrielle (1982) et du labo- ratoire LIPSOR 12 aujourdʼhui dirigé par Michel Godet, qui sʼest fait une réputation dans la mise au point dʼun ensemble dʼoutils opérationnels pour charpenter la méthodologie, assez lâche parfois, des expertises et des scéna- rios. Le laboratoire diffuse largement les logiciels correspondants, et forme

à leur méthodologie pour éviter le risque assumé « de fournir un marteau à

des gens qui nʼont pas de clou à enfoncer ». Mais, dans la France des années 1960, la haute administration, les capitaines dʼindustries et le monde acadé- mique ne sont pas des mondes séparés, comme le trajet de Jacques Lesourne

11. Voir sa prospective mondiale à 2100 [Gaudin, 1993].

12. Laboratoire dʼinvestigation en prospective, stratégie et organisation. Ce laboratoire gère le

projet de recherche « Mémoire de la prospective » qui offre un accès à la littérature marquante de

la discipline.

LES ÉCONOMISTES FACE AU LONG TERME

73

(X-Mines) lʼillustre bien, de la SEMA – quʼil fonde en 1958 et qui travaille pour le Plan et la DATAR aussi bien que pour les grands industriels –, au CNAM où il obtient la chaire dʼéconomie industrielle en 1974 et introduit Michel Godet. « Cʼest bien les milieux dʼingénieurs qui, étant dans le calcul économique et la prévision, vont intégrer la prospective de manière natu- relle », confirme Lesourne [2004] ; le fait que la prospective soit née au Plan et à la DATAR est « une conséquence du fait que la France a été gérée par son Administration ». Lesourne quitte la SEMA en 1976 pour prendre, pendant trois ans, la direc- tion dʼune étude prospective à lʼOCDE baptisée « Interfuturs » sur laquelle nous allons nous arrêter. Ce projet est une initiative qui vise à « savoir sʼil sera possible dʼassurer à lʼavenir la prospérité et un développement économique et social équilibré, en harmonie avec celui des pays en développement ». Il est initialisé par la problématique des limites de la croissance du Club de Rome, dont les économistes rejettent les méthodes et les prémisses (principalement parce quʼil nʼy a ni prix ni substitution de technologies) mais auquel ils reconnaissent un rôle dʼalerte important. Il se situe à lʼintersection de deux problématiques fortes, le développement durable et les rapports Nord-Sud. Présidé par un Japonais mais piloté par un Français, ce projet intergouverne- mental est également sensible à la coexistence avec les sociétés socialistes et aux « interdépendances à lʼéchelle mondiale » (on ne disait pas encore « mondialisation »), privilégiant une lecture principalement économique mais ouverte sur le politique et le social. La méthodologie affirmée se réclamait de la prospective globale à long terme (20-25 ans) : il fallait imaginer différents futurs et séparer « les évolutions dont la dynamique est invariante et prévi- sible de celles qui peuvent être altérées par des acteurs », dʼoù la méthode des scénarios qui a été privilégiée. Quant aux conclusions dʼInterfuturs, elles étaient données sous trois formes : des perspectives qualitatives, des alertes et des recommandations, beaucoup moins alarmistes que celles du Club de Rome, et parfois même diamétralement opposées : « les problèmes soulevés [par le Club de Rome] nʼempêcheront pas la croissance économique ».

Les méthodes de la démarche prospective

Pour les raisonnements de long terme, la méthodologie préférée des éco- nomistes consiste principalement en un recours aux modèles théoriques de croissance comme le modèle de Solow (1956), qui a inspiré le modèle DICE (Dynamic Integrated Model of Climate and Economy) de Nordhaus, ou encore les nouveaux modèles dits « à croissance endogène » qui intègrent explici- tement un secteur « recherche et développement », et font dériver le progrès technique du comportement des agents économiques. Cependant, « si lʼimage du progrès technique quʼoffrent les historiens a nourri nombre de modèles de

74

LES MODÈLES DU FUTUR

croissance endogène, il est vrai que les économistes lʼont souvent réduite à lʼétat de squelette » [Guellec et Ralle, 1996, p. 86]. Ces modèles ont souvent achoppé sur la représentation du progrès technologique et de lʼinnovation, mais aussi sur celle des arbitrages intertemporels. Le choix dʼun taux dʼactualisation, fait pour les choix dʼinvestissement, a conduit à des aberrations dʼarbitrage coût-efficacité sur le plus long terme 13 (50 ou 100 ans). La modification du contexte socio-économique sur ce long terme a invalidé la modélisation macro- économique dans la forme dominante, à savoir lʼéconométrie structurelle. Lʼimportance des boucles de rétroaction a réduit également les prétentions de la généralisation des modèles linéaires. Un petit nombre dʼéconomistes, soucieux de coller à la diversité des filières de production industrielles ou énergétiques, ont préféré sʼappuyer sur les deux traditions similaires mais concurrentes des modèles input-output de Leontief ou des modèles dʼanalyse dʼactivité de Koopmans, dont un lointain rejeton est le modèle de projection énergétique MARKAL 14 (Market Allocation Model). La démarche prospective représente une autre alternative, mais ses carac- téristiques principales – le long terme, la projection volontariste et la pluralité des futurs – donnent à la discipline une originalité, voire une odeur de soufre, qui en éloigne a priori les économistes, effrayés par son éclectisme. Compte tenu cependant des limites des autres méthodes, la prospective économique et sociale a trouvé sa place en affirmant sa spécificité. Toute étude prospective commence par la construction dʼune base, cʼest- à-dire lʼélaboration du système de représentation qui sʼappuie sur un recueil de données qualitatives et statistiques auprès des experts. Dans cette étape, il faut donc identifier les acteurs collectifs ou individuels, leurs objectifs et leurs contraintes, ainsi que le jeu dʼéléments et de leurs relations présumées qui défi- nit la structure du problème. Plutôt que de se saisir des modèles formalisés de lʼéconomie quʼils jugent trop fermés, les prospectivistes préfèrent se référer à lʼanalyse des systèmes. Forrester et sa dynamique des systèmes à base de liens entre flux et stocks et de boucles de rétroaction telle quʼelle sʼest incarnée dans le modèle World 3 du Club de Rome est une première forme de cette analyse. Les prospectivistes français se référent aussi à Yves Barel [1971] qui a théorisé, pour la DATAR, cette filiation avec la systémique, dans une double approche cognitive et décisionnelle 15 , ou encore au groupe des chercheurs québécois de lʼINRS (Institut national de la recherche scientifique) auteurs dʼun gros mémo- randum sur la méthode des scénarios [Julien, Lamonde et Latouche, 1975].

13. Voir le chapitre rédigé par Christian Azar dans le présent ouvrage.

14. Voir ici même le chapitre rédigé par Pierre Matarasso.

15. « La prospective pose globalement trois problèmes théoriques et méthodologiques majeurs :

celui du passage de la partie au tout, celui de la nature de la réalité constituant lʼobjet dʼétude et

celui du traitement scientifique de la décision et de la normativité. Sur ces trois points, lʼapproche systémique semble pouvoir faire des apports à la prospective » [Barel, 1971].

LES ÉCONOMISTES FACE AU LONG TERME

75

La deuxième étape est celle de lʼélaboration des scénarios. Définis parfois comme des « actes dʼimagination raisonnée » ou des « moyens de coordination et sélection des futurs possibles », ils sont les moyens par lesquels on peut tenir une ligne de crête entre les deux pièges de lʼextrapolation mécanique et de lʼimagination débridée. On part le plus souvent dʼune « liste de questions jugées cruciales » dont chacune a bien sûr plusieurs réponses. Un scénario est alors une combinaison de réponses. Mais le nombre accablant de scénarios que lʼon peut ainsi produire doit être réduit drastiquement, soit par des exclusions logiques, soit par des recours à des experts… dont, hélas, les conclusions divergent aussi. Dʼoù lʼusage de techniques conçues pour harmoniser ou faire converger ces expertises. Le résultat est un petit nombre de scénarios dont la diversité doit rendre compte de devenirs « contrastés ». On peut exagérer ce caractère en construisant des scénarios catastrophes limites peu vraisemblables dont le seul but est de choquer ou de réveiller les consciences, ou bien au contraire céder à la tentation de choisir les scénarios les plus « probables », voire le seul scénario de référence qui correspondrait à la non-intervention des acteurs sur le cours des choses. Une fois choisi un scénario, la troisième étape consiste à caractériser les évolutions du système correspondant à ces valeurs cʼest-à-dire à dérouler le cheminement du scénario. Pour cela, le plus souvent, on utilise un modèle. Et lʼon peut privilégier soit le forecasting dans une démarche de prospective exploratoire qui part du présent, soit le backcasting dans une démarche plus volontaire et utopiste qui privilégie le point dʼarrivée souhaité. Les étapes du cheminement ne sont pas forcément décrites. La quatrième et dernière étape consiste à réinjecter les résultats de lʼana- lyse des institutions et des acteurs pour élaborer des stratégies possibles et souhaitables pour lʼorganisation qui a commandité lʼétude et lui proposer un plan dʼaction. Les variantes à cet exposé succinct inspiré de Lesourne [1990] et de Hatem [1993] sont peu nombreuses. En fait, la démarche sʼest codifiée et uniformisée depuis les années 1960. Et le fait de fournir des outils standard informatisés pour traiter certaines phases de la procédure nʼa fait que renforcer ce trait.

RETOUR SUR LA MÉTHODE DES SCÉNARIOS

On lʼaura compris : la méthode des scénarios est au centre de la démar- che prospective. Nous allons donc y revenir plus en détail en nous appuyant sur quatre exemples : les Scénarios de l’inacceptable de la DATAR [1971], Interfuturs [France, 1979], Scanning the Future [OCDE, 1992], et les scénarios SRES du GIEC [2000], ce qui nous offrira à la fois une comparaison spatiale et une variation temporelle.

76

LES MODÈLES DU FUTUR

Scénario exploratoire ou d’anticipation :

scénario de l’inacceptable (DATAR)

La méthode des scénarios a fait lʼobjet de nombreux commentaires à lʼintérieur et à lʼextérieur de la communauté des prospectivistes. Suivons le premier exemple des scénarios de l’inacceptable dont lʼhistoire est instructive. Les chercheurs du SESAME ont dʼabord choisi délibérément une perspective normative et cherché à construire des scénarios contrastés, cʼest-à-dire des scénarios dʼanticipation partant chacun dʼune image terminale constituée dʼun ensemble dʼobjectifs (modèle synoptique). Respectivement baptisés « la France de cent millions dʼhabitants », « lʼagriculture sans terre » et « la France

côtière », les trois scénarios contrastés constituaient une sorte dʼenveloppe du cône des futurs possibles. Mais ce faisant, en lʼabsence dʼune prospective sociologique minimale, les auteurs ont eu de grandes difficultés à choisir les configurations de besoins, de goûts et de valeurs qui caractériseraient une société française possible et souhaitable à terme. Ils se sont alors repliés sur une démarche, beaucoup plus classique en planification : la construction dʼun scé- nario à partir des tendances actuelles inscrites dans la « base ». Sans être tout

à fait un scénario du laisser-faire, lʼextrapolation supposait « la conservation du système politico-économique tel quʼil existe », et une intervention limitée

à des corrections de trajectoire sans mesures politiques nouvelles. Ce scénario

tendanciel tirait cependant son qualificatif dʼ« inacceptable » du fait que, loin dʼêtre privilégié, il servait plutôt de repoussoir à une politique du laisser-faire

menée jusquʼà lʼabsurde. Il obligeait « à sʼinterroger sur ce quʼil fallait faire pour que la France de lʼan 2000 soit différente de celle décrite ». Concrètement, la base du « scénario de lʼinacceptable » qui décrit le présent du système était constituée par une décomposition en quatre sous-systèmes

– population, économie, société, espace aménagé – et quatre niveaux – natio- nal, régional, urbain, rural – qui en fournissait les éléments. Sur cette structure étaient identifiés les tendances et les germes de mutation. La cohérence du scénario SESAME était assurée par une double approche diachronique et synchronique, la première empruntant lʼessentiel de ses concepts à lʼanalyse systémique, la seconde, fondée sur les trois concepts de force, mode et rap- port de production, donnant la dynamique interne de la société industrielle. Lʼéconomie, réduite elle-même à sa sphère productive, est donc identifiée comme le moteur principal du changement. Mais son analyse ne se réduit pas à un jeu de relations quantitatives entre les agrégats macroéconomiques. Lʼapproche du SESAME a privilégié la mise au jour, dans la société française

à chaque étape de la projection, de contradictions et de tensions entre certains couples de forces comme formation et emploi, localisation et activité, temps de travail et temps de loisir, pour lesquels on pouvait chaque fois définir une politique volontariste.

LES ÉCONOMISTES FACE AU LONG TERME

77

Si lʼanalyse structurelle, synchronique, est délicate, lʼanalyse historique lʼest encore plus car elle est soumise aux nombreux pièges de la philosophie de lʼhistoire, dont le matérialisme historique a fourni bien des exemples, Marx étant sans doute le plus doué des scénaristes. Mais on pourrait tout aussi bien stigmatiser Hermann Kahn, très inspiré par les philosophies de lʼhistoire de Spengler et Sorokin, dont les analogies historiques se sont transformées en stéréotypes ou propositions purement idéologiques (plutôt libérales cette fois) pour dessiner des avenirs « tout tracés ».

Méthodes de construction des scénarios : l’étude « Interfuturs »

Généralement, ce que les Canadiens appellent « le design » des systèmes complexes, cʼest-à-dire lʼinvention des éléments du système et de leur com- binaison, reste un acte majeur de la construction de scénarios dʼanticipation. Des méthodes maintenant classiques ont été inventées dans les années 1960 et testées dans les années 1970 pour mettre en œuvre ce design des systèmes. Dans lʼétude « Interfuturs », lʼéventail des scénarios prospectifs a été produit de manière systématique par exploration dʼun petit nombre de dimensions jugées pertinentes à lʼéchelle mondiale, et sensibles quant aux changements attendus. Et cʼest par croisement des quelques hypothèses retenues pour chaque dimension que lʼon génère les scénarios. En lʼoccurrence, quatre dimensions problématiques de lʼéconomie mondiale ont été retenues (colonne de gauche) pour lesquelles les réponses possibles (à droite) ont généré les scénarios suivants : A = forte croissance, B1 = nouvelle croissance, B2 = croissance modérée convergente, B3 = croissance modérée divergente, C = rupture Nord- Sud, D = protectionnisme.

TABLEAU 1. – CONSTRUCTION DES « SCÉNARIOS DU FUTUR »

Relations entre pays développés

 

Interdépendance

Fragmentation

   

Changements

 

Dynamique interne des pays développés

Consensus

Croissance

forte

de valeurs

Croissance

faible

Conflits sociaux

Croissance modérée

Évolution des productivités relatives

 

Convergence

 

Divergence

 

Forts échanges

A

B1

B2

B3

 

Nord-Sud

Relations entre

Divisions

         

pays en

Nord-Sud

C

développement

Fragmentation

         

Sud

D

Source : Lesourne [1990].

78

LES MODÈLES DU FUTUR

Fort heureusement, cette logique combinatoire nʼest pas seule en jeu car le rapport Interfuturs développe une analyse qualitative et des récits en forme de storylines qui enrichissent considérablement cette typologie. Mais, dans dʼautres cas, on nʼa pas échappé à des systématisations de cette méthode de construction de scénarios. Pour réduire les divergences des experts sur un problème donné, la méthode Delphi, développée à la Rand à la fin des années 1950 par Olaf Helmer et Norman Dalkey, recense dʼabord les réponses indépendantes des experts et dégage une médiane. Les faisant ensuite discuter sur leurs divergences autour de

cette médiane, on les amène par itération à resserrer fortement leurs estimations. Si la méthode a eu quelques succès dans des exercices de prospective techno- logique, sur des questions quantitatives (dates, volumes, prix), elle est bien peu adaptée aux questions dʼévolution des sociétés à lʼéchelle mondiale. Une seconde voie pour sélectionner des scénarios possibles et cohérents consiste à explorer la combinatoire des événements possibles. Mais les appro- ches combinatoires ne conviennent guère que pour des microscénarios, relatifs

à des sous-sytèmes pour lesquels le nombre dʼéléments est suffisamment petit

pour éviter une combinatoire explosive. Et il faut ensuite agréger ces micro- scénarios en un scénario global. Lʼanalyse morphologique, dont les scénarios dʼInterfuturs forment un cas typique, permet cette décomposition dʼun système en sous-systèmes et en composantes. Il est possible dʼappuyer cette analyse morphologique sur une quantification des événements par des variables prenant chacune en compte plusieurs modalités possibles : un scénario est alors une configuration (un vecteur) de modalités remarquables et compatibles. Dans cet espace des scénarios possibles, on peut définir des distances, des voisi- nages… [Ayres 1969], et même des probabilités. À la fin des années 1960,

à lʼInstitute for the Future, T. Gordon a développé la méthode des « impacts

croisés » sous la forme de matrices de co-occurrence dʼévénements assorties de leurs probabilités de réalisation et dʼinteraction, chiffrées par une simulation de Monte-Carlo, et cette table permet de tester la sensibilité des événements futurs aux politiques. En France Michel Godet a développé sur cette base la

méthode SMIC et lʼa implantée dans un logiciel « Prob-Expert » permettant de classer des scénarios par probabilité décroissante [Godet, 1985 ; Lesourne, 1990]. Mais beaucoup de prospectivistes rejettent ces probabilisations.

Les valeurs au fondement des scénarios

Pierre Massé [1965], ingénieur dʼÉtat attaché aux éthiques chrétienne et républicaine, donnait déjà une place importante à la notion de valeur dans son essai sur le Plan. « Le progrès dʼune civilisation est avant tout lʼenrichissement de ses valeurs […]. Dans un exercice de planification, on tend vers des fins et on affirme des valeurs. Les unes ouvrent des voies, les autres proposent des limites […] Nous devons savoir ce que nous voulons préserver coûte que coûte. Les

LES ÉCONOMISTES FACE AU LONG TERME

79

valeurs ne peuvent être quʼabsolues. » Dans une tradition voisine, J. Lesourne ne se contente pas, dans Interfuturs, de placer les phénomènes sociaux et politiques sur le même plan que les mécanismes économiques, il affirme que le choix des valeurs est un fondement du design des scénarios. « Il ne peut être question de postuler une quelconque constance des valeurs, car celles-ci se transformeront plus ou moins rapidement, avec plus ou moins de conflit, en liaison avec lʼévolution et la composition des groupes sociaux significatifs » [OCDE, 1979, p. 5]. Les scénarios dʼInterfuturs reposent donc sur le choix simultané dʼune hypothèse de croissance et dʼune hypothèse dʼévolution des valeurs. Les valeurs jouent le rôle dʼintermédiaire entre lʼexpérience acquise dans le passé et les choix à faire dans le présent. Elles induisent des demandes et des comportements. Les changements de valeurs peuvent se produire en surface et orienter la demande de biens et services ou en profondeur et altérer des priorités (« par exemple entre sécurité et pouvoir »), voire des conceptions fondamentales de lʼexistence (religion, art, rapport à la nature, à lʼautorité…). Lʼéquipe dʼInterfuturs a mobilisé des résultats dʼenquêtes sociologiques pour prendre en compte ces changements de valeurs, et en particulier les attentes « post-matérialistes » qui diffusent dans les sociétés depuis 1968 mais qui sont en partie rejetées par « le centre majoritaire », ce qui conduit à des risques de fragmentation du consensus traduits dans les scénarios B2 et B3. Le rapport imagine, même dans le cas du scénario A de forte croissance, un freinage possible de la croissance provoqué par des facteurs sociaux et politiques. « La transformation des valeurs ne met pas seulement en cause la légitimité de la croissance, elle renforce les freins de sa réalisation » [OCDE, 1979, p. 139]. Dans les scénarios exploratoires – et ceux dʼInterfuturs sont encore de ce type – il est possible dʼimaginer des évolutions de valeurs, mais plus difficile dʼenvisager des ruptures. Il y a donc un risque important de conservatisme dans la projection. Les scénarios de Kahn en sont un exemple flagrant pour les Canadiens. Dans les scénarios dʼanticipation, cʼest encore plus difficile dʼima- giner les systèmes de valeurs dominants et dominés des sociétés prises comme cibles. « Il faut se contenter de déterminer une configuration de valeurs qui soit cohérente avec le type de société quʼon veut construire », disent les chercheurs de lʼINRS. Le scénario traduira alors les comportements associés à cette confi- guration, mais il servira aussi dʼinstrument de simulation et dʼexpérimentation des valeurs. Car celles-ci fondent le modèle de décision qui accompagne un plan dʼaction. Elles déterminent des fins, des objectifs, des résultats et des conséquences. Mais ces résultats rétroagissent à leur tour sur les valeurs.

Scénario et modèle : Worldscan et Scanning the Future (CPB)

Lʼalternative entre utilisation de modèles et utilisation de scénarios est un poncif du débat sur la méthode prospective. Les Canadiens de lʼINRS,

80

LES MODÈLES DU FUTUR

soulignent que « le modèle nʼa pas connu une grande faveur en prospective » parce que, disent-ils, « en lʼabsence de base théorique valable pour choisir le sous-ensemble de propriétés structurelles du système […] le modèle est inefficace et source dʼerreur ». Plus encore, le modèle mathématique est beau- coup trop lié à un usage de prévision rigide avec lequel il faut rompre, et il ne permet pas dʼintégrer les dimensions stratégiques et volontaires (valeurs, jeux dʼacteurs, objectifs) dʼune vision prospective. Des auteurs, reprenant une opposition classique entre approche « humaniste » et méthode scientifique, considèrent que la méthode des scénarios est un bon compromis entre le modèle et lʼimage, ou encore, comme on le dit aujourdʼhui, entre le modèle et le récit [Grenier, Grignon et Menger, 2001]. Cette opposition sʼest muée en une complémentarité dès lors quʼon sʼest convaincu que la modélisation macroéconomique se révélait incontournable dans la phase de déroulement des scénarios. Nous avons vu que le VI e Plan (1971-1976) a pour la première fois utilisé un modèle, Fifi, qui avait posé quelques problèmes. En 1979, Michel Albert, nouveau commissaire en charge du VIII e Plan, est encore interpellé par les conclusions des simulations du modèle macroéconomique dynamique multisectoriel (DMS) qui conduisent toutes à une forte aggrava- tion du chômage dʼici 1985. Il décide dʼengager une étude complémentaire à base de scénarios pour illustrer le cheminement du marché de lʼemploi et des politiques à suivre en la matière. Le rôle du modèle est alors dʼexplorer des variantes analytiques du scénario de référence (on en a exploré plus de 90) en jouant sur une seule variable de commande à la fois (taux des cotisations sociales, barème de lʼimpôt, investissement des administrations publiques…). Les scénarios apparaissent alors comme des combinaisons de variantes. Ici lʼinterpénétration des deux méthodes est forte puisque les variantes du scénario de référence forment la matrice des scénarios contrastés. En 1979, lʼéquipe de J. Lesourne a utilisé SARUM (System Analysis Research Unit Model), un modèle néoclassique mondial à 10 secteurs et 12 régions, élaboré au Royaume-Uni par le département de lʼEnvironnement, mais uniquement dans la seconde phase, cʼest-à-dire pour réaliser des projec- tions macroéconomiques quantitatives, à lʼintérieur de scénarios prédéterminés par une analyse qualitative, et fournir pour chacun dʼeux des images finales et des cheminements macroéconomiques plus précis. Lʼexpérience plus récente du Central Planning Bureau (CPB) va nous permettre dʼexplorer une autre articulation possible entre modèle et scénarios. Scanning the Future [CPB, 1992] est une étude prospective à horizon 2015 (25 ans) de lʼéconomie mondiale qui a pour objectifs de stimuler le débat public et de fournir les éléments dʼétudes sectorielles ou régionales. Lʼétude sʼannonce comme une tentative de combiner lʼapproche orientée modèle avec la méthode des scénarios. Curieusement, la publication de cette étude ne fait

LES ÉCONOMISTES FACE AU LONG TERME

81

aucune référence à lʼutilisation dʼun modèle. Mais le site du CPB 16 donne accès cependant à lʼinformation complète sur Worldscan, le modèle développé pour cette étude. Cʼest un modèle dʼéquilibre général dynamique prévu pour construire des scénarios de long terme et produire des analyses politiques. Dans sa version de base, il permet dʼanalyser des changements structurels sur plusieurs décades, selon un découpage en 12 régions et 7 secteurs 17 . Timmer [1998], un de ses auteurs, reconnaît que lʼutilisation dʼun modèle pour la confection de scénarios offre quelques inconvénients comme une certaine rigidité et une tendance à lʼextrapolation abusive que renforce son calibrage sur une base de données commune à tous les modèles de ce type 18 . Mais on peut compenser ces inconvénients en rajoutant des caractéristiques externes aux scénarios, ou en les multipliant sur la base de différents paramètres. Dès lors lʼapproche par les modèles donne les moyens de construire des scénarios consistants dʼun point de vue comptable et théorique. Scanning the Future sʼétait posé trois questions principales qui sont les suivantes : quelles sont 1° les driving forces qui mènent le monde, 2° la situation géopolitique présente des différentes régions, 3° les tendances de long terme ? Pour y répondre, lʼéquipe du CPB a construit quatre scénarios sur la base de « perspectives ». Ces perspectives sont des représentations de lʼéconomie mondiale selon trois configurations de facteurs – les driving forces, ou encore trois principes organisateurs, qui correspondent en gros à trois écoles de la pensée économique :

— « équilibre » (E) est une économie dʼhommes rationnels, basée sur un mécanisme de prix qui fonctionne ; lʼÉtat nʼa pas dʼautre fonction que régalienne ; cʼest le credo néoclassique, le règne de la raison ; — « coordination » (C) est une économie dʼhommes coopératifs qui ont une information imparfaite et un avenir incertain ; cette économie est fortement régulée par un État-providence qui intervient sur le marché du travail, lʼéducation et la recherche, et qui coopère avec le patronat et les salariés pour contrer les cycles – Keynes nʼest pas loin ; cʼest le règne de lʼÉtat tout-puissant ;

16. Le CPB fut sous la direction de Tinbergen un bureau de planification, mais nʼest plus quʼun

institut de recherche indépendant dont le nom complet est Netherland Bureau of Economic Analysis.

« Le Bureau ne planifie pas lʼéconomie hollandaise. Ce serait naturellement déplacé dans une économie de marché telle que celle des Pays-Bas. »

17. Worldscan est construit à partir dʼune approche néoclassique de la croissance et du commerce

international, sur la base dʼune fonction de production qui intègre deux facteurs travail (low and high-

skilled), et dʼune spécification du commerce de type Armington pour le moyen terme et Heckscher- Ohlin pour le long terme.

18. En lʼoccurrence, il sʼagit de la base de comptabilité sociale du Global Trade Analysis Project

de la Purdue University sur laquelle sʼappuient de nombreux modèles de type « équilibre général

calculable » de la Banque mondiale.

82

LES MODÈLES DU FUTUR

free-market (M) est une économie dʼentrepreneurs en compétition ayant aussi une information imparfaite, mais qui dynamisent lʼéconomie de marché par leur créativité dans un cadre fixé par le système des droits de propriété ; on aura reconnu lʼinfluence de lʼécole autrichienne (Hayek, Schumpeter) et le règne du marché. Chacune de ces perspectives est une sorte de forme pure de lʼéconomie quʼincarnent plus ou moins bien les différentes régions, les États-Unis relevant du modèle M, le Japon et lʼAsie dynamique dʼun mixte E-C et lʼEurope du modèle C.

FIGURE 1. – LES TROIS DÉMARCHES CONSTITUTIVES DES SCÉNARIOS

1. – L ES TROIS DÉMARCHES CONSTITUTIVES DES SCÉNARIOS Source : CPB [1992]. Les scénarios résultent

Source : CPB [1992].

Les scénarios résultent de lʼassemblage de trois démarches : à gauche sur le schéma, une analyse des forces de chaque région en 1990, qui se résume par une sorte de palmarès selon les 12 facteurs identifiés précédemment ; à droite, les challenges et tendances que lʼon peut identifier, grâce aux simulations du modèle, sur les 9 sous-systèmes qui se trouvent listés ; au centre, le jeu des 12 facteurs sur les trois grandes « perspectives » qui forme un « cercle de la prospérité ». Chacun de ces scénarios, donnés comme également plausibles, est alors lʼobjet dʼune dénomination et dʼun récit :

Global Shift décrit un développement rapide et général tiré par lʼAmé- rique et le Japon grâce aux changements technologiques ; lʼEurope, « freinée

LES ÉCONOMISTES FACE AU LONG TERME

83

par ses biais en faveur de la sécurité, de la stabilité, et lʼaversion du risque », reste à la traîne, moins que lʼAfrique et lʼEurope de lʼEst cependant ;

European Renaissance est un scénario de réussite de la construction

européenne et du modèle de coordination ; aux dépens de lʼAmérique qui sʼenfonce dans le déficit et le protectionnisme ;

— pour Global Crisis, le déclin atteint à la fois lʼEurope, le Japon et les

États-Unis ; le monde dégénère en un conflit de blocs protectionnistes, voire nationalistes en Europe de lʼEst ; lʼAfrique et lʼAsie ne décollent pas, la famine gagne du terrain ;

Balanced Growth est une success story dans laquelle le développement

durable se combine avec une forte dynamique technologique pour offrir une croissance moyenne de plus de 3 % ; dominent à la fois la coordination et le marché ; les émissions de CO 2 sont maîtrisées et descendent à 25 % de leur niveau de 1990. La méthodologie de Scanning the Future et le modèle Worldscan qui en est le moteur caché ont servi de prototype à plusieurs études ultérieures, notam- ment une projection à 2020 de lʼOCDE pour lʼéconomie mondiale [OCDE, 1997], une projection de lʼEurope à 2040 [Lejour, 2003] et des études du GIEC, mobilisant de concert les équipes du CPB et celles du RIVM (lʼInstitut national de la santé publique et de lʼenvironnement, un autre laboratoire hollandais).

LES SCÉNARIOS SRES DU GIEC

Revenons maintenant au changement climatique. Le GIEC a utilisé des scénarios dʼémission à long terme peu de temps après sa fondation, dès 1990 et 1992 (IS92a devint le scénario de référence). Leur évaluation en 1995 conduisit à la mise en chantier dʼune batterie de nouveaux scénarios pour évaluer les conséquences des émissions de gaz à effet de serre, mais aussi les politiques alternatives de réduction ou dʼadaptation à leur opposer. Tout cela sʼinscrivant dans la préparation du III e Rapport du GIEC. La commande passée à une équipe de 50 membres provenant de 17 pays et diverses disciplines était de produire des scénarios à un horizon 2100, capables de prendre en charge plusieurs gaz à effet de serre, ayant une résolution spatiale suffisante, une couverture large des différents futurs possibles et des différentes politiques imaginables, un appui sur une grande variété de modèles, de données et dʼexpertises pluridisciplinai- res. Les scénarios devaient être transparents, cohérents et reproductibles. Dès 1998, les nouveaux scénarios sont diffusés aux chercheurs pour leur permettre de les implanter dans leurs modèles. Cependant ils ne seront validés quʼen mars 2000 par le Workgroup III et publiés la même année sous la forme dʼun Special Report on Emissions Scenarios (SRES) [GIEC, 2000].

84

LES MODÈLES DU FUTUR

Les éditeurs et pilotes de cette étude sont Nebojsa Nakicenovic de lʼIIASA et Robert Swart, responsable du Workgroup III au GIEC. On y trouve aussi Tom Kram, de Vries, Alcamo… La filiation avec les travaux de lʼIIASA et des laboratoires néerlandais (CPB, RIVM) est forte. Un scénario représente « la variété des facteurs dʼémission et de leurs conséquences ». Concrètement, ces facteurs sont principalement la pression démographique, le développement économique et social, et le changement technologique. Les scénarios ont une double face : ils peuvent se traduire en spécifications particulières dʼun modèle, mais ils ont aussi une forme qualitative (narrative storyline) proche de lʼimage ou du récit, qui en restitue la cohérence et aide à sa diffusion, à sa compréhension et à son usage rhétorique. Les rédacteurs du SRES ont produit une quarantaine de scénarios quʼils ont agrégés en 4 familles, une famille étant lʼensemble de toutes les déclinaisons numériques ou interprétatives dʼune storyline. Ces 4 scénarios types ou familles correspondent aux cases du tableau ci-dessous, formé sur deux dimensions :

la durabilité (sustainability) du développement et son intégration (ou conver- gence) plus ou moins forte. A1 et B1 sont des scénarios de croissance forte et de faible poussée démographique, mais se distinguent par leur consommation de ressources énergétiques (respectivement forte et faible), par lʼévolution de lʼutilisation des terres (respectivement faible croissance, forte décroissance) et par le degré de transition vers lʼimmatériel (respectivement faible et fort). A2 et B2 sont des scénarios de croissance modérée, hétérogène et dʼassez forte croissance démographique, mais se distinguent par leur consommation dʼénergie (respectivement très forte et moyenne intensité énergétique) et la vitesse du changement technique (faible et moyen). A1 a été lui-même éclaté en 3 scénarios distincts par leurs choix de filières énergétiques.

TABLEAU 2. – LES QUATRE SCÉNARIOS TYPES DU SRES

 

Ouverture et convergence

Durabilité du développement

Faible

Forte

(régional)

(global)

Faible (dominance économique)

A2

A1

Forte (dominance social/environnement)

B2

B1

La quantification de ces scénarios sʼest appuyée sur des modèles dont la tradition est à rattacher aux travaux menés dans les années 1980 à lʼIIASA sur la notion dʼévaluation intégrée [Matarasso, 2003 ; Kieken, 2003], qui ne concerne plus seulement un système nature-société, mais aussi des enjeux, des éléments de décision ou dʼexpertise, des procédures de gestion. Six modèles intégrés différents 19 , déployés différemment sur quatre macrorégions, ont

19. Il sʼagit dʼAIM (Japon), ASF (USA), IMAGE (Pays-Bas), MARIA (Japon), MESSAGE (IIASA), MiniCAM (USA).

LES ÉCONOMISTES FACE AU LONG TERME

85

fourni le chiffrage des scénarios. Même après harmonisation et ajustement de leurs paramètres, les modélisateurs ont conservé une diversité dans leur interprétation des storylines qui sʼest traduite par une variabilité de résultats pour la même storyline. Cʼest ce couplage des deux incertitudes, celle des différents scénarios et, pour chacun dʼeux, celle des différents modèles, qui a produit la grande dispersion des émissions prévues pour 2100. Les scénarios SRES sont fortement marqués par la culture du scénario issue des travaux de prospective, mais aussi par la modélisation intégrée qui les a accompagnés. Un modèle intégré est construit autour dʼun modèle économique et il intègre une version simplifiée du système physique, sous la forme de différents sous-modèles atmosphériques, océaniques, biologiques. Les rétroactions entre ces sous-systèmes donnent lieu à des couplages de modules assez délicats.

FIGURE 2. – ARCHITECTURE DU MODÈLE IMAGE 2.2

F IGURE 2. – A RCHITECTURE DU MODÈLE IMAGE 2.2 Source : RIVM [2001]. Le modèle

Source : RIVM [2001].

Le modèle IMAGE illustre parfaitement ces caractéristiques majeures des modèles intégrés. Cʼest une création du laboratoire hollandais RIVM dont la première version date de 1990. On y retrouve plusieurs des caractéristiques

86

LES MODÈLES DU FUTUR

de World 3. Mais il a également reçu des apports de lʼIIASA de Vienne. Il sʼorganise autour dʼun module de croissance démographique (Phoenix) et dʼun module de croissance économique qui nʼest autre que Worldscan. Ces deux modules déterminent les entrées dʼun second ensemble de modules sur la couverture végétale, lʼagriculture et le secteur énergétique (TIMER) qui, à leur tour, déterminent les émissions de carbone dans les trois sous-systèmes que constituent lʼatmosphère, lʼocéan et la surface terrestre. Chacun de ces milieux voit ses concentrations en carbone changer et modifier le climat par le biais dʼun modèle à maillage géographique. Il en résulte des impacts sur les systèmes naturels terrestres et océaniques qui modifient en retour la couver- ture végétale et lʼéconomie agricole et énergétique. Des données historiques de long terme (1765-1995) ont permis dʼinitialiser le cycle du carbone et le système climatique. IMAGE 2.2 a été reconfiguré pour lʼétude des scénarios du SRES. Pour chacun dʼeux, IMAGE 2.2 fournit un état des hypothèses qui ont été faites sur les facteurs dʼémission et les paramètres qui y sont associés. Les sorties du logiciel de simulation sont des écrans dʼindicateurs numériques orga- nisés en quatre groupes : facteurs économiques et écologiques de pression sur lʼenvironnement (Pressure), état de lʼatmosphère, de la biosphère et des ressources (State), impacts économiques et écologiques résultant des perturbations climatiques (Impact) et réponse du système (Response). IMAGE se veut un instrument de simulation flexible et rapide au service des décideurs et des négociateurs, comme en témoignent ses interfaces graphiques particulièrement soignées et directement utilisables dans des démonstrations, des opérations de communication et des négociations publiques [Alcamo, 1994 ; Rotmans et de Vries, 1997].

CONCLUSION

Nous sommes partis de la nécessité pour les économistes de se confronter à des raisonnements de long terme assez nouveaux dès lors quʼils abordaient les questions de changement climatique, et nous y revenons après un long détour pour constater quʼils ont maintenant pris toute leur place dans le concert de scientifiques au chevet de notre planète Terre. Leur rôle dans la construction des scénarios SRES a été déterminant dans le formatage des simulations dʼémissions qui ont alimenté les débats sur les politiques de réduction des gaz à effet de serre. Or la méthodologie de construction de ces scénarios est dans la droite ligne de celle que les économistes ont mobilisée dans les années 1970-1980 pour des projections économiques à long terme à lʼéchelle régionale ou mondiale.

LES ÉCONOMISTES FACE AU LONG TERME

87

Tout au long de ce détour, nous avons souligné quelques résultats intéres- sants que lʼon peut récapituler en sept points.

1. Les historiens du temps long ont été dʼun faible recours pour aider

les économistes à penser le long terme parce quʼil leur a manqué le besoin dʼinverser la flèche du temps et plus encore le souci praxéologique dʼagir

sur le futur.

2. Bien davantage que lʼirruption de la conjoncture entre les deux guerres,

et que celle de la prévision dans les années 1950 et 1960, quʼelle soit à base de comptes ou à base de modèles macroéconomiques, cʼest lʼexpérience de la planification indicatrice à moyen terme qui fut la plus riche dʼenseignements pour des exercices de plus long terme. On en a la preuve par le nombre de méthodes, de concepts et de personnes qui ont franchi la mince cloison entre planification et prospective.

3. La prospective est dans ses principes lʼapproche qui convient le mieux

à une projection dans le futur, dès lors quʼon la caractérise au moins par les

trois propriétés minimales suivantes : le long terme, le volontarisme et la pluralité des futurs à considérer.

4. Le corpus méthodologique de la méthode prospective sʼarticule autour

de la notion de scénario. Il y a une vraie continuité de cette nécessité tout au long des expériences. La méthode des scénarios est la seule qui permette de se tenir à distance des deux erreurs symétriques du fatalisme et de lʼoptimisme technologiques. Elle combine nécessité et volonté. Elle assure une cohérence diachronique et synchronique aux différents éléments du système. Mais elle nʼest pas standardisée (on en a exploré bien des formules) et moins encore formalisée.

5. La modélisation éliminée dans un premier temps par le scénario comme

trop rigide a fait un retour en force, non pas comme substitut mais comme complément du scénario. Lʼarticulation modèle-scénario est complexe et circulaire, puisque, dʼun côté, les scénarios comme storylines assemblant des hypothèses sont formulés sur la base des résultats de simulations de modèles

économiques et, de lʼautre, ces scénarios servent de cadrage à toutes les nou- velles modélisations des émissions. Lʼun portant lʼautre et vice versa.

6. La question des valeurs, exclue a priori de la science « objective »,

reprend tous ses droits et son importance dans un exercice de prospective puisquʼon a vu combien les jugements de valeur étaient présents dans le découpage de la réalité opéré par les scénarios, selon des visions antagonistes de lʼéconomie comme le libéralisme et le protectionnisme, le marché et lʼÉtat, ou bien encore la croissance illimitée et le développement durable, lʼesprit dʼentreprise et la solidarité. Les valeurs fondent les comportements sociaux quotidiens, mais aussi des conceptions plus profondes sur la réalité des sociétés humaines. Certains des constructeurs de scénarios se réfèrent par exemple au culturalisme, pour asseoir les différents mondes que représentent leurs stories.

88

LES MODÈLES DU FUTUR

De Vries [2001] interprète lʼincertitude du futur en termes de dominance de certaines configurations de valeurs dʼorigine culturelle. Les trois catégories dʼindividu quʼil décrit – individualist, hierarchist, egalitarian – induisent différentes visions des rapports homme-nature, individu-société, différentes approches des forces motrices du changement et différentes attitudes vis-à- vis des besoins, du risque, de la violence… Or les configurations de valeurs quʼils représentent et leurs rapports de forces seront tout aussi importants pour le débat qui sʼengage aujourdʼhui sur ce quʼil faut faire – réduction ou adaptation – que pour le succès des actions quʼil faudra engager demain. 7. Le rapport des études prospectives – supportées par le couple modèle- scénario – avec la décision politique est loin dʼavoir été envisagé dans toute sa complexité. Que doit-on transmettre comme information au politique ? Les auteurs de lʼétude du CPB rappellent par exemple quʼune étude prospective ne fait aucune prévision (et donc quʼelle ne peut pas se tromper sur les chiffres puisque ceux-ci nʼont quʼune valeur indicative et qualitative). Du coup les exercices de « rétroprospective » pour évaluer une étude perdent leur sens. Ils montrent que, loin dʼêtre toujours évidentes, les projections peuvent révéler un certain nombre de surprises. Ils mettent en garde les politiques contre le choix dʼun seul scénario, qui ne saurait fonder des décisions correctes. Ils rappellent que certaines de ces politiques dites « sans regret » sont valides dans tous les scénarios, tandis que dʼautres doivent être à coup sûr abandonnées. Mais la plupart des politiques restent dépendantes des scénarios, et relèvent dʼun choix stratégique y compris quant au moment de leur déclenchement. Une bonne étude prospective serait-elle donc simplement une étude qui donne à réfléchir ? Cʼest évidemment insuffisant. Fournir aux politiques les moyens dʼune réduction des incertitudes quant aux conséquences de la décision, cʼest déjà bien mieux. Le faire de manière conditionnelle, en se rapportant à un choix de valeurs, cʼest sans doute réhabiliter la politique.

RÉFÉRENCES BIBLIOGRAPHIQUES

ALCAMO J. (dir.) (1994), IMAGE 2.0 : Integrated Modeling of Global Climate Change, Kluwers Academic Publishers, Dordrecht. ARMATTE M. (1992), « Conjonctions, conjoncture et conjecture. Les baromètres économiques », Histoire et mesure, vol. VII, n° 1-2, p. 99-149.

– (2004), « Les sciences économiques reconfigurées par la pax americana », dans DAHAN A. et PESTRE D. (dir.), Les Sciences pour la guerre, 1940-1960, Presses de lʼEHESS, Paris, p. 129-174.

– (2005a), « Economical models of climate change : the costs and advantages of integration », dans F REGUGLIA P. (dir.), The Sciences of Complexity : Chimera or Reality ? , Esculapuio, Bologne, p. 51-71.

– (2005b), « La notion de modèle dans les sciences sociales : anciennes et nouvelles significations », Mathématiques et sciences humaines, n° 172, p. 91-123.

LES ÉCONOMISTES FACE AU LONG TERME

89

ARMATTE M. et DESROSIÈRES A. (2000), « Méthodes mathématiques et statistiques en économie :

nouvelles questions sur dʼanciennes querelles », dans BEAUD J.-P. et PREVOST J. G. (dir.), L’Ère du chiffre. Systèmes statistiques et traditions nationales, Presses universitaires du Québec, Montréal, p. 431-481. A RTUS P., D ELEAU M. et M ALGRANGE P. (1986), Modélisation macroéconomique, Economica, Paris. ATTALI J. (1999), Histoires du temps, LGP, Paris. AYRES R. U. (1969), Technological Forecasting and Long-Range Planning, McGraw-Hill, New York. BAREL Y. (1971), « Prospective et analyse des systèmes », Travaux et recherches de prospective, n° 14, note bibliographique sur le site de lʼex-DATAR, devenue la DIACT (Délégation interministérielle à lʼaménagement et à la compétitivité des territoires) : www.diact.gouv. fr/datar_site/datar_prospective.nsf). BERGER G. (1964), Phénoménologie du temps et prospective, PUF, Paris. BERNARD Y. et COSSÉ P.-Y. (1974), L’État et la prévision macroéconomique, Berger-Levrault, Paris. B RAUDEL F. (1999), Les Ambitions de l’histoire, LGF, Paris. CAZES B. (1986), L’Histoire des futurs. Les figures de l’avenir de saint Augustin au XXI e siècle, Seghers, Paris. C AZES B. et M IOCHE P. (1990), Modernisation ou décadence. Contribution à l’histoire du Plan Monnet et de la planification, Presses universitaires de Provence, Aix-en-Provence. CENTRAL PLANNING BUREAU (CPB) (1992), Scanning the Future. A Long-Term Scenario Study of the World Economy 1990-2015, Central Planning Bureau, La Haye. COMMISSARIAT GÉNÉRAL DU PLAN (2004), « La méthode des scénarios, outil dʼune démarche prospective », Les Dossiers d’Aleph, n° 1, p. 1-16. – (1999), Worldscan – the Core Version, http://www.cpb.nl/eng/pub/cpbreeksen/

bijzonder/20/

DE JOUVENEL B., 1964, L’Art de la conjecture, Sedeis, Paris. DE VRIES H. (2001), « Objective science ? The case of climate change models », dans GOUJON P. H. et D UBREUIL B. H. (dir.), Technology and Ethics. A European Quest for Responsible Engineering, Peeters, Louvain. DÉLÉGATION À LʼAMÉNAGEMENT DU TERRITOIRE (DATAR) (1971), « Scénario de lʼinacceptable. Une image de la France en lʼan 2000 », Travaux et recherches de prospective, n° 30, site de lʼex-DATAR. DESROSIÈRES A. (1999), « La commission et lʼéquation : une comparaison entre les Plans français et néerlandais entre 1945 et 1980 », Genèses, n° 34, mars, p. 28-52. D OSSE F. (1987), L’Histoire en miettes. Des Annales à la nouvelle histoire, La Découverte, Paris. F OURQUET F. (1980), Les Comptes de la puissance. Histoire de la comptabilité nationale et du Plan, Éditions Encres Recherches, Paris. GAUDIN T. (1993), 2100, Odyssée de l’espèce, http://2100.org/OdysseeEspece.pdf GODET M. (1985), Prospective et planification stratégique, Economica, Paris. GRENIER J.-Y. (1995), « Lʼanalyse économique et le temps en histoire », Cahiers de l’ISMEA, « Économie historique (1). La longue période ». GRENIER J.-Y., GRIGNON CL. et MENGER P.-M. (dir.) (2001), Le Modèle et le récit, Éditions de la MSH, Paris.

GROUPE DʼEXPERTS INTERGOUVERNEMENTAL SUR LʼÉVOLUTION DU CLIMAT (GIEC) (2001),