Vous êtes sur la page 1sur 303

Les clés de compréhension

des questions économiques


contemporaines

Georges N’Zambi
Docteur ès Sciences économiques

046092.indd 1 18/11/2020 09:10


ISBN 9782340-046092
©Ellipses Édition Marketing S.A., 2021
32, rue Bargue 75740 Paris cedex 15

046092.indd 2 18/11/2020 09:10


Préface1

Qu’il me soit permis d’entamer cette préface au livre de mon collègue Georges
N’Zambi par un petit retour en arrière de près de 40 ans qui nous ramènera vite
au cœur de son ouvrage et de son ambitieuse entreprise.

Quand je fus reçu à la nouvelle agrégation de sciences économiques et sociales


(1980) à la fin d’une année de stage au Lycée Gabriel Fauré à Paris dans une classe
de seconde, « économique et sociale » justement, je postulai à un poste d’assistant
(on dirait aujourd’hui maître de conférences) à l’Institut d’études politiques de Paris
où je devais enseigner l’économie jusqu’en 1999.
Mes titres en économie étaient encore minces car j’avais davantage fréquenté
la philosophie, la science politique, la sociologie. Quand le jury de recrutement me
le fit gentiment remarquer je lui répondis crânement : « comme dit Joseph Joubert
(1754-1824), enseigner c’est apprendre deux fois ». Jean-Claude Casanova qui
enseigna longtemps à l’IEP, présida le Conseil scientifique de cet établissement et
continue d’animer la revue Commentaire, est un homme très cultivé, un vrai libéral,
chose assez rare en France. Mais il n’était pas favorable à cette nouvelle agrégation
du secondaire. Il rectifiait quand je me disais agrégé de sciences économiques
et sociales, « agrégé de sciences sociales vous voulez dire ? » Pour lui la seule
véritable agrégation, celle des Universités qui donnait droit au titre de professeur
des Universités était celle des sciences économiques. Il n’était pas le seul et sur
les fonts baptismaux de cette nouvelle discipline enseignée désormais dans les
lycées, à l’instigation de Marcel Roncayolo directeur adjoint de l’École normale
supérieure, de Jean Ibanés directeur du Centre de Sciences humaines de la rue
d’Ulm, les « économistes de métier », les partisans de la « science économique
standard » faite de beaucoup plus de mathématiques que de sciences sociales, il y
eut quelques prédictions peu amènes. Le paradigme néo-classique admettait mal
d’être contesté et prévoyait que les élèves formés dans le secondaire à une vision
de l’économie davantage conforme à sa vocation de « science morale et politique »
qu’à celle d’une science « dure » ou « presque dure » renforcerait fatalement les
rangs des quelques contestataires marxistes ou critiques.
Ce débat s’est poursuivi de façon plus ou moins feutrée. Les sciences écono-
miques et sociales survécurent à quelques offensives prônant leur reprise en main.
Elles durent se muscler, apprendre le maniement de la quantification et donc de

1. Yann Moulier Boutang est professeur émérite de sciences économiques et membre du Labora-
toire COSTECH de l’Université de technologie de Compiègne Alliance Sorbonne Université.
Il est aussi professeur associé à l’Université sino-européenne de technologie de l’Université
de la Ville de Shanghai (SHU).

046092.indd 3 18/11/2020 09:10


Préface

la statistique, et avouons-le tout net, la capacité de débattre, de comprendre et


de rivaliser avec un édifice assez impressionnant qui allait des pères fondateurs
de l’économie politique jusqu’à l’économétrie.

Quand Georges N’Zambi qui enseigne les sciences économiques et sociales


en terminales à Montataire mais également à l’Université en assurant les Travaux
Dirigés des élèves ingénieurs (et parfois même en me remplaçant avec talent
au pied levé dans l’amphi) m’a demandé de préfacer son ouvrage, j’ai accepté
immédiatement parce que j’y voyais une illustration du chemin parcouru par la
science économique tout court aussi bien au lycée qu’à l’université. Tous ceux qui
se sont battus pour préserver et consolider l’enseignement conjoint de l’économie
avec les autres sciences sociales peuvent mesurer combien ils ont eu raison.

Hegel disait déjà au XIXe siècle que la lecture des journaux est la prière laïque
du matin de l’homme moderne. Marx, que la religion est l’opium du Peuple. Sans
doute devons-nous ajouter que l’économie aujourd’hui est à la fois la religion et
l’opium de la société moderne. En ces temps d’incertitudes, Robert Boyer dans
un entretien au journal Le Monde n’hésitait pas à rappeler les mots très durs de
J.M. Keynes en pleine Grande Dépression des Années 1930 dans son plus grand
ouvrage, La Théorie générale de l’emploi et de la monnaie : « Les économistes
sont présentement au volant de notre société, ils devraient être sur la banquette
arrière ! » L’enseignement dès le départ doit apprendre l’art de la critique intelligente
et cette critique ne doit pas tourner sur du vide ni ressasser des pseudo-évidences
qui se confortent dans une bulle. Tous les jours la lecture des journaux nous apporte
son lot de « faits » qui sont autant de défis pour le dogmatisme et de stimuli pour
nos neurones. Partir de faits étayés (c’est évidemment la condition première), en
sélectionner (avec toujours une idée socratique derrière la tête, comme dans le
choix de l’exemple) et chercher ce qui peut en rendre compte dans la théorie,
comme dans l’analyse des politiques publiques, telle est la méthode que les
économistes doivent pratiquer eux aussi. Nul amour du formalisme en soi (élevé
au rang de péché mignon en France), nul penchant (très nouveau en raison de
l’informatique) pour les données massives qui ferait l’économie c’est le cas de le
dire, de la solidité du raisonnement, ou carrément de la science, ne peuvent servir
d’échappatoire. Ni escamoteur, ni prestidigitateur, l’économiste doit faire face au
plus complexe. S’y coltiner disait-on familièrement.

Georges N’Zambi a ainsi choisi quelques faits majeurs qui caractérisent notre
époque et attisent la curiosité de tout esprit jeune qui ne s’enkyste ni dans l’igno-
rance satisfaite, ni dans le gâtisme paresseux : le réchauffement climatique, la
Covid-19 accélérateur d’une crise profonde de la « mondialisation heureuse », le
devenir de l’Afrique (une dimension originale de son livre), l’intelligence artificielle
et l’avenir de l’emploi, les crypto-monnaies.

046092.indd 4 18/11/2020 09:10


Préface

Il ne cherche pas à tout dire sur tout. Méthodiquement il présente une synthèse
de ce que tout honnête homme et heureusement aujourd’hui honnête femme et
surtout tout citoyen ou citoyenne doit ne pas ignorer. Non pas le « je sais que je
ne sais rien », mais plus subtilement le « je sais qu’il y a des choses que je n’ai pas
le droit d’ignorer si je veux me regarder dans un miroir sans avoir honte ».
Et sur ces faits intelligemment choisis (quel étudiant de bac, quel collégien, quel
élève des collèges et lycées, quel enseignant ou chercheur de toute discipline peut
passer devant ces faits sans les voir ?) il déroule cette leçon de compréhension.
Compréhension (embrasser l’ensemble, le complexe d’une situation dont le fait
choisi n’est que le symptôme, ou l’affleurement) ne veut pas dire conclure de
façon péremptoire.
Georges N’Zambi n’a pas rédigé de conclusion à son ouvrage. On peut ne pas
être d’accord sur toutes ses pistes ou ses doutes (par exemple je ne le suis pas sur
son interrogation sur le revenu universel) mais nous ne sommes pas au catéchisme.
Il a, de façon plus pédagogique rassemblé à la fin de chaque chapitre un glossaire
et des références de lecture. On n’est pas dans l’érudition mais dans la conduite
de la pensée avant la prise de décision (pas dans la conduite de la société).
Des encadrés, des schémas, parfois même les graphiques de la microéconomie
font de cet ouvrage, quelque chose d’efficace, d’édifiant.
Face à la situation actuelle, c’est ce qu’il nous faut. Remercions-le. Souhaitons
longue vie aux nouveaux vrais hussards de la République en économie. Les profes-
seurs des Universités et particulièrement en sciences économiques devraient prêter
davantage attention à leur collègue de l’enseignement secondaire et travailler avec
eux. On aurait à y gagner des deux côtés du bac ! Et finalement à l’avant comme
à l’arrière de la voiture !
Yann Moulier Boutang

046092.indd 5 18/11/2020 09:10


046092.indd 6 18/11/2020 09:10
Introduction

Plus que jamais, une évidence semble s’imposer à tout contemporain, c’est
le caractère complexe, imprévisible et incertain du monde qui nous environne.
En connaître les tenants et les aboutissants est une aspiration communément
partagée par tous les citoyens désireux de mieux comprendre la marche du monde.
Ce livre ambitionne donc d’apporter les clés de compréhension de cinq défis et
mutations majeurs que les sociétés contemporaines sont appelés à affronter et
qui déterminent leur devenir.
La richesse et la technicité de chacun des thèmes abordés dans cet ouvrage
auraient sans aucun doute nécessité par souci d’exhaustivité que l’on consacre
à chacun d’eux un ouvrage entier. Le choix a cependant été fait de les aborder
simultanément de manière synthétique avec l’espoir constant que les développe-
ments privilégiés sont de nature à éclairer et à sensibiliser les lecteurs notamment
ceux peu rompus au raisonnement et au vocabulaire économiques. La mobilisation
d’encadrés mettant le focus sur des problématiques considérées comme cardinales
et la mise à disposition d’un lexique à la fin de chaque chapitre relèvent d’une
démarche pédagogique.
Le réchauffement climatique est indiscutablement le premier des défis qui
s’impose avec acuité et empressement à l’humanité. Des décennies ont été néces-
saires pour qu’émerge enfin une prise de conscience sur le péril climatique. Les
expertises établies par le GIEC largement partagées par la communauté scienti-
fique y ont grandement contribué. La lutte contre ce péril se heurte toutefois à
l’égoïsme des nations davantage soucieuses de préserver les intérêts économiques au
détriment de l’urgence écologique. La course à la lenteur qui en résulte compromet
chaque année davantage l’objectif de limiter le réchauffement climatique à 2 ° par
rapport au niveau préindustriel. Les réformes permettant d’atteindre cet objectif
salvateur sont connues. Elles doivent d’une part permettre la décarbonation de
l’économie afin de baisser significativement les émissions de gaz à effet de serre,
principale cause de l’effet de serre et d’autre part, promouvoir des changements
au niveau des modes de vie.
Des avancées significatives s’avèrent ainsi indispensables au cours des prochaines
décennies afin que l’objectif de neutralité carbone fixé dans le cadre des accords
de Paris sur le climat devienne réalité dès 2050. Au delà, tout retard risque de
transformer progressivement la planète Terre en étuve impropre à la vie. L’enga-
gement récent de la Chine, un des plus grands émetteurs de gaz à effet de serre en
faveur de la neutralité carbone est un tournant louable. Celui-ci prendrait d’autant
plus d’ampleur dans le cadre de la lutte contre le réchauffement climatique si son

046092.indd 7 18/11/2020 09:10


Introduction

alter-ego américain venait à lui emboîter le pas. Un espoir très incertain sous la
présidence Trump mais qui pourrait voir le jour en cas de changement de locataire
à la Maison Blanche.
L’incertitude qui pèse sur l’humanité s’est encore épaissie avec la pandémie de
la Covid-19. Parti de Chine, le coronavirus s’est propagé de manière fulgurante
à travers le monde, créant ce faisant un choc économique d’une violence inédite
depuis la Grande Dépression des années 30. L’engagement sans limite des États et
des banques centrales a permis d’en limiter l’ampleur mais il a contribué à accroître
vertigineusement l’endettement des États. Face à un risque accru d’une nouvelle
crise des dettes souveraines et d’un possible retour des politiques d’austérité, la
nécessité de trouver des solutions au financement de ces montages de dette se fait
pressante. La crise économique liée à la Covid-19 a par ailleurs mis en lumière la
place nodale de la Chine à travers la très grande dépendance des pays occidentaux
à l’égard de son économie. Le choix de délocaliser une partie des industries
productrices de produits vitaux en matière sanitaire vers l’Empire du milieu a mis
au jour la fragilité des grandes puissances face à une crise sanitaire inopinée. Ces
failles résultant de l’intensification de la mondialisation et de la fragmentation des
chaînes de valeur suscitent une volonté de la part de nombreux gouvernements
d’engager un processus de relocalisation de certaines activités considérées comme
stratégiques et garantissant la souveraineté nationale. Ce mouvement de repli sur
soi peut-il être interprété comme un début de démondialisation de l’économie ?
Quels en sont les avantages et les limites ?
L’Afrique est indéniablement le continent qui sortira considérablement affaibli
et fragilisé par cette crise économique et sanitaire inopinées. Ses perspectives de
développement longtemps minorées avaient pourtant retrouvé une dynamique
positive au début des années 2000 au point d’accréditer l’espoir d’une Afrique
émergente. Ce continent peine depuis à retrouver une trajectoire de croissance
permettant de confirmer ce présage. Des obstacles de nature économique, financière,
monétaire et démographique contribuent à rendre rédhibitoire cette perspective.
La pérennisation d’économies essentiellement fondées sur la rente et le maintien
dans de nombreux pays africains francophones d’une monnaie forte en l’occurrence
le franc CFA sont quelques-uns des obstacles dans la quête de développement
des pays africains. Un éclairage est ainsi apporté sur les multiples controverses
autour la Zone franc que certains détracteurs considèrent comme l’instrument
de la domination française en Afrique francophone. De la même façon un regard
focal est porté sur les relations sino-africaines. Perçue à l’origine comme facteur
d’émancipation des pays africains à l’égard des anciennes puissances coloniales,
cette coopération apparaît de plus en plus controversée tant elle tend à cantonner
les pays africains en pourvoyeurs de Pékin en matières premières et à contribuer
au surendettement de nombreux pays africains.
La révolution numérique est l’un des faits marquants de ce début de millénaire.
Produit des avancées intervenues dans plusieurs disciplines, le numérique est au
cœur de nombreux bouleversements affectant les sociétés contemporaines. Facilitant
les interactions sociales, il a contribué à l’apparition et au développement de ce

046092.indd 8 18/11/2020 09:10


Introduction

qu’il est aujourd’hui convenu de qualifier « d’or noir » à savoir le big data. Cette
gigantesque base des données qui fait la puissance des multinationales américaines
réunies sous l’acronyme GAFAM permet le développement d’applications contro-
versées en matière d’intelligence artificielle. Ainsi le recours aux technologies de
reconnaissance faciale dans un nombre croissant de pays fait craindre l’avènement
de sociétés liberticides tel que prévu dans l’œuvre prophétique de Georg Orwell.
De même, le développement de la voiture autonome pose d’épineux problèmes
éthiques et moraux. Plus généralement, le développement de l’intelligence artifi-
cielle consacre le règne des algorithmes dans la vie des individus et des sociétés
contemporaines. De nombreux actes qui font le quotidien des individus et de
nombreuses décisions émanant des entreprises comme des pouvoirs publics sont
en effet soumis à l’influence grandissante des algorithmes. Or ceux-ci peuvent
être l’objet de biais source de discrimination à l’encontre d’individus. Ils peuvent
aussi être l’objet de manipulations à des fins notamment politiques. Faut-il alors
s’inquiéter de cette algorithmisation des sociétés ? Comment se prémunir d’éven-
tuelles dérives en découlant ?
Au-delà de ces dérives, l’intelligence artificielle est cependant porteuse de
transformations économiques majeures de nature à induire un potentiel de crois-
sance conséquent. Un éclairage est ainsi apporté sur les mécanismes de destruction
créatrice à l’œuvre notamment en matière d’emploi.
Le numérique est aussi à l’origine de l’apparition de monnaies privées fondées
sur la cryptographie. Des difficultés de nature technique ont longtemps repoussé
leur apparition. C’est donc à la faveur des progrès intervenus en matière de
cryptographie qu’elles ont vu le jour. Le Bitcoin monnaie emblématique de cette
révolution numérique s’appuie sur la Blockchain, une technologie disruptive aux
applications multiples. Monnaies non soumises à un tiers de confiance, les crypto-
monnaies suscitent diverses interrogations sur leur utilité réelle. L’accroissement
exponentiel de la valeur du Bitcoin et celle d’autres monnaies numériques conduit
certaines analyses à les considérer comme de simples instruments au service de
la spéculation. L’avènement plausible de Libra, la monnaie digitale de Facebook
a alimenté la controverse autour de ces monnaies notamment sur leur capacité à
remettre en cause le pouvoir souverain de battre monnaie et sur les risques systé-
miques qu’elles sont porteuses. Autant de points qu’éclaire le dernier chapitre
qui à bien des égards apparaît le plus technique. Le caractère indépendant des
différents chapitres donne toute latitude au lecteur d’adopter un ordre de lecture
qui correspond à ses attentes.

Mes remerciements pour conclure s’adressent tout particulièrement au professeur


émérite des Universités Yann Moulier-Boutang pour avoir accepté d’écrire la préface
de ce livre malgré ses multiples engagements. Cet appréciable soutien est le
témoignage d’une amitié forgée au cours de fructueuses années de collaboration
à l’Université de Technologie de Compiègne.

046092.indd 9 18/11/2020 09:10


Introduction

Mes remerciements vont aussi aux nombreuses générations d’élèves de la


filière ES que j’ai formées au lycée André Malraux de Montataire. Leur enthousiasme
à l’égard de mes publications antérieures dans diverses revues et leurs encourage-
ments ont contribué à forger et à consolider au fil des années ce projet d’écriture.
À mes anciens et présents étudiants, élèves ingénieurs à l’UTC aussi, qui
trouveront dans ces différents chapitres, le prolongement et l’approfondissement
des exposés réalisés dans le cadre de l’UV GE10.
Mes remerciements à mon fils Stéphane dont le savoir-faire informatique a
longuement été mis à contribution pour réaliser de nombreuses tâches.
À mes collègues Alexis Moulay et Ludovic Inesta, nos échanges et leurs encou-
ragements constants ont été de puissants moteurs dans la réalisation de ce projet.
A ma collègue et amie de longue date Virginie Sabot pour sa relecture exigeante
et très constructive du manuscrit.
Aux éditions Ellipses, de m’avoir accordé leur confiance et permis ainsi de
rendre réalité une aspiration profonde, celle de sensibiliser en partageant avec le
plus grand nombre des problématiques qui me tiennent à cœur.
Une pensée très émue pour mon père qui aurait tiré une grande fierté et une
immense satisfaction de la concrétisation de ce projet.

10

046092.indd 10 18/11/2020 09:10


Chapitre 1.

Quelles solutions face au péril


climatique ?

Le doute ne semble plus permis à l’égard de ce qui semble relever désormais


de l’évidence : le réchauffement climatique s’accélère. Après l’année 2019 déclarée
comme année la plus chaude depuis que les relevés météorologiques existent,
c’est au tour du mois de janvier 2020 d’être ainsi qualifié. L’année écoulée a en
effet été le théâtre de nombreux phénomènes météorologiques extrêmes qui ont
eu pour effet d’accélérer la prise de conscience sur la réalité et les méfaits associés
au changement climatique. L’été caniculaire en France, les incendies destructeurs
de la biodiversité en Australie et en Amazonie, la fonte accélérée de la calotte
glaciaire, la violence inouïe et sans précédent des cyclones tropicaux qui ont
notamment dévasté les Bahamas et le Mozambique, bref, ces quelques évènements
climatiques non exhaustifs ont permis d’accréditer l’idée que l’urgence climatique
est loin d’être une vue de l’esprit des scientifiques mais une réalité tangible aux
conséquences dommageables et irréversibles.
Contesté marginalement par quelques élites intellectuelles et politiques, le
dérèglement climatique bénéficie d’un consensus scientifique croissant. Les travaux
du GIEC qui désormais font autorité préconisent une limitation du réchauffement à
2 °C d’ici la fin du siècle par rapport à l’ère préindustrielle afin de préserver l’humanité
de conséquences dramatiques irrémédiables. Adopté lors de l’accord de Paris dans
le cadre de la COP 21, cet objectif réaliste et impératif semble aujourd’hui hors
de portée malgré l’engagement des États et pour cause, les égoïsmes nationaux
continuent à prendre le pas sur les impératifs écologiques et environnementaux.
« Notre maison brûle et nous regardons ailleurs », ce cri d’alarme lancé par
Jacques Chirac en 2004 au sommet de la Terre de Durban en Afrique du Sud,
relayé depuis par d’autres appels dont celui d’Antonio Gutterez, l’actuel secrétaire
général des Nations unies, appelant à « la fin de la guerre contre la nature » et à
la mobilisation générale, n’ont pas contribué, loin s’en faut, à susciter le sursaut
généralisé tant espéré permettant d’entrevoir l’avenir de la planète Terre avec
optimisme.
Le péril climatique est-il alors inéluctable ? Pourquoi cette course à la lenteur
face à un phénomène scientifiquement acté et qui expose l’humanité à un risque
existentiel ? Quelle est a contrario l’ampleur des efforts à déployer et des trans-
formations à opérer afin de conjurer l’irréparable ?

11

046092.indd 11 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

I. Chronique d’une catastrophe annoncée

Plus d’un siècle a été nécessaire pour que la thèse du réchauffement climatique
s’impose scientifiquement et qu’il s’ensuive une mobilisation des États dans la lutte
contre ce phénomène aux conséquences dommageables.

A. Une prise de conscience lente mais progressive

L’histoire du réchauffement climatique débute à la fin du XIXe siècle avec les


travaux de Svante Arrhenius. Ce chercheur suédois cherche à expliquer les cycles
de glaciation qui ont rythmé l’histoire de la terre. Il identifie alors le dioxyde de
carbone présent dans l’atmosphère comme le facteur explicatif des changements
de températures passés. Svante Arrhenius attire alors l’attention sur le fait que
l’homme et la civilisation industrielle sont en train de modifier la composition de
l’atmosphère en dioxyde de carbone à travers l’utilisation du charbon. Le scientifique
suédois émet alors l’hypothèse selon laquelle la combustion des énergies fossiles
par l’homme accroît la concentration en dioxyde de carbone dans l’atmosphère
entrainant une progression arithmétique des températures et de ce fait un réchauf-
fement global sur la surface terrestre. Ses conclusions corroborent ce faisant l’effet
de serre découvert quelques années auparavant par Jacques Fournier en 1827.

Encadré 1 Qu’est-ce que l’effet de serre ?

L’effet de serre au cœur du réchauffement climatique est un phénomène naturel


sans lequel toute vie terrestre serait impossible. Pour le comprendre, il faut
partir des interactions qui existent entre la terre et le soleil. La première reçoit
toute son énergie du second sous forme de rayonnement. Une partie de la
réverbération des rayons du soleil sur la Terre est piégée dans une couche de
gaz située à basse atmosphère afin d’éviter que ces rayonnements infrarouges
ne se dispersent dans l’espace. Composés de vapeur d’eau, du dioxyde de
carbone, du méthane, de l’oxyde d’azote et de l’ozone, ces gaz à effet de serre
se comportent en couverture. En effet en piégeant la chaleur, ils favorisent une
augmentation de la température terrestre rendant la vie sur terre possible. Sans
ces gaz, la température moyenne terrestre se situerait autour de – 18 °C.

Figure 1 : Répartition des contributions à l’effet de serre naturel


des différents gaz présents dans l’atmosphère

Source : GIEC

12

046092.indd 12 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

Le mécanisme d’effet de serre naturel ainsi décrit apparaît donc vital. Ce qui pose
problème dans le cadre du réchauffement climatique, c’est l’effet de serre additionnel
généré par les activités humaines. Depuis la révolution industrielle, l’homme a émis
des quantités importantes de gaz dans l’atmosphère à la suite de combustion des
énergies fossiles. Leur accumulation dans l’atmosphère accroît l’épaisseur de la
couverture atmosphérique et génère de ce fait un effet de serre additionnel débou-
chant sur une modification du système climatique et une élévation du niveau moyen
des températures terrestres. C’est le phénomène de changement climatique.
Le dioxyde de carbone (CO2) est le gaz à effet de serre le plus connu. Il est à
l’origine de l’essentiel de l’effet de serre additionnel. D’autres gaz y contribuent
aussi. Il s’agit du méthane (CH4), du protoxyde d’azote (N20) et de l’azote tropos-
phérique (03). La longévité de ces gaz dans l’atmosphère est variable et tous ne
contribuent pas uniformément à l’effet de serre. Si le CO2 subsiste pendant au
moins 100 ans, le méthane quant à lui ne dure que 12 ans tandis que le protoxyde
d’azote perdure jusqu’à 114 ans.
Pour mettre en lumière l’impact des différents gaz à effet de serre pour une
durée de temps donné, les scientifiques ont établi un indice dénommé PRG ou
« Pouvoir de réchauffement global ». Le PRG se définit comme le forçage radioactif
cumulé sur 100 ans. Il permet en d’autres termes de mesurer la puissance radiative
que les gaz à effet de serre renvoient vers le sol sur une période de 100 ans. Il
a donc pour vocation de mesurer la contribution marginale de chaque gaz au
réchauffement climatique comparativement à celle du dioxyde de carbone. Le
PRG du CO2 est ainsi égal à 1, il sert d‘étalon de base.
Le PRG d’un gaz est fonction de la durée prise en compte dans le calcul et de
la vitesse de son élimination progressive au cours du temps.

Tableau 1 : Les gaz à effet de serre, durée de vie, pouvoir de réchauffement,


répartition et sources d’émission

Émissions
Pouvoir de mondiales de
Gaz à effet de Durée
réchauffement GES (en % Source d’émissions
serre de vie
(à 100 ans) des émissions
totales 2010)

Combustion de
Gaz carbonique fossiles, procédés
100 1 74
(CO2) industriels
déforestation

Déchets, agriculture
Méthane (CH4) 12 25 17 et élevage, procédés
industriels

Protoxyde d’azote Agriculture, procédés


114 298 7
(N2O) industriels, engrais

Hydrofluorocarbure Sprays, réfrigération,


270 14 800 2
(HFC-23) procédés industriels.

Source : GIEC (2014

13

046092.indd 13 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Ces chiffres mettent en évidence d’abord l’effet réchauffant exacerbé du méthane.


Une émission d’un kg de méthane dans l’atmosphère produit le même effet sur
le siècle que 25 kg de CO2 émis. En d’autres termes, un 1 kg de méthane génère
25 fois l’effet de serre cumulé sur un siècle que celui d’1 kg de CO2. D’autre part,
un gaz doté d’un PRG élevé émis en faible quantité peut avoir un impact élevé
sur l’effet de serre. C’est le cas particulièrement des gaz fluorés. ©

Des travaux qui jettent les bases de la mobilisation en faveur


du climat

Dans les années 50, l’américain Gilbert Plass à partir d’un modèle climatique
rendu possible grâce à la naissance de l’ordinateur démontre que la quantité de
CO2 dans l’atmosphère peut influencer le climat et son évolution. Il se fait prophète
en prévoyant une augmentation moyenne de la température terrestre de 1,1 °C
d’ici l’an 2000 du fait de la combustion des ressources fossiles par l’homme. En
1958, un autre scientifique Keeling va faire le constat que les gaz à effet de serre
ne restent pas confinés aux seuls espaces où ils sont émis c’est-à-dire dans les
continents industrialisés mais ils se répartissent uniformément dans tous les endroits
de la Terre. Il constate alors que le taux de dioxyde de carbone ne cesse de croître
dans l’atmosphère.
Ces différents travaux conduisent la communauté scientifique à porter un intérêt
croissant à la fin des années 60 à cette problématique. Certains scientifiques
signalent alors que les modifications climatiques liées à l’effet de serre additionnel
pourraient poser problème dans le futur.
La fin des années 60 est aussi marquée par un vent de contestation sociale
portant sur les dérives du capitalisme. Sa propension à promouvoir un modèle
économique fondé sur la recherche effrénée d’un niveau de croissance toujours
élevé afin d’asseoir les bases d’une société consumériste est dénoncée. Le « Club
de Rome » réunissant universitaires, chercheurs, économistes et industriels voit le
jour et se définit comme le fer de lance de ce combat. Ses réflexions débouchent
sur une publication connue sous le nom de « Rapport Meadows ». Fondement
de la pensée écologiste, ce rapport au titre évocateur « Halte à la croissance » ou
« Limits to growth » condamne sans équivoque la perspective d’une croissance
infinie dans un monde caractérisé par la finitude des ressources. Les auteurs de ce
rapport émettent l’idée que la croissance infinie se fait au détriment de l’environ-
nement puisqu’elle épuise les ressources naturelles et met de ce fait la planète en
danger. La conclusion de ce groupe d’experts est sans ambiguïté. Pour conjurer le
risque d’épuisement des ressources naturelles dommageable à l’environnement,
un seul horizon s’impose c’est la croissance zéro.
Cette prise de position non conformiste va contribuer à une prise de conscience
de la responsabilité des actions nuisibles de l’homme sur la nature. Des confé-
rences sur l’environnement se multiplient au cours de la décennie 70. En 1971, la
conférence de Stockholm jette les bases d’un véritable tournant. Ayant pour objet
d’étude et de débat, les impacts des modifications possibles du climat sous l’effet

14

046092.indd 14 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

de l’activité humaine, cette conférence débouche sur un consensus connu sous


l’appellation de Study of Man’s Impact on climate (SMIC). Il peut être résumé de
la manière suivante : L’homme par l’ensemble de ses activités est effectivement en
mesure d’affecter durablement le climat aux échelles locales, régionales ou globales.
Cette conclusion inédite et sans appel va avoir pour effet d’attirer l’attention des
organisations internationales sur les atteintes portées à l’environnement et sur la
nécessité de lutter contre celles-ci. L’ONU en prend conscience et organise dès
1972, une nouvelle conférence à Stockholm. Pour la première fois, les questions
écologiques deviennent une préoccupation majeure internationale. Les représen-
tants des principaux gouvernements à cette conférence fondatrice adoptent une
déclaration énonçant une liste de principes à respecter dans le domaine de l’envi-
ronnement et préconisent un plan d’actions visant à lutter contre les pollutions. Le
PNUE (Programme des Nations unies pour l’environnement) voir le jour et se voit
attribuer cette mission à vocation protectrice de l’environnement.
La décennie 80 va se singulariser par l’affinement du diagnostic concernant le
réchauffement climatique. Elle est d’abord marquée par l’éclosion d’un nouveau
concept, celui de développement durable. Promu par le rapport Brundtland, ce
concept insiste sur la nécessité de ne pas aliéner les ressources de la planète afin
de ne pas altérer la capacité des générations à venir à satisfaire leurs besoins.
Fondé sur l’altruisme intergénérationnel, le développement durable implique la
nécessité d’inscrire les préoccupations environnementales dans toutes les politiques
sectorielles des gouvernements.
La mise au jour de la notion de développement durable s’accompagne de la
mise en lumière du diagnostic relatif à l’état de la planète. La conférence de Villach
en Autriche en octobre 1985 débouche sur une conclusion inédite « le résultat
de l’accroissement des concentrations de gaz à effet de serre observé conduit à
penser qu’au cours de la première moitié du prochain siècle (le XXIe), l’élévation de
la température globale moyenne pourrait être plus grande qu’elle ne l’a jamais été
au cours de l’histoire de l’humanité » ; l’hypothèse d’un réchauffement climatique
est ainsi officiellement validée et les gouvernements sont appelés à agir pour en
limiter l’ampleur.
Les conclusions sans équivoque de cette conférence contribuent à la média-
tisation de cette problématique. En France, le magazine Géo titre en 1984 « la
Terre se réchauffe » mais l’article traitant du sujet se révèle moins affirmatif. Quatre
ans plus tard Newsweek se montre plus affirmatif « Effet de serre : danger, plus
d’étés très chauds en vue ». Quant au magazine Time, il titre « The global warming.
Survival guide : 51 things you can do make a difference ».
Longtemps cantonné dans la sphère scientifique, le réchauffement climatique, à
la faveur de sa médiatisation, devient un enjeu politique et social à partir des années
80 et la lutte contre ce phénomène une des préoccupations des gouvernements.

15

046092.indd 15 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

La naissance du GIEC, un véritable accélérateur de la prise


de conscience

À la suite de la conférence de Toronto en 1988, le GIEC (Groupe d’experts


intergouvernemental sur l’évolution du climat) voit le jour à la demande des sept
pays les plus industrialisés. Comptabilisant plus de 1 000 experts provenant de
différents pays, cette institution devenue depuis cardinale, se voit attribuer de
multiples prérogatives consistant d’abord à évaluer l’état des connaissances sur
le changement du climat, à proposer ensuite des adaptations aux perturbations
climatiques prévues et enfin à indiquer les mesures susceptibles d’atténuer ces
changements.
Plusieurs rapports ont vu le jour sous l’égide du GIEC. Tous ont contribué à
éclairer de manière décisive cette problématique et à susciter in fine l’engagement
des États.
Le premier rapport du GIEC publié en 1990 établit un diagnostic du réchauffement
climatique et de ses diverses causes possibles. Il pointa du doigt l’augmentation
de l’effet de serre additionnel découlant des activités humaines comme facteur
prépondérant du réchauffement climatique. Cette première publication servit
de base scientifique à la conférence des Nations unies sur l’environnement et le
développement organisée à Rio en 1992.
Le second rapport du GIEC publié en 1996 conforta la précédente conclusion
à savoir la responsabilité humaine dans le dérèglement climatique mais se révéla
imprécise sur l’évaluation de la part anthropique de ce phénomène. Il apporta
néanmoins des prévisions en matière de réchauffement climatique, en pronosti-
quant une augmentation des températures de l’ordre de 1 à 3.5 °C par rapport
à l’ère préindustrielle.
En 2007 parut le troisième rapport, celui-ci confirma avec une très grande
certitude de l’ordre de 90 % la responsabilité des gaz à effet de serre d’origine
anthropique comme la source majeure du changement climatique.
D’une manière générale les travaux du GIEC ont contribué à apporter un
éclairage servant d’alerte sur différents aspects liés à la problématique du réchauf-
fement climatique. D’une part, sur les efforts nécessaires permettant de contenir
le réchauffement climatique en dessous de 1.5 °C ou de 2 °C par rapport à l’ère
préindustrielle et d’autre part sur le budget carbone alloué pour parvenir à cet
objectif impératif et enfin sur les conséquences irréversibles et irrémédiables en
cas d’inaction ou de non réalisation de cette finalité.
Partant du principe qu’un réchauffement de 1.5 °C ou 2 °C constitue la borne
supérieure de ce qu’il est possible de tolérer sur Terre, le GIEC a défini les efforts
colossaux à déployer en matière de réduction d’émission et d’investissement
pour contenir le réchauffement en dessous de ces limites. Aussi pour contenir le
réchauffement climatique à +1.5 °C par rapport à l’ère préindustrielle, les émissions
de CO2 doivent baisser de 45 % d’ici 2030 par rapport aux niveaux de 2010. Des
transitions rapides et globales doivent voir le jour. Le charbon doit voir sa part
baisser significativement pour représenter moins de 2 % de la production d’élec-

16

046092.indd 16 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

tricité en 2050 tandis que les énergies renouvelables doivent suivre le processus
inverse en voyant leur part augmenter considérablement pour représenter 70 %
à 80 % de la production d’énergie.
Pour rester en dessous de 2 °C de réchauffement, des réductions drastiques
d’émissions s’imposent aussi. Les émissions de gaz à effet de serre doivent s’inscrire
dans des trajectoires vertueuses. Les émissions totales cumulées ne devraient pas
dépasser une fourchette de 1 000 à 1 500 gigatonnes d’ici 2100. Pour atteindre
ces objectifs, le GIEC a établi un budget carbone. Celui-ci définit la quantité totale
de carbone qui peut être émise pour une hausse maximale des températures

B. Le temps de l’engagement : du sommet de Rio à l’accord


de Paris

Le sommet de Rio est un véritable tournant car il marque le début de la globali-


sation des préoccupations environnementales et climatiques. Dirigeants mondiaux
et ONG y participent massivement. Ce sommet sans précédent va se conclure par
l’annonce d’un programme mondial de lutte contre le réchauffement climatique
incluant diverses dispositions : un agenda 21 comptabilisant 2 500 recommandations,
une convention sur la protection de la biodiversité biologique, une convention sur la
lutte contre la diversification et une convention cadre sur le changement climatique.

Le protocole de Kyoto, manifestation de l’éveil de la communauté


internationale

Il est la traduction de ce processus de mobilisation internationale à l’égard d’un


problème de dimension planétaire. Le protocole de Kyoto définit des objectifs en
matière de réduction des gaz à effet de serre, prévoit des mécanismes de flexibilité
s’appliquant à ces réductions et précise les conditions d’entrée en vigueur du traité.
Concernant les objectifs de réduction des gaz à effet de serre, ils sont individua-
lisés par pays ou par groupe de pays. Les pays développés sont astreints à une
réduction moyenne des émissions de gaz à effet de serre de 5.2 % par rapport aux
niveaux de 1990 sur la période 1998 et 2010. Les pays en développement quant
à eux ne sont pas soumis à des objectifs chiffrés mais encouragés simplement à
réduire leurs émissions.
Trois mécanismes de flexibilité sont au cœur du protocole. Le commerce des
droits d’émission, la mise en œuvre conjointe et le mécanisme de développement
propre.
Le premier mécanisme permet aux pays astreints aux obligations de réduction
de gaz à effet de serre d’échanger leurs droits d’émission alloués afin de faciliter
la réalisation de leurs engagements. Ce mécanisme est à l’origine d’un marché
de permis d’émission. Ainsi les pays concernés peuvent sur celui-ci acheter ou
vendre des crédits d’émission ou crédits carbone. Ce mécanisme vise à encourager
l’amélioration des systèmes de production les plus polluants.

17

046092.indd 17 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Le second mécanisme donne la possibilité aux mêmes pays d’acquérir des


crédits carbone provenant de projets de réduction d’émission d’autres pays soumis
aux mêmes objectifs de réduction.
Le dernier mécanisme permet la mise en place de projets de réduction des
émissions contribuant au développement durable dans les pays en développement
et générant des réductions certifiées d’émission qui peuvent ensuite être revendues
à d’autres pays soumis à l’obligation de réduction des gaz à effet de serre.
L’entrée en vigueur du protocole de Kyoto est assujettie à la signature de 55 pays
du traité. En outre le nombre et l’importance des pays signataires doivent repré-
senter au moins 55 % des émissions de dioxyde de carbone mondiales rapportées
au niveau des émissions de l’année 1990.
Ce premier pas décisif vers la lutte contre le réchauffement climatique ne va pas
échapper aux critiques. La faiblesse des ambitions face aux menaces du changement
climatique est pointée du doigt. L’exemption des pays en développement à des
efforts de réduction chiffrés va faire l’objet de récriminations d’autant plus que la
situation d’émergence de certains d’entre eux conduit les émissions de gaz à effet
de serre de ces pays en développement à croître plus vite que celles des pays du
nord. Cet état de fait pousse les États-Unis à afficher leur désaccord et à refuser
la ratification de ce protocole.
Au terme de son application en 2012, le protocole de Kyoto ne couvrait que
12 % des émissions mondiales. Un échec lié entre autres à la faiblesse du prix du
carbone. Un prix si bas qu’il s’est révélé peu incitatif en matière de réduction des
émissions. La difficulté de ce protocole à favoriser des modifications de compor-
tement de la part des États engagés trouve son explication dans un phénomène
qualifié par les économistes de passager clandestin. Une situation que l’on retrouve
dans nombre d’interactions sociales.
Le sommet de Copenhague destiné à mettre en place un nouvel accord en
remplacement de celui de Kyoto va aussi se solder par un échec. Les intérêts
égoïstes des États vont une fois de plus prendre le pas sur la volonté de lutter
résolument contre la menace climatique.

L’accord de Paris, un nouveau souffle dans la lutte


contre le réchauffement climatique

C’est avec l’accord de Paris de 2015 que la lutte contre le réchauffement


climatique retrouve un nouvel élan. Qualifié d’ambitieux, d’évolutif et d’universel,
l’accord de Paris consacre l’ambition de neutralité carbone d’ici la fin du siècle.
Les parties prenantes adhèrent ainsi à l’idée de se conformer à l’objectif de zéro
émission nette dans le cours de la seconde moitié du XXIe siècle. S’appliquant à
tous les pays, il prend en compte toutes les émissions quel que soit le niveau de
développement des émetteurs. L’accord consacre aussi l’objectif de limitation du
réchauffement climatique en dessous de 2 °C par rapport à la période préindus-
trielle. Pour limiter la hausse des températures de la planète à +1.5 °C, ambition

18

046092.indd 18 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

initiale de cet accord, les émissions de gaz à effet de serre doivent baisser de
7.6 % dès 2020 jusqu’à 2030. Pour ce qui est de la limitation à 2 °C, les émissions
doivent diminuer de 2.7 % par an de 2020 à 2030. L’accord prévoit en outre des
financements à destination des pays en développement. Ces moyens alloués
ont vocation à les aider dans leurs efforts d’adaptation climatique. L’enveloppe
consacrée à cette fin est de 100 milliards par an à partir de 2020, un niveau plancher
qui devrait croître avec le temps.
Véritable succès diplomatique, l’accord de Paris va ainsi bénéficier de l’appro-
bation des 196 délégations présentes, il sera aussi ratifié par les plus grands
pollueurs dont la Chine qui à elle seule représente 20 % des émissions mondiales
de gaz à effet de serre.

C. Des engagements qui n’écartent pas le péril climatique

Les engagements des États dans la lutte contre le réchauffement climatique


n’ont modifié que marginalement la courbe d’évolution des émissions mondiales
de gaz à effet de serre. Celles-ci ont continué à croître régulièrement de sorte
que la concentration de dioxyde de carbone dans l’atmosphère n’a jamais été
aussi élevée1.

Figure 2 : Les émissions de CO2 (en mds de t.)

Source : Global Carbon, Project Spiegel

1 L’annexion 1 met en lumière les records de concentration de CO2 en 2018.

19

046092.indd 19 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Un budget carbone en voie d’épuisement

Si ces émissions ne sont pas réduites et continuent inexorablement leur


progression à la vitesse actuelle, le réchauffement climatique atteindra 1.5 °C
entre 2030 et 2052 et sera dès lors plus élevé à la fin de ce siècle de l’ordre de
3.6 °C voire davantage. De nombreux paramètres apportent du crédit à cette
hypothèse. En effet selon les travaux du GIEC, le budget carbone à la dispo-
sition de l’humanité pour contenir le réchauffement climatique en dessous de 2 °C
s’épuisera d’ici trois décennies et bien avant si l’on souhaite atteindre l’objectif
d’un réchauffement en dessous de 1.5 °C.

Tableau 2 : budget carbone restant pour atteindre les différents objectifs cibles
en matière de réchauffement climatique

Cible du
réchauffement < 1,5 °C < 2 °C < 3 °C
climatique

Probabilité de
respect des
objectifs de 66 % 50 % 33 % 66 50 33 66 50 33
hausse des
températures

Budget carbone
2250 2250 2250 2900 3000 3300 4200 4500 4800
de référence

Budget carbone
400 550 850 1000 1300 1500 2400 2800 3250
restant en 2011

Budget carbone
153 303 603 753 1053 1253 2153 2553 3003
restant en 2018

Années
restantes avant
dépassement
du budget au
4 8 16 20 28 34 58 69 81
rythme actuel
des émissions
(hypothèse de
367 GtCO2/an)

Source : GIEC

Ce tableau met en lumière le défi auquel l’humanité est confrontée pour


contenir le réchauffement climatique à un niveau raisonnable. Limiter le niveau
des émissions de CO2 cumulé en dessous de 3 300 gigatonnes de CO2 n’offre
que 33 % des chances de limiter la hausse des températures à 2 °C. Tandis que,
si le budget est réduit à 2 900 gigatonnes de CO2, cette perspective accroît les
chances de réalisation à 66 %. La difficulté vient du fait qu’à la fin de l’année

20

046092.indd 20 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

2011, 1 900 gigatonnes du budget carbone avaient été consommées. Le budget


résiduel restant à consommer, c’est-à-dire les 1 400 gigatonnes, ne nécessitera
qu’une trentaine d’années pour s’épuiser. Autrement dit, au-delà de 2050, toute
émission de CO2 sans compensation aggravera le processus de réchauffement
climatique d’où l’impératif de neutralité Carbonne affiché par l’accord de Paris. La
difficulté d’atteindre les objectifs de limitation résulte aussi du fait qu’entre 2017
et 2018 la hausse de la température par rapport à l’époque préindustrielle était
de 1 °C. Il ne reste donc qu’une marge infime pour contenir le réchauffement en
dessous d’1,5 °C voire 2 °C.
Les prévisions du PNUE (Programme des Nations unies pour l’environnement)
ne portent guère à l’espoir. Selon cette institution, la planète pourrait se réchauffer
de 3 à 4 °C d’ici la fin du siècle même si les États signataires de l’accord de Paris
respectent leurs engagements et même si les émissions de CO2 viennent à s’arrêter
aujourd’hui. Une prévision de mauvais augure qui rend plus que nécessaire la
révision des engagements des États prévue dans le cadre des accords de Paris.
Celle-ci devrait intervenir dans le cadre de la COP26 prévue à Glasgow en 2021.
Pour l’heure, l’optimisme ne semble pas de mise par rapport à cette perspective
car 68 pays à peine se sont engagés à revoir à la hausse leur ambition en matière
de réduction d’émission de gaz à effet de serre et parmi ceux-ci aucun des grands
pays émetteurs du G20 n’y figurent.

Figure 3 : Évolution des émissions de gaz à effet de serre

Source : Pnud

Face à une menace de plus en plus présente les États peinent à faire preuve
de solidarité. Le retrait des États-Unis, une des plus grandes puissances émettrices
de CO2, de l’accord de Paris et l’échec de la COP25 de Madrid témoignent de la

21

046092.indd 21 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

difficulté à universaliser ce combat essentiel pour l’avenir de l’humanité. Jusqu’alors


terrain d’expression du multilatéralisme, le climat devient de plus en plus l’objet des
rapports de force entre États. La volonté de s’affranchir des contraintes motivées
par l’exacerbation des égoïsmes nationaux favorise cette course à la lenteur face
au péril climatique. Les comportements de type « passagers clandestins » consti-
tuent, selon les économistes, le principal ressort de cet état de fait susceptible
de déboucher sur un phénomène qualifié de « tragédie des biens communs ».

Encadré 2 Le climat, victime potentielle de la tragédie des biens


communs

On doit au biologiste américain Hardin Garrett d’avoir le premier, dans un article


paru en 1968, formulé l’idée que les biens communs ou les ressources communes
étaient voués à une surexploitation et de ce fait condamnés à disparaître. Pour
illustrer cette thèse Hardin prit l’exemple d’un pâturage, propriété commune de
plusieurs éleveurs. Chacun d’eux tenté de tirer le plus grand bénéfice de cette
ressource est appelé à augmenter indéfiniment son cheptel. La généralisation
d’une telle conduite basée sur le primat des intérêts individuels conduit inévita-
blement à la catastrophe car elle condamne la ressource à la disparition. Hardin en
tire la conclusion selon laquelle il y a incompatibilité entre la propriété commune
et sa durabilité. Pour conjurer cette catastrophe inhérente à l’utilisation d’une
ressource collective, Hardin propose alors deux solutions, la privatisation de la
ressource collective via l’octroi de droits de propriété d’une part et de l’autre, la
gestion étatique de la ressource afin d’en assurer la protection et la pérennité.
L’article de Hardin fut en réalité une réponse à Karl Marx qui un siècle plus
tôt voyait dans les enclosures du XVIIe siècle, ces clôtures mises en place par
les grands propriétaires ruraux anglais sur une partie de leurs terres librement
accessibles, la source d’une tragédie, celle de la destruction des pâturages
communs qui offraient une possibilité de subsistance aux paysans, obligeant
ces derniers à migrer vers les villes où ils étaient appelés à constituer l’armée
de réserve industrielle.

Le changement climatique relève-t-il de la tragédie des communs ?


La réponse est affirmative d’abord parce que le climat répond aux mêmes carac-
téristiques que les biens concernés par cette théorie. L’environnement répond
aux critères de biens communs. Il est un bien rival c’est-à-dire que la consom-
mation de biens environnementaux par un usager entraîne une réduction de
la consommation des autres usagers. La dégradation de l’environnement du
fait de l’émission de gaz à effet de serre altère le bien-être de chacun. D’autre
part, l’environnement est un bien non excluable car il est impossible de priver
quiconque de son utilisation. La qualité de l’air est en effet bénéfique à toutes
les personnes d’une zone géographique.
La tragédie qui affecte le climat est la conséquence du comportement égoïste
des humains. Pour l’humanité entière, la solution optimale consisterait à utiliser
rationnellement et de manière durable les ressources naturelles de façon à
contenir le réchauffement et de conjurer la catastrophe écologique et humaine

22

046092.indd 22 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

annoncée. Cela permettrait un partage équitable des richesses, des économies


soutenables et une durabilité des ressources naturelles. Cette solution viable
collectivement va cependant à l’encontre des intérêts économiques individuels
des nations. En effet chaque état a plutôt intérêt à poursuivre l’exploitation
irraisonnée des ressources naturelles et laisser les autres pays s’engager dans
des politiques coûteuses économiquement, privatives de croissance mais préser-
vatrices et respectueuses de l’environnement. Ce raisonnement privilégiant
l’intérêt individuel au détriment de l’intérêt collectif débouche sur le non-respect
des engagements des États vis-à-vis des contraintes environnementales. La
lutte contre le réchauffement climatique est ainsi victime de ce comportement
individualiste. L’intérêt pour chaque état est de voir le réchauffement limité en
dessous de 2 °C mais nombreux d’entre eux préféreraient que l’essentiel des
efforts de réduction des gaz à effet de serre soit supporté par d’autres pays. Une
telle attitude favorise des comportements de type passager clandestin ou « free
rider » spécifiques aux biens publics. L’égoïsme vis-à-vis des générations futures
et les problèmes de passager clandestin conduisent à la tragédie des biens
communs environnementaux. Aristote avait déjà, depuis des temps immémo-
riaux, souligné l’incompatibilité entre l’intérêt individuel et l’intérêt collectif en
affirmant que « l’homme prend le plus grand soin de ce qui lui est propre, il a
tendance à négliger ce qui lui est commun ».

La tragédie des communs est-elle inévitable ?


Les fondements théoriques de la tragédie des communs ont néanmoins fait
l’objet de multiples critiques. Les plus pertinentes ont été formulées par les
travaux du prix Nobel d’économie Elinor Ostrom (2009). Selon cette écono-
miste américaine, la tragédie des communs apparaît plausible mais elle ne peut
s’appliquer à toutes les ressources naturelles présentant les caractéristiques de
biens communs. Elle est particulièrement adaptée pour caractériser les situations
où la ressource est partagée par un grand nombre d’utilisateurs confrontés à des
difficultés de coordination. Dans le cas d’une ressource utilisée par un nombre
d’usagers limité, la référence à la tragédie des communs est inappropriée car des
arrangements institutionnels entre utilisateurs basés sur la coopération peuvent
conduire à une gestion raisonnée de la ressource. Dans le cas du réchauffement
climatique, la lutte contre ce phénomène implique un effort collectif, c’est-à-dire
une coordination entre les États afin de venir à bout de ce problème d’où les
cycles de négociations engagés depuis plusieurs décennies. ©

Le coût de l’inaction et les conséquences prévisibles du changement


climatique

Les premières études sur l’ensemble des implications économiques, sociales et


environnementales du changement climatique sont apparues avec le rapport de
Nicholas Stern publié en 2006. Il est ainsi le premier à estimer le coût de l’action
ou de l’inaction des pouvoirs publics face à ce phénomène.

23

046092.indd 23 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Pour Nicolas Stern, les coûts du changement climatique pourraient représenter


à l’horizon 2050 entre 5 % et 20 % du PIB mondial de 2005 par an alors qu’une
stabilisation des émissions de gaz à effet de serre ne nécessiterait qu’un 1 % du
PIB mondial par an. Lutter contre le réchauffement climatique coûterait moins
cher que l’inaction. Des études plus récentes mettent en exergue le caractère
astronomique de la facture liée à l’inaction vis-à-vis de ce risque. L’organisation
WWF ou Fonds mondial pour la nature estime le coût économique du déclin de
la nature à 473 millions de dollars par an au niveau mondial d’ici à 2050. En cas
d’inaction, cette facture pourrait s’élever à 1 000 milliards de dollars par an soit
l’équivalent du PIB cumulé de la France, de l’Inde et du Brésil. Selon cette étude,
les pays les plus impactés en valeur absolue seraient les États-Unis avec une perte
de 83 millions de dollars par an d’ici 2050, le Japon et le Royaume Uni respecti-
vement à hauteur de 80 millions et 21 millions de dollars. Le coût pharaonique du
réchauffement climatique devrait croître exponentiellement avec l’augmentation
des températures, en d’autres termes, plus on s’éloignera du seuil fatidique des
2 °C, plus la facture sera astronomique.
Le 5e rapport du GIEC publié en 2014 a permis d’élucider la réalité du changement
climatique et ses conséquences multiformes. L’augmentation moyenne du niveau
des températures sera porteuse de multiples risques aux conséquences incom-
mensurables. Aux risques économiques, sociaux et sanitaires s’ajouteront d’autres
risques porteurs d’insécurité en matière d’accès à l’eau douce, à l’alimentation et à
l’habitat. Sans souci d’exhaustivité, abordons quelques conséquences témoignant
du risque existentiel auquel l’humanité sera confrontée d’ici la fin de ce siècle.
Avec le réchauffement climatique, les phénomènes météorologiques extrêmes
deviendront légion. Ouragans, cyclones, tempêtes seront récurrents. L’activité
économique devrait pâtir de cette situation. Le coût astronomique précédemment
indiqué en est le révélateur. Le réchauffement climatique rime aussi avec canicules
à répétition, une situation qui n’est pas sans conséquences sur la productivité
des travailleurs et sur leur état de santé. Une étude menée conjointement par
l’OIT (Organisation internationale du travail), le PNUD et l’OMS en 2019 apporte
un éclairage sur le lien de cause à effet entre réchauffement climatique, santé et
productivité des travailleurs. Cette étude s’intéresse particulièrement au « stress
thermique » définit comme une chaleur excessive par rapport à celle que le corps
humain peut tolérer sans souffrir d’altération physiologique. Elle met en lumière
le fait que dès lors que la température dépasse 34 °C, la réactivité des travailleurs
se trouve affectée et cela débouche sur la dégradation de leur état de santé.
Insolation et déshydratation peuvent en résulter. La dégradation des conditions
afférentes favorise les risques d’accident de travail et notamment une baisse de
la productivité. La perte du nombre d’heures non travaillées devrait croître avec
l’augmentation des températures. En 2030, elle devrait être de l’ordre de 2.2 % à
3.8 % selon cette étude en cas de limitation du réchauffement à 1.5 %. Au-delà,
la perte devrait être plus conséquente. La baisse de la productivité horaire devrait
se traduire par des pertes abyssales et des suppressions massives d’emplois.

24

046092.indd 24 18/11/2020 09:10


I. Chronique d’une catastrophe annoncée

L’impact du réchauffement climatique sur les secteurs d’activité devrait être


inégal. Certains pâtiront plus que d’autres. Le secteur agricole et le bâtiment sont
ceux qui souffriront davantage de cette situation avec des pertes d’heures de travail
respectivement de 60 % et 19 % d’ici 2030.
Le réchauffement climatique est aussi indissociable de la montée du niveau des
océans. Conséquence de la fonte des glaces, cette hausse devrait selon le GIEC
être de l’ordre de 30 à 90 cm d’ici 2100. De nombreuses inondations à travers le
monde devraient en résulter ainsi qu’une accélération de l’érosion côtière. Plusieurs
villes et îles sont ainsi menacées de disparition. Selon le CNRS, des milliers d’îles
pourraient être rayées de la carte du monde. L’élévation du niveau des océans aura
des conséquences en terme de migration des populations. Le rapport de la Banque
mondiale publié en 2018 estime que le changement climatique va contraindre
autour de 150 millions de personnes à migrer à l’intérieur de leur propre pays
afin d’échapper aux affres du réchauffement climatique. Ces migrations devraient
davantage toucher les populations exposées aux évènements météorologiques
extrêmes dans les pays à faible revenu d’Afrique subsaharienne notamment mais
aussi d’Asie du sud-est ou d’Amérique latine. Des risques de conflits violents
pourraient en résulter.
La fonte des glaces devrait aussi concerner les permafrosts. Ce sont des terres
gelées recouvrant 25 % des terres émergées situées en Russie, en Alaska et au
Canada. Selon certaines études, ces terres gelées devraient fondre de 30 % d’ici
2100, ce qui aurait pour tragique conséquence de libérer près de 1 700 milliards
de tonnes de gaz à effet de serre, soit le double de la quantité de CO2 présente
dans l’atmosphère. Une perspective qui aurait pour effet, d’une part, d’amplifier
le réchauffement climatique et les conséquences précédemment mentionnées
et d’autre part, de libérer et de favoriser la propagation de vieux virus enfouis
depuis des lustres dans les profondeurs de ces sols gelés depuis des millénaires1.
De terribles conséquences sanitaires pourraient en résulter du fait de leur forte
létalité. Les pandémies meurtrières deviendraient ainsi légion avec les drames
humains que cela implique.
Affectant les hommes, le réchauffement climatique constitue aussi une menace
dévastatrice pour la biodiversité. L’extinction de nombreuses espèces apparaît en
effet inéluctable. Les prévisions du GIEC sont accablantes. Une augmentation de
2.5 °C de la température à l’échelle du globe entraînera l’extinction de plus de 20 %
des espèces végétales et animales. L’exemple le plus emblématique souvent mis
en exergue est celui de l’ours polaire. La banquise nécessaire à sa survie décroît
continûment sous l’effet du réchauffement climatique. La disparition à terme de
cet espace de vie indispensable à l’ours polaire entraînera inévitablement son

1. En 2015, un virus vieux de 30 000 ans, le Mollivirus sibericum, a été découvert par une équipe
de chercheurs français dans le permafrost sibérien. Dans la même région, on a constaté une
résurgence de certaines maladies comme l’anthrax ou la variole qui n’ont plus sévi depuis
des décennies.

25

046092.indd 25 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

extinction. Le sort des récifs coralliens ne suscite guère d’espoir. Un réchauffement


climatique de l’ordre 1.5 °C devrait condamner 70 à 90 % de récifs coralliens contre
99 % dans le cas d’un réchauffement à 2 °C.
Avec le réchauffement climatique, l’insécurité alimentaire devrait aussi croître
du fait de la baisse de la production alimentaire. Certaines cultures telles que le
maïs ou le riz devraient voir leur production baisser notamment dans les régions
tropicales et tempérées. Cette baisse de rendement risque d’avoir pour effet une
croissance vertigineuse des prix de certaines denrées et par voie de conséquence
une dégradation du niveau de vie des populations particulièrement dans les pays
les plus fragiles économiquement. Selon la Banque mondiale et l’ONU, plus de
100 millions de personnes pourraient basculer dans l’extrême pauvreté et environ
600 millions pourraient pâtir de malnutrition d’ici la fin du siècle.
Les conséquences multiformes du réchauffement risquent de transformer la
Terre en étuve ou en espace impropre à la vie. Une perspective qui conduit à
s’interroger sur les voies et moyens permettant de conjurer cette issue fatale.

Tableau 3 : Impact d’un réchauffement climatique à +1.5 °C ou à +2 °C.

Conséquences du En cas de hausse de En cas de hausse de


réchauffement température de +1.5 °C par température de +2 °C par
climatique rapport à l’ère préindustrielle rapport à l’ère préindustrielle.

30000 morts chaque année Hausse de la mortalité liée à la


à cause de la malnutrition ou chaleur et de la mortalité liée
en raison de la croissance de à l’ozone. Augmentation des
Santé
certaines maladies comme la risques associés aux maladies
malaria. à transmission vectorielle
(paludisme, dengue,…).

Risque de sécheresse et déficit Violence exacerbée des


des précipitations. Multiplication cyclones tropicaux.
des cyclones tropicaux. Baisse de 20 % à 30 %
Eau des ressources en eau
dans certaines régions très
vulnérables comme l’Afrique et
la Méditerranée.

4 % des vertébrés, 6 % des Ces pourcentages passent


insectes et 8 % des plantes respectivement à 8 %, 18 %,
Perte de
perdent leur habitat naturel. et 16 %. Multiplication des
biodiversité
feux de forêts et prolifération
d’espèces invasives.

Légère amélioration des Baisse de rendement


rendements dans les zones notamment en Afrique
Cultures tempérées. subsaharienne, en Asie du
céréalières et Sud-est et en Amérique Latine.
alimentation Réduction des disponibilités
alimentaires. Effet négatif sur
l’élevage.

26

046092.indd 26 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Conséquences du En cas de hausse de En cas de hausse de


réchauffement température de +1.5 °C par température de +2 °C par
climatique rapport à l’ère préindustrielle rapport à l’ère préindustrielle.

Impact élevé sur le récif Disparition quasi-totale des


Coraux corallien. 70 % à 90 % de perte récifs coralliens puisque 99 %
des coraux. des coraux seront détruits.

Augmentation du niveau de Augmentation plus


la mer de 26 cm à 77 cm d’ici importante de 10 cm de
2100. plus, soit 36 cm à 87 cm.
Acidification des océans Accentuation de l’érosion
et érosion des littoraux. côtière et des submersions
Vulnérabilité aux tempêtes et marines. Vulnérabilité accrue
submersion marine récurrente. de nombreuses populations.
Niveau de la mer Environ 10 millions de
personnes seront menacées
par ces phénomènes extrêmes
pouvant entraîner la disparition
de plusieurs villes et îles.
D’importants déplacements
de populations devraient en
résulter.

Diminution des prises de Baisse plus importante des


Pêche poissons se traduisant une prises de poissons de l’ordre
baisse de 1.5 millions par an. de 3 millions.

Fonte totale de la banquise en Fonte complète une fois par


Banquise arctique
été une fois par siècle. décennie.

Source : tableau établi à partir du rapport du GIEC (2018)

II. Une multiplicité de solutions salvatrices

Modifier les comportements en suscitant une prise de conscience générale


et favoriser la décarbonisation des économies contemporaines en promouvant
notamment les énergies renouvelables telles sont les voies et moyens permettant
de relever ce titanesque défi climatique. L’analyse économique de l’environnement
fournit des outils permettant aux pouvoirs publics de contraindre les agents privés
de prendre en compte dans leurs décisions les conséquences négatives de leurs
actions sur l’environnement. La fiscalité environnementale, le marché des droits
d’émission et la réglementation sont les principaux outils mobilisables dans le
cadre de cette lutte.

27

046092.indd 27 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

A. Les instruments économiques au service


de l’environnement : quelle efficacité ?

La prise de conscience des dommages causés par les activités anthropiques sur
l’environnement a contribué à la mise au jour par la théorie économique d’instru-
ments permettant d’en internaliser le coût. Considéré du point de vue de l’analyse
économique comme un bien collectif, le climat est l’objet d’externalités négatives
de la part des agents économiques du fait des émissions de gaz à effet de serre.
Ces atteintes à l’environnement en l’absence de régulation ne sont pas prises en
compte par les agents économiques qui de ce fait sont conduits à offrir un niveau de
production supérieur à celui socialement optimal. Comment contraindre les agents
économiques privés à prendre en compte les coûts externes sur l’environnement
découlant de leurs décisions individuelles ? L’analyse économique propose des
politiques reposant sur une logique d’incitation à modifier les comportements. Ces
politiques consistent à émettre un signal-prix afin de pousser les agents privés à
modifier leur comportement en matière de consommation et de production. L’aug-
mentation du prix des carburants par exemple vise à encourager les automobilistes
et les entreprises à la sobriété énergétique et au développement des nouvelles
technologies.
C’est le prix Nobel d’économie Ronald Coase qui est à l’origine de ces politiques
dites de signal-prix. Selon cet économiste, l’émission d’un signal prix pour modifier
les comportements des agents privés se justifie par le fait que le coût privé de
la production d’un bien est inférieur à son coût social du fait que ce dernier ne
prend pas en compte les dommages environnementaux engendrés. Le coût privé
correspond en effet au prix du marché du produit, celui-ci est fonction des coûts de
production et dépend de la rareté du produit. Il n’intègre donc pas les coûts induits
pour la société notamment ceux liés à la pollution et au réchauffement climatique.
L’écart entre le coût privé de la production et le coût social est équivalent à la
valeur de l’externalité négative générée par les émissions de gaz à effet de serre.

La détermination d’un signal-prix

Le signal prix dépend de l’approche retenue. Il en existe deux, d’une part,


l’approche coût avantage, de l’autre l’approche coût-efficacité. Si l’on privilégie la
première approche, la détermination du signal prix implique l’égalisation du coût
marginal de réduction des émissions de gaz à effet de serre ou coût d’abattement
avec le coût marginal social c’est-à-dire le coût pour la société généré par les
dommages liés à l’émission d’une unité supplémentaire de gaz à effet de serre.

28

046092.indd 28 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Figure 4 : Courbe de coût social et de coût privé

Ce graphique met en lumière le fait que plus la concentration de CO2 dans


l’atmosphère est élevée, plus il y a d’émissions de CO2, plus le coût marginal social
s’accroît, en d’autres termes le coût marginal social est une fonction croissante
des émissions de gaz à effet de serre. À l’inverse le coût marginal d’abattement
décroît avec les émissions de CO2. Plus un agent émet de CO2, moins l’unité
supplémentaire de CO2 coûte cher. La quantité optimale d’émissions est celle qui
permet d’égaliser le coût marginal social au coût marginal d’abattement.
La seconde approche coût- efficacité adopte une démarche différente. L’objectif
de réduction des émissions est défini au préalable. Le niveau de réduction retenu
influence alors l’ampleur du signal prix. Si l’objectif de réduction est très ambitieux
alors le signal prix sera de grande ampleur.
Deux politiques contribuent à l’émission du signal prix, la politique de taxation
d’une part, et celle des permis d’émission d’autre part.

La politique de taxation ou d’internalisation des externalités

Elle a vocation à faire porter l’essentiel du coût social sur les agents à l’origine
des émissions de gaz à effet de serre ou de la pollution. L’application de la taxe
implique d’abord l’évaluation des dommages créés par la pollution et la mise en
œuvre ensuite du principe pollueur-payeur. La finalité de la taxe est de mettre en
correspondance les coûts sociaux et les coûts privés. On doit ce principe à l’écono-
miste britannique Arthur Cecil Pigou. C’est la raison pour laquelle les prélèvements

29

046092.indd 29 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

effectués sont qualifiés de taxe « pigouvienne ». En tenant compte de l’approche


coût-efficacité, la taxe doit être déterminée au niveau permettant d’égaliser le coût
marginal d’abattement d’une quantité de pollution donnée au coût marginal social.
Cette condition est déterminante car un taux de taxe inférieur à ce niveau conduit
les entreprises à polluer davantage, leur niveau de production étant supérieur à
celui socialement optimal. Dans le cas contraire, cela débouche sur une contraction
de la production à un niveau inférieur à celui socialement souhaité.

Les droits de pollution ou le marché d’échange de quotas

Il s’agit de la seconde solution permettant d’émettre un signal prix via la mise en


place d’un marché d’échange de droits à polluer sur lequel les agents s’échangent
des quotas préalablement attribués par les pouvoirs publics. Comme sur n’importe
quel marché, on retrouve sur celui-ci une offre et une demande dont la rencontre
permet de déterminer un prix d’équilibre. Dans ce contexte, le signal-prix n’est pas
déterminé par les pouvoirs publics mais par le marché via l’interaction entre offre
et demande de droits à polluer. C’est en fonction du prix librement déterminé par
le marché que les agents privés déterminent leur comportement en matière de
pollution. Ceux qui considèrent que la pollution constitue un effort considérable
sont conduits à acquérir des permis d’émission supplémentaires pour continuer
à émettre du CO2. Ces agents considèrent en règle générale que les coûts liés
à la dépollution sont supérieurs au prix des quotas, leur comportement est donc
invariant en matière de dépollution ou d’émission de dioxyde de carbone. À l’inverse,
les entreprises les plus innovantes, celles pour qui les coûts de dépollution se
révèlent inférieurs au prix des quotas adoptent un changement de comportement
en réduisant leurs émissions polluantes et peuvent ainsi revendre leurs droits sur
le marché. La lutte contre la pollution est donc le fait des agents qui font le pari
de l’innovation et qui de ce fait ont des coûts de dépollution faibles.

Encadré 3 Taxe pigouvienne versus théorème de Coase

Pour internaliser les externalités Arthur Cecil Pigou et Ronald Coase adoptent
des démarches différentes. Partant du constat qu’en présence d’externalités,
le marché ne débouche pas sur une allocation optimale des ressources et ne
contribue donc pas à l’optimum social, l’économiste anglais propose une taxe
proportionnelle aux quantités produites afin de contraindre les producteurs de
prendre en compte les dommages sociaux générés par leur activité. Ce faisant le
coût marginal privé, c’est-à-dire celui supporté par les entreprises devient égal au
coût marginal social qui intègre l’ensemble des coûts générés par cette activité.
La représentation graphique suivante illustre les implications de l’instauration
d’une taxe pigouvienne.

30

046092.indd 30 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Figure 5 : Implication d’une taxe pigouvienne

Lorsque les effets externes ne sont pas pris en compte par les agents privés c’est-
à-dire en l’absence de taxation, l’optimum économique est atteint au point A
correspondant au niveau de production Q*. Cet optimum privé est différent de
l’optimum social. La prise en compte des conséquences sociales liées à l’activité
de pollution conduit à un déplacement vers la gauche du coût marginal privé.
Celui-ci devient égal au coût marginal social qui intègre le coût marginal privé
et la taxe instaurée équivalente aux dommages sociaux générés. Le nouveau
point d’équilibre obtenu B correspond à l’optimum social. Il est atteint au niveau
de production Q** inférieur à Q*.
Ainsi grâce à la mise en œuvre de la taxe, les entreprises polluantes réduisent
leur niveau d’émission de CO2 et permettent ainsi d’atteindre l’optimum social
en réalisant un niveau de production correspondant à celui qui est socialement
nécessaire. La partie hachurée correspond au montant total de la recette perçue
par les pouvoirs publics.

La solution de Coase
Pour remédier aux défaillances de marché que constituent les externalités
négatives, Ronald Coase propose d’instaurer des droits de propriété transfé-
rables sur les ressources environnementales en lieu et place d’une taxe prélevée
par l’état. Partant d’une situation où un agent exerce un effet externe sur un
autre, il en tire le théorème selon lequel l’internalisation des effets externes
peut être réalisée sans intervention des pouvoirs publics sur la seule base de

31

046092.indd 31 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

l’instauration des droits de propriété et de la négociation marchande entre les


parties prenantes c’est-à-dire le pollueur et le pollué et ce quelle que soit la
répartition initiale des droits entre eux.
Considérons le cas d’une entreprise qui pollue son environnement dont une
rivière traditionnellement réservée à la pêche. Supposons que Q représente son
niveau de production qui définit aussi son niveau de pollution et R le niveau de
recette marginale, celui-ci décroît avec le niveau de production. Le graphique
suivant met en évidence les données du problème.

Figure 6 : Les conséquences de la mise en place de droits de propriété

Au point Q1, les dommages environnementaux sont au niveau maximum, l’absence


de droits de propriété et de réglementation contribue à cette situation. Pour
l’entreprise émettrice de rejets polluants, la surface ORoQ* représente son profit
tandis que pour les pollués les dommages causés par la pollution sont repré-
sentés par la surface E*Q1F. Le bénéfice social maximum est atteint au point E*,
lorsque le profit marginal est égal au dommage marginal c’est-à-dire quand
l’entreprise produit un niveau de production égal à Q*. La mise en œuvre des
droits à polluer par les pouvoirs publics conduit l’entreprise à faire un arbitrage
entre polluer ou renoncer à le faire.
Au-delà de Q*, l’entreprise se verra contrainte de baisser son seuil de pollution
car son activité lui coûtera plus qu’elle ne lui rapportera. Le profit marginal étant
inférieur au dommage marginal, l’existence d’un prix du droit à polluer pousse en
définitive l’entreprise à reconsidérer son seuil de pollution et contribue somme
toute à internaliser l’effet externe que constitue la pollution et cela sans inter-
vention des pouvoirs publics. ©

32

046092.indd 32 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

La réglementation ou la mise en place de normes environnementales

Aux deux instruments précédents s’ajoute un troisième à la disposition des


pouvoirs publics, il s’agit de la réglementation. C’est une politique qui consiste à
définir des normes à respecter en matière d’environnement. Cela peut consister à
prohiber l’utilisation de certaines substances ou à encadrer des comportements et
des pratiques. Une diversité de normes existe. Les normes en matière de carburants,
d’efficacité énergétique des appareils électriques ou des voitures particulières.
Le non-respect des normes expose les contrevenants à des sanctions, ce qui
favorise la réalisation de l’objectif recherché en matière d’émission de polluants.

Avantages et inconvénients des principaux instruments

Les instruments économiques à savoir la taxe et le marché des droits sont


supposés plus efficaces que la réglementation. Cet instrument juridique, s’il s’avère
très approprié dans le cas de produits dangereux aux conséquences irréversibles,
n’en présente pas moins de nombreuses limites. Tout d’abord il s’impose indistinc-
tement à tous les agents économiques. Les agents pollueurs sont en effet traités
de la même façon que ceux qui polluent le moins. En outre, la norme n’a qu’un
caractère incitatif, elle ne pousse pas les agents à faire mieux que ce qui est prescrit.
La mise en œuvre de la réglementation est aussi coûteuse car elle implique de
disposer d’un niveau d’information élevé, à savoir une bonne connaissance des
différentes sources de pollution afin de mieux les contrôler. Les restrictions imposées
par la réglementation peuvent déboucher sur des comportements d’évitement
voire de fraude. L’exemple le plus emblématique de cette situation est illustré par
le scandale mis au jour en 2015, qualifié de « dieselgate »1. La réglementation ne
minimise pas enfin le coût total pour la société permettant d’atteindre l’objectif
de dépollution. Le coût de dépollution global s’avère en effet plus élevé dans le
cas de la réglementation comparativement à celui découlant de la mise en œuvre
d’une taxe. Le graphique suivant en fournit l’illustration.

1 Le constructeur automobile Volkswagen est à l’origine de ce scandale. Pour échapper aux


contraintes réglementaires imposant des normes antipollution, Volkswagen a mis en place
un système de fraude en équipant ses voitures d’un logiciel permettant de modifier leur
comportement au cours de tests d’émission.

33

046092.indd 33 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 7 : Réglementation versus taxation

Interprétation du graphique :
On est en présence de deux entreprises dont les coûts marginaux d’abat-
tement sont ici représentés. CmR1 désigne le coût marginal de réduction
de l’entreprise 1 tandis que CmR2, celui de l’entreprise 2.
On suppose que le législateur établit une norme en matière de pollution
c’est-à-dire un seuil de pollution à ne pas dépasser. On le suppose égal
à 4 ici. Pour cette norme de pollution, les entreprises 1 et 2 supportent
un coût marginal d’abattement respectivement égal à 1 et 3.5 ; soit un
coût cumulé pour la collectivité égal à 4.5.
On suppose à présent que l’état met en place une taxe visant à réduire le
niveau de pollution des entreprises. Face à une taxe d’une valeur égale à
2, les entreprises réagissent différemment. L’entreprise 1 qui a des coûts
marginaux de dépollution élevés va fixer son niveau de pollution à 5.5
qui correspond au point où son coût marginal d’abattement est égal à
la taxe tandis que l’entreprise 2 va réduire son niveau de pollution en le
fixant à 2 pour les mêmes raisons.
Le niveau de pollution global atteint avec la taxe apparaît ici inférieur à
celui obtenu avec la mise en œuvre d’une norme indistincte pour tous. Il
en est de même du coût marginal d’abattement global.

34

046092.indd 34 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

À l’inverse du caractère bureaucratique de la réglementation considérée comme


une entrave à la liberté d’entreprendre, les instruments économiques laissent aux
agents privés le choix d’ajuster leurs comportements. Ils peuvent en effet arbitrer
entre réduire leur pollution ou garder invariant leur comportement en la matière
en s’acquittant de la taxe ou en acquérant des droits d’émission supplémentaires.
L’instauration d’une taxe permet d’atteindre l’effet de dépollution à moindre coût.
Les agents à faible coût d’abattement font le choix de réduire leurs émissions de
CO2 tandis que ceux qui font face à des coûts d’abattement élevés choisissent de
payer la taxe. L’effort de dépollution est réparti efficacement, ce qui minimise le
coût total de dépollution de la collectivité. La taxe permet ainsi de borner le coût
marginal d’abattement de la consommation d’énergie. Outre le fait que la taxe
peut faire l’objet d’une évolution dans le temps afin d’accorder aux agents privés
le temps d’adaptation nécessaire, son institution permet un double dividende.
D’un côté, elle permet de modifier les comportements en matière de pollution,
de l’autre, elle procure aux pouvoirs publics des recettes fiscales additionnelles qui
peuvent être consacrées à des finalités macro-économiques telles que la baisse du
chômage via la réduction des cotisations sociales ou le financement des mesures
d’adaptation au profit des ménages les moins pourvues économiquement.
L’acceptabilité de la taxe est une dimension essentielle de cette politique. Le
mouvement des gilets jaunes qui a marqué l’année 2019 ou celui des bonnets
rouges bretons en 2013 montre que l’instauration d’une taxe ou son relèvement
peut susciter des résistances de la part des couches populaires en raison de son
caractère injuste. Généralement régressive, la taxe carbone grève le budget des
plus modestes alors que leur pouvoir de pollution s’avère moindre comparativement
aux ménages les mieux pourvus économiquement. Des mesures de redistribution
s’avèrent donc nécessaires afin de rendre le signal-prix carbone émis par la taxe
plus juste et plus acceptable. Cela peut consister par exemple à mettre en œuvre
des mesures d’aides en faveur des plus modestes. Crédit d’impôts ou chèque
énergie pour les trajets domicile-travail sont des exemples de mesures visant à
rendre acceptable les efforts de décarbonation. L’investissement dans les transports
en commun et la rénovation des logements sociaux y contribuent aussi fortement.
Les travaux du Conseil d’analyse économique (2019) confortent l’idée qu’il est
possible de concilier la justice sociale avec la nécessité de s’attaquer aux enjeux
du réchauffement climatique. Ils proposent dans le cadre de la taxe carbone en
France de redistribuer l’intégralité des recettes de la fiscalité environnementale
aux 50 % des Français les plus modestes selon leur lieu d’habitation1. Un tel choix
permettrait d’améliorer la lisibilité et la crédibilité de la fiscalité environnementale
de plus en plus perçue comme antisociale2.

1. La redistribution consisterait à opérer des transferts décroissants avec les revenus en tenant
compte des disparités géographiques. Ainsi 30 % des Français les plus vulnérables écono-
miquement recevraient environ 310 euros par an, les 10 % suivants 300 euros ainsi de suite
jusqu’au 8e décile qui percevrait 60 euros par an.
2. Instaurée en France en 2014, la taxe carbone était vouée à une augmentation annuelle continue.
En 2019, il était prévu qu’elle passe de 44,6 à 55 euros pour atteindre 86 euros en 2020. Le
mouvement des gilets jaunes a eu raison de cette programmation en obligeant le gouvernement

35

046092.indd 35 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Le marché des droits à polluer est quant à lui doté des mêmes avantages que
la fiscalité écologique. En permettant de borner le niveau des gaz à effet de serre
à émettre, il contribue à concilier efficacité écologique et efficacité économique. Il
permet en outre d’atteindre l’objectif de réduction des émissions à moindre coût
pour la collectivité. Cependant, le prix auquel les agents s’échangent les droits
d’émission peut souffrir de volatilité et faire l’objet de spéculation. Sa mise en
œuvre comme celle de la taxe sur les énergies fossiles peut altérer la compétitivité
des entreprises nationales et les conduire à voter avec leurs pieds en délocalisant
leurs activités dans les pays dépourvus de politique volontariste en matière de lutte
contre le réchauffement climatique. On parle à ce propos de « fuite de carbone ».
De fortes importations de produits intensifs en gaz à effet de serre en provenance
des pays moins disant en fiscalité environnementale peuvent en résulter. La théorie
économique propose aux pays qui en sont victimes de taxer ces produits via une
« taxe Cambridge » afin d’annuler l’avantage-prix de ces produits sur le marché
intérieur.
Taxe ou marché des droits, lequel des instruments faut-il préférer ? Le choix de
l’un ou l’autre des deux instruments dépend étroitement de la sensibilité des acteurs
privés au coût marginal d’abattement et de l’ampleur des dommages marginaux
causés à l’environnement. Si ces derniers sont élevés et que les acteurs sont peu
sensibles au coût de dépollution alors, il est préférable de recourir au marché des
droits. À l’inverse, lorsque les agents sont peu sensibles aux dommages causés
sur l’environnement mais qu’ils sont davantage sensibles au coût marginal de
dépollution, une préférence pour le signal-prix s’impose.
La réglementation, la fiscalité environnementale et le marché des droits
concourent en définitive à la modification des comportements et à la promotion
de comportements vertueux en matière de préservation de l’environnement. Leur
efficacité s’avère somme toute relative comme en témoigne la montée continue
des gaz à effet de serre malgré une décennie de mise en œuvre des politiques
environnementales. L’adoption de « nudges » peut-elle contribuer à renforcer
l’efficacité des politiques de lutte contre le réchauffement climatique ?

B. Les nudges ou la mise à contribution des résultats


de l’économie expérimentale

La prise de conscience des torts causés par les activités humaines sur l’envi-
ronnement ne date pas d’aujourd’hui. Le marquis de Condorcet en 1776 dans ses
réflexions sur le commerce développait l’idée que les activités agricoles sources
de pollution étaient à l’origine des maladies dans les fermes avoisinantes. L’idée
d’externalité négative au cœur de son raisonnement le conduisit à en appeler aux
pouvoirs publics afin d’interdire ce type d’activité.

Philippe à suspendre ces augmentations. Recommandée dans le cadre du protocole de Kyoto,


cette taxe est mise en œuvre par un nombre limité de pays, environ 40 couvrant à peine 12 % des
émissions mondiales. Un faible pourcentage témoignant des efforts à accomplir en la matière.

36

046092.indd 36 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Aujourd’hui cette prise de conscience prend de l’ampleur, nombreux sont


donc les citoyens qui ont conscience des conséquences pernicieuses des activités
anthropiques sur la planète Terre mais qui rechignent à adopter les comportements
appropriés. Comment faire évoluer leur comportement dans ce contexte marqué
par un rejet croissant des politiques basées sur le signal-prix ? La réponse pour
certains économistes réside dans la mise en œuvre de nudges. Que recouvre alors
ce concept ?

Les nudges reposent sur l’incitation et la persuasion

Suggérer sans contraindre telle est la vocation des nudges. Ils vont ainsi à
l’encontre des instruments économiques et réglementaires de la politique climatique
reposant sur l’incitation financière ou la contrainte. Ce terme n’est pas récent en
réalité. Il apparaît dès 1675 chez Thomas Hobbes. En anglais, le nudge désigne
une action visant à alerter un autre individu en utilisant en particulier le coude d’où
la traduction « coup de coude ». C’est un instrument non coercitif qui consiste à
pousser quelqu’un à faire quelque chose de son plein gré. C’est généralement une
action simple, peu coûteuse qui vise à orienter les comportements des individus
afin qu’ils fassent des choix susceptibles d’améliorer leur bien-être mais aussi celui
de la collectivité dans son ensemble. La vulgarisation de ce terme est cependant
récente. Elle date de 2009 à la faveur de l’ouvrage publié par deux auteurs,
l’économiste Richard Thaler et le juriste Cass Sunstein. Pour ces deux auteurs, les
nudges véhiculent une culture de l’incitation de nature à améliorer une prise de
conscience des citoyens à l’égard des enjeux environnementaux. La résurgence
de ce concept tire sa source dans la critique de la théorie dominante formulée par
certains économistes à l’instar de Daniel Kahneman ou de Robert Shiller. La théorie
dominante formule en effet que les agents économiques agissent rationnellement en
recherchant la maximisation de leurs intérêts personnels et qu’en agissant ainsi leurs
interactions contribuent de manière non-intentionnelle à l’optimum économique.
Cette rationalité théorique au cœur du concept d’homo economicus a fait l’objet
de multiples critiques. C’est à la faveur de ces remises en cause qu’est apparue
une nouvelle discipline appelée économie comportementale consistant à observer
en laboratoire les décisions prises par des citoyens cobayes. Les travaux de cette
nouvelle branche de l’économie ont permis de mettre en lumière l’existence de
biais cognitifs dans la prise de décision des individus. Les travaux de psychologues
ont permis de les mettre en exergue. Il en est ainsi du biais d’optimisme. En se
comparant aux autres, de nombreux individus considèrent généralement que le
meilleur va leur arriver. Cet excès d’optimisme peut induire des choix inappropriés
notamment en matière de préservation de l’environnement. Les conséquences
du réchauffement climatique n’apparaissant que dans un horizon temporel très
éloigné, certains individus peuvent être tentés par l’inaction en renvoyant à plus

37

046092.indd 37 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

tard les efforts qu’ils peuvent entreprendre aujourd’hui. On parle alors de biais de
procrastination ou biais de statu quo. La préférence du court terme prend alors le
dessus sur les considérations relevant du long terme.
Pour Richard Thaler et Cass Sunstein, les seules considérations économiques
et financières ne permettent pas d’expliquer les choix des individus. D’autres
paramètres jouent un rôle déterminant. L’environnement socioculturel, l’interpré-
tation des informations disponibles sont autant de facteurs qui priment dans la
prise de décision. Partant de ce constat, ces deux auteurs ont ainsi montré à partir
de leurs travaux qu’en modifiant certains paramètres, il est possible d’inciter les
individus à agir de manière différente. Le recours à la sanction ou à l’incitation
financière n’apparaît pas indispensable dans ce contexte.
Quelques exemples emblématiques servent à illustrer la notion de nudge. L’un
des plus cités est celui de l’aéroport de Schiphol d’Amsterdam un des hubs aériens
doté d’un trafic très élevé. Le responsable de la propreté eut l’idée originale de
coller au centre de chaque urinoir des toilettes réservées aux hommes la photo
d’une mouche. L’apparition de cette cible a modifié considérablement le compor-
tement des hommes. Ceux-ci ont été massivement incités à viser juste. Ce faisant
les éclaboussures ont été réduites, contribuant à baisser significativement les
dépenses d’entretien des toilettes de 20 %. Une initiative bienfaitrice qui depuis
a fait des émules à travers le monde.
L’irruption de ce concept dans le monde politique intervient à partir du début
de la décennie 2010. C’est d’abord en Grande Bretagne et aux États-Unis que
la reconnaissance des nudges comme instrument au service de l’environnement
trouve une traduction positive via la création d’institutions chargées de proposer
aux gouvernements des mesures ayant un fort pouvoir d’incitation des ménages
à changer leur comportement en matière d’environnement.

Les nudges permettent d’accroître l’efficacité des politiques


publiques à moindre coût

Différentes mesures de politique publique se sont inspirées des nudges pour


orienter dans le sens souhaité le comportement des populations en matière de
préservation de l’environnement.
En Grande Bretagne, la Nudge Unit Britannique a mis en œuvre des actions
visant d’une part à inciter les salariés à prendre les transports en commun au
détriment de la voiture individuelle et d’autre part à préserver leur santé. Cela
a consisté, dans le cadre du second objectif, à placer au niveau des caisses des
supermarchés, des messages indiquant la quantité de fruits et légumes qu’un
individu doit disposer pour bénéficier d’une consommation saine pour la santé.
Cette institution a aussi lancé un programme expérimental au bénéfice des fumeurs
consistant à les récompenser en cas d’arrêt. Devenue indépendante du pouvoir

38

046092.indd 38 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

politique britannique, elle travaille depuis avec de nombreux gouvernements et


associations à travers le monde, et intervient dans de multiples domaines tels que
la collecte de l’impôt, le don d’organes ou la sécurité routière.
La Corée du sud a fait le choix de la « Green Card » comme politique publique
s’inspirant de nudges. Elle consiste à inciter les particuliers à réduire l’empreinte
écologique de leurs consommations. Concrètement la green card prend la forme
d’une carte de crédit permettant à son détenteur de cumuler des éco-points en
cas de consommation responsable ou respectueuse de l’environnement. C’est
donc une politique visant à favoriser l’émergence d’une économie bas carbone
grâce au découplage de la croissance économique avec la consommation des
ressources naturelles. Les points ainsi accumulés par les ménages peuvent être
utilisés à d’autres fins notamment le paiement d’autres biens et services. État central,
gouvernements locaux et banques sont les principaux partenaires de ce dispositif.
Les banques ont pour rôle d’attribuer gratuitement les green cards aux ménages
qui en font la demande. Quant aux autorités centrales, elles ont la responsabilité
de mettre en place les partenariats avec les sociétés privées. Trois domaines sont
principalement concernés, l’achat de produits verts, l’utilisation des transports en
commun et la consommation de logements. Chaque domaine de consommation
bénéficie d’un mécanisme d’attribution de points. À titre d’exemple, l’achat de
produits verts réputés économes en consommation de ressources naturelles et peu
émetteurs de pollution entraîne un reversement de 1 à 5 % du montant acquitté
sous forme de points. Les points accumulés peuvent par la suite être utilisés par
l’impétrant à d’autres fins relevant du même objectif. Le bilan de cette politique s’est
révélé concluant. On porte à son crédit une réduction significative des émissions
de CO2 entre 2011 et 2013.
En France, les nudges ont tardé à s’imposer ou à se frayer une place dans les
politiques publiques. La commission générale de terminologie et de néologie
suggère depuis 2013, l’utilisation du terme « émulation écologique » pour décrire
toute incitation par effet d’entraînement au sein d’un groupe à adopter un compor-
tement plus respectueux à l’égard de l’environnement. Quelques exemples d’initia-
tives relevant de nudges peuvent être valorisés. Il s’agit par exemple du concours
Nudge Challenge COP21, un concours lancé en 2015 par le ministère de la transition
écologique en partenariat avec l’association Nudge France. Destiné aux étudiants
du monde entier, il les invitait à proposer des nudges verts utiles pour l’avenir.
Autre exemple de nudge, l’activation par défaut de l’option d’impression recto-
verso dans plusieurs ministères dans le cadre du plan administration exemplaire.
Une initiative qui a permis de réduire considérablement la quantité de papier
consommée. Il y a enfin la promotion de l’affichage environnemental par le ministère
de la transition écologique dans le but d’orienter positivement le choix des consom-
mateurs vers les produits vertueux au regard de la préservation de l’environnement.
Visant à réduire le décalage entre les convictions environnementales et la réalité,
les nudges verts reposent somme toute sur des mesures simples ou basiques peu
coûteuses et débouchant souvent sur des résultats concluants. Cependant, elles
comportent de nombreuses limites et sont l’objet de critiques.

39

046092.indd 39 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Les nudges peuvent générer des effets pervers

Souvent qualifiée de paternalisme libéral ou libertaire, la politique de nudges


est en effet accusée d’avoir une efficacité limitée dans le temps et de manipuler les
comportements des individus. L’efficacité prêtée aux nudges dépend souvent du
contexte socio-culturel, de l’orientation et des opinions politiques. De nombreuses
études ont mis en lumière l’hétérogénéité des réactions des consommateurs face
aux nudges. La référence à une norme sociale peut pousser certains à l’adopter en
modifiant leurs habitudes de consommation tandis que d’autres peuvent faire le
choix inverse en résistant à tout changement. La mise en œuvre d’un nudge peut
donc déboucher sur des réactions diamétralement opposées des individus. En
second lieu, un nudge ne débouche pas systématiquement sur des changements
durables de comportements. Son efficacité peut diminuer avec le temps. L’effet
répété des normes sociales en matière de consommation d’eau et d’électricité a
ainsi tendance à diminuer au fur et à mesure que le temps s’écoule.
Les nudges peuvent par ailleurs être à l’origine d’effets pervers. C’est le cas
notamment lorsqu’il y a effet rebond. Ce phénomène apparaît lorsque les économies
réalisées dans un domaine grâce à un nudge débouchent sur une hausse de la
consommation dans d’autres postes. Cette réalité observée en matière de consom-
mation d’eau ou d’électricité trouve justification dans l’existence d’un effet qualifié
de licence morale en psychologie sociale. D’après cet effet, les individus ont
tendance à alterner comportements vertueux et comportements antisociaux, en
d’autres termes, les comportements socialement valorisés s’accompagnent souvent
de comportements inappropriés ; ce qui veut dire que l’adoption d’une norme
sociale dans un domaine peut s’accompagner d’une résistance prononcée dans
d’autres domaines. Enfin, les nudges peuvent poser des problèmes éthiques dans la
mesure où ils peuvent être assimilés à des opérations de manipulation. Le choix des
options par défaut soulève selon certains spécialistes une question morale. Jouer
sur l’inertie des individus peut en effet relever de la manipulation. Cependant pour
qu’une action soit considérée comme telle, elle doit avoir un caractère intentionnel
et restreindre notamment l’étendue des choix des individus. La manipulation a
toutefois la particularité de ne pas résister à l’épreuve du temps. Généralement
les personnes confrontées à une opération de manipulation finissent par s’en
rendre compte avec le temps, elles réalisent alors que les choix précédemment
effectués ne sont pas la conséquence de leur libre arbitre. Elles sont ainsi conduites
à reconsidérer leurs choix. Un cadre juridique s’avère nécessaire pour encadrer la
mise en œuvre de nudges afin qu’ils ne soient pas assimilés à des opérations de
manipulation. Ils doivent essentiellement répondre à un but légitime, celui visant
à préserver l’environnement.
Les nudges ne peuvent en définitive se substituer aux politiques tradition-
nelles en matière de régulation environnementale même s’ils bénéficient d’une
plus grande acceptabilité. Leur efficacité demeure à la marge car ils ne pénètrent

40

046092.indd 40 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

pas profondément le champ de conscience des individus et ne débouchent pas


radicalement sur des modifications de comportement. Ils doivent donc être associés
aux instruments économiques et réglementaires pour relever le défi climatique.

C. La décarbonation de l’économie, une nécessité impérieuse

La recherche de la croissance à tout prix a contribué à accroître la dépen-


dance des économies modernes aux énergies fossiles. Principales responsables
des émissions de CO2, le maintien de leur poids prépondérant dans le système
économique apparaît inconciliable avec les objectifs visés par les accords de Paris.
Changer de paradigme pour relever le défi climatique s’avère donc incontournable.
Si toutefois pour certains économistes, la solution réside dans la décroissance
de l’économie, pour d’autres, elle passe par la mise en œuvre d’une économie
bas-carbone basée sur le développement des énergies renouvelables.

La décroissance de l’économie, solution réaliste ou simple miroir


aux alouettes ?

La théorie de la décroissance tire ses racines de multiples sources allant de


la Grèce antique en passant par les économistes classiques à l’instar de David
Ricardo ou de Thomas Malthus.
Dans la cité grecque préoccupée par la frugalité, l’hybris qui désignait la
démesure était abhorrée et considérée comme un crime. À ce comportement
socialement rejeté, les Grecs opposaient la modération ou le respect des limites.
Quant aux auteurs classiques, certaines de leurs analyses ont servi de fondement
à la théorie de la décroissance. Il en est ainsi des travaux de David Ricardo sur le
risque de l’état stationnaire qui selon lui constituait un danger pour le capitalisme
du fait des rendements décroissants et de la baisse des profits versés aux capita-
listes. Un état de fait provoqué par la baisse des rendements agricoles liée à la
mise en culture de terres de moins en moins fertiles afin de satisfaire les besoins
d’une population croissante. L’augmentation de la rente versée aux propriétaires
ainsi que celle des salaires ayant pour conséquence la baisse des profits d’où le
risque d’apparition d’un état stationnaire de l’économie découlant de la baisse
des capacités d’investissement des capitalistes.
Partageant les mêmes craintes que David Ricardo, Robert Malthus conclut sur
la nécessité de freiner l’expansion démographique perçue comme un frein à la
croissance économique et un obstacle à la survie de l’humanité.
La théorie de la décroissance ne prend véritablement son assise qu’à partir des
années 70 à la faveur de la publication du rapport Meadows tirant l’alarme sur les
risques liés à la recherche d’une croissance illimitée dans un monde marqué par
la finitude des ressources et préconisant de ce fait l’arrêt de la croissance. De fait,
elle émerge à la suite d’une part des multiples critiques formulées à l’encontre

41

046092.indd 41 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

du PIB perçu alors comme un indicateur de bien-être ou de bonheur et d’autre


part des préoccupations écologiques croissantes qui se font jour au cours de la
même décennie.
Jusqu’alors marginalisée, la théorie de la décroissance va progressivement
connaître une percée au fil des années dans les cercles universitaires et académiques
pour devenir un thème militant au début du nouveau millénaire.
Théorisée par l’économiste mathématicien d’origine roumaine Nicholas Georges-
cu-Roegen dans son essai The Entropy Law and the Economic Process, la théorie
de la décroissance remet en cause les fondements et mécanismes au cœur du
capitalisme pour se poser en alternative à un système économique considéré comme
nocif à la préservation des équilibres environnementaux et donc à la survie de
l’humanité. S’ils s’accordent sur le rejet du capitalisme, les partisans de ce courant
ne forment pas un bloc uni ou monolithique. Ils sont en effet issus de multiples
courants théoriques et proposent de ce fait des solutions variées. Serge Latouche
et Paul Ariès sont les contributeurs les plus en vue.

Une critique radicale du capitalisme et des préconisations disruptives

Pour les partisans de la décroissance, la recherche obsessionnelle de la croissance


par les sociétés contemporaines conduit à plusieurs impasses. D’abord, celle du
risque d’épuisement des ressources naturelles du fait de leur surexploitation. La
consommation de masse au cœur du système capitaliste en est la cause principale.
Le « toujours plus » ou l’accumulation sans mesure au détriment du mieux pour tous
fait de la recherche de la croissance une boussole indépassable. Aussi suggèrent-ils
le démantèlement des agences de publicité qualifiées d’organes de propagande de
la société de consommation ainsi que la fin du crédit, rouage essentiel du capita-
lisme qui pousse à la surconsommation et à la pérennité de la mécanique infernale
que constitue la croissance économique. L’augmentation du PIB ne doit pas être
selon les décroissants l’alpha et l’oméga des politiques macro-économiques car
la croissance économique loin de réduire les inégalités contribue à les amplifier.
Ils se fondent pour cela sur de nombreuses études attestant de ce constat. Il y a
d’abord les travaux de l’économiste américain Easterlin remontant aux années 70
qui ont permis de mettre en lumière la faible corrélation entre le PIB par habitant
et le bien-être ressenti au-delà d’un certain seuil. De même plus récemment les
travaux de l’économiste Thomas Piketty ont aussi montré l’accroissement des
inégalités depuis 30 ans au niveau des économies développées, particulièrement
aux États-Unis où les fruits de la croissance ont été captés par le pourcentage de
la population la plus riche. Outre Atlantique, la part du revenu national affectée
aux 10 % des contribuables les plus aisés a en effet augmenté de 34 % à 47 % à
partir des années 80 témoignant d’un partage très inégalitaire de la richesse au
profit d’une petite élite. Forts de ce constat, les décroissants en tirent la conclusion
qu’il est possible de réduire les inégalités sans croissance. Il suffit pour cela de
penser en terme de répartition équitable des richesses. Deux leviers permettent d’y

42

046092.indd 42 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

parvenir : la fiscalité et la réglementation. Le premier instrument peut être mobilisé


pour supprimer les niches fiscales profitant aux plus aisés ou pour renforcer la
progressivité des impôts afin de lisser les écarts de revenus ou pour taxer fortement
le capital. En ce qui concerne la réglementation, elle peut consister à modifier
la répartition de la valeur ajoutée en augmentant la part dévolue aux salariés au
détriment de celle affectée aux profits.
Cette relégation de la valeur centrale accordée à la croissance du PIB a pour
effet la redéfinition de l’identité des individus autour d’autres valeurs que celles
centrées sur le travail ou la consommation. D’autre part, l’idée que la croissance
puisse être compatible avec le développement durable est d’une contradiction
confondante. Le développement ne peut pas, selon Serge Latouche, être autre chose
que ce qu’il a été, un processus énergivore et destructeur de l’environnement et
des écosystèmes. Les partisans de la décroissance ne croient guère en la capacité
du progrès technique de rendre la croissance et le développement soutenables.
Ils s’appuient sur l’existence de l’effet rebond pour contester la thèse de la soute-
nabilité faible défendue par certains économistes. L’effet rebond conceptualisé
dans les années 30 par l’économiste Stanley Jevons montre que tout progrès ou
toute amélioration de la productivité au lieu de diminuer la consommation de
matières premières ou de l’énergie favorise au contraire une augmentation de leur
consommation. L’exemple de l’automobile est de ce point de vue emblématique.
Les voitures construites aujourd’hui sont plus performantes que celles d’autrefois.
Elles sont moins consommatrices d’essence au kilomètre mais elles ont tendance à
être davantage utilisées par les automobilistes pour effectuer des trajets plus longs
ce qui au final débouche sur un accroissement de la consommation d’énergie fossile.
Ces critiques non exhaustives s’accompagnent de propositions radicales aux
antipodes des règles de fonctionnement du système capitaliste. La première consiste
à mettre fin au règne sans partage de la croissance à tout prix via la baisse de la
production, ceci afin de promouvoir une société basée sur la sobriété permettant
de mettre fin à l’obsolescence programmée des produits. Un changement radical
de paradigme de nature à permettre la réduction de l’empreinte écologique c’est-
à-dire de la pression qu’exercent nos modes de production et de consommation
sur la planète Terre.
Décroître implique aussi une modification de l’organisation sociale et politique.
Aussi proposent-ils la diminution du temps de travail comme moyen permettant
de garantir à tous un emploi et d’impliquer davantage les citoyens dans la vie
démocratique. Selon Paul Ariès, la décroissance doit être partageuse et démocra-
tique. C’est selon cette figure de proue du mouvement décroissant un appel à
« décoloniser nos imaginaires, à penser des solutions aux problèmes en dehors
de l’économisme ».
La décroissance doit aussi selon ses promoteurs être sélective. Ce sont en
effet les activités les plus polluantes qui doivent décroître au profit de celles qui
favorisent une amélioration du mieux-être social. C’est en dernier ressort aux
citoyens d’en décider, d’où la nécessité d’un renouveau démocratique. La décrois-

43

046092.indd 43 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

sance va donc à l’encontre de la politique politicienne car elle consiste à redonner


une place importante à la démocratie et à la participation citoyenne. C’est selon
Serge Latouche, rendre à la politique toute sa dignité.
La décroissance ne peut cependant concerner uniformément tous les pays.
Ses promoteurs en appellent à une coopération internationale afin que des règles
communes soient établies. Les pays en développement se verraient dispensés de
cette exigence du fait de leurs difficultés à satisfaire les besoins de base de leurs
populations.

Une perspective, objet de vives critiques

La décroissance est en définitive une vision politique et sociétale fondée sur la


prise de conscience des limites physiques du modèle productiviste. Selon certains
économistes, elle a le mérite de poser de bonnes questions mais présente l’incon-
vénient d’apporter des réponses insuffisantes d’où de multiples critiques formulées
à son encontre.
Pour ses ardents détracteurs, les partisans de la décroissance se montrent
imprécis sur le niveau de la décroissance à atteindre. Ses promoteurs avancent
l’idée d’une production matérielle équivalente à celle des années 60-70. Un tel
niveau de baisse ferait indiscutablement basculer de nombreux ménages dans la
précarité et la pauvreté. La seconde critique qui prolonge la précédente, c’est le
manque de réalisme des défenseurs de la décroissance concernant les vertus de
la croissance en termes d’utilité sociale et de préservation de l’environnement. La
croissance permet de créer des richesses qui correctement distribuées améliorent le
niveau de vie et font baisser le chômage. Les tenants de cet argument mettent en
avant l’existence d’une corrélation positive entre la qualité des systèmes de santé,
l’espérance de vie d’une part et le PIB par habitant d’autre part. Sans croissance il
n’est guère possible d’entretenir et de moderniser les infrastructures, de soutenir
l’investissement dans les énergies renouvelables nécessaires dans la lutte contre
le réchauffement climatique.
Les détracteurs de la décroissance accusent ses promoteurs de faire resurgir
le malthusianisme alors que l’idée d’une planète à court de ressources est loin
d’être avérée. C’est la thèse défendue par la géographe Sylvie Brunel pour qui
la planète Terre est loin de sa capacité de charge. Des réserves de production
existent, il suffit d’en accroître le rendement pour permettre à la Terre de nourrir
une population appelée à croître.
Pour certains économistes, les décroissants prennent une partie pour le tout. En
somme, il ne s’agit pas de jeter le bébé avec l’eau du bain. En d’autres termes, ce
n’est pas la croissance qui est aujourd’hui toxique mais une partie de ses compo-
santes, celles comptabilisant notamment les activités les plus émettrices de CO2
à l’instar du transport aérien ou de l’automobile. Celles-ci représentent 10 % à
15 % du PIB contre plus des 2/3 pour les activités tertiaires.

44

046092.indd 44 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Au terme de ces arguments contradictoires, il est fondé d’affirmer que la mise


en œuvre de la décroissance dans les sociétés reposant sur la quête perpétuelle de
croissance exige de profondes mutations affectant tant les systèmes économiques
que les mentalités. S’il est tentant d’y voir une solution face au péril climatique du
fait de la réduction significative des émissions de gaz à effet de serre qui pourrait en
résulter, il n’en reste pas moins que son adoption plongerait les sociétés contem-
poraines dans une totale impasse. La voie la plus réaliste est celle préconisée par
le GIEC visant à atteindre la neutralité carbone.

Le développement des énergies renouvelables au service


de la neutralité carbone

Parvenir à la neutralité carbone implique, outre la réduction des gaz à effet de


serre, de miser sur deux leviers d’action. D’un côté, accroître le poids des énergies
renouvelables, de l’autre, protéger les puits de carbone qui ont vocation de stocker
le CO2 dans l’atmosphère.
Les énergies renouvelables représentent un ensemble de moyens permettant
de produire de l’énergie à partir de ressources théoriquement illimitées disponibles
sans limite de temps. À l‘inverse des énergies fossiles dont les stocks sont limités
dans le temps et non renouvelables à l’échelle du temps humain, les énergies renou-
velables mobilisent donc des ressources illimitées à l’échelle humaine comme les
rayons de soleil, le vent ou l’eau. En raison de leur caractéristique intrinsèque, leur
développement pourrait permettre de réduire la dépendance à l’égard des énergies
fossiles fortement émettrices de CO2 et favoriser le processus de décarbonation de
l’économie et des sociétés contemporaines. L’énergie éolienne, l’énergie solaire,
l’énergie géothermique et la biomasse sont susceptibles d’y contribuer.
L’énergie solaire prend source dans la capacité de réchauffement des rayons
solaires. La transformation d’une partie du rayonnement solaire au moyen d’une
cellule photovoltaïque permet de produire de l’électricité. C’est une énergie qui à
l’échelle humaine apparaît inépuisable et disponible en grande quantité. La Chine est
l’un des pays qui se singularisent par des capacités photovoltaïques considérables.
De nombreux projets y voient le jour. La démultiplication de la taille des usines
permet à l’Empire du milieu de réduire considérablement les coûts de production
dans ce domaine et fait de lui l’un des principaux leaders. Le développement de
cette énergie confère de nombreux avantages. La modularité des panneaux permet
la conception d’installation de tailles diverses dans des environnements différents.
Cela permet notamment la production décentralisée d’électricité en sites isolés.
L’utilisation à des fins domestiques de cette production est une des possibilités.
La durée de vie des panneaux solaires constitue aussi un atout. Elle s’élève entre
20 et 30 ans et s’accompagne de la possibilité de recyclage.
L’énergie éolienne quant à elle prend sa source dans la force du vent. L’énergie
cinétique fournit par le vent entraîne un générateur qui produit de l’électricité.
C’est incontestablement l’une des énergies les plus anciennes à disposition de

45

046092.indd 45 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

l’homme. En effet, depuis des temps immémoriaux, l’homme utilise la force du


vent pour faire avancer des bateaux, moudre du grain ou pomper de l’eau. Utilisée
à des fins de production électrique de nos jours, l’énergie éolienne est dotée de
nombreux atouts. Elle constitue avant tout une énergie renouvelable non polluante
garantissant une meilleure qualité de l’air. C’est donc un véritable atout dans le
cadre de la lutte contre l’effet de serre. Elle contribue aussi à l’indépendance
des pays qui à partir des ressources nationales peuvent s’assurer une production
énergétique d’électricité. La Chine et les États-Unis disposent des plus grands
parcs éoliens dans le monde avec respectivement 145 GW et 74.5 GW installés
fin 2015. L’Europe a longtemps été dominée sur le marché mondial de l’énergie
éolienne mais elle dispose désormais d’un parc éolien équivalent à celui de l’Empire
du milieu en matière de puissance installée. Cette filière de production électrique
assure l’approvisionnement d’environ 30 millions de foyers européens, soit 6,3 %
de la demande d’électricité. Ce faisant, elle permet d’économiser 140 millions de
tonnes de gaz carbonique par an, un volume équivalent aux émissions réalisées
par 33 % du parc automobile européen.
En 2018, la production mondiale d’électricité éolienne s’élevait à 1 187 Twh soit
4.7 % de la production totale d’électricité. En France, l’énergie éolienne représente
une part marginale de la production d’électricité mais bénéficie d’une croissance
dynamique. En 2018, l’Hexagone comptait près de 8 000 éoliennes terrestres sur
1 380 parcs et occupait de ce fait le quatrième rang européen de la production
d’électricité éolienne. Dans le cadre de la programmation pluriannuelle de l’énergie
(PPE), la France affiche l’ambition d’atteindre une production éolienne de 34 Gw
en 2028, soit un doublement de sa production éolienne comparativement au
niveau atteint en 2019.
Écologiquement viable, cette énergie n’en suscite pas moins réserves et
critiques. Tout d’abord, elle se caractérise par une variabilité et une intermittence
prononcées. L’énergie éolienne n’est en effet produite que lorsque la force du
vent atteint 18 km/h et s’arrête lorsque cette vitesse atteint 90 km/h pour éviter la
dégradation du matériel. Elle dépend en outre de la puissance et de la régularité
du vent. Celui-ci étant plus fort et plus constant en mer, l’installation des éoliennes
y trouve une efficacité plus grande. Pour nombre de riverains des parcs éoliens, les
éoliennes sont source de nuisances visuelles et sonores. Des oppositions contre
l’installation d’éoliennes sont monnaie courante. Le mouvement des pales et de
certains éléments mécaniques génère du bruit susceptible de nuire à la quiétude
des riverains. Les émissions sonores des éoliennes font l’objet d’une réglemen-
tation. En France, une distance minimale d’implantation est imposée. Les éoliennes
doivent en effet être implantées au-delà de 500 mètres des habitations et leur
niveau sonore est fixé à 35 décibels.
L’énergie hydraulique est le produit des mouvements de l’eau. Tout comme le
vent, l’eau est utilisée comme source d’énergie mécanique par l’homme depuis la nuit
des temps pour faire fonctionner des moulins. Les centrales hydrauliques exploitent
de nos jours des chutes d’eau des fleuves, des rivières pour produire de l’énergie.
C’est une énergie propre car elle émet très peu de gaz à effet de serre. En 2018,

46

046092.indd 46 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

elle représentait 15.8 % de la production mondiale d‘électricité et constitue l’une


des plus grandes ressources d’énergie renouvelable. Différents atouts sont portés à
son actif. Inépuisable, décarbonée, facile à stocker, elle permet de répondre à des
besoins énergétiques élevés. Les infrastructures développées pour produire cette
énergie sont réputées autonomes et durables ; une centrale électrique jouit en effet
d’une longévité de plusieurs dizaines d’années. L’énergie hydraulique se singularise
aussi par sa flexibilité. Le débit d’eau ainsi que la production d’électricité peuvent
être ajustés. Le débit d’eau peut être réduit lorsque la consommation d’électricité
est faible et inversement relevé lorsqu’elle s’accroît. Cependant, la production
d’électricité et les prix de l’énergie sont largement tributaires de la quantité d’eau
disponible c’est-à-dire de la pluviométrie. Les situations de sécheresse peuvent avoir
un effet négatif sur la production d’électricité. Ensuite le recours à cette énergie
implique la construction de barrages et centrales hydrauliques pouvant avoir un
impact négatif sur l’écosystème plus précisément sur les animaux aquatiques.
La biomasse est l’une des premières ressources énergétiques utilisées par
l’homme jusqu’à l’avènement de l’ère des fossiles. L’énergie biomasse recouvre
l’ensemble des matières organiques d’origine végétale ou animale servant de
ressources pour la production d’énergie. Ces matières organiques peuvent avoir
des origines diverses. Il s’agit du bois des forêts, des déchets agricoles ou agroa-
limentaires, des déchets ménagers, les algues de mer. En somme, tout ce qui
compose les êtres vivants et leurs résidus peut être mobilisé pour produire de
l’énergie biomasse. Celle-ci est ainsi à mi-chemin entre les énergies de flux et les
énergies de stock.
Trois procédés permettent de produire de l’énergie biomasse. La voie sèche
d’abord qui consiste à brûler des déchets de bois dans des centrales biomasses
afin de chauffer un liquide caloporteur. La vapeur dégagée par ce processus de
combustion peut être utilisée par le réseau de chauffage urbain ou utilisée pour
actionner des turbines permettant de produire de l’électricité.
La seconde voie est qualifiée de voie humide. Elle s’appuie sur un processus
biologique naturel. Cela consiste en effet à fermenter de la matière organique par
des micro-organismes afin de produire du biogaz. L’énergie issue de ce processus
peut servir à plusieurs finalités. Elle permet de créer de la chaleur, de l’électricité
et peut être utilisée comme carburant pour certains véhicules.
La troisième est celle consistant à produire du biocarburant à partir de plantes.
Il peut s’agir du sucre de betterave ou du blé. Comme d’autres sources d’énergie
renouvelable, la biomasse comporte des avantages et des inconvénients. S’agissant
des effets bénéfiques, le développement des énergies biomasses permet d’atténuer
en premier lieu la dépendance aux énergies fossiles. En second lieu, il permet
à certaines filières, celles de l’industrie du bois notamment, de diversifier leurs
activités et d’accroître leurs revenus. Le développement de l’économie circulaire
constitue aussi une des possibilités permises par l’éclosion des énergies biomasses.
Cependant ces avantages indéniables doivent être mis en balance avec les incon-
vénients liés à leur développement.

47

046092.indd 47 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

La biomasse est en effet une énergie de stock car elle prélève dans un stock
de matières vivantes. Elle ne peut donc garder son statut d’énergie renouvelable
que si l’exploitation de ses ressources ne porte pas atteinte au renouvellement
de celles-ci. L’utilisation du bois comme ressource ne doit pas avoir pour effet
l’accélération de la déforestation sans aucune perspective de renouvellement des
forêts. Autre réserve concernant la biomasse, elle concerne les émissions de CO2.
La biomasse est source d’émission de gaz à effet de serre même si comparati-
vement aux énergies fossiles, ses taux d’émission se révèlent largement inférieurs.
C’est aussi une énergie dont l’exploitation implique des coûts élevés. Les critiques
les plus fortes portent enfin sur les biocarburants. Produits à base de plantes, les
biocarburants nécessitent l’exploitation de terres et de surfaces agricoles de plus
en plus importantes. Leur développement peut déboucher sur la réduction des
surfaces agricoles affectées à la production alimentaire et contribuer ainsi à la
flambée des prix et à la paupérisation des populations notamment dans les pays
en développement. Avec les biocarburants de seconde génération, ce risque est
limité car ce sont les résidus agricoles qui sont utilisés comme matière première.
Ils ne peuvent donc induire une réduction des surfaces consacrées à la production
alimentaire.
Les biocarburants de troisième génération en phase de recherche et de dévelop-
pement suscitent le plus grand espoir. Fabriqué à partir de micro-algues, ce type de
biocarburant présente un excellent rendement. Il absorbe mieux le gaz carbonique
et peut de ce fait être plus rentable en produisant davantage d‘huile par hectare
comparativement à d’autres plantes. Poussant en milieu marin, les micro-algues
nécessitent aucune consommation d’eau pour leur culture, ni une mobilisation des
surfaces terrestres consacrées à la production alimentaire.
Le développement des énergies renouvelables requiert en définitive une mobili-
sation de moyens financiers considérables. Afin de se conformer aux accords de
Paris, les investissements cumulés totaux dans les énergies renouvelables devraient,
selon le GIEC, être compris entre 1 490 et 7 180 milliards de dollars constants
pour les décennies 2012-2030. Les données actuelles montrent qu’elles bénéfi-
cient somme toute d’une bonne dynamique de croissance. En 2008, les énergies
renouvelables représentaient 12.8 % des diverses sources d’énergie mais en une
décennie, elles ont vu leur part augmenter de quatre points de pourcentage dans
la consommation finale d’énergie. Une augmentation particulièrement bénéfique
pour les énergies éoliennes et solaires. L’Europe aux avant-postes du dévelop-
pement des énergies renouvelables entend couvrir ses besoins de consommation
énergétiques à hauteur de 20.5 % en 2023 et envisage d’atteindre 32 % d’énergies
renouvelables dans le mix énergétique d’ici 2030.

48

046092.indd 48 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Figure 8 : Évolution du poids des énergies renouvelables (2008)

Source : GIEC

Figure 9 : Évolution du poids des énergies renouvelables (2018)

Source : GIEC

Pour décarboner le secteur de l’électricité, l’Union européenne a fait des progrès


en matière de réduction de l’utilisation du charbon comme source d’énergie.
La combustion du charbon pour produire de l’électricité a en effet diminué de
24 % entre 2018 et 2019. Parallèlement les énergies renouvelables ont réalisé
des prouesses en produisant 35 % de l’énergie consommée au sein de l’Union
européenne. Les énergies éoliennes et solaires ont aussi dépassé la production
d’électricité provenant des centrales de charbon. Un bilan positif qui devrait être

49

046092.indd 49 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

renforcé par le Green Deal européen ou pacte vert présenté par Ursula Von Derleyen,
la nouvelle présidente de la Commission européenne. Qualifié d’ambitieux, ce projet
vise à transformer profondément l’économie européenne grâce au verdissement
des politiques macro-économiques, ceci afin d’atteindre la neutralité carbone en
2050. Doté d’un budget de 1 100 milliards d’euros, ce plan vise à relever plusieurs
défis. Il s’agit en premier lieu de financer la transition énergétique du continent
afin de réduire les émissions de gaz à effet de serre tout en améliorant l’efficacité
énergétique, d’inciter ensuite les entreprises privées à investir dans la transition
verte et enfin d’identifier, de structurer et d’exécuter les projets durables.
Le Green Deal européen repose sur un outil appelé Fonds d’aide à la transition
juste c’est-à-dire un mécanisme d’inclusion carbone aux frontières permettant de
mettre à l’abri de la concurrence étrangère les entreprises européennes vertueuses
en matière environnementale et vise un objectif ambitieux, celui de réduire les
émissions de gaz à effet de serre de 50 à 55 % d’ici 2030. Prenant la forme
d’une taxe carbone, ce mécanisme d’inclusion consiste à soumettre à un tarif
douanier les importations en provenance de pays tiers ne respectant pas les normes
environnementales concernant par exemple, l’intensité énergétique des procédés
de fabrication. Les pays n’ayant pas pris des mesures en faveur de la réduction
des émissions de gaz à effet de serre sont ainsi particulièrement visés. Plusieurs
secteurs fortement émetteurs de CO2 se retrouvent ainsi dans le collimateur de
la Commission européenne. Il s’agit de l’acier, du ciment, du papier-carton, du
verre, de la chimie. Outre la lutte contre le dumping écologique, ce mécanisme
d’ajustement carbone aux frontières vise à dissuader toute tentation de la part
de certaines entreprises à délocaliser leur production hors de l’UE. Cette mesure
visant à éviter les distorsions de concurrence suscite néanmoins quelques critiques
et réserves de la part des partisans du libre-échange. Ils redoutent en effet que
ce signal prix en direction des pays pratiquant le moins disant écologique ne soit
qu’un simple acte de protectionnisme aveugle dont l’immédiate conséquente serait
l’adoption par les pays tiers de mesures de rétorsion conduisant à l’aggravation
de la guerre commerciale. Ils redoutent par ailleurs une augmentation du prix des
produits importés qui aurait pour effet d’affaiblir le pouvoir d’achat des ménages.
Enfin, la faisabilité d’une telle taxe est aussi source d’interrogations. Elle implique
en effet une parfaite connaissance du contenu carboné des produits importés, une
tâche que certains experts considèrent comme titanesque.
Présenté néanmoins comme une stratégie de croissance, le Green Deal s’inscrit
dans le sillage des politiques de relance des années 30 engagées par le président
Roosevelt connues sous l’appellation de New Deal. Grâce à ce plan d’investissement
massif, la commission espère bénéficier d’un double dividende économique et
environnemental.
Ce pacte est toutefois loin de faire l’unanimité. Il suscite en effet des réticences
de la part des députés européens membres du Parti populaire européen. Ceux-ci
redoutent que ce projet désavantage l’industrie européenne et pénalise l’emploi.
Au-delà des divergences politiques, un obstacle inattendu de taille risque de
contrarier l’ambition de ce pacte vert, il s’agit de la crise économique liée au

50

046092.indd 50 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

coronavirus. Les effets économiques et sanitaires désastreux provoqués par la


Covid-19 risquent en effet de reléguer au second plan les objectifs environne-
mentaux du Green Deal au profit de l’urgence économique. Face à la pression
des lobbies économiques militant activement pour l’atténuation des contraintes
réglementaires, il y a fort à craindre que le calendrier initialement prévu en matière
de neutralité carbone soit particulièrement perturbé.

Encadré 4 Le nucléaire, une énergie décarbonée, non renouvelable


et controversée

Destinée à garantir l’indépendance énergétique des pays industrialisés au


lendemain du premier choc pétrolier, l’énergie nucléaire est depuis au cœur de
multiples controverses qui font d’elle une énergie moins recommandée dans le
cadre de la lutte contre le réchauffement climatique.
Il est d’emblée communément admis que l’énergie nucléaire présente les carac-
téristiques d’une énergie propre. Elle est très marginalement impliquée dans les
émissions de gaz à effet de serre, la principale cause du dérèglement climatique.
Néanmoins, sa production nécessite l’utilisation de l’uranium, un combustible
fissile dont la consommation ne peut être compensée par un processus de
reconstitution naturelle. À l’instar des énergies fossiles, c’est une ressource limitée
dans le temps. Selon l’OCDE, les réserves d’uranium actuellement disponibles
assurent une production d’énergie nucléaire sur un siècle. S’appuyant sur une
ressource appelée à se raréfier, l’énergie nucléaire ne peut être considérée comme
une énergie renouvelable. Son bilan carbone est par ailleurs loin d’être parfait.
En effet, l’extraction du minerai, sa transformation en uranium enrichi puis son
acheminement vers les sites d’exploitation sont autant d’activités mobilisées
sources d’émission de gaz à effet de serre. Selon certaines études, le nucléaire
émet autant de gaz à effet de serre que l’éolien, autour de 6 grammes de CO2
par Kwh. Toutefois, les principales critiques formulées à l’encontre de cette
énergie qui assure l’essentiel de la production d’électricité de la France1 portent
d’abord sur les déchets et les risques d’accidents inhérents à cette technologie.
Concernant les déchets, l’industrie nucléaire en produit en abondante quantité.
Ce sont 23 000 mètres cube de déchets hautement radioactifs qui sont générés
tous les ans par cette industrie. Constitués de plutonium, ces déchets dotés
d’une toxicité élevée ne perdent leur radioactivité qu’au terme de 117 000 ans.
Au-delà de leur dangerosité, se pose l’épineuse question de leur stockage. La
solution de l’enfouissement sous terre des déchets nucléaires adoptée est un
véritable pis-aller. Elle consiste à transmettre aux futures générations la gestion
d’un risque environnemental non maîtrisé par les présentes générations.
Les accidents de Tchernobyl en 1986 et celui plus spectaculaire de Fukushima
en 2011 ont contribué à accroître la méfiance à l’égard du nucléaire considéré
depuis comme une énergie dangereuse. Avec le réchauffement climatique,
la multiplication des phénomènes climatiques extrêmes (tempêtes, canicules,

1. En 2014, 77 % de l’électricité produite en France était d’origine nucléaire. La France occupe


la tête du peloton des pays fortement dépendants du nucléaire. Seuls les États-Unis arrivent
à faire mieux que la France en matière de production nucléaire.

51

046092.indd 51 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

inondations) en découlant risque de fragiliser nombre d’installations au point


d’accroître la probabilité d’accidents nucléaires aux conséquences humaines et
environnementales dommageables. En dépit de ces multiples réserves, faut-il
pour autant renoncer à cette énergie ?
Certains experts plaident malgré la difficile gestion des déchets radioactifs pour
le maintien de cette énergie peu polluante considérée comme une possible
solution au réchauffement climatique. Leurs arguments reposent sur plusieurs
points. Tout d’abord, l’objectif de décarbonation de l’économie mondiale ne
peut être réalisé en s’appuyant exclusivement sur les énergies renouvelables.
C’est selon eux, un pari impossible car cela nécessiterait de produire l’équivalent
de 100 billions de Kilowattheures d’énergie verte d’ici 30 ans, soit 3.3 billions de
Kwh par an. Un objectif largement hors de portée en raison de la forte dépen-
dance à l’égard des conditions météorologiques de la production d’énergies
renouvelables. L’éolien est en effet tributaire du vent, et le solaire dépend de la
luminosité, deux sources d’énergie dont l’intermittence est la principale singularité.
Le second argument s’appuie sur le caractère peu mortel de cette énergie.
Peu émettrice de carbone, l’énergie nucléaire a, selon ses défenseurs, permis
d’épargner depuis 1971 environ 1.84 millions de vies. Avec la mise en œuvre de
réacteurs de quatrième génération, elle pourrait représenter une source d’énergie
quasi-illimitée. Ces réacteurs ont en effet la faculté d’être plus efficaces car ils
permettent de fissionner la totalité de l’uranium contre une infime partie actuel-
lement, à peine 0.7 % du minerai. Une prouesse technologique qui a cependant
un coût astronomique, elle est 30 % plus chère que l’EPR. D’autres thuriféraires
du nucléaire mettent en avant l’espoir que représente le projet ITER. L’aboutis-
sement de celui-ci devrait permettre aux centrales nucléaires de produire leur
énergie à partir de réactions de fusion nucléaire au lieu de la fission nucléaire
comme c’est le cas actuellement. Dans le cas de la fusion nucléaire, c’est un
isotope de l’hydrogène, le deutérium, qui est utilisé au détriment de l’uranium,
combustible radioactif. Gaz en abondance dans la nature, le deutérium devrait
permettre aux centrales nucléaires de produire de l’énergie sans émission de
CO2 et sans production de déchets nucléaires. En somme, l’énergie générée
par fusion nucléaire devrait être durable et non polluante. Au cœur d’une vaste
coopération internationale impliquant les grandes puissances (Chine, UE, Russie,
Inde, Japon, Corée, et États-Unis), le projet ITER (International Thermonuclear
Experimental Reaction) vise à recréer sur terre le cœur d’une étoile. Les pronostics
les plus optimistes tablent sur une mise en fonctionnement autour de 2060.
Véritable pomme de discorde sociale, l’atome trouvera-t-il dans l’aboutissement
de ce projet révolutionnaire une nouvelle légitimité ? Sa compétitivité étant
contestée par les énergies renouvelables, il enregistre régulièrement une décrue
des mises en construction. De l’ordre de 15 en 2010, le nombre de construction
de centrales nucléaires est passé à 5 en 2018 puis à 2 en 2019. Une évolution
témoignant de la méfiance croissante à l’égard de l’atome, une raison suffisante
pour les antinucléaires de promouvoir l’abandon de cette énergie dangereuse
au profit des énergies renouvelables. ©

52

046092.indd 52 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

D. La protection des puits carbone, une nécessité cardinale

Le rétablissement de la circularité du cycle global de carbone qu’implique la


neutralité carbone nécessite la réduction drastique des rejets de gaz à effet de
serre mais aussi le renforcement de la capacité d’absorption des puits de carbone
naturels. On entend par puit de carbone, des réservoirs naturels ou artificiels qui ont
vocation d’absorber et de stocker le carbone de l’atmosphère via des mécanismes
physiques ou biologiques. La stabilisation du stock de gaz à effet de serre dans
l’atmosphère nécessite que ces puits de carbone absorbent une quantité de CO2
équivalente au volume de rejets de gaz à effet de serre des activités humaines.
Plusieurs milieux naturels jouent ce rôle. Il y a d’abord, l’océan qui est l’un des
premiers réservoirs de carbone de la planète, ensuite les puits de carbone terre
que sont les forêts et le sol.

L’océan, une réserve de carbone fondamentale

C’est par différents processus que le milieu marin contribue à jouer ce rôle de
puit de carbone de premier plan. Un processus biologique d’une part, et physique
de l’autre. Au cœur du processus biologique, il y a les algues microscopiques
appelées phytoplancton ou plancton végétal. Ces organismes végétaux micros-
copiques ont la faculté d’absorber une quantité considérable de CO2. Grace à la
lumière le phytoplancton conserve le carbone et expire l’oxygène dans l’air. Ce
procédé permet de créer de la matière organique à la base de la chaîne alimen-
taire aquatique.
L’absorption du CO2 par les océans mobilise deux procédés physiques qui sont
la dissolution naturelle des gaz et la répartition dans les profondeurs du CO2. Le
gaz carbonique a en effet la singularité d’être plus soluble dans une eau froide.
Les eaux froides des océans favorisent ainsi ce processus de dissolution, ce qui
contribue à en faire des puits de carbone. Quant à la répartition verticale du CO2
dans les océans, elle est la conséquence des courants d’eau. Ceux-ci ont en effet
tendance à emporter vers le fond de l’océan les molécules de CO2 dissoutes en
surface.
Au final en absorbant une proportion considérable du CO2 présente dans
l’atmosphère, les océans sont un facteur de régulation du climat. C’est environ un
quart du CO2 émis par les activités anthropiques qui est absorbé par les océans d’où
l’impérieuse nécessité de préserver ce puit essentiel ou de renforcer ses capacités
d’absorption. Certaines techniques de fertilisation des océans sont évoquées1. Une
d’elles consiste à accroître le nombre de phytoplanctons grâce à la production de
biochar. Il s’agit d’un charbon de bois produit à partir de matière végétale dont
la particularité est d’avoir un bilan carbone négatif.

1. Voir l’encadré 5, page 54, consacré à la géo-ingénierie comme possible solution au réchauf-
fement climatique.

53

046092.indd 53 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

L’océan peine toutefois à accomplir de plus en plus ce rôle de puit de carbone.


Tout d’abord, avec le dérèglement climatique, les océans se réchauffent aussi, cela
a pour conséquence d’altérer leur capacité à dissoudre et à capturer du CO2. Une
grande évaporation d’eau en résulte aussi. La vapeur d’eau étant un gaz à effet de
serre, ce processus contribue à amplifier le processus de réchauffement climatique.
Outre ses effets pernicieux sur la faune marine, le réchauffement climatique atténue
aussi la faculté des océans à réguler la chaleur. Rétablir ces fonctions vitales de
l’océan passe aussi par la lutte contre les outrages dont il est l’objet. Pollution,
surpêche sont autant d’actes qui portent atteinte à l’intégrité de l’océan et qui
menacent d’extinction la biodiversité marine.
Protéger la pompe à carbone océanique de la tragédie propre aux biens communs
revêt une urgence cardinale. Il s’agit en somme de briser la constitution d’un cercle
vicieux qui aurait pour conséquence la multiplication de phénomènes climatiques
extrêmes aux conséquences économiques, sociales humaines désastreuses.

Encadré 5 La géo-ingénierie peut-elle sauver la planète ?

Assimilée par certains à de la science-fiction, la géo-ingénierie a pour ambition


de manipuler volontairement le climat et de modifier l’équilibre énergétique
terrestre afin de contrarier et d’inverser le processus de réchauffement climatique.
Mobilisés dans de nombreux pays, des milliers d’ingénieurs rivalisent d’inventivité
pour trouver la solution miracle permettant d’extirper la planète Terre de l’ornière
que constitue le réchauffement climatique. Plusieurs projets controversés sont
ainsi portés à l’actif de cette discipline. Ils visent à limiter le rayonnement solaire,
à refroidir l’atmosphère, à capter le CO2, à fertiliser les océans.
Concernant la limitation du rayonnement solaire, des projets en cours visent
à renvoyer dans l’espace des rayons solaires afin de contenir ou d’abaisser la
température terrestre. Pour y parvenir, des dizaines de milliers de miroirs géants
capables de dévier une partie du rayonnement solaire pourraient être placées
dans l’espace autour de la Terre. Orientés vers le soleil, ces miroirs renverraient
vers l’espace une partie du rayonnement solaire et limiteraient ainsi l’exposition
de la Terre au soleil. Une idée qui a priori apparaît loufoque pour le commun
des mortels mais qui contre toute attente bénéficie du soutien de la NASA.
D’autres projets poursuivant le même but reposent sur la création de volcans
artificiels. Cela consiste à envoyer dans la stratosphère des tonnes de particules
de soufre ou d’hydrogène sulfuré. La réaction avec l’air produirait du dioxyde de
soufre, faisant fonction d’écran protecteur face au rayonnement solaire diminuant
ainsi sensiblement la température sévissant sur la planète Terre. Une solution
décriée par certains spécialistes considérant que l’envoi de plusieurs millions de
ballons de soufre est nécessaire pour parvenir à cet objectif mais qu’en raison
de la toxicité du soufre, il y a un risque sanitaire élevé à procéder de la sorte.
Il y a aussi le risque de voir la pluviométrie modifiée dans certaines régions du
monde. C’est le cas en Amazonie ou en Afrique où les précipitations pourraient
diminuer significativement aggravant la précarité des populations locales.

54

046092.indd 54 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Concernant la capture du CO2, l’imagination à ce sujet est aussi sans limite. Outre
la création d’arbres synthétiques ayant la faculté de capter le CO2, une idée
connaît un succès croissant, celle consistant à créer des aspirateurs à carbone.
Des chercheurs suisses y travaillent intensément. Le principe est le suivant. De
très gros ventilateurs propulsant l’air ambiant à travers des filtres constitués
de granulés poreux avec lesquels le carbone se lie chimiquement, pourraient
permettre ce faisant de diminuer la quantité de CO2 présente dans l’atmos-
phère. Les initiateurs de ce projet espèrent capter grâce à ce procédé 1 % des
émissions mondiales d’ici à 2025. Un bémol à cette ambition, la nécessité d’un
investissement colossal permettant d’installer 250 000 usines capables de générer
une quantité astronomique de CO2.
Aux États-Unis ce projet de capture de carbone suscite des espoirs fondés en
raison de ses résultats prometteurs. Une usine fabricant de l’éthanol a en effet mis
au point un système permettant de capturer le CO2 qu’elle émet et à le stocker
sous terre. Ce projet en place depuis 2017, a permis à l’entreprise d’enfouir
1 million de tonnes de dioxyde de carbone par an. Ce succès manifeste permet
à ses concepteurs d’affirmer qu’il pourrait permettre de réduire significativement
les émissions industrielles de carbone à travers le monde.
Une autre idée relevant de la même finalité, consisterait à travailler sur l’altération
forcée. Il s’agit d’augmenter la capacité de certains minéraux, comme l’olivine
et le basalte, à fixer le CO2. En broyant ces minéraux, on accroît leur capacité à
réagir avec le CO2 présent dans l’atmosphère.
Quant à la fertilisation des océans, les recherches visent à accroître l’expansion du
phytoplancton, une microscopique plante océanique qui a la faculté d’attraper le
CO2 et de l’entraîner au fond de la mer. Le manque de fer constitue un obstacle
à sa prolifération, aussi pour y parvenir, des scientifiques préconisent l’épandage
à large échelle du sulfate de fer sur la mer.
En somme la géo-ingénierie se singularise par son inventivité et par sa capacité à
susciter des solutions controversées mettant à mal l’unité des scientifiques dans
l’élaboration de solutions permettant de limiter l’ampleur du réchauffement
climatique.
Si ses partisans considèrent qu’il est peu envisageable d’atteindre les objectifs
de limitation du réchauffement climatique sans recourir aux technologies recom-
mandées par la géo-ingénierie, pour d’autres scientifiques, ces projets pèchent
au contraire par leur absence d’humilité face à des phénomènes climatiques
complexes. Nicolas Hulot, ancien ministre de l’environnement a à ce sujet mis en
garde à ce que l’homme ne joue pas aux apprentis sorciers car une manipulation
de la nature peut avoir des conséquences irréversibles fortement dommageables.
Un avis partagé par nombre de scientifiques dont ceux du GIEC pour qui nombre
de projets de la géo-ingénierie relève largement de la spéculation et comporte
un risque d’effets collatéraux inconnus.
En définitive, loin de constituer une panacée face au réchauffement climatique,
les technologies relevant de la géo-ingénierie risquent plutôt de multiplier les
impacts nuisibles du dérèglement climatique sur les populations les plus vulné-
rables accroissant de ce fait les injustices climatiques. Au lieu d’axer ses projets
sur la réduction des émissions mondiales de gaz à effet de serre, la géo-ingénierie
s’attaque aux effets du réchauffement climatique avec en toile de fond l’idée

55

046092.indd 55 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

que la science peut à elle seule sauver l’humanité du désastre climatique. Une
illusion qui contribue à accroître son pouvoir de séduction et qui repose sur
l’idée pernicieuse que la nature doit être soumise à la volonté de l’homme. Des
errements qui non seulement soulèvent des problèmes de nature éthique mais
qui laissent entier le problème du réchauffement climatique. ©

Le rôle essentiel des forêts et des sols dans la régulation du climat

Les arbres et plus généralement les forêts via la photosynthèse des plantes
assurent la fonction de puit de carbone. Durant leur croissance les végétaux captent
du gaz carbonique atmosphérique et une partie de celui-ci est stockée dans les
sols. Ces derniers jouent aussi ce faisant le rôle de puit de carbone. Cependant la
capacité d’absorption du CO2 de ces deux puits est étroitement liée au maintien
de la diversité. Ainsi lorsque la déforestation progresse, elle porte atteinte direc-
tement aux puits de carbone que sont les sols et les forêts. En croissance continue
dans certaines régions du monde, la déforestation est le résultat conjugué de
l’extension de l’usage des sols pour l’agriculture, l’élevage et l’habitat. La forêt
amazonienne constitue l’exemple le plus emblématique de cette situation. D’une
superficie d’environ 6 millions de kilomètres carrés, l’Amazonie est de loin la plus
grande forêt tropicale. Véritable trésor de biodiversité, elle cumule à elle seule de
nombreux records. L’Amazonie comptabilise en effet 40 000 espèces de plantes,
3 000 espèces de poissons d’eau douce et plus de 370 types de reptiles, soit une
espèce sur dix connues sur terre. Étendue sur six pays, l’Amazonie abrite 10 %
des espèces vivantes sur la planète Terre alors qu’elle ne représente que 1 % de
la superficie de la planète.
L’Amazonie, c’est aussi 550 millions d’hectares de forêts et 6 600 kilomètres
de rivières. C’est l’un des plus grands bassins. Son fleuve Amazone est l’un des
mieux dotés en débit au monde. Ses caractéristiques sans équivalent justifient son
appellation de « poumon vert » du monde. Cependant ce grand réservoir de la
biodiversité est l’objet de multiples outrages qui menacent sa fonction d’infrastructure
naturelle contre l’effet de serre.
Soumise à de nombreuses pressions liées aux activités humaines, l’Amazonie
a perdu près de 20 % de sa superficie depuis 1970. En cause le processus de
déforestation engagé depuis de nombreuses années dans le but d’accroître les
superficies consacrées aux activités agricoles. L’élevage de bovins, la culture de
soja, de maïs, de canne à sucre nécessitent des surfaces de plus en plus grandes
du fait de la croissance de la demande mondiale. Il en découle donc une pression
accrue sur l’Amazonie. La volonté des autorités locales notamment brésiliennes de
baser leur développement sur l’exportation des matières premières primaires fait
de l’Amazonie la victime expiatoire des intérêts économiques et financiers locaux.
En témoigne, l’accélération de la déforestation depuis l’accession au pouvoir de
Jair Bolsonaro. En 2019, ce sont 9 166 kilomètres carrés qui ont été fauchés, soit
une augmentation de 85 % par rapport à 2018.

56

046092.indd 56 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

La déforestation de l’Amazonie s’accompagne souvent de feux de forêts. Utilisés


pour enrichir les sols et pour délimiter les champs, les feux de forêts ont d’indé-
niables conséquences sur le réchauffement climatique. Selon Greenpeace, la forêt
amazonienne stocke 80 à 120 milliards de tonnes de carbone, elle contribue ainsi à
la stabilité du climat. En perdant une partie croissante de sa superficie du fait des
feux de forêts, elle libère des millions de tonnes de carbone dans l’atmosphère
accentuant de ce fait le processus de réchauffement climatique. La poursuite de
la déforestation de l’Amazonie la rapproche progressivement du cycle dévas-
tateur connu sous le nom de dépérissement. Lorsqu’une certaine proportion de
cette forêt sera détruite, il suffira qu’un cinquième le soit pour que s’enclenche
le processus de dépérissement c’est-à-dire le dessèchement de cette forêt avec
son cortège de maux : des feux de forêt à répétition dont la conséquence inéluc-
table est la disparition de son précieux trésor, c’est-à-dire sa riche biodiversité.
De poumon vert de la Terre, cette infrastructure naturelle de la lutte contre l’effet
de serre pourrait se transformer en émetteur net de CO2. Protéger ce puit de
carbone est une nécessité vitale. Il en est de même des forêts tropicales d’Afrique.
Dotée de plus de 240 millions d’hectares de couvert forestier, l’Afrique dispose
dans sa partie centrale de la plus grande forêt tropicale. À l’instar de l’Amazonie,
les forêts d’Afrique regorgent d’une riche biodiversité. 40 000 à 60 000 essences
végétales y sont recensées et un quart des mammifères y sont abrités. Comme
l’Amazonie, les forêts d’Afrique sont victimes de la déforestation. Ce phénomène
est nettement plus intense en Afrique par rapport au reste du monde. L’Afrique
a vu disparaître 81.6 millions d’hectares de forêts, soit une surface équivalente à
deux fois la superficie de l’Allemagne. Le bois remplit en effet dans les sociétés
africaines de multiples fonctions. Moyen de cuisson et de chauffage, il constitue
de ce fait la première source d’énergie. Ce rôle vital conduit à des prélèvements
importants. Selon la FAO (2015), l’Afrique consomme 625 millions de mètres cube
de bois-énergie par an, soit 90 % de sa consommation totale de bois. Cette
consommation devrait croître dans des proportions considérables du fait de la
croissance démographique exponentielle du continent. Les forêts situées dans
les zones densément peuplées devraient pâtir de cette situation.
L’utilisation des terres à des fins productives favorise le défrichement de celles-ci
et le développement des cultures industrielles contribue largement à la disparition
des forêts. Les forêts d’Afrique abritent des bois très précieux comme le bois de
Rose qui sont l’objet d’une exploitation illégale et d’une surexploitation. L’Empire
du milieu est l’un des acteurs de ce processus. 70 % de la production de bois lui
est destinée. C’est la troisième matière première importée par l’Empire du Milieu.
Le bois exporté vers la Chine y subit des transformations avant d’être exporté vers
l’Europe ou d’autres marchés en croissance. De nombreux pays africains sont si
dépendants de ce commerce qu’ils ne peuvent refuser les conditions posées par
le principal client. C’est le cas du Mozambique qui exporte 90 % de son bois vers
la Chine selon l’Institut international pour l’environnement et le développement.
Friand de ce bois, l’Empire du Milieu apparaît peu regardant sur les conditions
d’exploitation de cette ressource.

57

046092.indd 57 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

La conjugaison de l’ensemble de ces facteurs fait peser un risque sur les forêts
tropicales d’Afrique. Or comme l’Amazonie, ce sont des réservoirs de carbone
nécessaires pour la régulation climatique. Les forêts tropicales africaines retiennent
en effet un quart du stock mondial de carbone terrestre présent dans la végétation
et les sols. La préservation de leur intégrité se révèle essentielle dans l’atténuation
de l’ampleur des conséquences du réchauffement climatique.

E. Pour une agriculture moins intensive et durable

La préservation des puits de carbone que sont les forêts et les sols passe aussi
par la remise en cause du productivisme agricole. La convoitise et les pressions
qui s’exercent sur l’Amazonie tirent leur source de cet objectif dommageable pour
la préservation de la biodiversité. D’une manière générale, l’agriculture intensive
n’est pas écologiquement durable. C’est l’une des premières sources d’émission
mondiale de gaz à effet de serre. L’agriculture est responsable de plus de 70 %
des émissions mondiales de protoxyde d’azote (N20) et de 50 % des émissions de
méthane. C’est le processus de fertilisation des sols à l’aide d’engrais azotés qui
est la source d’émission du protoxyde d’azote. Ce gaz à effet de serre a un pouvoir
réchauffant trente fois supérieur à celui du gaz carbonique. Quant au méthane, il
est pour l’essentiel dû aux animaux d’élevage appelés ruminants (bovins, ovins).
Ce gaz à effet de serre doté d’un pouvoir réchauffant 28 fois plus élevé que le
dioxyde de carbone provient des flatulences des bovins et des déjections animales.
La réduction de ces émissions passe par voie de conséquence par une agriculture
transformée c’est-à-dire moins utilisatrice d’intrants chimiques et moins centrée
sur un élevage intensif. Comment y parvenir ?
Pour de nombreux experts, chercheurs, organisations non gouvernementales et
associations, la solution réside dans la modification de nos habitudes alimentaires
puis dans le développement de l’agriculture biologique et dans la promotion de
l’agroforesterie.

Le changement de nos habitudes alimentaires : quels effets bénéfiques ?

Le développement de la prise de conscience de l’empreinte environnementale de


l’agriculture, particulièrement de l’élevage intensif, a contribué à accréditer l’idée que
la consommation de viande n’est pas compatible avec la préservation du climat. Signe
de prospérité symbolisant autrefois une alimentation riche en protéines, la viande est
devenue progressivement l’aliment à proscrire du fait de son coût environnemental
et de ses effets pernicieux sur la santé. Portée par une consommation en constante
hausse dans le monde, la production de viande suit une croissance exponentielle
dont les conséquences environnementales sont clairement établies. Produire et
consommer de la viande riment d’abord avec émission excessive de gaz à effet de
serre, ensuite avec consommation excessive d’eau et de céréales et mobilisation
excessive enfin de terres. Les données suivantes en attestent.

58

046092.indd 58 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

La viande bovine est celle qui de loin affecte le plus l’environnement. Représentant
22 % de la consommation totale de viande dans le monde, la viande bovine se
singularise par un taux d’émission de gaz à effet de serre très élevé comparativement
à d’autres viandes. Elle représente 41 % des émissions dues à l’élevage de bétail ou
74 % des émissions si l’on tient compte de la production de lait. Le porc qui est la
viande la plus consommée au monde n’en représente que 9 % tandis que le poulet,
bien que produit de consommation de masse, n’est responsable que de 8 % des
émissions. Le poids prégnant de la production de viande et de lait dans les émissions
de gaz à effet de serre n’est pas proportionnel au pourcentage de calories que ces
alimentations permettent d’ingérer, il n’est en effet que de 20 % au niveau mondial.

Figure 10 : Le CO2 émis

Source : FAO.

Figure 11 : La viande dans la consommation et l’émission de GES

Source : FAO.

59

046092.indd 59 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

L’eau, denrée rare, est aussi mise à contribution pour produire de la viande
bovine. Il faut en effet 13 500 litres d’eau pour produire 1 kilo de bœuf. Le porc en
requiert 4 600 litres tandis que le poulet n’en nécessite que 4 100. Des quantités
sans rapport avec celles nécessaires à la production de céréales telles que le riz
(1 400 litres), le blé (1 200 litres), ou le maïs (700 litres).
L’élevage de bétail mobilise aussi une grande partie de la production céréa-
lière. 40 % des céréales produites et récoltées dans le monde sont affectées à
l’alimentation de bétail.
Destiné à la production de masse, l’élevage intensif requiert de plus en plus de
terres. 70 % de la surface agricole mondiale selon le FAO est affectée à l’élevage
de bétail soit pour le pâturage du bétail ou pour la production de céréales. L’accé-
lération du processus de déforestation de l’Amazonie et des forêts tropicales tire sa
source de cette volonté d’accroître indéfiniment les surfaces agricoles consacrées
à l’élevage intensif et notamment à la production de soja, céréale nécessaire à
l’alimentation du bétail.
Mettre fin au règne de la viande dans nos assiettes aurait de multiples vertus.
Celle d’abord de réduire les gaz à effet de serre liés à l’élevage qui à eux seuls
représentent selon la FAO 18 % des émissions de gaz à effet de serre soit davantage
que les transports. Celle de préserver l’eau, une ressource vitale appelée à se
raréfier avec la croissance exponentielle de la population mondiale ; l’élevage
intensif représente en effet à lui seul 8 % de la consommation mondiale d’eau.
Celle d’affecter une partie de la production céréalière à d’autres fins notamment à
la consommation humaine. Celle de préserver l’intégrité des forêts tropicales, des
pompes de carbone essentielles à la régulation climatique et enfin celle de prévenir
de certaines maladies cardiovasculaires à l’origine d’un taux de mortalité élevé.
Si la consommation de viande reste très poussée dans les pays en dévelop-
pement, force est toutefois de constater qu’elle baisse régulièrement dans les
pays riches et notamment en France. En 1960, elle représentait en effet 23.7 %
du panier alimentaire moyen des Français, cette part n’est plus aujourd’hui que de
20 % selon l’Insee. Des études menées par le CREDOC vont dans le même sens.
Elles attestent de la baisse de la consommation de viande de 12 % en 10 ans. De
2007 à 2016, la part des produits carnés consommés par jour par les Français est
passée de 153 grammes à 135 grammes soit 18 grammes de moins en 10 ans. Cette
légère baisse du poids des produits carnés dans l’alimentation des Français est à
mettre au crédit des campagnes de communication visant à alerter les ménages sur
les risques sanitaires associés à une alimentation trop riche en protéines animales
mais aussi sur les souffrances endurées par les animaux1.

1 La souffrance animale, cause défendue par plusieurs associations bénéficie d’un soutien
croissant de la part des Français comme en témoigne le nombre croissant de végétariens, de
végétaliens, de végans et de flexitariens. Tous ont un point commun, celui d’être sensibles à
la souffrance animale et d’exclure plus ou moins les produits carnés de leur alimentation.

60

046092.indd 60 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Une nuance s’impose néanmoins car la consommation de viande reste un


marqueur social fort. Cette baisse de consommation est en effet davantage constatée
dans les habitudes alimentaires des couches sociales les plus aisées. Pour les classes
populaires, la consommation de viande reste relativement forte.
Pour parvenir à une baisse accélérée de la consommation de viande et permettre
une modification substantielle des habitudes alimentaires dans les pays développés,
certaines associations et certains scientifiques militent activement pour l’adoption
d’un signal-prix. Prenant la forme d‘une taxe sur la viande ou sur les produits carnés,
ce prélèvement aurait pour objectif d’internaliser les effets externes générés par
l’industrie agro-alimentaire et l’élevage. Il s’agit en d’autres termes de faire en
sorte que le prix de la viande ou des produits carnés puisse mieux refléter leurs
coûts environnementaux.
De nombreuses études publiées ces dernières années ont alimenté ce débat visant
à contraindre les pouvoirs publics à prendre des mesures législatives. En Europe,
l’une des propositions qui a marqué les esprits est celle faite par 30 associations
néerlandaises spécialisées dans les problèmes environnementaux et réunies sous
l’appellation True Animal Protein Price Coalition (TAPPC). Celles-ci ont proposé au
parlement européen la mise en place d’une taxe dite de durabilité sur les produits
carnés. Le prélèvement proposé par ces associations serait toutefois différencié
selon le type de viande et de leur impact sur l’environnement. Le bœuf serait
ainsi lourdement taxé par rapport au porc et au poulet. Une baisse de 50 % de la
consommation de viande pourrait ainsi en découler. Ce qui aurait pour vertu de
contraindre les consommateurs européens à revoir la composition de leur assiette
au profit des végétaux.
Évalué à 32 milliards d’euros par an d’ici 2030, le produit de cette taxe servirait
à plusieurs finalités. Il pourrait être consacré au financement des transformations
d’exploitation en agriculture biologique, à améliorer le bien-être animal, à réduire
le taux de TVA sur les fruits et légumes afin de favoriser leur consommation et enfin
à aider financièrement les ménages les plus fragiles économiquement lesquels
pourraient pâtir de la hausse du prix de la viande.
Faute de soutien politique et en raison de sa probable impopularité, l’ins-
tauration d’une telle taxe a peu de chance de voir le jour mais elle a le mérite
de sensibiliser l’opinion publique sur les risques écologiques et sanitaires liés au
développement de l’élevage intensif et de la consommation excessive de produits
carnés. Des chercheurs américains de l’IFPRI (Institut international de recherche
sur les produits alimentaires) ont publié par ailleurs une étude préconisant la mise
en place d’une taxe sur la viande afin de prendre en compte son coût sur la santé
et l’environnement. L’étude préconise de taxer de 0.2 % à 20 % la viande rouge
et de 1 % à 110 % la viande transformée selon le niveau de développement des
pays afin de corriger les effets externes sur les systèmes de santé liés à la consom-
mation de produits carnés.

61

046092.indd 61 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

L’étude évalue à 220 000 le nombre de vies sauvées et à 41 milliards de dollars


par an le montant des économies réalisées par l’économie mondiale du fait de
ces mesures. Il pourrait en résulter une baisse significative de la consommation de
viande qui passerait d’une fois par jour en moyenne à 2 fois par semaine.
Une dernière étude menée par les chercheurs d’Oxford débouche sur les mêmes
conclusions. Pour ces scientifiques, la viande doit avoir le même traitement que la
cigarette et le sucre du fait qu’elle n’est pas l’aliment de base paré de toutes les
vertus. Ils militent pour ce faire en faveur d’une taxe équivalente à celle du sucre
mise en place au Royaume Uni sous la forme d’un prélèvement sur les boissons
non alcoolisées à forte teneur en sucre.
Réduire les gaz à effet de serre et sauver 500 000 vies, telle est la vocation
de cette taxe sur la viande et le lait préconisée. Sa mise en œuvre déboucherait
sur une augmentation de 40 % du prix du bœuf et de 20 % du prix des produits
laitiers. Des augmentations qui à coup sûr feraient baisser significativement la
consommation de produits considérés par l’OMS comme cancérogènes.
En l’absence de mesures allant dans le sens d’une taxation des produits carnés,
le développement de l’agriculture bio, productrice de produits sains pour la santé
et plus respectueuse de la biodiversité apparaît comme l’une des solutions les
plus viables.

Le développement de l’agriculture biologique constitue-t-il


la solution ?

Le bio a le vent en poupe. Son dynamisme se matérialise par une croissance


à deux chiffres notamment en France. Malgré son essor favorisé par la prise de
conscience des atteintes à l’environnement réalisées par l’agriculture conventionnelle,
le bio ne fournit malgré tout que 5 % de l’alimentation des Français. L’agriculture
biologique voit cependant ses surfaces cultivées augmenter régulièrement. En
France, elles ont augmenté de 17 % en 2018, franchissant la barre de deux millions
d’hectares. À l’échelle du monde, le bio représente toutefois à peine 1 % de la
surface agricole utilisée. Une surface cultivée nettement insuffisante au regard des
défis alimentaires posés par la croissance démographique mondiale. Avec une
population mondiale appelée à atteindre plus de 9 milliards d’habitants à partir de
2050, l’agriculture biologique peut-elle être à la hauteur des enjeux alimentaires ?
En d’autres termes le bio peut-il nourrir correctement toute la planète ?
Si l’on réfère aux projections de la FAO, la croissance de la production agricole
nécessaire pour nourrir l’humanité devrait être de l’ordre 50 % d’ici 2050. En raison
de ses rendements modérés, le recours à l’agriculture biologique devrait pour ce
faire nécessiter la mise en culture de terres supplémentaires, ce qui pourrait induire
une accélération de la déforestation et une dégradation de la biodiversité, des
conséquences aux effets délétères sur le climat.

62

046092.indd 62 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

Perçue par certains comme un moyen de différenciation sociale en raison du


prix élevé de ses produits, l’agriculture biologique n’en constitue pas moins une
solution aux défis environnementaux. Ayant moins recours aux pesticides et aux
engrais de synthèse, elle contribue à la préservation des sols et à la qualité de l’eau.
Moins consommatrices d’énergie fossile, ses émissions de gaz à effet de serre sont
nettement inférieures à celles de l’agriculture conventionnelle. Économiquement,
elle est plus créatrice d’emplois que les exploitations conventionnelles. Certaines
études établissent que le nombre moyen d’unités de travail humain par exploitation
biologique est de 2.4 contre 1.5 pour les exploitations conventionnelles.

Encadré 6 Le numérique, une croissance insoutenable


pour l’environnement

Apparu il y a une vingtaine d’années avec l’éclosion de l’internet, le numérique


est généralement associé à l’avènement d’une économie dématérialisée. Cette
association a priori objective cache en réalité un travers intrinsèque à cette
révolution technologique, celui d’être un des acteurs dont l’irrésistible ascension
crée des dommages irréversibles à l’environnement.
Véritable système social, Internet a modifié le quotidien de milliards d’individus.
Cependant, n’importe quelle action réalisée par ceux-ci sur ce réseau social a
des conséquences environnementales non négligeables. Qu’il s’agisse de l’envoi
d’un mail, du visionnage d’une vidéo sur You Tube, d’une recherche effectuée sur
Google, ou d’une photo postée sur Instagram, tous ces gestes anodins faisant
partie du quotidien du commun des mortels ont des implications en matière
climatique parce qu’elles sont sources d’émission de gaz à effet de serre. Le
numérique est donc un facteur de pollution. De nombreuses statistiques mettent
en lumière cette réalité méconnue du grand public1.
Le numérique est en effet à l’origine de 4 % des émissions de gaz à effet de serre,
il se révèle ainsi davantage polluant que le transport aérien civil. Son caractère
énergivore est aussi avéré. Si Internet était en effet un pays, il occuperait le
rang de troisième consommateur mondial d’électricité derrière la Chine et les
États-Unis2. Une réalité justifiée par le fait qu’une seule heure de navigation sur
Internet à l’échelle mondiale implique une consommation de 4 000 tonnes de
pétrole soit 4 000 allers-retours Paris-New York. De même l’envoi d’un courriel
avec une pièce jointe équivaut, selon l’Agence française de l’environnement et
de le maîtrise de l’énergie, à laisser une ampoule allumée pendant une heure.
Le succès de cette révolution digitale se matérialise par quelques chiffres époustou-
flants. En l’espace d’une journée, à l’échelle de la planète, ce sont 230 milliards de
courriels envoyés, 4 milliards de recherches effectuées sur Google, 620 milliards
de tweets postés, et 6 milliards de vidéos visionnées sur You Tube. Des actions

1 En 2019, à peine 40 % des Français déclaraient avoir entendu parler de la pollution numérique.
2. Le numérique émet 1 400 millions de tonnes de CO2, c’est 2 à 3 fois l’empreinte carbone de la
France. Sa consommation d’électricité est évaluée à 1 420 TWH soit 2.6 fois la consommation
électrique annuelle de la France. Quant à sa consommation d’eau, elle s’élève à 7.8 millions
de m3 d’eau douce, soit 2.1 fois la consommation d’eau annuelle de la France.

63

046092.indd 63 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

quotidiennes au cœur de notre sociabilité qui génèrent en un temps aussi réduit


une consommation phénoménale d’électricité de 3 millions de Mw/h et des
émissions de CO2 de 2.5 millions de tonnes.
Avec l’avènement de la 5G, le flux d’échanges digitaux devrait s’intensifier entraînant
par voie de conséquence l’aggravation de l’empreinte carbone du numérique. Les
projections réalisées par l’association The Shift Project ne sont pas de bon présage
en la matière. Selon ce Think Tank, les émissions de gaz à effet de serre dues à la
production et à l’usage du numérique augmentent de 8 % par an, et compte tenu
de cette évolution inexorable, la part du numérique dans les émissions mondiales
devrait atteindre 8 % en 2025. Une croissance appelée à se poursuivre indéfiniment
d’autant plus qu’une bonne partie des habitants de la planète reste encore privée
d’internet notamment dans les pays en développement.

Deux sources énergivores et polluantes identifiées


Au-delà des usages, c’est davantage la production des matériaux et la conservation
des données qui expliquent l’essentiel de l’empreinte carbone du numérique1.
La production des matériaux ou des équipements se révèle en effet très gourmande
en matériaux et en consommation d’eau. Les équipements qui font le monde
du numérique c’est-à-dire ordinateur, téléphone portable, tablette, appareils
photos, nécessitent pour leur fabrication des métaux précieux qui ont la parti-
cularité d’être rares. La fabrication d’un smartphone nécessite plus de 60 métaux
précieux dont une vingtaine n’est pas recyclable. Du cobalt, du silicium, de
l’argent, de l’or, du cuivre et tant d’autres ressources prisées sont ainsi mises à
contribution. Des métaux précieux dont la valorisation nécessite une consom-
mation abondante d’énergie fossile, d’eau et de produits chimiques qui sont
autant de sources de pollution des nappes phréatiques et d’émission de gaz à
effet de serre. La consommation effrénée de ces ressources rares fait aussi courir
le risque d’épuisement de ces ressources non renouvelables et ce d’autant plus
que l’obsolescence des produits est une des caractéristiques du numérique.
Cette obsolescence prend souvent deux formes particulières. Elle peut être
technique ou fonctionnelle d’une part et esthétique d’autre part.
L’obsolescence technique se produit lorsque le produit numérique ne fonctionne
plus du fait de la durée de vie limitée d’un de ses composants essentiels. Quant
à l’obsolescence esthétique qualifiée de psychologique, elle est la conséquence
de l’effet de mode. L’arrivée d’un nouveau produit numérique sur le marché plus
performant bénéficiant de ce fait d’une campagne promotionnelle suggestive peut
conduire les consommateurs à se séparer de leurs produits encore opérationnels.
L’existence de ces deux formes d’obsolescence justifie le taux de renouvellement
croissant des appareils numériques. Des études ont ainsi montré que les Français
changent en moyenne de smartphone tous les deux ans alors que dans 88 %
des cas ils disposaient d’un appareil encore fonctionnel.
Rouage essentiel et clé de voûte d’internet, les Data Centers contribuent consi-
dérablement à l’accroissement de l’empreinte carbone du numérique. Chargés
d’héberger des millions de serveurs destinés à enregistrer, à transmettre et à
calculer les données provenant de différents supports digitaux, ces centres de

1. Voir les données figurant dans l’annexe 2, page 79.

64

046092.indd 64 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

stockage du Big data nécessitent pour leur fonctionnement continu une quantité
considérable d’énergie et émettent de ce fait un volume de CO2 conséquent.
Près de 4 500 Data Centers existent dans le monde dont 1 650 sont situés
aux États-Unis. Ils ont pour particularité de produire énormément de chaleur,
nécessitant de ce fait le recours à la climatisation afin d’éviter tout risque de
surchauffe. L’alimentation électrique moyenne d’un centre de stockage de données
est d’environ 30 MW, les plus gros centres mobilisent plus de 100 MW, ce qui
correspond à la consommation d’une ville de 25 000 à 50 000 habitants. Au total,
les Datas Centers consomment à eux seuls 3 % de l’électricité mondiale, une
part appelée à croître avec la montée exponentielle du Big data.

Comment réduire l’empreinte écologique du numérique ?


Réduire la pollution due à la frénésie des clics, à la production des équipements
numériques et au fonctionnement du réseau internet implique diverses mesures.
L’une d’elles consiste à mettre en œuvre des normes en matière de pollution des
appareils numériques, c’est le cas dans de nombreux domaines comme l’industrie
automobile où la réglementation impose des normes d’émission en matière de
CO2. Les fabricants du numérique se verraient ainsi imposer des normes en matière
d’empreinte carbone des smartphones. Il en est de même de la durabilité des
appareils informatiques et de leur recyclabilité. Un engagement des fabricants
devrait être exigé afin qu’ils garantissent une durée de vie minimum d’au moins
5 ans des produits écoulés et qu’ils y incorporent une part croissante de produits
recyclés. Sur ce dernier point des efforts considérables sont à fournir car une
bonne partie des déchets numériques évaluée autour de 60 millions de tonnes,
n’est pas recyclée. À peine 5 % des composants des appareils numériques sont
réutilisés ou conditionnés. Une part infinitésimale qui fait peser une menace
potentielle d’épuisement des ressources rares.
Réutiliser la chaleur des Data centers d’une part et les alimenter à l’aide des
énergies renouvelables d’autre part, constituent des voies prometteuses. Dans
le premier cas, la chaleur produite par les Data centers peut servir à produire de
l’eau chaude ou à chauffer des bâtiments. Un nombre croissant d’entreprises et de
villes y ont recours, c’est le cas d’Air France qui grâce à la chaleur d’un data center
chauffe 8 500 m2 de ses bureaux. C’est aussi le cas notamment du parc d’activités
du Val d’Europe où la chaleur émise par le data center de la banque Natixis permet
d’alimenter le réseau de chauffage urbain. 600 000 m2 de bâtiments sont ainsi
chauffés grâce aux 26 millions de kilowattheures par an fournis par ce data center.
L’alimentation des centres de stockage par des énergies vertes tend à progresser
aussi. Dès 2011, Facebook a pris le parti d’alimenter ses centres avec essentiel-
lement de l’énergie renouvelable, depuis d’autres géants du numérique, Apple,
Google et Microsoft notamment, lui ont emboîté le pas.
Pour les consommateurs ou utilisateurs du réseau internet, leur contribution à
la dépollution numérique passe par la sobriété numérique. Cela implique une
forme de civisme numérique consistant sans souci d’exhaustivité à trier ses mails
en privilégiant les plus importants, à éteindre sa box, à limiter les recherches sur
les moteurs de recherche,… en somme, il s’agit pour le commun des mortels de
modifier certaines des pratiques sociales, sources de confort mais qui somme
toute impactent négativement l’empreinte carbone du numérique. ©

65

046092.indd 65 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

L’agroforesterie, une solution porteuse ?

C’est une des pistes proposées par certains experts pour améliorer la durabilité
de l’agriculture. Il s’agit d’associer les arbres aux productions agricoles. Cette
association confère de nombreux avantages car elle permet de préserver des
nappes phréatiques, de fertiliser les sols, de contrôler des maladies, de développer
un microclimat favorable à la biodiversité.
Les arbres ainsi plantés assurent en effet une double fonction, celle d’absorber
du carbone mais aussi d’enrichir les sols grâce à l’azote fixé. Ce faisant, ils contri-
buent, d’une part, à réduire les besoins des sols en engrais azotés chimiques, facteur
de réchauffement climatique et d’autre part, à recharger les nappes phréatiques
et à réguler le cycle de l’eau. Les rendements agricoles s’en trouvent améliorés.
Dans le droit fil de l’agroforesterie, une idée s’impose de plus en plus, celle
consistant à créer des fermes verticales. Cela consiste à intégrer l’agriculture en
milieu urbain grâce à la construction de grandes tours verticales abritant des serres
empilées les unes sur les autres.
Théorisé en 1991 par le microbiologiste Dickson Despommier, ce concept a
vu le jour pour la première fois à Singapour. La société Sky Green y a construit
120 tours de 91 mètres de haut comprenant 38 étages remplis de bacs de légumes
poussant hors sol alimentés artificiellement et irrigués à l’eau de pluie. Depuis
ce concept a fait florès dans de nombreux pays. Au Japon où l’entreprise Marai
revendique la production de 10 000 laitues par jour, aux États-Unis où l’Aero
Farms, la plus grande ferme verticale au monde de 6 500 mètres carrés, affirme
produire 10 000 tonnes de choux et de salades par an, soit un rendement 350 fois
supérieur à celui d’une ferme conventionnelle. En Europe, le concept gagne aussi
du terrain avec la mise en œuvre de nombreux projets. C’est aux Pays bas que
ce concept s’est d’abord matérialisé par la mise en exploitation de 3 000 mètres
carrés consacrés à la production de laitues. D’autres villes ont depuis emboîté le
pas. En France, des villes comme Paris, Angers, Lyon ou Albi ont pris le parti de
cette agriculture facteur de résilience.
Le succès croissant de ce concept est lié aux multiples avantages qu’il génère.
Contrairement à l’agriculture horizontale très dommageable pour la faune sauvage
et la biodiversité, l’agriculture horizontale se veut protectrice de celle-ci. Permettant
en effet un meilleur contrôle de l’environnement des plantes, elle ne requiert pas
l’utilisation des pesticides, ni d’herbicides. L’eau utilisée par les cultures est recyclée
via la vapeur produite par l’évapotranspiration des plantes.
Avec l’agriculture verticale, les lieux de production et les lieux de consommation
se confondent, ce qui réduit les coûts du transport et le volume d’émission de
CO2 dû à l’acheminement des aliments.
C’est aussi un système de production qui permet de décentraliser le système
alimentaire et de démocratiser l’approvisionnement grâce à la proximité de l’offre
productive. Ce faisant la baisse des prix consécutive à la production de masse
permet au plus grand nombre d’accéder à une offre qualitative permettant de
garantir une alimentation saine. À cet avantage s’ajoute, celui de s’affranchir des

66

046092.indd 66 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

aléas climatiques et donc d’anticiper les impacts liés au réchauffement climatique.


Le développement de ce type de fermes permet par ailleurs de réduire les surfaces
cultivées permettant de nourrir une population mondiale en croissance continue
et de favoriser la restauration des forêts victimes de déforestation.
Si pour ses plus ardents défenseurs, l’agriculture verticale est indiscutablement
l’une des solutions envisageables dans la perspective du changement climatique
et de la croissance exponentielle de la population mondiale, pour ses détracteurs,
elle est à l’inverse loin d’être totalement viable écologiquement. Tout d’abord, ce
type d’agriculture n’est envisageable que dans les pays développés car il nécessite
un environnement hautement technologique, ce qui implique des investissements
forts onéreux. En second lieu, c’est une agriculture qui est limitée dans son offre
productive. Sa production est en effet cantonnée aux végétaux de petite taille. Ne
pouvant produire du bœuf, de la pomme de terre ou du riz, l’agriculture verticale
ne peut satisfaire la diversité des besoins des ménages urbains. Enfin, elle se révèle
gourmande en électricité. L’utilisation des LED pour éclairer les végétaux en lieu
et place du soleil a des conséquences sur le coût énergétique de ce type d’agri-
culture. Par ailleurs, la construction de l’habitat adapté à ce mode de production
requiert l’utilisation de matériaux tirés de ressources non renouvelables. Autant
de limites suscitant des réserves sur la durabilité de cette agriculture.

Encadré 7 La croissance démographique mondiale est-elle


responsable du péril climatique ?

« Il n’est de richesse que d’hommes », cette affirmation de Jean Bodin1 qui a


longtemps justifié les politiques natalistes ne semble plus faire l’unanimité à
l’épreuve du réchauffement climatique. Certaines organisations internationales
et certains experts estiment en effet qu’il est inenvisageable de dissocier la
croissance démographique de la lutte contre le réchauffement climatique car la
baisse de la natalité constitue une des solutions à ce défi. C’est en l’occurrence
une institution de l’ONU, le Fonds des Nations unies de la population qui dans
son rapport de 2009 sur la population mondiale présenté à Copenhague a pour
la première fois établit le lien entre baisse de la natalité et baisse des émissions
de gaz à effet de serre. Selon cette organisation, « des taux de fécondité moins
élevés contribueraient au ralentissement de la croissance démographique et
du même coup à la réduction des émissions dans l’avenir et permettraient aux
gouvernements de suivre plus aisément le rythme de l’adaptation nécessaire
au changement climatique ».
En 2018, 15 000 scientifiques de 184 pays firent écho à cette thèse en publiant
dans la revue Bioscience une pétition intitulée « Avertissement à l’humanité »
à l’adresse des gouvernements les incitant à prendre des mesures à l’encontre
de la croissance démographique considérée comme un des principaux facteurs
des menaces environnementales et sociales. Ils insistaient particulièrement sur

1 Dans Les Six livres de la République publié en 1576, Jean Bodin affirme : « il ne faut jamais craindre
qu’il y ait trop de sujets, trop de citoyens vu qu’il n’y a de richesse, ni force que d’hommes ».

67

046092.indd 67 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

les risques de déstabilisation de la planète en cas d’inaction en matière de


démographie. La baisse du taux de fécondité et la détermination d’une taille
de population humaine soutenable constituaient à leurs yeux des solutions
salvatrices face à cet impératif.
En mettant en cause la croissance démographique comme source de déséquilibres
économiques, sociaux et environnementaux, ces scientifiques font ainsi écho
aux thèses malthusiennes. Elles ont été pour la première fois exposées dans un
ouvrage intitulé Essai sur le principe de la population. Thomas Malthus y jette
les bases de ce qui est communément appelé théorie malthusienne. Selon cet
auteur du XVIIIe siècle, pasteur de son état, la population a tendance à croître
selon une progression géométrique tandis que les ressources sont soumises à
une progression arithmétique. Le décalage entre ces deux rythmes de croissance
conduit inévitablement l’humanité, en cas de non limitation des naissances à
un désastre en raison des famines découlant de la faiblesse des ressources
alimentaires. Parmi ses préconisations supposées salvatrices, il y a l’abstinence
sexuelle ou l’interdiction faite aux pauvres de se marier.
Cette résurgence des thèses malthusiennes qui associent croissance démogra-
phique et péril économique et social est-elle fondée ? En d’autres termes la
démographie mondiale porte-t-elle une lourde responsabilité dans la menace
climatique que l’humanité est appelée à affronter ? Suffit-il de baisser la natalité
pour que ce péril soit circonscrit ? Les réponses à ces interrogations lancinantes
et relevant souvent du tabou méritent d’être nuancées.
Il est tout d’abord vrai que la Terre n’a jamais été aussi peuplée. Comptant à
peine 1 milliard en 1800, la population mondiale n’a depuis cessé de croître.
En 2017, elle a franchi la barre de 7.5 milliards d’habitants et devrait selon les
projections de l’ONU poursuivre sa croissance pour atteindre 9.7 milliards en
2050 et 11.2 milliards en 2100. En l’espace de trois siècles, la Terre aura vu le
nombre de ses occupants tripler1.
Cet emballement démographique source d’interrogations est le fait des pays
en développement notamment d’Afrique dont la population devrait quadrupler
passant de 1.2 milliards 2017 à 4.2 milliards en 2100.
Réduire la population mondiale pour des raisons climatiques implique l’adoption
de politiques-anti natalistes dans les pays en développement et d’Afrique en
particulier. Quelle responsabilité portent-ils dans la croissance vertigineuse des
émissions de gaz à effet de serre principale source du péril climatique ? Au regard
des statistiques disponibles, cette responsabilité est infinitésimale. En réalité, il
n’existe pas de lien causal entre croissance démographique et croissance des
émissions des gaz à effet de serre. L’exemple de la Chine et de l’Inde en porte
témoignage. Ces deux pays continents ont un poids démographique élevé
représentant respectivement 19 % et 18 % de la population mondiale en 2017
selon l’ONU. Sur le plan des émissions, ils occupent le haut du peloton avec
respectivement 9.8 et 2.5 milliards de tonnes de CO2 en 2017 occupant de ce
fait la première et la quatrième place du classement des plus gros émetteurs de
CO22. Néanmoins ces statistiques ne suffisent pas à établir une relation de cause

1. Voir l’annexe 3, page 80, illustrant la courbe d’évolution de la population mondiale.


2. Voir l’annexe 2, page 79, mettant en lumière les projections de l’ONU en matière de crois-
sance démographique mondiale.

68

046092.indd 68 18/11/2020 09:10


II. Une multiplicité de solutions salvatrices

à effet entre croissance démographique et émissions de gaz à effet de serre car


si l’on rapporte ces émissions au nombre d’habitants, ces deux pays subissent un
déclassement conséquent en occupant la 52e et la 133e place, supplantés de ce
fait par des pays comme le Qatar, les États-Unis ou l’Australie. Dans une étude
publiée en 2015 intitulée « Carbone et inégalités : de Kyoto à Paris », Thomas
Chancel et Thomas Piketty mettent ainsi en lumière le fait que les inégalités en
matière d’émissions de gaz à effet sont surtout liées aux inégalités de richesse
ou de revenus. Ils affirment en effet que 40 % des émissions de CO2 satisfont les
besoins des Nord-Américains, 20 % des Européens et 10 % des chinois. À l’autre
bout de la pyramide se trouvent les individus les plus pauvres du Mozambique,
du Rwanda et du Malawi qui émettent à peine 0.1 tonne d’équivalent CO2 soit
2 000 fois moins que les 1 % les plus riches américains, luxembourgeois, avec
des émissions annuelles par personne supérieures à 200 tonnes.
Concernant les pays d’Afrique, ils arrivent très loin dans ce classement. Le Nigéria,
pays emblématique de cette croissance démographique galopante occupe le
173e rang avec 0.6 tonne de carbone émis par habitant.
Au vu des données précédentes, il est donc possible d’affirmer que les pays qui ont
l’empreinte carbone la plus forte sont ceux qui ont un niveau de développement
élevé et dont la démographie est stable. La responsabilité du péril climatique
est de ce fait davantage imputable au modèle de développement énergivore
et consumériste adopté par les pays développés plutôt qu’à la démographie.
Certes celle-ci peut, il est vrai, être à l’origine de phénomènes de déforestation
et d’intensification de l’usage des sols, elle n’a cependant qu’un poids marginal
dans le développement de l’effet de serre lié à la croissance des émissions de
carbone. Ce sont davantage les modes de vie dans les pays riches qu’il faut
reconsidérer. De nombreuses études d’ONG, dont celle d’Oxfam, ont apporté
un éclairage édifiant sur l’empreinte écologique liée au mode de vie occidental.
Si toute l’humanité devait adopter le mode de vie australien ou américain, il
faudrait respectivement 4.1 et 5 planètes pour subvenir aux besoins humains1.
Par ailleurs l’ONG britannique Oxfam à travers son étude minore la responsabilité
démographique dans l’occurrence du réchauffement climatique en mettant l’accent
sur les inégalités intrinsèques au système capitaliste. Elle indique en effet que
50 % des émissions de gaz à effet de serre sont le fait des 10 % les plus riches
de la planète. En outre, les 1 % les plus riches au monde génère en moyenne
175 fois plus de CO2 qu’une personne classée parmi les 10 % les plus pauvres.
Dérisoirement responsables du dérèglement climatique, les pauvres sont ceux
qui auront à pâtir le plus des conséquences de ce phénomène. Mettre l’accent
sur la variable démographique c’est prendre le parti d’éluder la responsabilité
du capitalisme et de ses dérives ; c’est aussi courir le risque d’opposer riches et
pauvres dans un combat qui engage l’avenir de l’humanité.
Sauver la planète implique donc en définitive de redéfinir les contours d’un
capitalisme fondé sur un régime de production soutenable débarrassé ainsi de
son obsession productiviste, de sa volonté inégalitaire, de sa dépendance aux
énergies fossiles et de sa vocation consumériste. ©

1. Voir l’annexe 4, page 85, le tableau consacré à l’empreinte carbone des pays (et du nombre
de planètes nécessaires).

69

046092.indd 69 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Conclusion

La brutale et sévère crise économique née de la Covid-19 a relégué au second


rang l’actualité relative à l’urgence climatique au profit de l’urgence économique.
Un choix de court terme justifiable et compréhensible mais qui ne doit en rien
désensibiliser l’opinion sur la menace existentielle que fait peser le réchauffement
climatique sur l’humanité. Tout reste en effet à accomplir car en dépit des appels
à la mobilisation lancés par le GIEC sur la base de ses expertises rigoureuses
mettant clairement en évidence la responsabilité des émissions anthropiques dans
la modification du climat, rien ne semble dévier de leur trajectoire les émissions
de gaz à effet de serre. En croissance continue, elles risquent de rendre inenvi-
sageable la perspective de limitation du réchauffement climatique à +2 °C par
rapport à l’ère préindustrielle.
Les solutions envisagées pour conjurer cette perspective source de calamités sont
de multiple nature. Il s’agit d’une part de mobiliser les instruments économiques
associés à la fiscalité environnementale afin de contraindre les agents économiques
à modifier leurs comportements à l’égard des biens environnementaux. La taxe
carbone est un des éléments de cette politique environnementale dont l’efficacité
est éprouvée mais dont la mise en œuvre se heurte souvent au problème classique
d’acceptabilité d’une taxe. Généralement perçue comme un prélèvement source
de baisse du pouvoir d’achat et d’appauvrissement par les ménages, cette taxe
se heurte aussi à une vive résistance des entreprises qui redoutent une perte de
compétitivité par rapport aux pays concurrents. La solution à ces écueils réside
dans la mise en place d’une taxe carbone à l’échelle mondiale et l’utilisation de son
produit à la correction des inégalités sociales et au financement des technologies
propres. Concernant le prix à accorder au carbone, certaines analyses plaident
pour une valeur située autour de 80 dollars au moins. Un niveau suffisamment
élevé qui compte tenu de l’urgence climatique donnerait au signal prix toute sa
vocation dissuasive.
Les résultats de l’économie expérimentale trouvent toute leur place dans ce
combat titanesque. L’adoption de nudges en matière de préservation de l’environ-
nement a montré des résultats encourageants dans de nombreuses situations mais
reposant essentiellement sur la persuasion ils ne peuvent favoriser une modification
radicale des comportements à la hauteur des enjeux.
D’autre part, la décarbonation de l’économie est une nécessité impérieuse.
Elle implique la réduction drastique des énergies fossiles au profit des énergies
renouvelables. Cette mutation salvatrice implique des transformations profondes
du système économique encore excessivement centré sur le productivisme et la
recherche effrénée de croissance au prix du recul des équilibres environnementaux.
S’il est tentant de voir dans la décroissance une solution au réchauffement clima-
tique comme en témoigne l’effet spectaculaire de la baisse des émissions de gaz
à effet de serre à la suite de deux mois de confinement planétaire, il reste que

70

046092.indd 70 18/11/2020 09:10


Conclusion

cette option comporte plus d’inconvénients que d’avantages. L’accroissement des


inégalités et de la pauvreté qui devrait en résulter peut déboucher sur des crises
sociales violentes et favoriser l’instabilité politique.
S’il est un secteur qui dans le cadre des mutations nécessaires doit évoluer c’est
le modèle agricole en devenant moins productiviste et en épousant les contraintes
liées à son environnement. Cette évolution implique aussi une modification de
nos habitudes alimentaires. Le primat donné à la consommation de viande n’est
plus compatible avec les impératifs écologiques. De même la pollution numérique
croissante doit nous inciter à modifier nos attitudes à l’égard de la révolution
digitale. La sobriété numérique semble de ce fait la voie envisageable pour contenir
l’empreinte carbone croissante de ce secteur en croissance exponentielle.
La victoire de l’humanité contre ce péril implique par ailleurs le respect des
engagements internationaux en matière de réduction des émissions de gaz à effet
de serre et le renforcement de la coopération internationale jusqu’alors mise à
mal par les égoïsmes nationaux. Le sommet de Glasgow prévu en 2021 s’annonce
comme celui de tous les espoirs. En sera-t-il à la hauteur ? La réponse à cette
question fondamentale dépend largement de la sortie de crise économique liée
à la Covid-19. Une sortie rapide devrait à coup sûr redonner plus de luminosité
à l’urgence climatique. Dans le cas contraire, le risque est grand de voir le climat
érigé en variable d’ajustement dans la quête urgente des États à retrouver leur
niveau de prospérité d’avant crise. Une perspective lourde de conséquence dans
la mesure où la corrélation entre pandémies et atteintes à l’environnement est de
plus en plus établie.
Privilégier la lutte contre la crise économique au détriment de l’environnement
reviendrait en définitive à rendre récurrentes les crises sanitaires. En raison de
leur virulence croissante, ces pandémies pourraient définitivement condamner
l’humanité à sa perte. Les préoccupations mercantiles finiront-elles par prendre le
pas sur la nécessité de sauver la planète ? L’horloge climatique nous incite à choisir
rapidement et définitivement le parti de la vie et de l’espoir. Tout atermoiement
face à cette interrogation cruciale signerait la fin de l’humanité.

71

046092.indd 71 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Lexique

Anthropique : Qui est le produit des activités humaines.


Adaptation au changement climatique : Il s’agit de l’ensemble des actions et
mesures visant à limiter les conséquences dommageables liées au changement
Lexique

climatique et à maximiser ses effets bénéfiques.


Atténuation du changement climatique : Il s’agit de l’ensemble des mesures
et actions qui ont pour but de réduire les émissions de gaz à effet de serre
d’une part et d’accroître d’autre part la capacité de stockage du carbone par
les différents puits naturels que sont l’océan, les sols et les forêts.
Biocarburants : Désigne le carburant obtenu à partir de matières organiques
sèches ou en mobilisant des huiles combustibles d’origine végétale.
Biodiversité : Elle désigne la variété des formes de vie sur la Terre.
Biomasse : C’est l’ensemble de la matière organique d’origine végétale, animale
ou bactérienne pouvant être transformé en source d’énergie.
Budget carbone : Il désigne la quantité totale de CO2 à émettre pour limiter
le réchauffement climatique en dessous d’un certain niveau.
Déforestation : Il s’agit d’opérations consistant à détruire la forêt et qui ont un
impact sur le réchauffement climatique. La déforestation accroît l’érosion
des sols et favorise la désertification et l’appauvrissement de la biodiversité.
Développement durable : Défini par le rapport Brundtland en 1987, le dévelop-
pement durable vise à répondre aux besoins du présent sans compromettre
la capacité des générations à venir à répondre aux leurs. C’est un dévelop-
pement qui vise à concilier l’écologique, l’économique et le social.
Double dividende : C’est une notion utilisée en matière de fiscalité environne-
mentale pour caractériser les avantages tirés de la mise en œuvre de taxes
environnementales. Le premier dividende se matérialise par l’amélioration de
l’environnement, le second découle de la réaffectation des recettes générées,
celles-ci peuvent servir à financer les innovations vertes ou contribuer à
baisser le coût du travail afin de favoriser la baisse du chômage.
Coût marginal d’abattement ou de dépollution : Désigne la charge que supporte
une entreprise pour réduire la pollution qu’elle a générée du fait de son
activité. Le coût marginal d’abattement décroît avec la production. Plus
celle-ci augmente, plus le coût additionnel supporté par l’entreprise diminue.
Coût marginal social : Il désigne le coût supplémentaire que la société dans son
ensemble doit supporter du fait de l’accroissement d’une unité supplémentaire de
pollution. Il permet ainsi de définir la taxe que les agents qui sont à l’origine de
celle-ci, doivent acquitter afin de les contraindre à modifier leur comportement.
Cycle du carbone : Le carbone est un des éléments essentiels de la matière
organique qui constituent les êtres vivants. Son rôle dans l’effet de serre
naturel est déterminant. Les flux d’échange qu’il entretient avec ses principaux
réservoirs (océans, sols et forêts) forment le cycle carbone.

72

046092.indd 72 18/11/2020 09:10


Lexique

Eco-taxe : Ce sont des taxes qui s’appliquent aux produits supposés nuire à
l’environnement. Ils visent à inciter les consommateurs à modifier leurs choix
de consommation au profit de produits moins polluants.
Effet rebond : Encore appelé paradoxe de Jevons du nom de l’économiste anglais
qui l’a mis en lumière, il désigne l’augmentation de consommation résultant
de la réduction des limites à l’utilisation d’une technologie. Concrètement,
ce phénomène se produit lorsque les gains environnementaux découlant de
l’efficacité énergétique sont annulés du fait de l’augmentation des usages. Le
rendement énergétique des moteurs automobiles s’est traduit par exemple
par une réduction du coût par kilomètre parcouru, ce qui a eu pour effet
pervers d’encourager les automobiles à utiliser davantage leurs voitures et
parcourir ainsi plus de kilomètres.
Émissions anthropiques : Ce sont les émissions de gaz à effet de serre résultant
de l’activité humaine
Empreinte écologique : C’est un indicateur permettant de mesurer la pression
exercée par les hommes sur la nature ou l’environnement. Elle permet d’évaluer
la surface terrestre nécessaire à la satisfaction des besoins des sociétés
humaines. Il est souvent affirmé que si l’on venait à généraliser le mode
de vie des Américains, il faudrait 5 planètes pour satisfaire les besoins de
la population mondiale. Cet indicateur permet aussi d’évaluer le jour du
dépassement, c’est-à-dire la date à partir de laquelle l’humanité se voit
contrainte de puiser dans ses réserves c’est-à-dire de vivre à crédit du fait
d’avoir consommé toutes les ressources annuelles renouvelables mises à sa
disposition par la Terre. En 2018 et en 2019 le jour du dépassement était
respectivement évalué au 1er août et au 29 juillet. Un cumul des jours de
dépassement montrerait que présentement l’humanité vit largement à crédit
en consommant les ressources correspondantes à l’année 2030. En 2020, le
jour du dépassement devrait tomber le 22 août, un recul de trois semaines
à mettre au crédit des mesures de confinement décidées dans le cadre de
la pandémie de la Covid-19.
Empreinte carbone : C’est un indicateur permettant d‘évaluer la quantité
d’émission de dioxyde de carbone imputée à une entité.
Externalité : Désigne l’impact sur des tiers des choix de consommation ou de
production d’un agent économique. Les externalités peuvent être positives
(la vaccination) ou négatives (la pollution). Les externalités relèvent des
défaillances de marché car elles débouchent sur une mauvaise allocation
des ressources.
Lexique

FAO : Il s’agit de l’organisation des Nations unies pour l’agriculture et l’ali-


mentation.
Géo-ingénierie : Elle regroupe l’ensemble des techniques visant à manipuler
délibérément le climat terrestre dans le but de contrecarrer ou d’atténuer les
effets du réchauffement climatique. Ses visées sont davantage correctives
que préventives. Ses principaux projets s’articulent autour de la limitation du

73

046092.indd 73 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

rayonnement solaire, du refroidissement de l’atmosphère et de la capture


du CO2. Ceux-ci divisent profondément la communauté scientifique pour
des raisons éthiques mais aussi en raison d’effets secondaires non maîtrisés.
GIEC : Désigne le groupe d’experts intergouvernemental sur l’évolution du climat,
une institution internationale créée en 1988 et pilotée par l’organisation
Lexique

météorologique mondiale et le PNUE (Programme des Nations unies pour


l’environnement). Elle est chargée d’apporter sans parti pris une expertise
sur le climat. Ses rapports publiés à intervalle régulier fournissent un état des
lieux des connaissances les plus au point sur le réchauffement climatique et
servent de référence dans le cadre des négociations internationales. Alerter
les décideurs publics et la société fait partie de ses missions.
Internaliser les externalités : C’est une action qui consiste à intégrer dans le
calcul des agents économiques les conséquences de leurs actions sur la
collectivité. L’internalisation d’une externalité négative implique l’instauration
d’une taxe tandis que dans le cas d’une externalité positive, elle passe par
l’octroi d’une aide ou d’une subvention.
Neutralité carbone ou zéro émission nette : Il s’agit d’un principe consistant
à compenser les émissions de gaz à effet de serre dans l’atmosphère.
Cela implique l’existence d’un équilibre entre les émissions de carbone et
l’absorption du carbone par les puits de carbone.
Permafrost ou pergélisol en français : Ce sont des terres gelées couvrant un
cinquième de la surface terrestre dont 90 % du Groenland, 80 % de l’Alaska,
50 % du Canada et de la Russie. Sa fonte s’est accélérée ces dernières années
Le Groenland et l’Alaska ont ainsi perdu entre 1992 et 2017, 6 400 milliards
de tonnes de glace.
Photosynthèse : C’est un processus biologique permettant aux plantes d’uti-
liser l’énergie solaire pour convertir l’eau et le gaz carbonique en oxygène.
Principe de pollueur payeur : C’est l’un des principes au cœur des politiques
environnementales. Il consiste à faire supporter les coûts induits par la pollution
par les agents qui en sont à l’origine.
Protocole de Kyoto : Il désigne un accord international visant à réduire les
émissions de gaz à effet de serre. Signé en 1997, il prolonge la convention
cadre des Nations unies sur les changements climatiques mise en place en
1992 lors du sommet de la Terre à Rio.
Puits de carbone : On considère comme tel tout système qui absorbe plus de
carbone qu’il n’en émet. Le sol, les forêts et les océans sont les principaux
puits de carbone. Ces puits naturels éliminent, selon certaines estimations,
entre 9.5 et 11 gigatonnes de CO2 par an.
Rapport Brundtland : C’est le nom communément attribué au rapport intitulé
« Notre futur commun » publié en 1987 par la Commission nationale pour
l’environnement et le développement de l’ONU présidé par l’ancien premier
ministre norvégien Harlem Brundtland. Il est à l’origine de la définition de
la notion de développement durable.

74

046092.indd 74 18/11/2020 09:10


Liste des acronymes

Rapport Stern : Il s’agit du rapport de la commission présidée par Sir Nicholas


Stern publié en 2006 intitulé « L’économie du changement climatique »
Réchauffement climatique : Phénomène se traduisant par une augmentation
des températures moyennes à la surface de la Terre du fait de l’émission
excessive des gaz à effet de serre dans l’atmosphère.

Liste des acronymes

CREDOC : Centre de recherche pour l’étude et l’observation des conditions


de vie
EPR : European Pressurized Reactor
ITER : International Thermonuclear Expérimental Reaction
OCDE : Organisation pour la coopération et le développement économique
ONG : Organisations non gouvernementales
ONU : Organisation des Nations unies
OMM : Organisation météorologique mondiale
OMS : Organisation mondiale de la santé
PIB : Produit intérieur brut
PNUD : Programme des Nations unies pour le développement.
UE : Union européenne

Bibliographie

ANGUS Ian et BUTLER Simon, Une planète trop peuplée ? Le mythe populationniste,
l’immigration et la crise écologique, Ecosociété, 2011.
AUDIER Serge, L’âge productiviste. Hégémonie prométhéenne, brèches et
alternatives écologiques, La découverte, 2019.
BAYON Denis, FLIPO Fabrice, SCHNEIDER François, La décroissance : 10 questions
Liste des acronymes

pour comprendre et en débattre, La découverte, Paris, 2010.


BERGERON Henri, CASTEL Patrick, DUBUISSON Sophie, Le biais comportementaliste,
Presse de Sciences Po, 2018.
BERTEAUX Jean-Loup, Démographie, climat, migrations : l’état d’urgence, Albin
Michel, 2017.
BUREAU Dominique, Transition écologique et investissement verts, Économie et
prévision, n° 208-209, 2016.

75

046092.indd 75 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

—, HENRIET Fanny et SCHUBERT Katheline, « Pour le climat : une taxe juste, pas juste
une taxe », Notes du Conseil d’analyse économique, n° 50, La documentation
française, 2019.
BROWN Lester Russel, FLAVIN Christopher, POSTEL Sandra, Le défi planétaire : pour
Bibliographie

une économie mondiale, écologique et durable, Sang de la terre, 2012.


Centre d’analyse stratégique, Les instruments économiques au service du climat,
La Documentation française, 2012.
CHARBIT Yves et GAIMARD Maryse, La bombe démographique en question, PUF, 2015.
COMBE Mathieu, Survivre au péril plastique, Rue de l’échiquier, 2019.
CHIRILEAU-ASSOULINE, « La fiscalité environnementale peut-elle devenir réellement
écologique ? État des lieux et condition d’acceptabilité », Revue de l’OFCE,
2005.
CRIQUI Pierre, « Redéfinir les politiques climatiques », La tribune, 2018.
DASSOUVILLE Bertrand, Comprendre le climat pour agir, Éditions Eskai, 2012.
DE PERTHUIS Christian, Le tic-tac de l’horloge climatique, De Boek supérieur, 2019.
ELOI Laurent, Sortir de la croissance. Mode d’emploi, Les liens qui libèrent, 2019.
France stratégie : « La valeur de l’action pour le climat », 2019.
GADREY Jean, Faut-il donner un prix à la nature ?, Les petits matins, 2015.
GEORGESCU-ROEGEN Nicholas, Pour une révolution bioéconomique, ENS Éditions,
2013.
GORE Al, Sauver la planète Terre. L’écologie et l’esprit humain, Albin Michel, 2013.
GRANDJEAN Alain et MARTINI Mireille, Financer la transition énergétique, Les éditions
de l’atelier, 2016.
GRANDJEAN Alain et DUFRÈNE Nicolas, Une monnaie écologique, Odile Jacob, 2020.
GUESNERIE Roger, « Kyoto et l’économie de l’effet de serre », Les rapports du
Conseil d’analyse économique, La documentation française, 2004.
—, STERN Nicolas, Deux économistes face aux enjeux climatiques, Le Pommier,
2012.
HARRIBEY Jean-Marie, « Les théories de la décroissance : enjeux et limites », Les
Cahiers français, n° 337, 2007.
JOUZEL Jean, VÉRET Gildas, Sauvons le climat, Rustica, 2019.
JOUZEL Jean, DENIS Baptiste, Climat, parlons vrai, Éditions François Bourin, 2020.
KLEIN Naomi, Plan B pour la planète, le New Deal vert, Actes du sud, 2019.
LATOUCHE Serge, Le pari de la décroissance, Fayard, Paris, 2006.
—, Petit traité de la décroissance sereine, Mille et une nuits, Paris, 2007.
LECOCQ François, « Les marchés carbone dans le monde », Revue d’économie
financière, 2006.
OUVRARD Benjamin, « Les nudges dans la régulation environnementale : alternative
ou complément aux instruments monétaires ? », Thèse de doctorat, Université
de Strasbourg, 2016.
OSTROM Elinor, Gouvernance des biens communs, De Boeck supérieur, 2010.

76

046092.indd 76 18/11/2020 09:10


Annexe

Rapport du GIEC :
– « Climate change, Synthesis report summary for policymakers », 2014.
– « Spécial Report on Global Warming of 1.5 °C », 2008.
Rapport Quinet :« La valeur de l’action pour le climat », France stratégie, 2019.
ROCHFELD Judith, Justice pour le climat, Odile Jacob, 2019.
SERRA Daniel, Économie comportementale, Economica, 2017.
SERVET Jean-Michel, L’économie comportementale en question, Charles Leopold
Mayer édition, 2018.
THELER Richard, Misbehaving : les découvertes de l’économie expérimentale,
Éditions du Seuil, 2018.
—, SUNSTEIN Cass, Nudge comment inspirer la bonne décision, Pocket, 2012.
TIROLE Jean, « Politique climatique : une nouvelle architecture internationale »,
Les rapports du Conseil d’analyse économique, n° 87, La Documentation
française, 2009.
—, Économie du bien commun, PUF, 2016.
VIDALENC Éric, Pour une écologie numérique, Les Petits matins-Institut Veblen, 2019.
ZACCAÏ Edwin, Deux degrés, Les Presses de Sciences Po, 2019.

Annexe

ANNEXE 1 : Records de concentration de gaz à effet de serre en 2018.

Figure 1

Annexe

Source : OMM

77

046092.indd 77 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 2
Annexe

Source : OMM

Figure 3

Source : OMM

78

046092.indd 78 18/11/2020 09:10


Annexe

Figure 4

ANNEXE 2 : Le poids croissant du numérique dans les émissions de GES.

Figure 1

Annexe

Source : Agence internationale de l’énergie

79

046092.indd 79 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 2
Annexe

Source : Agence internationale de l’énergie

ANNEXE 3 : L’évolution de la démographie mondiale, une véritable


bombe à retardement.

Figure 1

Source : ONU

80

046092.indd 80 18/11/2020 09:10


Annexe

Les projections de l’ONU

Figure 2

Figure 3

Annexe

81

046092.indd 81 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 4
Annexe

Figure 5

82

046092.indd 82 18/11/2020 09:10


Annexe

Figure 6

Figure 7

Annexe

83

046092.indd 83 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 8
Annexe

Figure 9

Source : ONU

84

046092.indd 84 18/11/2020 09:10


Annexe

ANNEXE 4 : Le poids des pays dans les émissions de GES et les indica-
teurs d’atteinte à l’environnement.

Figure 1

Source : BP Statista Review of World Energy 2019

Figure 2

Annexe

Source : Commission européenne

85

046092.indd 85 18/11/2020 09:10


Chapitre 1. Quelles solutions face au péril climatique ?

Figure 3
Annexe

Source : Global Footprint Network

Interprétation : Après des décennies d’avancement, le jour du dépassement


connaît un recul en 2020 de trois semaines. En cause, les mesures de confinement
décidées à travers le monde pour juguler la crise sanitaire de la Covid-19. Une
réduction de l’empreinte écologique à relativiser car elle n’est pas la conséquence
d’une modification radicale des modes de vie mais le résultat d’un choix contraint.

Figure 4

86

046092.indd 86 18/11/2020 09:10


Chapitre 2.

L’économie mondiale a l’épreuve


de la Covid-19 : quelles perspectives ?

Elle était annoncée depuis quelques années par de nombreux analystes et


économistes. Certains d’entre eux voyaient dans la faiblesse des taux d’intérêt
la source possible d’une bulle spéculative dont l’éclatement pouvait conduire à
une nouvelle crise financière. D’autres pointaient du doigt la croissance exponen-
tielle de la dette des États et les tensions commerciales générées par la politique
protectionniste américaine comme facteurs potentiels de déclenchement d’une
nouvelle crise. Les pronostics se voulaient aussi très alarmistes ; elle était annoncée
plus sévère que la crise de 2008 née du crédit hypothécaire américain. Toutes ces
analyses reposant sur une analyse objective des faits et visant à alerter des dangers
encourus par l’économie mondiale ont somme toute été battues en brèche. La crise
économique à l’œuvre actuellement ne résulte pas de facteurs endogènes mais
exogènes au système économique. Elle n’est pas la conséquence d’une défaillance
du système financier comme autrefois mais le résultat de la propagation d’une
pandémie à l’échelle mondiale.
Sa sévérité n’a aussi point d’égal, ni de comparaison. En mettant brutalement
entre parenthèses l’activité économique, en plongeant dans le rouge les comptes
publics, en multipliant le nombre de faillite d’entreprises, en favorisant le dévelop-
pement du chômage de masse ainsi que l’accroissement des inégalités, la crise
économique née de la Covid-19 apparaît sans comme mesure avec les précédentes.
Du fait qu’elle permet la libre circulation des biens, des capitaux et des personnes et
par voie de conséquence la propagation des pandémies, la mondialisation apparaît
aux yeux de certains comme le responsable de cette catastrophe économique et
sanitaire. Aussi appellent-ils à démondialiser l’économie. Le temps est-il venu de
remettre en cause les acquis de ce processus séculaire présenté à l’origine par ses
ardents thuriféraires comme le vecteur d’une croissance infinie ?

87

046092.indd 87 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

I. Une crise amplement annoncée mais découlant


d’une origine inattendue

2020 restera indéfiniment dans la mémoire collective comme l’année qui a fait
basculer l’humanité dans un univers dominé par l’incertitude des lendemains. Avant
d’être déstabilisée par un virus aux conséquences on ne peut plus dévastatrices,
de nombreux économistes1 considéraient l’année 2020 comme le point d’orgue
d’une crise économique et financière foudroyante.

Figure 1 : Les pays les plus endettés

Source : FMI

De nombreux facteurs de fragilité source de préoccupations

Déstabilisée par la crise des subprimes, l’économie mondiale a progressivement


cumulé de multiples handicaps qui ont contribué, en vertu du principe les mêmes
causes produisent les mêmes effets, à accroître l’appréhension d’une nouvelle
crise financière. Le premier des handicaps mis en lumière à partir de la décennie

1. Deux économistes américains se sont particulièrement distingués dans leur détermination


à prédire l’arrivée imminente d’une nouvelle crise financière. Il s’agit de Nouriel Roubini et
de George Ugeux. Le premier a acquis ses lettres de noblesse en annonçant avec succès la
crise des subprimes dès 2005 et la crise de la dette souveraine grecque en 2012. Depuis il
est devenu un des prophètes de l’économie qualifié par certains de « docteur catastrophe ».

88

046092.indd 88 18/11/2020 09:10


I. Une crise amplement annoncée mais découlant d’une origine inattendue

2010, c’est la croissance vertigineuse du niveau de l’endettement public et privé.


De l’ordre de 27 000 milliards de dollars en 2005, l’endettement public a doublé
pour atteindre la somme astronomique de 67 000 milliards de dollars en 2017.
Si on y ajoute la dette privée, l’ensemble des dettes accumulées dans le monde
atteint en 2018 le chiffre vertigineux de 226 000 milliards de dollars soit 324 % du
PIB mondial selon l’Institute of International Finance.

La quantitative easing en cause

Le niveau d’endettement colossal trouve ses origines dans la politique monétaire


menée au lendemain de la crise des subprimes par les banques centrales. Dénommée
politique d’assouplissement quantitatif ou quantitative easing, cette pratique des
banques centrales vise à favoriser le financement de l’économie dans un contexte
marqué généralement par le risque déflationniste et la défiance accrue des banques
commerciales les unes envers les autres sur le marché interbancaire. Les banques
centrales disposent pour ce faire de deux modalités d’action. Soit, elles interviennent
directement sur le marché primaire en acquérant des titres représentatifs de la
dette publique. Ce faisant, elles créent de la monnaie ex nihilo qu’elles mettent à
disposition des pouvoirs publics leur permettant ainsi de faire face à leurs obliga-
tions en matière d’investissement et de dépense. La seconde modalité consiste
pour les banques centrales à intervenir sur le marché secondaire en procédant au
rachat de titres de dettes publiques auprès de différents investisseurs. Les liquidités
obtenues par ceux-ci en échange de leurs titres peuvent être consacrées à l’achat
de nouveaux titres sur le marché primaire, permettant ainsi le financement des
entreprises ou du déficit budgétaire. Il en est de même des banques commerciales
qui du fait de cette intervention voient leurs réserves détenues auprès de la banque
centrale augmenter. Elles peuvent plus aisément financer les agents économiques
et contribuer à la relance économique. Quelle que soit la modalité choisie par les
banques centrales, la politique d’assouplissement quantitatif du fait des masses
financières injectées sur les marchés financiers a pour effet de pousser à la baisse
le niveau des taux d’intérêt à moyen et long terme permettant ainsi la montée de
l’endettement des agents économiques.
Initiée d’abord par la banque centrale du Japon à la fin des années 90, cette
politique a fait progressivement des émules à la faveur de la crise des subprimes.
La Banque centrale américaine (FED) d’abord puis la Banque centrale européenne
(BCE) l’ont adoptée pour contenir le risque déflationniste découlant de la crise
du crédit hypothécaire et restaurer la confiance sur les marchés financiers. Trois
programmes de quantitative easing ont été ainsi mis en œuvre par la FED. Le
premier lancé au début de la crise visait à racheter des créances immobilières
détenues par les investisseurs financiers et à fournir des liquidités aux banques qui
confrontées mutuellement à une méfiance croissante ne pouvaient se financer entre
elles. 1 750 milliards de dollars ont été ainsi injectés dont une partie consacrée
à l’achat de bons du Trésor américain. Les deuxième et troisième programmes

89

046092.indd 89 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

étaient consacrés en grande partie au financement monétaire de la dette publique


américaine. La FED n’y a mis fin qu’à partir de 2014 avec l’amélioration des résultats
sur le front économique.
Contrairement aux autres banques centrales qui peuvent faire du financement
monétaire de la dette publique, la BCE ne peut intervenir sur le marché primaire.
Son programme d’assouplissement quantitatif n’a été entamé qu’à partir de
mars 2015 avec le rachat sur le marché secondaire de titres obligataires d’une
valeur de 1 100 milliards d’euros émis par les pays membres de la zone euro et
par des organismes européens. Ce programme de rachat n’a pris fin qu’en 2018
et s’est concrétisé par une injection de 2 600 milliards d’euros dans l’économie.
La banque d’Angleterre aussi n’est pas demeurée en reste par rapport à cette
politique. Ses interventions multiples se sont traduites par l’injection d’abondantes
liquidités dans l’économie britannique. Au final l’action des banques centrales a
contribué à amorcer la reprise économique mais elle a eu pour conséquence une
sévère dégradation de leurs bilans. Ceux de la FED, de la BCE et de la banque
du Japon sont passés de 4 à 15 milliers de milliards de dollars faisant craindre un
affaiblissement de leur capacité d’action en cas de nouvelle crise.
Georges Ugeux a à ce sujet développé l’idée d’une vulnérabilité de l’économie
mondiale liée à l’existence d’un triangle des Bermudes produit de l’interconnexion
entre trois acteurs centraux du système économique, les États, les banques commer-
ciales et les banques centrales. La moindre défaillance d’un des trois acteurs peut,
à l’image de la crise de 2008, propulser les autres dans de grandes difficultés de
nature à favoriser une déflagration systémique. En favorisant la baisse du loyer
de l’argent, les banques centrales ont créé, selon ce banquier devenu oracle de
l’économie, les conditions favorables à l’avènement d’une nouvelle crise financière.
Celle-ci découlerait de la remontée des taux d’intérêt en réponse à une menace
inflationniste. Une situation qui aurait pour effet de rendre insoutenable l’endet-
tement public et d’exposer certains États à un risque d’insolvabilité.

Une survalorisation source de bulles spéculatives

Autre évolution périlleuse, celle liée à la survalorisation des marchés finan-


ciers. En augmentant de manière exponentielle la quantité de liquidités en circu-
lation, la politique d’assouplissement quantitatif a contribué à nourrir une nouvelle
dynamique de spéculation. Animés par la volonté de prendre des risques excessifs
afin d’atteindre la profitabilité la plus élevée possible, les acteurs du monde de
la finance ont porté à des sommets le cours des titres boursiers contribuant en
cela à la formation de bulles spéculatives. L’évolution de l’indice PE de Shiller au
cours des dernières années en porte témoignage. Ratio boursier créé par Robert
Shiller, prix Nobel d’économie, il a pour but de mesurer la surévaluation des actifs
financiers. Son calcul s’obtient en divisant la capitalisation boursière des marchés
d’actions par la moyenne sur 10 ans des bénéfices réalisés. En 2017, cet indice
se situait autour de 32, niveau atteint peu avant le krach de 1929, et qui depuis

90

046092.indd 90 18/11/2020 09:10


I. Une crise amplement annoncée mais découlant d’une origine inattendue

n’avait jamais été dépassé excepté lors de la bulle Internet de 2000 ou lors de la
crise des subprimes. Une situation préoccupante qui avait conduit Robert Shiller à
lancer l’alerte en affirmant qu’il y avait des similitudes entre Wall Street aujourd’hui
et Wall Street à la veille du krach de 1929. Le graphique suivant met en lumière la
corrélation entre l’évolution de cet indice et la survenue de crises économiques
et financières.

Figure 2 : Évolution de l’indice de Shiller des 500 grandes entreprises


cotées en Bourse aux États-Unis.

Source : Robert Schiller

La valeur moyenne de cet indicateur est de l’ordre de 17, en dessous de celle-ci,


le marché des actions est supposé sous-évalué, les investisseurs peuvent espérer
une remontée des cours et bénéficier de rendements plus élevés. Au-dessus de
cette valeur moyenne, le marché des actions est surévalué, on est ainsi en présence
d’une bulle spéculative. Anticipant une baisse à venir du cours des actions, les
investisseurs peuvent être conduits à se débarrasser de leurs titres provoquant
de ce fait l’éclatement de la bulle d’où les craintes suscitées par l’évolution de
l’indice de Shiller.
Même si sa vocation n’est pas de prédire les crises boursières et financières, il
est toutefois difficile de ne pas constater la coïncidence entre des valeurs élevées
de cet indice et la survenue des principaux krachs boursiers qui ont affecté l’activité
économique à partir du XXe siècle.
Ce processus de survalorisation des titres financiers est intervenu dans un contexte
singulier, celui de la remise en cause par l’administration Trump de la réglementation
financière mise en place au lendemain de la crise des subprimes par l’administration
Obama. Deux dispositifs au cœur de la régulation financière ont ainsi fait l’objet

91

046092.indd 91 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

d’un détricotage par l’administration en place. Il s’agit de la règle Volcker et de la


loi Dodd-Franck. La première interdit aux établissements bancaires de pratiquer la
spéculation pour leur propre compte et restreint leur participation dans les fonds
spéculatifs. Le but de cette règle est d’éviter la prise de risque excessive de la part
des banques et le financement d’actifs risqués par des dépôts garantis par l’État.
En la remettant en cause, l’administration Trump souhaite mettre fin à une régle-
mentation considérée comme tatillonne empêchant les banques de développer
leur activité de prêts et d’améliorer leur rentabilité. La remise en cause de la loi
Dodd-Franck dont la vocation est de renforcer la stabilité du système financier
relève aussi de cette volonté. Cette loi composée de 2 300 pages votée en 2010
possède plusieurs vertus consistant à mieux encadrer les produits dérivés, à protéger
les consommateurs contre les ventes abusives de crédit et de cartes bancaires, à
dissuader les banques contre la tentation du « too big to fail ». Cette loi oblige ainsi
les banques à se doter d’un niveau de capitalisation plus élevé, d’effectuer des tests
de résistance régulièrement et de rédiger leur testament. Cette dernière disposition
vise à éviter que des fonds publics ne soient utilisés pour sauver des institutions
financières imprudentes dans leurs décisions stratégiques. Des choix somme toute
controversés de nature à encourager la spéculation qui dans un contexte marqué
par l’expansion du shadow banking fait peser des risques sur la stabilité financière
mondiale. Mis en cause dans le cadre de la crise des subprimes du fait des déséqui-
libres financiers qu’il génère, le shadow banking ne s’est jamais aussi bien porté.
Cette finance de l’ombre a connu, malgré le développement de normes bancaires
prudentielles, un essor considérable au lendemain de la crise des subprimes. Alors
que les transactions en cause représentaient autour de 20 000 milliards de dollars au
début des années 2010, les montants impliquant le shadow banking représentent
aujourd’hui près de 100 000 milliards de dollars. Échappant à toute réglementation,
le poids prégnant du shadow banking sur la finance mondiale contribue à renforcer
les craintes d’une crise systémique découlant des prises de risque excessives des
acteurs de ce système.

Des tensions commerciales exacerbées

Soucieux de restaurer la grandeur économique des États-Unis, le président


Trump a rapidement engagé, au lendemain de son accession au pouvoir, une guerre
commerciale contre l’Empire du milieu avec en toile de fond des accusations de
concurrence déloyale et notamment d’espionnage à l’encontre de Huawei, un
des fleurons de l’industrie chinoise. Pour la nouvelle administration américaine,
la Chine use depuis de longues années de pratiques faussant le libre jeu de
la concurrence en subventionnant notamment ses entreprises exportatrices, en
manipulant sa monnaie afin de rendre plus compétitifs ses produits sur les marchés
internationaux et en s’appropriant indûment la propriété intellectuelle des entre-
prises occidentales désireuses de s’installer sur le marché chinois. Accusant un
déficit commercial croissant vis-à-vis de la Chine, les États-Unis ont ainsi décidé

92

046092.indd 92 18/11/2020 09:10


I. Une crise amplement annoncée mais découlant d’une origine inattendue

dès 2018 d’augmenter de 10 % les droits de douane sur les importations chinoises
d’une valeur de 200 milliards de dollars. Niant toute forme de déloyauté dans ses
rapports commerciaux avec les États-Unis, la Chine n’est pas demeurée inerte en
décidant en guise de représailles la surtaxation des produits américains importés
et la sous-évaluation de sa monnaie.
Différentes mesures de rétorsion ont par la suite marqué cette escalade commer-
ciale dont l’un des principaux enjeux est celui de la conquête de la suprématie
technologique afin de conserver le leadership économique mondial.

Figure 3 : Les barrières tarifaires américaines à l’égard de la Chine

Source : La financepourtous.com d’après PIIE working paper

Ce graphique met en lumière l’augmentation conséquente des droits de douane


appliqués aux produits en provenance de Chine. De 3.1 % en moyenne au cours de
l’année 2017, ils ont atteint deux ans plus tard 21.5 %, soit une augmentation de
près de 19 points de pourcentage. La volonté farouche des autorités américaines
de contraindre la Chine à reconsidérer sa politique commerciale vis-à-vis de son
partenaire américain n’a pas fondamentalement changé la donne pour l’économie
américaine. Celle-ci en dépit des mesures protectionnistes adoptées n’a cessé de
voir son déficit commercial s’accroître vis-à-vis de l’Empire du milieu. De l’ordre de
421 milliards de dollars en juin 2018, celui-ci est passé à 434 milliards de dollars une
année plus tard. Une dégradation imputable d’une part, au caractère incompressible
des importations américaines en provenance de Chine, et d’autre part, au recul
des exportations américaines pénalisées par une faible compétitivité par rapport
aux produits chinois bénéficiant d’un yuan sous-évalué. Pour les États-Unis, cette
situation a un effet dommageable immédiat, le surenchérissement des importations
en l’absence d’effet de substitution engendre un risque inflationniste et par voie
de conséquence une amputation du pouvoir d’achat des ménages américains.

93

046092.indd 93 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Figure 4 : Évolution du déficit commercial américain vis-à-vis de la Chine.

Source : US Census bureau

L’accroissement du déficit commercial des États-Unis à l’égard de l’Empire


du milieu a dans ce contexte suscité des doutes sur l’efficacité de la stratégie
des autorités américaines. Cette dernière a notamment fait craindre le déclen-
chement d’une guerre commerciale totale. Un risque d’autant plus élevé que de
nombreux pays dont ceux du Vieux continent ont aussi été victimes des mesures
protectionnistes américaines. Les incertitudes générées par ce contexte ont rendu
instables les marchés financiers lesquels ont subi au cours de l’année 2019 des
baisses relativement significatives. Une étude menée par le Conseil d’analyse
économique a permis de mettre en lumière les conséquences dommageables
découlant de ce conflit commercial susceptible de dégénérer en guerre commer-
ciale totale. Les résultats de celle-ci montrent que les conséquences de cette
confrontation dans un contexte dominé par le ralentissement de l’économie
mondiale pouvaient avoir des effets récessifs comparables à ceux induits par
la crise des subprimes.

94

046092.indd 94 18/11/2020 09:10


I. Une crise amplement annoncée mais découlant d’une origine inattendue

Figure 5 : Les conséquences d’une guerre commerciale mondiale

Source : Conseil d’analyse économique (2018)

Ce graphique montre en effet que la mise en cause du système multilatéral


commercial par les États-Unis pourrait déboucher sur un jeu à somme négative,
en d’autres termes le pays initiateur serait tout autant perdant que les autres
grandes puissances commerciales. Elles seraient toutes impactées négativement
en enregistrant une baisse de leur PIB de l’ordre de 4 %. Pour les autres nations,
la baisse du PIB serait d’autant plus importante que le pays est petit et ouvert.

Un endettement devenu insoutenable

1 600 milliards c’est le montant de la faramineuse dette étudiante américaine en


croissance continue depuis le début des années 2000. De l’ordre de 579 milliards
en 2008, cette dette a augmenté de 150 % en une décennie pour atteindre le
montant record de 1 600 milliards. Plusieurs facteurs se conjuguent pour expliquer
cette croissance exponentielle de l’endettement de la population estudiantine
américaine. Il y a d’abord la concurrence exacerbée que se livrent les universités
qui via des offres de formation attrayantes rivalisent pour attirer les meilleurs
étudiants. Il en découle une hausse des frais de scolarité rendant on ne plus peut
onéreux le coût de la scolarité dans la plupart des établissements publics comme
privés. Ainsi entre 2014 et 2019, le coût de la scolarité a augmenté de 22 % passant
de 41 000 dollars à 50 000 dollars par an. La sélection par l’argent est une des
caractéristiques des universités américaines. Les frais de scolarité à Harvard en
sont la parfaite illustration, ils s’élèvent en effet à 70 000 dollars par an. Désireux
acquérir une formation leur permettant un meilleur accès au marché du travail et
espérant ainsi bénéficier d’une meilleure rémunération, de nombreux étudiants, en

95

046092.indd 95 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

l’absence de bourses, n’ont d’autres choix que de contracter un prêt. 44 millions


se sont ainsi endettés pour financer leurs études. 20 % d’entre eux doivent en
moyenne plus de 100 000 dollars.
À ce niveau d’endettement élevé s’ajoute un autre paramètre rendant la situation
inextricable pour de nombreux étudiants, c’est le caractère prohibitif des taux
d’intérêt appliqués à ces prêts. Pour une immense majorité d’entre eux, cette
dette est perçue comme une condamnation à vie tant les remboursements peuvent
s’étirer sur de nombreuses années. Un fait anecdotique révélateur de cette réalité.
Le président Barack Obama a annoncé en 2012 avoir fini de rembourser son crédit
étudiant, soit quatre ans avant son accession à la présidence des États-Unis à l’âge
de 47 ans.

Figure 6 : La dette étudiante américaine

Source : BusinessBourse

Le coût exorbitant des études ne s’accompagne toutefois pas d’une meilleure


intégration des jeunes générations sur le marché du travail. Les niveaux de rémuné-
ration proposés ne sont pas souvent à la hauteur des niveaux de formation. La
conséquence immédiate de cette déconnexion se matérialise par le nombre croissant
des étudiants en situation de défaut de paiement. Plus d’un million fait défaut
tous les ans et ce nombre pourrait passer à 15 millions d’ici 2023 soit 40 % des
emprunteurs d’après l’Institute Brookings. Une évolution source de préoccupation
car les prêts étudiants représentent une proportion relativement importante de
l’endettement des ménages américains. En 2018, ils représentaient 11 % du total
de l’endettement des foyers américains, soit la seconde source d’endettement
après l’immobilier. Une multiplication des défaillances fait ainsi redouter la résur-
gence du spectre de l’éclatement d’une bulle comparable à celle à l’origine de
la crise des subprimes.

96

046092.indd 96 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Si ces craintes sont pour partie fondées, elles méritent toutefois d’être relati-
visées. En effet depuis 2010, l’administration Obama a mis en œuvre des réformes
permettant au gouvernement fédéral d’avoir le quasi-monopole de l’émission
des prêts étudiants au détriment du secteur bancaire. Dans son rapport de 2016,
le département du Trésor américain affirmait que la dette étudiante représentait
31 % des actifs du gouvernement des États-Unis qui en est le principal garant. En
cas de défaut massif, c’est donc principalement l’État fédéral qui en subirait les
conséquences. Le secteur privé en serait épargné.
Aux différentes fragilités précédemment énumérées pourraient s’ajouter d’autres,
celle découlant du Brexit porteur d’un risque, celui d’affaiblissement de l’Union
européenne, ou celle concernant les pays émergents à l’instar du Brésil ou de
l’Argentine, confrontés récurremment à des crises de change susceptibles de
déboucher sur des crises économiques.
Toutes ces défaillances mises bout à bout étaient assimilables à des barils de
poudre dont l’explosion pouvait intervenir au contact de la moindre étincelle.

II. La Covid-19, le détonateur d’une crise aux conséquences


macro-économiques et sociales sans équivalent

Nombreuses sont les pandémies meurtrières qui ont frappé l’humanité mais aucune
d’entres elles n’a eu un impact économique calamiteux comparable à celui généré
par la Covid-19. Qu’il s’agisse de la pandémie de la peste noire du XIVe siècle, de
celle du choléra du début du XIXe siècle, de la grippe espagnole de 1918, ou celle
plus contemporaine du Sida, tous ces fléaux ont pour dénominateur commun d’être
de véritables catastrophes sanitaires mais aux implications économiques limitées.

A. De Wuhan au Reste du monde, la propagation fulgurante


d’une pandémie mondiale

Selon la version officielle chinoise validée par l’Organisation mondiale de la


santé, les premiers cas de contamination au Coronavirus sont apparus en Chine
en décembre 2019. La majorité des personnes infectées fréquentaient un marché
de gros aux poissons de la ville de Wuhan, une grosse mégapole chinoise située
à 850 kilomètres de Shanghai. Dès janvier 2020, l’OMS déclare l’existence d’un
nouveau Coronavirus emboîtant le pas des autorités chinoises qui auparavant recon-
naissaient officiellement la découverte d’un Coronavirus en Chine. Ce virus respon-
sable de mystérieuses pneumonies se voit attribuer la dénomination 2019-nCov.
Les mois de février et mars marquent un tournant dans l’évolution de l’épidémie.
La Chine place sa population en quarantaine tandis que l’apparition et la multi-
plication des cas en Europe conduisent l’Union européenne à donner l’alerte et à
activer le dispositif de crise. L’Italie apparaît d’abord comme l’épicentre du fléau
avec un nombre de cas en croissance continue. Elle se voit contrainte de confiner
d’abord une partie de sa population située dans les régions les plus affectées à

97

046092.indd 97 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

partir du 10 mars, puis ensuite l’ensemble de son territoire. La France, l’Allemagne


et d’autres pays européens font le même choix une semaine plus tard. Face à
la dégradation généralisée de la situation sanitaire consécutive à la croissance
exponentielle des contaminations, l’OMS déclare d’abord l’urgence internationale
pour la 6e fois de son histoire puis entreprend le 11 mars de qualifier la situation de
pandémie. La distinction entre épidémie et pandémie réside selon l’OMS dans le
fait qu’il y a pandémie dès lors qu’une nouvelle maladie connaît une propagation
mondiale et qu’en outre son impact et sa gravité (nombre de contaminations et
taux de mortalité) sont très élevés. Lorsque la maladie reste limitée à une région,
un pays ou une zone bien définie, la situation relève dans ce cas d’une épidémie.
Le États-Unis jusqu’alors relativement épargnés deviennent progressivement à
partir du mois de mars l’épicentre de la pandémie avec une cohorte de contamina-
tions quotidiennes notamment parmi sa population la plus précaire. Les dénéga-
tions du président Trump n’y feront rien, le Coronavirus baptisé depuis Covid-191
n’accordera aucun répit à la première puissance mondiale faisant d’elle le pays
le plus affecté par cette crise sanitaire en termes de contaminations et de décès.
Les mois suivants marquent la mondialisation du fléau avec des cas de contami-
nations constatés dans tous les continents. Face à une propagation exponentielle
de la pandémie comme l’illustre le graphique suivant et en l’absence de traitement
plusieurs pays se résoudront à confiner leur population en n’autorisant de ce fait que
les activités supposées essentielles. Au début du mois d’avril, plus de 4 milliards
de personnes soit la moitié de la population mondiale se retrouvent assignées à
domicile, fait sans précédent dans l’histoire de l’humanité.

Figure 7 : Les cas de Coronavirus dans le monde

Source : Johns Hopkins University

1. Covid-19 vient de Corona (Co), virus (vi), « disease » (d) maladie en anglais et 19 pour désigner
l’année de détection de la pathologie.

98

046092.indd 98 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Les mesures de confinement décidées ont pour but d’infléchir la croissance


exponentielle de cette courbe des contaminations dont la modélisation peut être
faite à partir de l’équation logistique développée en 1838 par le mathématicien
belge Pierre François Verhulst :

L
f (x) =
1 + e – k (x – x0)

La variable x désigne le temps, le paramètre L indique la valeur maximale


pouvant être atteinte par la courbe. La lettre e est la fonction exponentielle ou
le nombre d’Euler et k, un facteur multiplicateur indiquant la pente de la courbe.
L’observation de cette fonction montre que lorsque x = x0, la croissance
exponentielle de la pandémie s’arrête. Pour atteindre plus rapidement ce point de
bascule x0 permettant d’éviter la saturation des structures sanitaires et un nombre
croissant de morts, une seule solution s’impose, le confinement permettant de
limiter les interactions sociales. Un choix justifié sur le plan épidémiologique mais
aux conséquences économiques et sociales incalculables car impliquant la mise
entre parenthèses de l’activité économique.

B. Choc d’offre et choc de demande négatifs se conjuguent


pour déboucher sur une crise économique sans comparaison

L’assignation à domicile de la population chinoise, mesure salvatrice au plan


sanitaire a engendré une multitude de décisions défavorables à l’activité économique
à l’échelle mondiale. Atelier du monde au cœur de la plupart des chaînes de valeur
mondiales, la mise entre parenthèses de l’économie chinoise a immédiatement
impacté l’offre de production en entraînant des difficultés d’approvisionnement de
multiples chaînes de production rendant plus qu’aléatoire la poursuite d’activité.
L’effet « choc d’offre » négatif apparaît ainsi comme la première manifestation
de cette crise sanitaire. En France comme dans nombre de pays européens, les
difficultés de poursuite d’activité liées au défaut d’approvisionnement ont surtout
concerné l’industrie notamment le secteur automobile très dépendant des intrants
en provenance de Chine. Le transport aérien comme le tourisme ont aussi été
victimes de la fermeture des frontières de plusieurs pays. Le confinement de la
population en France à partir du 17 mars a ensuite affecté de nombreux secteurs
dont les activités jugées non essentielles ont été mises à l’arrêt. C’est le cas des
activités de restauration, de l’hôtellerie, de certains commerces ou des institutions
culturelles.
L’assignation à domicile de la population a aussi eu pour conséquence de
pénaliser la demande. Limités dans leur mobilité et obligés de se contenter d’achats
jugés essentiels, les ménages français se sont ainsi constitués une épargne forcée.
Le choc de demande négatif apparaît dans le cadre de cette crise comme la
résultante du choc d’offre négatif. Il n’est pas en effet le produit d’une baisse des

99

046092.indd 99 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

revenus comme c’est généralement le cas lorsque survient une crise économique
classique mais plutôt le résultat de la fermeture des lieux de consommation ou de
dépense. Pour limiter les incidences de la crise sur les revenus des ménages, le
gouvernement français a décidé opportunément des mesures de chômage partiel
en faveur des actifs victimes de la baisse d’activité. Ainsi les salariés confrontés à
cette situation ont vu leurs salaires garantis à hauteur de 84 % du salaire net payé.
Cette garantie a été portée à 100 % pour ceux payés au Smic et plafonnée au-delà
de 4.5 Smic. Toutefois, les incertitudes générées par cette situation économique et
sanitaire anxiogène conduisent un nombre croissant de ménages à se constituer
une épargne de précaution et les entreprises à différer leurs décisions d’investis-
sement. Dans le premier cas, les statistiques révélées par certains instituts dont
l’Insee témoignent de l’ampleur du phénomène. À la fin avril, le montant du surplus
d’épargne financière constitué par les ménages français s’élevait à 55 milliards
d’euros. L’estimation réalisée par l’OFCE est nettement plus élevée car il l’évalue
autour de 75 milliards d’euros et pourrait atteindre selon cet institut l’astronomique
somme de 100 milliards à la fin 2020. Quant aux entreprises, confrontées à des
perspectives économiques très incertaines, elles se voient contraintes de renoncer
à certains investissements contrariant d’autant l’offre productive.
La globalisation économique produit de l’interconnexion des économies tend
aussi à renforcer l’effet choc d’offre négatif. Le confinement de plus de la moitié
de la population mondiale réduit la demande émanant de pays tiers. La baisse
des exportations, une des composantes essentielles de la demande globale, qui
en résulte renforce les effets récessifs de l’activité économique précédemment
mentionnés.
Cette crise a aussi entraîné des effets de richesse négatifs via l’effondrement
des cours boursiers assimilable à un krach boursier. Le mois de mars a en effet
été marqué par une chute des indices boursiers observée sur toutes les places
financières. Certains records ont été battus. C’est le cas de la Bourse de Paris
dont l’indice phare, le CAC 40, a perdu en quelques semaines 2 000 points, soit
100 milliards d’euros de capitalisation boursière évaporés. Le marché pétrolier
a au cours de la même période été en proie à de graves difficultés débouchant
sur un mini-choc pétrolier. La baisse de la demande de pétrole liée au recul de
l’activité économique n’a pas en effet été suivie par une baisse de la production
de pétrole. Cette situation découlant d’une mésentente entre les pays de l’OPEP
et la Russie a eu pour conséquence de tirer les cours de l’or noir vers le bas au
point d’atteindre des prix négatifs. Situation paradoxale qui se traduit par la vente
à perte des barils de pétrole et qui constitue un énorme manque à gagner pour
les pays tributaires de cette ressource.
Au final, la conjugaison de toutes ces différentes situations défavorables à
l’activité économique a eu pour conséquence la mise dans un état récessif de
l’économie inégalé depuis la grande dépression des années 30. Le graphique
suivant permet d’illustrer l’effet récessif découlant de la conjugaison des effets
des chocs d’offre et de demande négatifs.

100

046092.indd 100 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Figure 8 : Effet d’un double choc d’offre et de demande négatifs


sur l’activité économique.

Pour le FMI, la crise économique née de la crise sanitaire est l’un des plus
violents que l’économie mondiale ait enduré en temps de paix depuis la Grande
dépression des années 30. Selon ses estimations, le taux de récession de l’économie
mondiale devrait être de 4.6 % en 2020. Sans exception, toutes les économies
subissent de plein fouet les affres de cette déflagration. Les performances de la
France comme celles des autres pays membres de l’Union européenne connaissent
un sévère plongeon témoignant de la virulence de la crise. La baisse du PIB au
cours de l’année 2020 sera en moyenne de 8 %. Dans le cas de la France, la crise

101

046092.indd 101 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

affecte inégalement les secteurs d’activité. Les plus impactés sont la construction
avec 75 % de baisse, ensuite les transports, l’hébergement, le commerce et la
restauration avec une chute de l’activité de l’ordre de 65 %. Les moins affectés
sont l’agriculture et les services avec une baisse respectivement égale à 6 % et 9 %.
Ces baisses sévères d’activité s’accompagnent d’une croissance du taux de
défaillance d’entreprises et de la montée du chômage. Selon les prévisions de
l’assurance-crédit Coface, le nombre de défaillances d’entreprises en France devrait
augmenter de 21 % d’ici 2021. Une tendance observée dans la plupart des pays
membres de l’Union européenne notamment en Italie où celui-ci devrait atteindre
37 %. La conséquence sociale de cette dégradation de l’activité économique est
la montée inexorable du chômage. La Banque de France prévoit une hausse du
chômage qui pourrait atteindre en France un taux de 11.5 % en 2021.

Figure 9 : Croissance du PIB dans l’UE

Source : Commission européenne

102

046092.indd 102 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Les pays d’Europe méridionale apparaissent les plus affectés par cette crise.
Malgré de louables progrès économiques réalisés depuis la précédente crise
financière, la Grèce devrait subir la plus grande baisse du PIB de l’Europe. Touchés
sévèrement par la Covid-19 en terme de nombre de morts, l’Italie et l’Espagne
devraient aussi sortir très affaiblies de cette épreuve.
Pour les États-Unis, cette crise sanitaire vire au cauchemar. Outre le fait que
le bilan humain risque d’être le plus élevé de la planète en termes de mortalité,
cette pandémie met fin brutalement à plus de dix ans de croissance ininterrompue.
Les prévisions de la Banque centrale américaine tablent en effet sur une chute du
PIB de 6.5 % en 2020. Des millions d’Américains se retrouvent sans emploi. Du
20 au 25 juillet, 1.43 millions d’Américains se sont inscrits au chômage, ils étaient
26 millions à le faire au moment du confinement. Une dégradation de l’économie
américaine qui n’est pas de bon présage pour l’actuel locataire de la Maison
blanche qui pensait faire de la bonne tenue des performances économiques de la
première puissance mondiale un argument de campagne favorable à sa réélection.
L’avenir n’incite guère à l’optimisme d’autant plus le nombre de contaminés ne
cesse de croître sur le sol américain et qu’en outre l’activité économique dans de
nombreuses villes est handicapée par les mesures de distanciation sociale.
Concernant l’Empire du milieu, cette crise sanitaire est l’occasion d’un précédent.
C’est en effet, la première fois depuis 1970 que sa production connaît un recul.
Selon la Banque centrale chinoise, le PIB de la Chine a baissé de 6.8 % au premier
trimestre 2020 par rapport au premier trimestre 2019. Les exportations, une des
locomotives de l’économie chinoise, ont aussi reculé de 17.2 % au cours de la
même période. Toutefois ce recul a été rapidement compensé par un rebond
de 3.2 % de son PIB intervenu dès le second trimestre. Un rebond que certains
analystes attribuent à la bonne gestion du virus par le gouvernement chinois et des
mesures de soutien engagées pour relancer l’économie. Des millions de chinois
se retrouvent néanmoins au chômage. En juin 2020, le taux de chômage était de
5.7 %. Un chiffre estimé insuffisant car il ne tient pas compte de la situation des
centaines de millions de chinois habitant dans les campagnes et durement frappés
par cette crise.
Après avoir bien résisté aux conséquences de la crise de 2008, l’Afrique subsaha-
rienne subit aussi les conséquences négatives de cette pandémie. Les prévisions
de la Banque mondiale tablent sur une baisse de l’activité économique de 2.8 %
en 2020. L’effondrement des prix des produits de base comme le pétrole ou les
métaux précieux, le fléchissement de la demande extérieure notamment de produits
agricoles, les perturbations des chaînes d’approvisionnement, le recul des voyages
internationaux ont des conséquences pénalisantes sur les économies africaines. Les
mêmes tendances sont observées en Amérique latine, au Moyen orient, en Afrique
du Nord, en Asie du Sud où l’activité économique devrait reculer respectivement
selon les prévisions de la Banque mondiale de 7.2 %, 2.7 % et de 2.7 % en 2020.

103

046092.indd 103 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Encadré 1 Faut-il instituer un revenu universel pour atténuer


les effets sociaux de la crise ?

Cheval de bataille du candidat socialiste Benoît Hamon à l’élection présidentielle


de 2017, le revenu universel a de nouveau le vent en poupe à la faveur de la crise
économique née de la Covid-19. Malgré les mesures de chômage partiel décidées
par le gouvernement Philippe, de nombreux actifs fragilisés par la crise ont subi
des pertes de revenus conséquentes. Il s’agit des indépendants, des artisans du
BTP, des VRP, des commerçants ou des chômeurs en fin de droit. L’existence d’un
tel système les aurait mis en effet à l’abri d’une précarité financière.

À quoi renvoie donc l’idée d’un revenu universel ?


Plusieurs dénominations existent pour désigner le revenu universel. Revenu de
base, d’existence, inconditionnel ou salaire à vie, toutes ces appellations désignent
le même principe, celui de verser inconditionnellement et automatiquement
un revenu à tous les citoyens afin de leur permettre de satisfaire leurs besoins
primaires et de les protéger des aléas liés à l’existence. Cette idée ne date pas
d’aujourd’hui en réalité. Elle remonte au XVIe siècle avec le développement de
la pensée du philosophe Thomas More. Dans Utopia, cet humaniste exprime le
vœu d’un monde idéal où chaque individu pourrait disposer de quoi assouvir ses
besoins fondamentaux sans subir la contrainte de devoir travailler. Cette idée va
par la suite connaître une longue postérité. Elle est en effet reprise et approfondie
d’abord par le philosophe américain Thomas Paine, auteur en 1797 d’un Traité
sur la Justice agraire dans lequel il propose que chaque adulte bénéficie d’une
dotation en terre à sa majorité puis d’une rente foncière dans sa vieillesse. Les
socialistes utopistes du XIXe siècle comme Charles Fourier reprennent à leur
compte cette conception philosophique du partage des richesses. Des auteurs
plus contemporains à l’instar du libéral, prix Nobel d’économie, Milton Friedman
ou du philosophe Michel Foucault apportent aussi un soutien à l’idée d’un revenu
universel. Si l’idée d’un revenu de base renvoie à une conception égalitariste
chez Thomas More et promeut la volonté de modifier le rapport de l’homme
au travail, il n’en va pas de même de l’approche libérale de Milton Friedman
où le revenu universel a pour finalité, de libérer l’individu de la tutelle de l’État.
L’idée d’un revenu universel est donc créditée d’une nouvelle vitalité pas
uniquement en France mais à travers le monde. En Espagne d’abord, pays
frappé de plein fouet par une pauvreté galopante, exacerbée notamment par
la crise de la Covid-19. Le gouvernement espagnol a mis en place un revenu
vital de 440 euros par mois au bénéfice des personnes n’ayant pas la durée de
cotisation nécessaire pour percevoir des allocations-chômage. Au Royaume Uni
où 170 parlementaires de différents partis ont publiquement écrit au premier
ministre britannique pour lui exprimer l’urgente nécessité de mettre en place un
revenu universel d’urgence. Aux États-Unis où pendant le confinement, l’admi-
nistration Trump a fait parvenir aux ménages américains les plus fragilisés par
la crise un chèque allant jusqu’à 1 200 dollars afin d’atténuer les effets de la
crise. En Allemagne aussi, où au nom de la précarité, un journal de Francfort, le
Frankfunter a engagé une campagne en faveur d’un revenu de base s’élevant
à 1 000 euros par mois sur une période de 6 mois. En France où 19 présidents
de départements de gauche ont dans une tribune publiée dans le Journal du

104

046092.indd 104 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Dimanche fait part de l’impérieuse nécessité d’un revenu universel permettant


d’amortir les effets sociaux de la crise. En Corse enfin où le département a voté
l’expérimentation d’un revenu universel. Quelles que soient ses variantes, le
revenu universel se voit doter de plusieurs avantages. Ses ardents défenseurs
considèrent d’abord qu’il s’agit d’un instrument permettant de promouvoir une
société plus solidaire marquée par la disparition de la grande pauvreté. En
temps de crise notamment, il constitue un moyen efficace de protection des
individus contre la baisse subite des revenus et contre l’instabilité du marché de
l’emploi. C’est aussi un outil de simplification administrative. Certaines personnes
qui ont droit aux minima sociaux n’en font pas la demande. Ils sont en France
estimés à un tiers des allocataires potentiels du RSA. Versé automatiquement, le
revenu universel permet d’une part de solutionner le problème posé par le non
recours et d’autre part de mettre fin à la stigmatisation dont sont victimes les
bénéficiaires des minima sociaux. Le revenu universel a aussi des conséquences
positives sur le marché de l’emploi. Pour les personnes privées de ressources, le
bénéfice d’un revenu universel peut être un facteur d’encouragement à la reprise
d’une activité. Celui-ci est en effet cumulable avec les revenus provenant de
l’exercice d’une activité. Le revenu universel peut aussi impacter positivement
la qualité des emplois. Les individus devenant plus sélectifs sur les emplois qui
leur sont proposés, ceux mal rétribués et impliquant des conditions de travail
difficiles voire dégradantes seront délaissés au profit d’activités plus conformes
aux désidératas des individus. Il apparaît de ce fait comme un outil d’émanci-
pation économique des individus. C’est aussi un revenu favorable aux jeunes,
ceux qui sont notamment obligés de travailler pour financer leurs études. En se
consacrant exclusivement à leurs études, leurs chances de réussite se verraient
d’autant améliorées. Enfin face au risque de raréfaction croissante de l’emploi
du fait des mutations technologiques, la mise en œuvre d’un revenu universel
permet d’anticiper les conséquences sociales désastreuses de cette perspective.

Quel financement et quel coût ?


Il existe une diversité de modèles de revenu universel. Le coût de ce projet varie
donc d’un modèle à un autre. Certains modèles préconisent un revenu universel
autour de 500 euros par mois et par adulte, 225 euros par mois et par enfant,
c’est le cas du revenu Liber proposé par l’économiste Marc de Basquiat et le
philosophe Gaspard Koenig. Le financement serait assuré par l’instauration d’une
taxe proportionnelle sur le revenu (Libertaxe) de 23 % en lieu et place de l’impôt
sur le revenu actuel. Un projet qui s’inspire largement de la conception libérale
de Milton Friedman se traduisant par la mise en œuvre d’un impôt négatif. En
effet tous les revenus étant mis à contribution, les ménages à faibles revenus se
verraient octroyer un revenu Liber égal à la différence entre les impôts acquittés
par ceux-ci et le montant correspondant au Liber de base, ce qui correspond au
mécanisme de l’impôt négatif. Quant aux ménages aisés, cette différence débou-
cherait sur une contribution nette, soit à un impôt positif. Son coût s’élèverait
à 400 milliards d’euros. D’autres projets préconisent un revenu universel allant
de 1 000 euros à 1 200 euros. Le coût serait dans ce cas astronomique puisque
estimé autour de 800 milliards d’euros soit 36 % du PIB français. L’essentiel des
réticences à l’égard de ce projet porte sur son coût faramineux. Il semble en

105

046092.indd 105 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

effet difficile de faire aboutir ce projet universaliste sans envisager de nouvelles


ressources donc un accroissement de la pression fiscale. C’est aussi vrai dans
le cas d’une substitution des minima sociaux et des prestations sociales par le
revenu universel. Ce projet ne peut donc se faire à coût constant. Une réforme
fiscale majeure marquée par la mise à contribution des contribuables à forte
capacité contributive s’avère de fait incontournable. Plus généralement les détrac-
teurs reprochent à ce projet de véhiculer des valeurs centrées sur l’assistanat
au détriment de la valeur travail. Les individus pourraient être en effet conduits
à préférer l’oisiveté au détriment de l’exercice d’une activité professionnelle et
signer ce faisant la fin du travail. En outre, ce revenu de base peut être perçu
comme une subvention faite aux bas salaires et donner des arguments à ceux
qui considèrent le maintien d’un salaire minimum non indispensable. Par ailleurs
malgré l’assentiment populaire dont bénéficie le revenu universel, celui-ci peine
à trouver crédit auprès des partis de gouvernement. Les partis écologistes sont
ceux les plus en pointe dans le soutien apporté à ce revenu. Toutefois de multiples
expérimentations tentées dans différents pays ont débouché sur des résultats
instructifs. En Finlande par exemple, où 2 000 demandeurs d’emplois tirés au
sort ont bénéficié durant 18 mois d’une allocation mensuelle inconditionnelle de
560 euros. L’expérience s’est conclue sur un bilan relativement mitigé. D’un côté
les allocataires se sont montrés plus heureux, en meilleure santé et plus enclins
à prendre des risques en matière professionnelle, de l’autre le taux de retour
à l’emploi constaté n’a pas été significatif. Ce dernier point ainsi que la crainte
de voir les déficits publics se creuser ont contribué au non renouvellement de
cette expérience. La ville d’Utrecht aux Pays-Bas a aussi tenté l’expérience sur
un échantillon de 300 citoyens demandeurs d’emploi et bénéficiaires de minima
sociaux. Les résultats de l’étude n’ont pas été concluants. Les chercheurs ont
déduit de celle-ci que le revenu universel pouvait accroître la part de la population
basculant dans la pauvreté. Quant aux suisses, appelés à se prononcer sur la mise
en place d’un revenu universel, ils se sont massivement prononcés contre à 78 %.
Le revenu universel finira-t-il néanmoins par s’imposer comme modèle de société ?
La réponse peut difficilement être affirmative. Tout d’abord, les expériences
précédentes portent sur des échantillons non significatifs. Seuls les demandeurs
d’emploi sont concernés, ensuite ces expériences sont assorties de nombreuses
conditions. Il est de ce fait difficile de tirer des conclusions sur l’avènement de ce
projet qualifié par certains de civilisationnel. Toutefois tant que persisteront les
craintes de voir ce projet se transformer en prime à l’oisiveté ou à la fainéantise et
tant que les problèmes de financement resteront prégnants, le revenu universel
restera un idéal irréalisable. ©

C. L’action immédiate des États et des banques centrales


pour atténuer les effets de la crise

Dès les premières manifestations de cette crise, les banques centrales et les États
se sont mobilisés pour en contrecarrer les effets pernicieux. Tirant les leçons de la
crise des subprimes, les banques centrales n’ont pas tardé à mobiliser l’ensemble
de leurs instruments pour éviter la contagion à la sphère financière. La Réserve

106

046092.indd 106 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

fédérale américaine a de ce fait amplifié le caractère accommodant de sa politique


monétaire en procédant d’abord à une baisse de ses taux d’intérêt. Ceux-ci ont été
abaissés dès le 15 mars d’un point les ramenant ainsi dans une fourchette comprise
entre 0 et 0.25 %. La FED a ensuite eu recours à la politique de quantitative easing
en procédant au rachat massif de titres de dette publique et privée soit 500 milliards
de dollars consacrés à l’acquisition de bons du trésor et 200 milliards à l’achat de
titres hypothécaires. En coordination avec les autres banques centrales, la FED a
aussi mis à disposition des dollars afin d’éviter que les entreprises opérant sur les
marchés internationaux ne se retrouvent à cours de liquidités.
Ne pouvant baisser ses taux d’intérêt au début de l’épidémie du fait qu’ils étaient
déjà nuls, la Banque centrale européenne a plutôt pris le parti de recourir à des
mesures non conventionnelles à l’instar de la FED. L’institution monétaire européenne
a ainsi dans le cadre d’un programme baptisé « Pandemic Emergency Purchase
Program ou Programme d’urgence pour la pandémie » mobilisé 750 milliards
d’euros pour le rachat de dette publique. Cette action de la BCE vise à tirer vers
le bas le niveau des taux d’intérêt afin de permettre aux États membres de la
zone euro de bénéficier de meilleures conditions de financement de leurs dettes
notamment ceux en proie à un niveau d’endettement élevé susceptibles de pâtir
d’un relèvement de la prime de risque de la part des investisseurs. Il s’agit en somme
de la part de la BCE d’assurer un soutien inconditionnel aux États en garantissant
leur solvabilité grâce à sa capacité de création monétaire illimitée. Ce soutien va
aussi aux entreprises car il leur permet dans ce contexte de fortes instabilités et
d’incertitudes de trouver auprès des banques les moyens de financement dont
elles ont besoin. À cette fin, la BCE a assoupli temporairement la réglementation
concernant les banques afin que celles-ci puissent prêter sans restriction aux petites
et moyennes entreprises en difficultés de trésorerie.

Figure 10 : les effets de l’assouplissement quantitatif

D’autres banques centrales ont aussi pris des mesures destinées à soutenir les
flux de crédit à l’économie. La banque d’Angleterre, après avoir abaissé son taux
directeur à 0.1 %, un plancher historique, a procédé à une augmentation de son
programme de rachat d’actifs de 100 milliards de livres sterling, le portant à un
total de 745 milliards de livres sterling (830 milliards d’euros) d’ici la fin de l’année
2020. La Banque d’Angleterre s’est aussi engagée à financer certaines dépenses

107

046092.indd 107 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

de l’état britannique. Une mesure inhabituelle mais qui compte tenu du contexte
permet au gouvernement britannique d’avoir les moyens de financer les mesures
urgentes nécessitées par la pandémie.
La Banque centrale de Chine n’a pas eu recours aux mesures relevant du
quantitative easing. Elle a simplement procédé à une modification du niveau des
réserves obligatoires des banques afin de permettre aux banques commerciales
de financer l’économie à hauteur de 550 milliards de yuans.
Les politiques de quantitative easing engagées ont contribué à calmer les
marchés financiers en influençant positivement les anticipations des investisseurs.
Toutefois, elles sont l’objet de critiques de la part de certains économistes pour
qui ces politiques comportent des risques inflationnistes et peuvent favoriser des
bulles spéculatives. L’impact sur la consommation et l’investissement est aussi
incertain car il n’existe aucune garantie que le surplus de liquidités mis à dispo-
sition des banques débouche sur une distribution supplémentaire de crédits. Les
banques peuvent en effet affecter ces dites liquidités à leur désendettement ou
à l’augmentation de leurs réserves.
La BCE a essuyé nombre de critiques au plus fort de la crise de la Covid-19
émanant de la part de la cour constitutionnelle de Karlsruhe. Saisis par des activistes
judiciaires, les juges constitutionnels allemands ont dans leur arrêt remis en cause la
légitimité de la BCE à acheter des obligations d’état et donc à financer indirectement
les pays membres de la zone euro. Une politique estimée contraire au principe de
proportionnalité par les juges allemands d’autant plus qu’elle se révèle défavorable
aux épargnants allemands en raison des taux d’intérêt négatifs qu’elle promeut.
En s’attaquant à la BCE, la cour constitutionnelle allemande entend remettre en
cause l’indépendance de la BCE ainsi que la primauté du droit européen sur les
droits nationaux.
Cette attaque d’une violence inouïe n’a pas laissé inertes les dirigeants des
principales institutions européennes. La présidente de la Commission européenne,
Ursula Van der Leyen, n’a guère apprécié cette remise en cause, évoquant de ce
fait en guise de riposte la menace d’une procédure en infraction contre l’Alle-
magne. Quant à la Cour de justice de l’Union européenne, elle a fait le choix de
ne pas commenter l’arrêt d’une chambre qui lui est inférieure du point de vue de
la hiérarchie des juridictions. Elle a relevé toutefois que cette prise de position des
juges allemands allait à l’encontre des traités européens et qu’elle était de nature
à mettre en péril les principes de droit fondant l’Union européenne.
Comme en 2008, c’est-à-dire lors de la crise des subprimes, les gouvernements
ont opté pour l’accroissement de la dépense publique comme instrument de
stabilisation conjoncturelle. Les pays membres de la zone euro ont bénéficié de ce
fait de la suspension des règles de discipline budgétaire limitant les déficits à 3 %
du PIB et le niveau de l’endettement public à 60 % de la richesse nationale. Ces
dispositions ont ainsi facilité l’engagement sans limite des États consacrant ainsi
la politique du « quoi qu’il en coûte ». En France, le gouvernement a pris dès le
début de la crise diverses mesures permettant d’absorber le choc économique lié
au confinement. Des mesures destinées aux ménages avec la mise en place d’un

108

046092.indd 108 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

dispositif de chômage partiel assurant aux salariés le maintien de la quasi-totalité


de leur rémunération. D’autre part, celles au bénéfice des entreprises concernant
les charges sociales et fiscales et les créances bancaires. Dans le premier cas, le
gouvernement a procédé à l’allégement, au report ou à l’annulation des charges
à hauteur de 32 milliards d’euros sur l’unique mois de mars. Les petites entre-
prises, les très petites entreprises et les micro-entrepreneurs fragilisés ont quant
à eux vu leurs factures d’eau, d’électricité et leurs loyers suspendus, ils peuvent
aussi bénéficier du soutien du fonds de solidarité abondé à hauteur de 2 milliards
d’euros. Concernant les créances bancaires, le gouvernement garantit à hauteur de
300 milliards d’euros les prêts accordés par les banques aux entreprises affectées
par la crise. Un soutien considéré comme indispensable à la poursuite d’activité
et au maintien de l’emploi. Des plans de soutien sectoriels ont aussi été adoptés.
Ils concernent le secteur du livre, de l’aéronautique, des entreprises technolo-
giques, du bâtiment et des travaux publics ou de l’automobile. Ce volontarisme
de la puissance publique destiné à contenir les effets dommageables de la crise
économique s’inscrit dans une vision keynésienne des politiques anti-crise. En
augmentant la dépense publique, on stimule la demande globale et par conséquent
l’activité économique. Mais cette politique a un contrecoup, celui d’accroître le
niveau du déficit et de l’endettement publics. La France devrait selon les prévisions
voir le niveau de sa dette s’envoler largement au-dessus de 100 % de la richesse
nationale. Le FMI prévoit une hausse de la dette publique française de 17 points,
celle-ci devrait ainsi passer de 98.5 % à 115,4 %.
Championne de l’orthodoxie budgétaire et financière, l’Allemagne, elle non
plus n’a pas compté pour sauver son appareil économique notamment ses fleurons
industriels très tributaires des exportations. Un ambitieux plan de sauvetage a
ainsi été engagé. Doté de 1 100 milliards d’euros, il aura de multiples finalités :
accorder des prêts aux entreprises en difficultés, garantir leurs prêts, prendre
des participations dans le capital des entreprises, accorder des aides aux PME
et aux indépendants, faciliter les mesures de chômage partiel. Ce plan consacre
la fin de l’orthodoxie budgétaire puisque son financement oblige l’Allemagne à
contracter une dette à hauteur de 156 milliards d’euros, mettant ainsi en cause
la politique d’équilibre budgétaire qu’elle a jusqu’ici défendue avec ardeur. Ces
mesures devraient entrainer selon certaines estimations une hausse de la dette
de 9 points passant ainsi de 59.8 % à 68.7 % en 2020.

Encadré 2 Keynes de nouveau ressuscité par la crise de la Covid-19

L’histoire est un éternel recommencement ! La crise économique liée à la Covid-19


en apporte une fois de plus la preuve. Après avoir été réhabilité une première fois
lors de la crise des subprimes, l’économiste le plus influent du XXe siècle est de
nouveau appelé à la rescousse pour sauver l’économie mondiale de la déroute.
La politique du « quoi qu’il en coûte » engagée par la plupart des pays en proie
à la crise sanitaire est une des préconisations envisagées par John Maynard
Keynes en présence d’une récession ou d’une dépression économique. Elle

109

046092.indd 109 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

fait en effet de la relance budgétaire un instrument de politique économique


capable d’infléchir la tendance récessive de l’économie grâce à l’efficacité du
multiplicateur budgétaire.
C’est dans les années 30 marquées par la Grande dépression que naît la pensée
keynésienne. Pour enrayer le marasme économique d’alors, les économistes
libéraux s’appuient sur l’idée que les marchés peuvent s’autoréguler pour récuser
l’intervention de l’État dans la sphère économique. Prenant le contre-pied de
la pensée libérale, Keynes défend dans son ouvrage majeur publié en 1936
Théorie générale de l’emploi, de l’intérêt et de la monnaie, l’idée qu’en période
de dépression économique, les anticipations des agents économiques étant
négatives, seule l’intervention volontariste de l’État peut compenser l’effon-
drement de l’investissement privé. Les déficits budgétaires décriés par les libéraux
trouvent ainsi grâce à ses yeux. L’accroissement de la dépense publique se révèle
ainsi vertueux en raison de son effet multiplicateur sur la richesse nationale. En
effet selon le principe du multiplicateur budgétaire keynésien, une hausse de
l’investissement public génère un accroissement plus que proportionnel du
revenu global. Il en résulte un cercle vertueux permettant à l’État de compenser
l’accroissement de ses dépenses par un surplus de recettes fiscales.

Figure 11 : Les effets vertueux de la relance keynésienne

Les préconisations de Keynes ont largement inspiré la politique du New Deal


engagée par le président Roosevelt ainsi que les politiques de relance qui ont
contribué à la croissance dynamique des Trente glorieuses. Confrontées à la
contrainte extérieure, les politiques de relance d’inspiration keynésienne sont
devenues inopérantes à partir des années 80, contexte marqué par le triomphe
des idées libérales. Elles ont mis en lumière plusieurs limites. Elles peuvent être
d’une part source d’effet d’éviction par les taux d’intérêt et/ou par l’extérieur et
d’autre part, elles augmentent le niveau d’endettement des pouvoirs publics.

110

046092.indd 110 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

L’effet d’éviction par les taux d’intérêt est le produit de la pression exercée sur
le marché des fonds prêtables par les besoins de financement croissants des
pouvoirs publics du fait des déficits récurrents. Il en résulte une augmentation
des taux d’intérêt dommageables pour l’investissement privé et pour l’activité
économique.
L’effet d’éviction par l’extérieur se manifeste notamment lorsque la relance budgé-
taire est isolée. Celle-ci se traduit mécaniquement dans un contexte d’ouverture
des économies par une hausse des importations au détriment de la production
intérieure. L’échec de la relance française engagée au début des années 80 par
le gouvernement Mauroy trouve ses explications dans cet état de fait. Enfin la
relance budgétaire alourdit automatiquement le poids de la dette publique.
Selon les libéraux, cette situation peut inciter les agents économiques à se
constituer une épargne de précaution destinée à faire face à une hausse des
impôts nécessaire au financement de la dette. Un tel comportement réduit de
fait l’efficacité attendue d’une politique de relance.
Ces différentes critiques ont contribué à une longue mise entre parenthèses des
politiques de relance d’inspiration keynésienne au profit des politiques de rigueur
visant à restaurer les équilibres financiers. C’est donc à la faveur de la crise des
subprimes qu’elles seront réhabilitées mais cette réhabilitation ne sera que de
courte durée. En effet, dès 2010, face au déficit croissant des finances publiques,
les politiques de rigueur s’imposeront de nouveau comme une nécessité face
aux exigences des marchés financiers. L’histoire risque-t-elle de bégayer avec la
crise de la Covid-19 ? Keynes risque-t-il une nouvelle fois d’être rangé au rang
des oubliettes de l’Histoire dès lors que la question de l’insoutenabilité de la
dette redeviendra pressante ? La réponse à cette interrogation cruciale dépend
largement de l’ampleur de la reprise économique et de la durée de la pandémie.
En cas de persistance de celle-ci et d’éventuelles décisions de reconfinement
des populations, la situation économique risque de devenir très critique au point
de plomber davantage les finances publiques. La poursuite de la politique du
« quoi qu’il en coûte » deviendra alors aléatoire et le retour des politiques de
rigueur plus que probable. ©

D. Quelles solutions à l’accroissement exponentiel


de l’endettement des États ?

L’intervention stabilisatrice des pouvoirs publics se matérialise par la montée en


puissance de la dette publique. Le graphique suivant met en lumière les principales
évolutions à venir de l’endettement public dans les pays industrialisés. Le ratio dette
sur PIB devrait ainsi dépasser le seuil de 100 % de la richesse nationale dans la
plupart des pays, un niveau sans précédent depuis la Deuxième Guerre mondiale.

111

046092.indd 111 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Figure 12 : L’estimation de la dette publique

Source : OCDE, Banque mondiale

Face au risque d’une nouvelle crise des dettes souveraines à l’instar de celle
consécutive à la crise des subprimes, nombreux sont les politiques et les écono-
mistes qui militent pour une annulation de la dette Covid ou de la voir transformer
en dette perpétuelle. Ces options sont-elles envisageables ? Quels en sont les
avantages et les limites ?
L’annulation de la dette imputable à la crise de la Covid-19 ne constituera
pas un précédent tant l’histoire dénombre de nombreux exemples de pays ayant
bénéficié de cette mesure. L’Allemagne affaiblie par la Deuxième Guerre mondiale
a dans les années 50 vu sa dette diminuer de moitié du fait de l’abandon par ses
créanciers d’une partie de leurs créances. Les pays en développement ont aussi à
plusieurs reprises bénéficié de cette mesure qui est toutefois à double tranchant.
D’un côté, elle contribue à réduire la dette et participe à une meilleure soutena-
bilité de l’endettement public. Ce faisant, elle évite de recourir à une augmen-
tation du poids des prélèvements obligatoires et/ou à une baisse de la dépense
publique préjudiciable au financement des services publics. De l’autre, elle est
source de multiples inconvénients. Tout d’abord, elle envoie de mauvais signaux
en direction des marchés financiers et des investisseurs. L’annulation de la dette
équivaut à la disparition d’une créance donc à une perte sèche pour les créanciers.
Ces derniers pourraient être tentés à l’avenir d’exiger des primes de risque plus
élevées et contribuer ce faisant à l’envolée des taux d’intérêt de la dette publique.
Les pouvoirs publics seraient ainsi soumis à des conditions de financement plus
onéreuses. Redoutant qu’une telle décision se reproduise, certains investisseurs
deviendraient plus réticents à prêter à l’état. Ce dernier pourrait être confronté à
de grosses difficultés à assurer le financement continuel de sa dette. Il serait de ce

112

046092.indd 112 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

fait contraint à mener des politiques d’austérité aux conséquences économiques


et sociales dommageables. Pour éviter tout risque d’aléa moral, les décisions
d’annulation des dettes s’accompagnent généralement d’une mise sous tutelle
du bénéficiaire. Une situation très contrariante pour les souverainistes. L’exemple
de la crise de la dette souveraine grecque au lendemain de la crise des subprimes
en porte témoignage.
L’annulation de la dette ferait aussi des épargnants les grands perdants de cette
décision. Parmi les créanciers détenteurs de titres de dette publique figurent les
organismes de placements collectifs comme les caisses de retraite et les sociétés
d’assurance-vie. Une annulation de leurs créances reviendrait ainsi à rogner une
part non négligeable de l’épargne financière des ménages. En France, 39 % des
ménages seraient affectés par une telle décision.
La Banque centrale européenne qui détient 25 % à 30 % de la dette publique
des pays membres de la zone euro a par la voix de Madame Lagarde écarté toute
possibilité d’annulation en raison des risques économiques, politiques et juridiques.
Compte tenu des sommes en jeu1, le risque est en effet de voir les fonds propres de
la BCE devenir négatifs. Une situation qui l’obligerait à solliciter les pays membres
de la zone euro donc les contribuables2. La Banque centrale européenne pourrait
ainsi voir sa crédibilité remise en cause par les marchés financiers ; la monnaie
unique pourrait de ce fait pâtir des forces négatives de la spéculation. Sur le plan
juridique, la décision d’annuler les dettes des pays membres de la zone euro
n’est pas autorisée par les statuts de la BCE, les articles 123 et 125 du traité de
Lisbonne lui interdisent en effet de financer directement les États de la zone euro.
Une modification de ses statuts s’avère de ce fait indispensable. Une perspective
politiquement difficile à entrevoir du fait des réticences allemandes exprimées
notamment par la cour constitutionnelle de Karlsruhe et de l’opposition émanant
des pays « frugaux » hostiles à toute mutualisation des dettes.
La perspective d’annulation écartée, est-il possible de transformer la dette
Covid-19 en dette perpétuelle ? Une dette est ainsi qualifiée lorsque son contrat
d’émission ne prévoit aucune date d’échéance. C’est donc une dette qui reste
due sans limite de temps. Sa singularité réside aussi dans le fait que le capital
n’est jamais remboursé par le débiteur. Seuls les intérêts sur la dette sont versés
de manière indéfinie aux créanciers. C’est une dette qui procure des avantages
certains aux débiteurs. Elle permet à ceux-ci de lever des montants substantiels
sans élever le coût de leur endettement. Le non remboursement du capital permet
en outre de maintenir intact le ratio d’endettement des États. En présence d’une
situation inflationniste, une dette perpétuelle permet de réduire, dans le temps, le
coût de la dette. La Grande Bretagne a au cours de son histoire émis à plusieurs

1. 2 200 milliards d’euros représentent le stock de dettes publiques détenu par la Banque centrale
européenne.
2. Les risques liés aux fonds propres négatifs font débat parmi les économistes. Pour certains,
une telle situation expose la banque centrale à un risque de faillite. Pour d’autres, les banques
centrales sont en général protégées de ce risque du fait qu’elles disposent d’un pouvoir de
création monétaire illimité.

113

046092.indd 113 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

reprises des obligations de cette nature. En 2015, elle a remboursé des dettes
perpétuelles remontant aux guerres napoléoniennes. Les créanciers peuvent en
tirer avantage aussi. En effet, au terme d’un certain nombre d’années, le montant
des intérêts perçus peut se révéler supérieur à la créance. Certains investisseurs
peuvent y trouver leur compte. Ceux désireux avoir des titres sûrs procurant des
revenus fixes et réguliers. C’est le cas des fonds de pension. Toutefois, la dette
perpétuelle nécessite de la part des créanciers de la patience notamment lorsque
les intérêts portant sur la dette sont très faibles. Ce type de dette expose donc le
débiteur à un risque d’augmentation du taux d’intérêt du fait des exigences des
créanciers. Par ailleurs recourir à ce type de dette pose un problème en terme de
message envoyé en direction des citoyens. Cela suppose en effet que s’endetter
n’a aucune incidence sur l’avenir.
L’annulation de la dette Covid et/ou le recours à une dette perpétuelle sont
loin d’être des solutions dénuées d’inconvénients. Doit-on alors se résoudre à
accroître la pression fiscale ? En France, le gouvernement a par la voix du ministre
de l’économie, Bruno Lemaire écarté d’emblée cette possibilité en raison de ses
effets contreproductifs sur l’activité économique. Il n’entend donc pas donner
suite à une revendication exprimée par le mouvement des gilets jaunes, reprise
par une partie de la classe politique et certains économistes, celle de voir rétabli
l’Impôt de solidarité sur la fortune (ISF) ; un impôt sur le capital créé au début des
années 90 par le gouvernement Rocard, sous la présidence de François Mitterrand,
abrogé en 2017 par le gouvernement Philippe et remplacé par un impôt sur la
fortune immobilière (IFI). Le gouvernement entend toutefois atténuer le poids de
cette dette sur le niveau d’endettement général en la cantonnant. Ce subterfuge
comptable permet d’isoler cette dette du reste et facilite son amortissement sur le
long terme. Pour ce faire, la structure créée pour financer la dette sociale, la CADES
(Caisse d’amortissement de la dette sociale), verra sa durée prolongée au-delà
de 2024. Les prélèvements destinés à financer la dette sociale, en l’occurrence
la CRDS (contribution pour le remboursement de la dette sociale), seront ainsi
prolongés jusqu’en 2042 afin de permettre le financement de la dette Covid-19.
Pour les détracteurs de ce choix à l’instar de l’économiste Thomas Piketty, le
gouvernement a préféré faire peser la dette Covid sur l’ensemble des ménages,
y compris les plus vulnérables économiquement au lieu de mettre davantage à
contribution les plus fortunés, en réinstaurant l’ISF. Un choix qui devrait se traduire
à partir de 2024 par un manque à gagner en termes de salaires et de pension de
0.5 %1 pour chaque ménage.

Encadré 3 La hiérarchie des métiers à l’épreuve de la Covid-19

Hôtesses de caisse, éboueurs, soignants, livreurs, hommes et femmes de ménage


telle est la liste non exhaustive des métiers ordinairement invisibles, déconsidérés
et méprisés qui à la faveur de la crise de la Covid-19 ont témoigné de manière

1. C’est le taux prélevé chaque mois sur tous les revenus au titre de la CRDS.

114

046092.indd 114 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

édifiante de leur utilité cardinale à la survie de la société. Leur mobilisation


dans la poursuite et le maintien des activités jugées essentielles a ainsi mis en
lumière le fait que la reconnaissance et la hiérarchie des métiers ne sont pas
liées à leur utilité sociale. En d’autres termes, les métiers socialement valorisés
et bénéficiant de meilleures rétributions ne sont pas ceux qui ont la plus grande
utilité sociale. Cette dernière apparaît inversement proportionnelle au prestige
social des métiers.
Souvent féminisés, ces métiers situés au bas de l’échelle sociale sont aussi mal
rémunérés. Une situation qui trouve sa justification dans le fait que ces métiers
sont considérés comme exigeant peu ou pas de qualifications. Les compétences
qui y sont déployées sont souvent perçues comme naturelles. Une appréciation
qui dans bon nombre de ces métiers apparaît erronée comme l’attestent les
travaux de Philippe Askenazy dans lesquels il met en lumière le fait que « les
moins qualifiés sont de plus en plus qualifiés ». La reconnaissance sociale à l’égard
de ces métiers que le sociologue Denis Maillard qualifie de « back office de la
société » implique une revalorisation salariale et notamment une révision de la
classification associée à ces métiers grâce à une meilleure prise en compte des
compétences techniques qu’ils nécessitent.
La crise de la Covid-19 a permis de mieux illustrer la réalité décrite par l’anthropo-
logue américain David Graeber, celle des « bullshit jobs » ou « boulots à la con »
en français. Nombre de métiers bénéficiant d’une haute valorisation sociale mais
mis entre parenthèses par la crise sanitaire relève de cette catégorie. Anarchiste
et militant altermondialiste, David Graeber définit le phénomène de bullshit jobs
comme une « forme d’emploi rémunérée qui est totalement inutile, superflue
ou néfaste que même le salarié ne parvient pas à justifier son existence, bien
qu’il se sente obligé pour honorer les termes de son contrat, de faire croire qu’il
n’en est rien ». Pour identifier ces métiers, David Graeber a mis au point un test
permettant d’évaluer l’utilité sociale d’un métier. Il consiste à imaginer l’impact
social de la disparition d’un métier. Les bullshit jobs ont une utilité sociale si faible
que leur disparition n’aurait aucune conséquence sociale majeure. Plusieurs
secteurs d’activité regorgent ce type de métiers. La finance, le marketing, les
assurances, la communication, les cabinets d’avocats, etc. sont des lieux où
prolifèrent des actifs bien rémunérés mais qui souffrent du manque de sens de
leur travail. Premier de cordée dans l’échelle de la reconnaissance sociale et de la
rémunération des métiers, ils captent une bonne partie de la valeur ajoutée sans
apporter une contrepartie décisive. La croissance exponentielle des bullshit jobs
découle de la priorité accordée au plein-emploi à partir des Trente Glorieuses.
L’idée qu’il vaut mieux des mauvais emplois que pas assez d’emplois conduit à
cette aberration selon laquelle les emplois les moins utiles socialement sont ceux
qui sont les mieux rétribués et inversement. David Graeber opère une distinction
entre « jobs à la con » et « jobs de merde ». Précaires, sous-payés, féminisés,
ce sont ces derniers métiers que la crise de la Covid-19 a permis de visibiliser.
L’après Covid sera-t-il marqué par une modification durable du regard social à
l’égard de ceux que George Orwell qualifiait dans son livre Quai de Wigan de
« cariatides crasseuses » ? Le changement social que nombre de politiques et
intellectuels appellent de leurs vœux se concrétisera-t-il par une redéfinition
de l’échelle sociale des métiers afin de rétrécir le fossé entre la hiérarchie des

115

046092.indd 115 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

rémunérations et celle de l’utilité sociale ? Rien n’est moins sûr dans une société
élitiste dominée par des pesanteurs sociales et où une bonne partie de ceux qui
détiennent le pouvoir font partie des bullshit jobs. ©

E. Les éléments de comparaison avec les précédentes grandes


crises

Baptisée par le Fonds monétaire international sous le nom de « Grand Confi-


nement », la crise économique consécutive à la pandémie de la Covid-19 passera à
la postérité tant elle présente des singularités et des points de ressemblance avec
les précédentes qui ont affecté l’économie mondiale depuis le début du XXe siècle.

Une crise singulière par rapport aux précédentes

Du fait de sa virulence et de sa brutalité, il est en effet tentant de comparer le


Gand confinement d’abord à la Grande Dépression des années 30 puis à la Grande
Récession de 2009. Le ministre de l’économie Bruno Lemaire a à ce propos affirmé
« ce que nous vivons n’a pas d’autres comparaisons que la Grande Dépression de
1929 ». Cette comparaison semble fondée tant les conséquences économiques et
sociales précédemment décrites nous renvoient à celles des années 30. Toutefois
cette comparaison comporte des limites car ces différentes crises sont de nature
et ont des implications différentes.
Tout d’abord la crise à l’œuvre en 2020 tire sa source comme cela a été indiqué
plus haut d’un choc exogène d’origine sanitaire. C’est en effet le confinement de
la population pour des raisons épidémiologiques qui est à l’origine d’un choc
affectant en premier lieu la sphère réelle puis ensuite dans une moindre mesure la
sphère financière. La Grande Dépression et la Grande Récession sont à l’inverse le
produit du dérèglement du système capitaliste. Ce sont donc des crises endogènes
liées au fonctionnement du capitalisme.
La Grande Dépression des années 30 fut la conséquence de l’éclatement d’une
bulle boursière et immobilière alimentée par un crédit abondant notamment aux
États-Unis. Quant à la Grande Récession de 2009, ses origines sont relativement
semblables à celles de la dépression des années 30. C’est aussi l’éclatement d’une
bulle immobilière stimulée par le crédit subprime qui provoqua une crise bancaire
débouchant sur une crise économique. Si dans les deux cas, ce sont les errements
de la sphère financière qui furent à la base de la déflagration qui impacta consé-
quemment la sphère réelle, l’analyse de ces deux crises met toutefois en lumière
des mécanismes de propagation différents.
Concernant la Grande Dépression, ses origines prennent naissance dans la
prospérité de l’économie américaine d’avant crise. Un cas de figure qui conforte
l’affirmation selon laquelle « les crises naissent dans la prospérité ». En Effet l’éco-
nomie américaine des années 20 dispose de nombreux atouts. Créanciers de
l’Europe, les États-Unis bénéficient d’une balance commerciale excédentaire.

116

046092.indd 116 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

Son industrie des biens de consommation est dynamique, elle tire vers le haut la
croissance américaine grâce aux nombreuses innovations favorables à la consom-
mation de masse (Fordisme). Ce contexte de prospérité contribue à l’essor des
marchés financiers. Ceux-ci voient arriver de nombreux petits épargnants soucieux
de tirer parti de la bonne tenue du marché boursier notamment. Ces nouveaux
investisseurs bénéficient de la possibilité d’acquérir à crédit les actions en avançant
10 % de la valeur des titres, le reste est emprunté auprès des banques. Ces dispo-
sitions suscitent un engouement généralisé, il en découle une forte spéculation
boursière. Le cours des actions est porté à son paroxysme. La valeur des actions
double mais ce processus crée progressivement les conditions d’un retournement
des anticipations. Celui-ci se produit le 24 octobre 1929 avec l’éclatement de la
bulle spéculative. Le Krach boursier qui en résulte favorise des effets de richesse
négatifs. Les actions se déprécient conséquemment en perdant plus de la moitié
de leur valeur. Épargnants, spéculateurs et investisseurs sont ruinés. Croulant sous
le poids de leurs dettes, ils ne peuvent faire face à leurs engagements vis-à-vis des
banques. La crise boursière se transforme en crise bancaire. Nombreux sont les
établissements qui font faillite. Le crédit est asséché, la crise se propage à la sphère
réelle aux États-Unis puis progressivement au reste du monde avec notamment le
rapatriement des capitaux américains et les politiques protectionnistes adoptées
par les États.
La Grande Récession de 2009 ou crise des subprimes est une crise de l’inno-
vation ou de l’ingénierie financière. Elle trouve ses origines dans le développement
aux États-Unis du crédit hypothécaire appelé Subprime. Des crédits immobiliers
accordés aux ménages à faible pouvoir d’achat ne présentant de ce fait que de
très faibles garanties en matière de solvabilité. Ils s’opposent ainsi aux crédits
primes réservés aux emprunteurs offrant de bonnes garanties. Une hypothèque
sur le logement est associée aux crédits subprimes dont le développement à la
fin des années 90 trouve justification dans la volonté des autorités américaines de
favoriser l’accès à l’habitat des ménages les plus vulnérables socialement. Proposés
à des taux d’intérêt très faibles au départ, ces crédits étaient ainsi associés à des
charges financières allégées supportables pour de nombreux ménages. Toutefois
les taux d’intérêt étaient variables car indexés sur le taux d’intérêt directeur de
la Banque centrale américaine (FED). Le relèvement de ceux-ci face à la menace
inflationniste marque le début de la crise financière. De 1 % en 2004, les taux
d’intérêt passent à 5 % en 2006, alourdissant de ce fait les charges financières des
emprunts. De nombreux ménages se retrouvent dans l’incapacité d’honorer leurs
échéances de crédit. Le taux de défaut augmente considérablement pour atteindre
15 % mettant ainsi en difficulté les créanciers. Les ventes massives des maisons
hypothéquées par les banques accélèrent l’effondrement du marché immobilier.
Les pertes enregistrées sont colossales. La dépréciation des habitations est telle
que leur valeur devient inférieure à la valeur des crédits qu’elles sont censées
garantir. De nombreux établissements se retrouvent alors en situation d’insolva-
bilité entraînant une crise de confiance, celle-ci va se généraliser à l’ensemble de

117

046092.indd 117 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

la planète du fait de la titrisation des créances. Il s’agit d’une technique consistant


à transformer des actifs non négociables (crédits bancaires) en titres négociables
sur les marchés financiers.

Figure 13 : Le mécanisme de titrisation des crédits subprimes

En appliquant cette technique aux crédits subprimes, les banques émettrices


cherchent à transférer le risque de crédit ou de défaut à l’acquéreur. La titrisation des
crédits permet aux banques de sortir de leur bilan les crédits associés à un risque
élevé, ce qui leur permet de ne pas mobiliser davantage de fonds propres confor-
mément à la réglementation prudentielle. Simple intermédiaire entre l’emprunteur
et l’investisseur, les banques peuvent ainsi continuer à accroître leur offre de crédit.
Le succès rencontré par la titrisation des crédits subprimes va contribuer à
disséminer le risque dans l’ensemble de l’économie. De nombreux établisse-
ments financiers en possession de ces titres se retrouvent alors fragilisés avec le
retournement du marché immobilier américain. La course à la liquidité qui s’ensuit
amplifie la crise d’autant plus qu’elle s’accompagne d’un assèchement des liqui-
dités sur le marché interbancaire. La crise de défiance s’installe entre banques,
celles-ci refusent de se financer entre elles. Les plus en difficulté se retrouvent en
manque de fonds propres et sollicitent une recapitalisation. Certaines font faillite.
La plus retentissante est celle de la banque Lehman Brothers, la quatrième banque
d’affaires américaine. Les marchés boursiers entrent dans la tourmente. Les valeurs
boursières subissent une décote importante : le Dow Jones chute de près de 40 %
entre octobre 2007 et octobre 2008. Le CAC 40 subit une évolution d’ampleur
identique en enregistrant une baisse de 50 %.

Une crise conjoncturelle versus des crises structurelles

La mise en lumière des mécanismes de propagation de la Grande dépression et


de la Grande récession permet de mettre en exergue le rôle central des États-Unis
dans le processus de déclenchement et de propagation des précédentes crises.
Le Grand confinement à l’inverse éclaire le rôle de la Chine et la place qu’elle
occupe dans la mondialisation productive. Point de départ de la crise, l’Empire

118

046092.indd 118 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

du milieu représente 20 % de la production des produits intermédiaires, un poids


qui témoigne de son ascension fulgurante en plus d’une décennie et de son rôle
incontournable.
Établir un bilan définitif du Grand confinement semble aléatoire tant l’issue
de l’épidémie apparaît très incertaine. En raison du caractère conjoncturel de
cette crise et compte tenu des indicateurs macro-économiques observés depuis
le déconfinement, il est possible d’envisager une sortie de crise plus rapide que
lors des précédentes crises. De nombreuses prévisions, notamment celles du FMI,
envisagent une reprise en V. La récession provoquée par la Covid-19 sera donc
de courte durée par rapport à celles engendrées par la Grande dépression et la
crise des subprimes. Dans le premier cas, l’effet dépressif engendré par la crise
financière des années 30 a nécessité plusieurs années pour être résorbé. L’inertie
des pouvoirs publics davantage soucieux de préserver l’équilibre budgétaire que
de venir en aide aux secteurs économiques en difficulté contribua à accroître
son ampleur. Aux États-Unis au plus fort de la crise, l’exécutif décida de baisser
le niveau des dépenses publiques de 25 % privant l’activité économique d’un
soutien indispensable à son redressement. C’est ainsi que, entre 1929 et 1933,
le PIB américain recula de 26.7 % puis de 18.2 % sur 13 mois de 1937 à 1938.
L’absence de protection sociale contribua à paupériser une large partie de la
population frappée par le chômage et la précarité. La sortie fut rendue possible
par la politique des grands travaux « politique du New deal » engagée par le
président Franklin Roosevelt.
Quant aux effets de la Grande dépression, ils ne sont point comparables à
ceux de la Grande récession. Le recul de l’activité économique provoqué par la
crise des subprimes atteint son paroxysme en 2009. En France le recul du PIB fut
de 3 % et aux États-Unis de 2.4 %. L’intervention coordonnée des États dans le
cadre du G20 a permis la mise en place de plans de relance massifs à l’échelle
mondiale. Le volontarisme étatique associé à l’intervention massive des banques
centrales permis d’endiguer les effets dévastateurs de la crise. Une décennie de
croissance molle marqua toutefois l’après crise. La crise des dettes souveraines
et les politiques d’austérité qui suivirent furent un frein au retour de la prospérité
d’avant crise.

Encadré 4 Le confinement ou le prix de la vie

Les conséquences économiques et sociales désastreuses des mesures de confi-


nement ont suscité un vif débat sur la pertinence de ce choix contraignant dans
de nombreux pays. Pour les uns, en bloquant l’économie, en provoquant de ce
fait la faillite d’entreprises et la mise au chômage de millions de personnes, le
confinement se révèle être un remède pire que la mal. C’est la position défendue
par certains intellectuels libéraux ou hommes politiques à l’instar de Donald
Trump ou Jair Bolsonaro. Pour d’autres, compte tenu de la létalité élevée de la
Covid-19 et du risque de saturation des structures sanitaires, il était du devoir
des pouvoirs publics de protéger la population en faisant passer les impératifs

119

046092.indd 119 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

de santé publique au détriment des intérêts économiques. C’est la politique du


« quoi qu’il en coûte » choisie par la France et de nombreux pays européens. Ce
dernier choix qui conduit à accorder le primat à la vie sur toute considération de
nature économique conduit toutefois à s’interroger sur le prix qu’une société est
prête à consentir pour sauver des vies ? Répondre à cette interrogation revient
à attribuer une valeur économique à la vie.
L’idée d’accorder une valeur pécuniaire à une vie apparaît a priori choquante
et révulsante. Ne dit-on pas que « la vie n’a pas de prix » ou pour reprendre
une célèbre citation d’André Malraux « une vie ne vaut rien mais rien ne vaut
la vie ». Attribuer un prix à une vie revient à conférer à un être humain le statut
dégradant de marchandise monnayable. D’autre part, de nombreux systèmes
de croyances religieuses accordent à la vie un caractère sacré lui conférant ainsi
une valeur indénombrable. Ces réserves formulées ne doivent cependant pas
occulter la réalité. La vie a dans les faits un prix ou plutôt une infinité de prix aux
yeux des juristes ou des économistes.
Pour les pouvoirs publics, protéger la population de différents risques implique
des choix et des arbitrages. Limiter la vitesse sur les routes, construire des ronds-
points, lutter contre le tabagisme, équiper des hôpitaux, promouvoir la vaccination,
lutter contre la pauvreté et l’exclusion sociale, bref toutes ces décisions prises
par les pouvoirs publics dans un contexte de rareté des ressources impliquent
des évaluations et des arbitrages en terme de coûts-avantages. Les coûts des
investissements publics sont ainsi mis en balance avec les bénéfices retirés de
ceux-ci. Ces arbitrages reviennent à fixer un prix à la vie et à déterminer ce qui
aux yeux de la société est acceptable ou non en termes de nombre de morts.
Ces arbitrages s’appuient sur un prix de la vie défini selon diverses méthodes
par les économistes. La méthode du capital humain est l’une des approches
permettant d’attribuer une valeur pécuniaire à la vie. Celle-ci est étroitement liée à
la contribution de l’individu à la richesse nationale c’est-à-dire au PIB. En d’autres
termes, plus un individu bénéficie de revenus élevés, plus sa contribution à la
richesse nationale est supposée élevée et plus le prix de sa vie bénéficie d’une
forte valorisation pécuniaire. Celle-ci est définie à partir de ses revenus actuels
et futurs. Cette approche repose sur l’idée qu’une vie humaine est assimilable à
du capital bénéficiant d’investissements nécessaires à sa valorisation de la part
de la collectivité. Un individu bénéficiant de revenus élevés assure un retour sur
investissement bénéfique à la collectivité. Son décès équivaut dans ce contexte
à un manque à gagner pour la société. Une approche moralement critiquable
mais qui inspire dans bien des cas les décisions de justice. Lorsque les tribunaux
sont amenés à évaluer le préjudice économique résultant de la perte d’une vie,
ils tiennent compte des caractéristiques personnelles de l’individu pour définir
le montant des dédommagements à accorder à la famille. Ainsi l’âge et le statut
professionnel sont pris en compte. Les indemnités versées aux familles des
victimes des attentats du 11 septembre 2001 aux États-Unis dépendaient des
niveaux de rémunération des décédés. Elles allaient de 300 000 dollars pour un
individu de 65 ans percevant 10 000 dollars par an à 4.5 millions de dollars pour
un trentenaire gagnant 175 000 dollars par an. En somme, les indemnités versées
aux familles des victimes pauvres ou âgées étaient largement plus faibles que
celles reçues par les familles de victimes jeunes, riches ou ayant de jeunes enfants.

120

046092.indd 120 18/11/2020 09:10


II. La Covid-19, le détonateur d’une crise

La seconde approche permettant d’attribuer à la vie une valeur pécuniaire est


celle dite du consentement à payer. Elle consiste à interroger les individus sur le
prix qu’ils sont prêts à payer pour éviter un accroissement de risque. La valeur
de la vie humaine n’est plus déterminée dans ce contexte de manière arbitraire
par des experts mais découle plutôt de l’agrégation des choix individuels. Pour
parvenir à déterminer ce prix, différents programmes permettant de réduire
des risques sont soumis aux individus. Ceux-ci déterminent alors librement les
sommes qu’ils sont prêts à acquitter pour s’en prémunir. Si, à titre d’exemple,
les individus déclarent être prêts à payer en moyenne 3 euros pour chacun des
programmes pour réduire un risque estimé à un mort pour 10 000 habitants,
alors la valeur d’une vie est estimée à 30 000 euros (3/0.0001). L’estimation de la
valeur de la vie humaine obtenue par cette méthode est plus élevée que celle
obtenue à partir de la méthode du capital humain. Aux États-Unis, le prix de la vie
estimé à partir de cette méthode est évalué à 9 millions de dollars. En France, le
rapport Quinet estime depuis 2013, le prix de la vie à 3 millions d’euros par tête.
C’est ce chiffre actualisé qui est officiellement pris en compte par les pouvoirs
publics pour évaluer les bénéfices liés à un investissement destiné à minimiser
les risques en matière de mortalité. Une démarche critiquable sur le plan de
l’éthique mais qui toutefois permet de rationaliser les décisions publiques en
les mettant en regard à d’autres choix d’allocation des ressources publiques.
Cette estimation du prix de la vie humaine permet, si l’on raisonne en terme
de coût-avantages, d’apprécier le bien-fondé des mesures de confinement. En
effet, si l’on se réfère aux prévisions en terme de mortalité de l’Institut Pasteur, il
apparaît que le confinement a permis de sauver en France près de 100 000 vies.
En tenant compte de la valeur d’une vie humaine, les gains tirés de cette mesure
controversée dépassent les pertes en terme de PIB induites par celle-ci. Ce
calcul que d’aucuns peuvent qualifier de macabre oblige à s’interroger sur le
bien-fondé de l’opposition entre impératifs économiques et nécessité de santé
publique. Cette mise en concurrence imposée par les dérives de l’économie
libérale n’a pas lieu d’être en raison de l’indissociabilité de ces deux impératifs.
Il n’y a en effet d’économie que pour les vivants et de vie humaine que grâce à
l’économie. La mise à mal de cette interdépendance est porteuse de tous les
dangers pour les vivants. L’OMS considère à juste titre que ce dilemme ne se
justifie aucunement. La lutte contre la pandémie par les moyens de confinement
permet selon cette institution de créer les conditions du rebond de l’économie.
La Suède et dans une large mesure les États-Unis l’ont appris à leurs dépens en
renonçant ou en tergiversant à mettre en œuvre des mesures de confinement.
Avec plus de 500 morts par millions d’habitants, le Suède fait partie des pays
les plus impactés par cette pandémie. Le pari de l’immunité collective qu’elle a
choisi est loin d’être atteint et ses performances macro-économiques devraient
aussi être affectées par cette crise. Une chute du PIB de l’ordre de 6 % en 2020
est ainsi prévue. Quant aux États-Unis, cette pandémie est un vrai révélateur des
failles du système de santé américain notamment de son caractère inégalitaire.
L’hostilité de certains hommes politiques et d’une partie de la population à
l’encontre des mesures de distanciation sociale a contribué à faire de ce pays
durant de longs mois l’épicentre de cette pandémie contribuant en cela à une
dégradation très prononcée de ses performances économiques.

121

046092.indd 121 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

« Sauver des vies ou sauver l’économie », cette dichotomie ne résiste pas en


définitive à l’épreuve de la réalité car les performances économiques d’un pays
sont étroitement liées aux structures sanitaires existantes donc à l’état de santé
de la population et inversement. La conciliation de ces deux impératifs vitaux
doit être au cœur des objectifs cardinaux des politiques publiques car il en va
de la cohésion sociale et de la capacité à faire société. ©

III. Quelles perspectives pour la mondialisation ?

Portée en triomphe par les uns, décriée par d’autres, la mondialisation est de
nouveau sur la sellette du fait des faiblesses mises en lumière par la crise de la
Covid-19. Accusée de privilégier la logique de rentabilité et de saper les fondements
de la souveraineté des États, la mondialisation est l’objet de critiques conduisant
certains hommes politiques et certains économistes à préconiser la démondiali-
sation comme alternative. Cette perspective est-elle réaliste ?

A. La Covid-19, un révélateur des failles de la mondialisation


des économies

Résultat d’un processus séculaire, la mondialisation de l’économie est un


phénomène aux dimensions multiples. Combinant intégration commerciale, finan-
cière et productive, la mondialisation renforce l’interdépendance et l’interpéné-
tration des économies du fait qu’elle s’appuie sur une division internationale du
travail fondée sur la fragmentation des processus de production. Encouragée par
l’ouverture de la Chine à l’économie de marché, par la chute du mur de Berlin et
par l’abaissement des coûts de transport, cette organisation au cœur de la logique
productive des firmes multinationales se matérialise par la formation de chaînes
de valeur globales. Cette réalité se traduit par le fait que les activités nécessaires
à la conception d’un produit ne sont plus localisées en un seul endroit ou un
seul pays mais réparties géographiquement à travers le monde. Le morcellement
des activités se fait en fonction des avantages comparatifs dont dispose chaque
pays. Le poids de la fiscalité sur le capital, le coût du travail, le niveau de compé-
tence des salariés, l’approvisionnement en matières premières sont autant de
déterminants dans le choix de localisation de chaque segment du processus de
production des firmes multinationales. Le développement des chaînes de valeur
globales consacre le passage du « Made in country » au « Made in the World ». De
nombreux produits en sont le symbole. L’Iphone d’Apple et le Boeing 787 sont deux
exemples emblématiques du Made in the World. Le produit phare d’Apple est en
effet le résultat d’une chaîne de valeur impliquant plusieurs continents, l’Amérique
du Nord, l’Asie, l’Afrique et l’Europe. Si la conception de l’Iphone se fait sur le
territoire américain, il n’en va pas de même des produits qui le composent et qui
pour l’essentiel sont fabriqués à l’étranger. Les métaux rares viennent d’Afrique
tandis que les semi-conducteurs proviennent d’Allemagne et de Taïwan, l’écran

122

046092.indd 122 18/11/2020 09:10


III. Quelles perspectives pour la mondialisation ?

tactile du Japon, sa mémoire de la Corée du sud, son logiciel et son processeur


sont respectivement conçus en Grande Bretagne et aux États-Unis. Ces différents
composants sont assemblés en Chine par l’entreprise taïwanaise Foxconn. Le
Boeing 787 est aussi le résultat de la décomposition internationale des processus
de production. Assemblés dans l’état de Washington aux États-Unis, de nombreux
composants de Boeing viennent de sites de production localisés hors des États-Unis.
Il en est ainsi des sièges du poste de pilotage fabriqués au Royaume Uni, les pneus
sont conçus par une firme localisée au Japon tandis que les trains d’atterrissage
viennent de France et les portes de Suède. Cette organisation productive a permis
à l’avionneur américain d’optimiser sa chaîne de valeur. En 1992, il fallait 45 jours
pour assembler un Boeing 787, en 2005, il ne fallait que 8 jours pour y parvenir.

Figure 14 : Répartition de la valeur ajoutée ou « courbe du sourire »

Source : OCDE, « Économies interconnectées : comment tirer parti


des chaînes de valeurs mondiales », 2013

Cette fragmentation des processus de production confère des avantages certains


aux firmes multinationales. D’une part, en concentrant chaque étape de production
sur un site de production, elles bénéficient d’économies d’échelle permettant d’amé-
liorer leur compétitivité. D’autre part, en se recentrant sur leur métier de base,
elles concentrent l’essentiel de leurs ressources autour d’un ensemble cohérent
de compétences spécifiques. Symbole de la division verticale de la production, le
développement des chaînes de valeur globales a contribué à l’accroissement du
commerce international basé sur les biens intermédiaires. Il représente près des 2/3
du volume des échanges internationaux. Ceux-ci impliquent généralement les filiales
des firmes multinationales dans le cadre de la sous-traitance ou d’accords inter-firmes.

123

046092.indd 123 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Fonctionnant sur la base des flux tendus, l’organisation productive basée sur le
morcellement de la production a rapidement été ébranlée par la crise de la Covid-19.
Les mesures sanitaires décidées par les autorités chinoises dès le mois de février
ont mis au jour la grande dépendance des pays occidentaux à l’égard de l’Empire
du milieu. Le confinement de la population chinoise a immédiatement eu pour
conséquence la désorganisation des chaînes logistiques internationales, entraînant
des retards ou des arrêts de production dans de nombreuses entreprises à travers le
monde dépendantes des intrants en provenance de Chine. De nombreux produits
vitaux en matière de lutte contre la pandémie ont aussi fait cruellement défaut
témoignant de la place nodale de la Chine dans de nombreuses filières stratégiques
(pharmacie, composants, équipements,…). En France comme dans de nombreux
pays européens, le manque de masques et la pénurie de certains médicaments
ont été les révélateurs des faiblesses de cette organisation productive fondée sur
l’éclatement des sites de production. Il a été ainsi mis au jour le fait que les grandes
multinationales pharmaceutiques se procuraient 60 % à 80 % des principes actifs
entrant dans la composition de leurs médicaments en Asie et pour l’essentiel en
Chine et en Inde. Une très grande dépendance qui les rend vulnérables au moindre
aléa. Le constat de cette dépendance accrue à l’égard de sous-traitants situés à des
milliers de kilomètres a contribué à sensibiliser l’opinion publique et à redonner
tonus et consistance au discours antimondialisation. Rapatrier les usines délocalisées
dans les pays à bas coûts afin de restaurer la souveraineté nationale, bref produire
localement certains équipements considérés comme vitaux tel est le grand appel
lancé dans de nombreux pays par des hommes politiques de premier plan.

Encadré 5 La mondialisation de l’économie : un phénomène


controversé

Objet de virulentes critiques, la mondialisation est souvent associée à de nombreux


maux dont souffre la planète. Délocalisation, dette, immigration, inégalités sociales,
crises financières, perte de souveraineté, dégradation de l’environnement telle
est la liste non exhaustive de maux associés à ce phénomène aux origines
séculaires. Processus géographique aux multiples facettes, la mondialisation dans
sa dimension économique se caractérise par différentes formes d’intégration :
intégration commerciale, avec l’ouverture des marchés des biens et services,
intégration financière avec la libre circulation des capitaux et l’émergence d’un
marché des capitaux à l’échelle planétaire et enfin intégration productive avec
la multinationalisation des firmes.
L’intégration commerciale est le résultat du développement du libre-échange.
Plusieurs facteurs ont contribué à cette évolution. Il y a d’abord les apports de la
théorie économique, la création ensuite d’institutions favorables au libre-échange
et enfin la baisse des coûts de transport.
Le développement de théories favorables au libre-échange dès le XVIIIe siècle a
contribué à faire du libre-échange un facteur d’efficacité et de développement
économiques. Il en est ainsi d’abord de la théorie des avantages absolus d’Adam
Smith, de la théorie des avantages comparatifs de David Ricardo et de la théorie

124

046092.indd 124 18/11/2020 09:10


III. Quelles perspectives pour la mondialisation ?

HOS (Hecksher-Ohlin- Samuelson). Ces théories libre-échangistes considèrent le


commerce international comme un jeu à somme positive. En effet la spécialisation
des nations en fonction respectivement de leurs avantages absolus ou comparatifs
ou de dotations factorielles débouche sur des échanges mutuellement gagnants.
La naissance après la Deuxième Guerre mondiale du GATT va contribuer à
accélérer le processus de libéralisation des échanges. Fondé sur les principes de
non-discrimination, d’élimination des restrictions quantitatives et d’interdiction
du dumping, l’Accord général sur les tarifs douaniers (GATT) va contribuer à
baisser considérablement au terme de plusieurs cycles de négociations les droits
de douane. De l’ordre de 40 % au début des années 50, les droits de douane
s’élevaient en moyenne à 5 % au début des années 90 avant la création de
l’Organisation mondiale du commerce (OMC) en 1995.
Des facteurs technologiques ont enfin favorisé l’essor du commerce international.
La conteneurisation a notamment contribué à faire baisser le coût du transport
maritime. Elle facilite en effet l’acheminement des marchandises diverses dans
des contenants aux dimensions standardisées. Elle est de ce fait source de
gains de productivité. Moyen de transport multimodal, le conteneur permet de
livrer les marchandises de porte à porte. Les porte-conteneurs chargés de les
acheminer n’ont cessé de voir leur capacité augmenter vertigineusement. Les
plus imposants ont une capacité de 8 000 EVP (Équivalent Vingt Pieds)1.
La conjugaison de ces différents facteurs a donc contribué au dynamisme du
commerce international de sorte que les échanges de marchandises augmentent
deux fois plus vite que la production mondiale.
L’intégration financière est aussi le résultat d’un long processus. Débutée dans les
années 70 avec la création du marché des euros-dollars, elle ne va prendre son
ampleur que dans les années 80 avec la révolution libérale qualifiée par d’aucuns
de « révolution reagano-tatchérienne ». Des réformes majeures d’inspiration libérale
sont mises en œuvre dans la plupart des pays. Connues sous l’appellation des
« 3 D : Déréglementation, Décloisonnement, Désintermédiation », elles bouleversent
totalement le paysage financier et contribuent à l’émergence d’un marché des
capitaux à l’échelle planétaire. La déréglementation vise à accroître la concurrence
au sein du système financier en assouplissant certaines règles, par exemple, celles
concernant l’activité bancaire tandis que le décloisonnement consiste à supprimer
les barrières entre les différents compartiments des marchés financiers. Quant à la
désintermédiation, elle conduit à réduire le poids du financement bancaire ou inter-
médié dans l’économie au profit du financement direct ou par les marchés financiers.
Le marché des changes est le symbole par excellence de cette globalisation
financière. Le volume des capitaux échangés sur celui-ci est sans commune mesure
avec les échanges internationaux de biens et de services. En 2019, le volume
quotidien des échanges sur le marché des changes était estimé par la Banque
des règlements internationaux (BRI) à 6 590 milliards de dollars, un niveau trois à
quatre fois supérieur à celui de 2004. C’est, en terme de volume de transactions,
le marché le plus vaste et le plus liquide au monde. Les banques, les investisseurs
institutionnels et les fonds souverains sont les principaux acteurs de ce marché.

1. L’EVP est une unité de mesure approximative des terminaux ou navire portes-conteneurs.
À titre d’exemple, un conteneur d’1 EVP mesure 6.058 m (20 pieds) de long, 2.438 m (8 pieds)
de large et 2.591 m (9.5 pieds) de haut.

125

046092.indd 125 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

L’intégration productive est le résultat du développement des firmes multina-


tionales. Essentiellement occidentales initialement, elles ont vu leurs origines
se diversifier avec l’émergence économique de certains pays. En répartissant
leurs tâches productives entre différentes filiales situées à travers le monde, les
firmes multinationales ont contribué avec la division internationale des processus
productifs (DIPP) à faire évoluer la division internationale du travail. Une part
croissante des pays en développement sont devenus producteurs et exporta-
teurs de produits manufacturés incorporant davantage de facteur capital tandis
que les pays industrialisés se sont spécialisés dans les produits haut de gamme
à forte valeur ajoutée.
Ces différentes transformations de l’économie mondiale ont été engagées
dans le but de contribuer à l’enrichissement collectif. D’une manière générale,
l’ouverture économique s’est révélée bénéfique en terme de croissance écono-
mique pour de nombreux pays ainsi qu’en terme d’amélioration du niveau de
vie des populations. Les pays qui ont pris le parti de s’ouvrir et de participer
aux échanges internationaux ont bénéficié d’une croissance plus dynamique par
rapport aux pays moins ouverts. La Chine est un des pays en développement qui
a su tirer parti de son intégration à l’économie mondiale grâce à son avantage
comparatif en matière de coût du travail. Devenu atelier du monde, l’Empire du
milieu a bénéficié au cours des trente dernières années de taux de croissance
fulgurants qui ont contribué à le hisser au second rang de l’économie mondiale.
La mondialisation n’a pas cependant tenu toutes ses promesses en n’étant pas
heureuse pour tous les pays. Différents griefs sont formulés à l’encontre de ce
phénomène justifiant pour certains la nécessité de démondialiser l’économie. Il y
a d’abord le fait que contrairement aux enseignements de la théorie économique,
les échanges internationaux sont loin d’être un jeu à somme positive car toutes
les spécialisations ne se valent pas. Certaines sont en effet appauvrissantes car
elles exposent les pays concernés à un phénomène connu sous le terme de
dégradation des termes de l’échange. Les pays en développement qui en sont
les principales victimes s’appauvrissent du fait que le prix des produits qu’ils
importent augmente plus vite que la valeur de leurs exportations essentiellement
constituées de produits primaires. La mondialisation exacerbe aussi la concur-
rence entre les salariés faiblement qualifiés des pays du Nord et ceux des pays
en développement, ce qui tend à tirer le niveau des rémunérations vers le bas
et à favoriser le chômage du fait des délocalisations. À travers la globalisation
financière, la mondialisation accroît l’instabilité financière et l’occurrence de
violentes crises financières. De nombreuses crises financières ont en effet jalonné
le processus de financiarisation de l’économie depuis le début des années 80.
Crise mexicaine en 1984, crise du système monétaire européen en 1993, crise
asiatique en 1998, crise de la bulle Internet au début des années 2000, crise des
subprimes en 2008, la liste non exhaustive des crises apporte la preuve de la
fragilité de la finance globalisée. Les faits donnent ainsi raison à John Maynard
Keynes, un des économistes les plus influents du XXe qui dans ses principaux
travaux affirmait le caractère profondément instable des marchés financiers. La
globalisation financière favorise en effet l’adoption de comportements mouton-
niers à l’origine de la formation et de l’éclatement de bulles spéculatives. Pour
décrire le panurgisme ambiant sur les marchés financiers Keynes (1936) compare

126

046092.indd 126 18/11/2020 09:10


III. Quelles perspectives pour la mondialisation ?

la sphère financière à un concours de beauté organisé selon des règles pour le


moins singulières : le concours de beauté oppose les membres du jury entre eux
et non les candidates. Celui qui l’emporte est celui qui parvient à deviner les
choix des autres jurés. Transposé aux marchés financiers, ce comportement se
traduit par le fait que les fondamentaux économiques ont peu de prise sur les
décisions des investisseurs. Ces derniers préfèrent se conformer au jugement de
la majorité que de faire cavalier seul. Ces comportements grégaires favorisent des
phases haussières donnant naissance à des bulles spéculatives. Celles-ci éclatent
ensuite en cas de retournement des anticipations entraînant des effets de richesse
négatifs. La capitalisation des entreprises s’en trouve affectée ainsi que le pouvoir
d’achat des ménages en raison de la dépréciation de la valeur de leurs actifs
financiers et de la montée du chômage. La montée de l’incertitude qui en découle
favorise le phénomène de « credit crunch » de la part des banques pénalisant
ainsi les principaux moteurs de la croissance que constituent la consommation
et l’investissement. Les conséquences macro-économiques négatives découlant
des crises financières ont contribué à l’adoption de nombreuses mesures visant à
réguler la finance mondiale. Il en est ainsi du ratio Cooke, une règle prudentielle
qui impose un rapport minimal de 8 % entre les fonds propres et les crédits
distribués par les établissements financiers. Ce ratio vise à répondre au risque
d’insolvabilité des banques. Pour limiter les mouvements de capitaux à court
terme qui ont vocation à déstabiliser l’économie mondiale, l’économiste James
Tobin, prix Nobel d’économie proposa au début des années 70 l’institution d’une
taxe, visant selon lui, à glisser quelques grains de sable dans les rouages bien
huilés de la spéculation internationale. Une mesure controversée qui peine à voir
le jour en raison de l’opposition farouche des principaux États et des acteurs au
cœur de la globalisation financière.
La mondialisation reste en définitive un phénomène à parfaire dans de nombreux
domaines afin qu’il ne soit plus perçu par de nombreux citoyens comme la source
de tous les maux qui minent la planète. Elle ne doit plus être un instrument au
service d’une élite cosmopolite permettant d’asseoir sa domination sans partage.
Le fait que plus de la moitié des richesses de la planète soit accaparée par une
infime minorité est en soi symptomatique de cette cruelle réalité. Des processus
permettant un meilleur partage des richesses doivent être envisagés. L’idée d’un
impôt mondial sur le capital proposée par l’économiste Thomas Piketty est une
des possibilités mais elle se heurte à des difficultés de faisabilité. ©

B. Faut-il démondialiser l’économie ?

Le concept de démondialisation a pour la première fois été utilisé par le socio-


logue philippin Walden Bello dans son ouvrage paru en 2002 sous le titre Degloba-
lization, ideas for a New World Economy. Partant du constat que le libre-échange et
la déréglementation financière qui sont au cœur de la mondialisation sont sources
d’effets dommageables dont les atteintes faites à l’environnement, l’auteur propose
la démondialisation comme alternative pour y remédier. Le retour à une économie
privilégiant les circuits de production courts c’est-à-dire proches des lieux de
consommation est une des implications de cette alternative. La démondialisation a

127

046092.indd 127 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

ainsi des visées écologiques car produire localement revient à réduire le temps de
transport des marchandises et donc les émissions des gaz à effet de serre source
de dégradation de l’environnement. La démondialisation du point de vue de
Walden Bello ne revient pas à remettre en cause l’ouverture aux échanges mais à
rendre plus juste, davantage sociale et plus écologique l’organisation économique
mondiale. La mise en place d’une nouvelle régulation permettant de corriger les
effets pervers du libre-échange s’avère indispensable.
Cette conception de la démondialisation du sociologue philippin n’a pas survécu
aux effets de la crise financière de 2008. La démondialisation est devenue un
concept utilisé pour justifier le recours à des mesures protectionnistes. En France,
deux personnalités se sont faites les chantres de la démondialisation à partir des
années 2010. Il s’agit de Jacques Sapir et de l’ancien ministre du Redressement
productif Arnaud Montebourg. Dans un livre publié en 2011 intitulé La démon-
dialisation, le premier soutient l’idée que la démondialisation est un des moyens
permettant à la France de retrouver sa souveraineté. Pour cela il est nécessaire de
rompre avec la logique de flux et le mode de gouvernance de la mondialisation
qui se caractérise par la domination de l’économique au détriment du politique
et de l’État. Le second, candidat à la primaire socialiste pour la présidentielle de
2012, dans un essai intitulé Votez la démondialisation défend l’idée d’un protec-
tionnisme européen s’appuyant sur des critères sociaux et environnementaux. C’est
avec l’élection de Donald Trump à la présidence des États-Unis d’Amérique que la
démondialisation va acquérir ses lettres de noblesse. En faisant le choix du natio-
nalisme économique et en optant ouvertement pour le protectionnisme comme
moyen permettant d’y parvenir, le président américain tourne le dos dès son entrée
en fonction au multilatéralisme. Les mesures protectionnistes progressivement
prises par son administration à l’encontre de l’Union européenne, du Canada et
notamment de la Chine créent les conditions d’une confrontation commerciale
marquée par une succession de mesures de représailles.
La crise de la Covid-19 a donc contribué à remettre en selle et à exacerber des
craintes et aspirations relativement anciennes qui font de la relocalisation d’activités
jugées essentielles la bouée de sauvetage face aux dérives de la mondialisation.
Faut-il n’y voir que des avantages ?
Rapatrier sur le territoire national des activités jugées stratégiques ou essen-
tielles au maintien de la souveraineté nationale présente des avantages. Cette
opération permet de créer des emplois et de réduire les importations de pays tiers.
La modernisation de l’appareil productif qui accompagne ce processus se traduit
par l’amélioration de la qualité des produits. En produisant localement, on réduit
les coûts de transport ainsi que l’empreinte écologique. C’est donc un choix qui
s’avère favorable à la lutte contre le réchauffement climatique.
La relocalisation d’activités permet aussi de valoriser le savoir-faire local et
d’accorder la primauté au marché intérieur. De nombreuses entreprises françaises
ont ces dernières années fait le choix de relocaliser avec succès leurs activités en
France. C’est le cas des Skis Rossignol, du Coq français, des lunettes Atol et des
chaussettes Kindy.

128

046092.indd 128 18/11/2020 09:10


III. Quelles perspectives pour la mondialisation ?

Face aux défaillances des chaînes d’approvisionnement éclatées mises en


lumière par la crise de la Covid-19, la relocalisation peut ainsi apparaître comme
une solution. En France, le gouvernement entend encourager ce mouvement en
mobilisant 1 milliard d’euros dans le cadre d’un plan de relance doté d’un budget
de 100 milliards d’euros.
Néanmoins, la relocalisation d’activités industrielles sur le territoire national est
loin d’être une panacée aux problèmes posés par la dépendance à l’égard de pays
tiers. Tout d’abord, produire localement notamment en France implique pour une
entreprise d’être confrontée à des coûts de production plus élevés. Certaines études
montrent que le « Made in France » revient quatre fois plus cher que la production
en Asie. Relocaliser en France revient à produire plus cher et donc à vendre à
des prix onéreux. Le prix étant un paramètre déterminant dans l’acte d’achat des
consommateurs, le choix de relocalisation risque de déboucher sur une perte de
compétitivité prix pour les entreprises concernées et donc à des pertes de parts
de marché. Seules des mesures de nature protectionnistes peuvent protéger les
entreprises de cet effet dommageable. Le recours à ce type de mesures censées
protéger les entreprises nationales de la concurrence étrangère est généralement
contreproductif. Les pays lésés peuvent en effet adopter des mesures de rétorsion qui
souvent débouchent sur une guerre commerciale. L’exemple du conflit commercial
sino-américain en porte témoignage.
D’autre part, la relocalisation d’activités n’est profitable pour certaines
branches industrielles que lorsqu’elles peuvent s’appuyer sur un marché local de
taille permettant d’absorber les coûts induits par cette opération. Dans le cas de
l’industrie pharmaceutique ou de l’électronique, miser sur le seul marché français
est a priori insuffisant pour rentabiliser les investissements engagés dans le cadre
d’une opération de relocalisation. Une solution européenne consistant à répartir les
activités relevant de ces industries dans les différents pays de l’Union apparaît plus
appropriée. Elle devrait permettre de rentabiliser les investissements et d’éviter
des situations de pénurie en cas de crise.
Concernant les possibilités de création d’emplois associés aux opérations de
relocalisation, elles sont tout aussi discutables car ce processus rime souvent avec
robotisation. Celle-ci s’avère souvent indispensable pour accroître la productivité
et la profitabilité de l’activité. Les créations d’emplois attendues des relocalisations
sont ainsi loin d’être garanties.
La relocalisation d’activités ne fait pas par ailleurs disparaître le risque de
dépendance. Quelques exemples permettent de mettre en évidence la difficulté
pour un pays de recouvrer sa pleine souveraineté dans un univers économique
marqué par l’interpénétration des économies. La fabrication de masques si néces-
saires dans la protection et la lutte contre la pandémie du Coronavirus nécessite
la mobilisation de produits non disponibles sur le territoire français. C’est le cas
des élastiques produits à partir de l’hévéa ou du pétrole, des matières premières
essentiellement importées. La production locale de masques ne fera donc pas
disparaître cette dépendance en matière d’approvisionnement. La même situation
est observable en matière de production de médicaments indispensables dans les

129

046092.indd 129 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

services de réanimation, ceux-ci sont synthétisés à partir du curare issu des lianes
amazoniennes ou africaines. Ces deux exemples témoignent, s’il en est besoin
d’une réalité propre aux économies contemporaines : plus aucun produit n’est
entièrement fabriqué dans un pays. Vouloir rompre la dépendance à l’égard de
pays tiers est tout simplement illusoire. Dans le cas de la France, les exportations
françaises sont composées pour plus du quart de produits auparavant importés.
En d’autres termes, cela veut dire que freiner les importations revient à pénaliser
les exportations de l’Hexagone à destination du reste du monde.
La relocalisation qui souvent est associée à la démondialisation revient généra-
lement à céder à la tentation protectionniste. La guerre commerciale entre la Chine
et les États-Unis précédemment évoquée témoigne des risques d’embrasement
général si cette tentation venait à gagner de nombreux pays. Les mesures de
représailles qui devraient s’en suivre risquent de transformer la crise économique
liée à la Covid-19 en dépression durable.
La remise en cause des chaînes de valeur globale risque aussi de faire des
victimes. De nombreux pays en développement qui ont basé leur stratégie de
développement sur la participation à celles-ci risquent d’en pâtir. Les études faites
par la Banque mondiale montrent en effet qu’une augmentation de 1 % de la
participation d’un pays aux chaînes de valeur contribue à accroître d’1 % le revenu
par habitant de celui-ci. L’intégration aux chaînes de valeur globales est un facteur
de réduction de la pauvreté dans les pays en développement. Elle permet aux
entreprises locales d’améliorer leur niveau de technologie, de gagner ainsi en
productivité et de faire évoluer leur spécialisation en passant de l’exportation de
produits primaires à l’exportation de produits manufacturés simples.
Au final démondialiser l’économie ou relocaliser des activités sur le territoire
national peut être tentant. C’est indiscutablement l’une des voies permettant aux
entreprises nationales de sécuriser leurs approvisionnements en produits intermé-
diaires et garantissant la souveraineté nationale dans certains domaines d’activités
stratégiques. Cette aspiration n’est cependant que pure illusion. La globalisation
des économies est si profonde qu’aucune d’elle ne peut s’affranchir des autres
sans dommages collatéraux. La diversification des sources d’approvisionnement
apparaît dans ce contexte comme la solution la moins risquée. Elle permet de
réduire l’exposition à des risques spécifiques à certains pays et de garantir le
maintien du libre-échange qui malgré certaines dérives reste un facteur d’accrois-
sement du niveau de vie.

Encadré 6 Le second confinement, un obstacle majeur à la reprise


de l’économie française

Ébranlée et sévèrement impactée par le confinement rendu indispensable par la


première vague de la pandémie de la Covid-19, l’économie française se retrouve
confrontée, en l’espace de six mois, à un second choc résultant d’un deuxième
confinement. Faut-il redouter de cette décision, contrainte par l’urgence sanitaire,

130

046092.indd 130 18/11/2020 09:10


III. Quelles perspectives pour la mondialisation ?

une mise à mort de nombreux pans de l’économie française ? Quel en est le coût
social et humain ? Le plan de relance initié au lendemain du premier déconfi-
nement est-il encore à la hauteur des enjeux économiques et financiers ?

Une reprise économique durablement contrariée


Engagée dans un processus de convalescence à partir du premier déconfinement,
l’économie française a progressivement enregistré des résultats présageant
d’une reprise encourageante de l’activité économique. En effet, après une sévère
baisse de la production de 30 % durant la période de confinement, le recul de
celle-ci au troisième trimestre a considérablement été atténué, en ne se limitant
qu’à 5 % par rapport au niveau d’avant crise. Une amélioration progressive de
l’activité dont la poursuite laissait présager le scénario d’une reprise en V ou en
U permettant une sortie de l’ornière de l’économie française au cours de l’année
2021. La résurgence inopinée d’une seconde vague épidémique obligeant les
autorités françaises à décider d’un second confinement renvoie de facto aux
calendes grecques cette perspective optimiste.

La politique du « quoi qu’il en coûte » de nouveau mobilisée


Ce second confinement qui a pour corollaire la mise entre parenthèses de certaines
activités considérées comme non essentielles risque de porter l’estocade à de
nombreux pans de l’économie française, sévèrement fragilisés par le premier
confinement. Il s’agit des activités relevant de la restauration, du tourisme, de
l’hôtellerie, de l’habillement, etc. pour qui la reprise économique ne s’est jamais
amorcée en raison du maintien des mesures de distanciation physique et du
comportement frileux des consommateurs face aux lendemains incertains. Cette
situation anxiogène assimilable à une double peine risque de laisser inanimés
de nombreux acteurs de ces différents secteurs.
Tirant les leçons du premier confinement et animé par la volonté de ne pas
opposer l’urgence sanitaire aux impératifs économiques, le gouvernement a
décidé d’une part, la poursuite d’activités dans de nombreux secteurs et d’autre
part, la réactivation des dispositifs d’aides destinés aux secteurs impactés par ce
second confinement. Dans le premier cas, le maintien d’activité devrait atténuer
les conséquences pernicieuses de ce second confinement. Certaines prévisions
tablent sur une baisse d’activité de l’ordre de 8 %, un recul somme toute limité
comparativement aux pertes induites par le premier confinement estimées entre
50 et 75 milliards d’euros de PIB sur deux mois, soit 2 à 2.5 points de croissance.
Au final, les effets conjugués des deux confinements devraient, selon l’Insee,
déboucher sur un taux de récession de l’ordre de 11 % sur l’ensemble de l’année.
De sombres perspectives qui font craindre la multiplication des faillites d’entre-
prise, dont l’augmentation est estimée à 80 % par l’OFCE, et la destruction
corrélative de nombreux emplois avec pour inévitable conséquence, la montée
de la précarité et de la pauvreté dans une large frange la population française.
Les chiffres concernant l’évolution de cette réalité sociale ne sont guère rassu-
rants car ils témoignent d’une véritable explosion de la pauvreté. Le premier
confinement a fait basculer de nombreuses familles dans le dénuement. Les
associations caritatives sont en effet en proie à une augmentation très consé-
quente des demandes alimentaires. Au mois de septembre, le Secours populaire

131

046092.indd 131 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

a ainsi assuré en urgence l’alimentation de 1.3 millions de personnes. Nombreux


de ces bénéficiaires sollicitaient cette aide pour la première fois. La poursuite de
la pandémie apparaît de ce point de vue de mauvais présage pour des milliers
d’individus.
Le second confinement va, d’autre part, se traduire par une réouverture des
vannes de la dépense publique afin d’en limiter les effets récessifs. Ainsi, à la
reconduction du dispositif de chômage partiel précédemment mobilisé avec
succès va s’ajouter la prise en charge jusqu’à hauteur de 10.000 euros des pertes
de chiffre d’affaires des entreprises contraintes de cesser leur activité ainsi qu’un
train de mesures spécialement destiné aux commerçants, indépendants et aux
Très petites entreprises. L’intervention tous azimuts de la puissance publique
devrait alourdir la facture et porter à son acmé le coût pour les finances publiques
de cette crise économique et sanitaire inopinée.

Un coût budgétaire pharaonique


Selon le ministre des comptes publics Olivier Dussopt, un mois de confinement
coûte à l’État 15 à 20 milliards d’euros en dépense d’intervention. Depuis le
début de la crise sanitaire, la politique du « Quoi qu’il en coûte » a conduit les
pouvoirs publics à mobiliser près de 470 milliards d’euros dont 60 milliards de
dépenses effectives. Avec ce second confinement, la reconduction de la politique
de soutien aux secteurs en difficultés et aux ménages va favoriser la poursuite de
l’envolée du déficit et de la dette publique. Le premier devrait selon les estima-
tions de l’Insee dépasser le seuil de 10 % du PIB. Quant au poids de la dette
publique par rapport à la richesse, initialement estimé autour de 114 % du PIB,
il devrait au regard de la gravité de la crise, se situer au-delà de 120 % du PIB.
Un niveau d’endettement vertigineux mais dont le financement s’effectue dans
des conditions très avantageuses. Les taux d’intérêt des obligations de l’État
français demeurent en effet très faibles voire négatifs. Une situation permettant
la poursuite aisée et l’amplification de la politique du « Quoi qu’il en coûte »
mais qui expose les pouvoirs publics à un risque, celui de voir la dette devenir
insoutenable en cas de remontée des taux d’intérêt.

Un plan de relance de 100 milliards pertinent mais insuffisant


Destiné à permettre à l’économie française de retrouver dès 2022 son niveau
d’avant crise, tout en projetant la France dans le futur, ce plan équivalent à 4 fois
celui de 2008 et représentant 1/3 du budget de l’État, apparaît volontariste
mais insuffisant à la lumière de l’ampleur de la crise. Visant à soutenir l’offre et
l’investissement, il repose sur trois piliers, la compétitivité et l’innovation des
entreprises dotée d’un budget de 35 milliards d’euros, la transition écologique
pourvue d’une enveloppe de 30 milliards et enfin la cohésion sociale et territoriale
financée à hauteur de 35 milliards. Des orientations approuvées par la plupart
des économistes mais qui souffrent de deux faiblesses, l’absence de mesures de
soutien destinées à la consommation et l’effort insuffisant en matière de garantie
apportée à la solvabilité des entreprises.
Établi à l’issue du premier confinement, ce plan risque de s’avérer insuffisant au
regard des conséquences dommageables induites par le second confinement
ou d’autres à venir. Aussi face à l’incertitude des lendemains alimentée par la

132

046092.indd 132 18/11/2020 09:10


III. Conclusion

poursuite ininterrompue de la vague épidémique, il semble difficile d’augurer


une stabilisation puis une reprise durable de l’activité permettant de juguler
les faillites d’entreprises et d’éviter le basculement dans les affres du quotidien
de milliers d’actifs et de familles. Plus que jamais, l’espoir inespéré d’un retour
à la normale se situe du côté de la Science avec la mise au point d’un vaccin
et/ou d’un traitement curatif efficace contre ce virus. Une perspective qui au
regard des progrès réalisés en matière de recherche vaccinale s’annonce sous
de meilleurs auspices. ©

Conclusion

La crise économique née de la Covid-19 dont l’issue semble pour l’heure


incertaine tant la pandémie tarde à être résorbée a permis de réhabiliter le rôle
protecteur et de stabilisateur conjoncturel de l’État. En préférant protéger la vie
aux dépens des intérêts économiques, les pouvoirs publics ont apporté le témoi-
gnage que sauver des vies quel qu’en soit le prix était une de ses vocations. Les
multiples conséquences macro-économiques découlant de cette crise alimentent
de nombreuses incertitudes sur l’avenir. Il en est ainsi de l’énorme endettement
découlant de l’intervention stabilisatrice des pouvoirs publics. L’annulation de la
dette Covid ou sa transformation en dette perpétuelle sont des options réguliè-
rement évoquées mais qui ont peu de chance de voir le jour tant elles peuvent
être porteuses de conséquences négatives sur les conditions de financement à
venir des pouvoirs publics.
Les failles de la mondialisation mises en lumière par cette crise ont contribué à
la mise à l’index de ce phénomène au demeurant controversé. L’idée de démon-
dialiser l’économie qui en découle ne constitue toutefois pas la panacée aux
problèmes posés par l’imbrication des économies. Sa mise en œuvre aboutirait en
effet à un appauvrissement collectif comme en témoignage les tentatives de repli
sur soi des nations dans les années 30. Face aux problèmes globaux auxquels les
sociétés contemporaines sont de plus en plus confrontées, les voies de sortie les
plus idoines doivent s’appuyer sur le multilatéralisme.

133

046092.indd 133 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Lexique

Avantages comparatifs : Développée par David Ricardo au XIXe siècle, la théorie


des avantages comparatifs défend l’idée que chaque pays doit se spécialiser
dans la production pour laquelle sa productivité est la plus élevée. Ce faisant,
Lexique

il doit renoncer à produire d’autres biens pour les importer.


Bons du trésor : Il s’agit d’une créance sur l’État. C’est en effet un titre émis
par l’État sur le marché monétaire pour assurer le financement de sa dette.
Bulle spéculative : Elle correspond à une situation marquée par une hausse
excessive du cours d’un actif. La valeur de marché de l’actif se trouve ainsi
déconnectée de sa valeur fondamentale sous l’effet de la spéculation.
CAC 40 : Il désigne l’indice phare de la Bourse de Paris. Il a été créé en 1988.
Le signe CAC signifie Cotation Assistée en Continu. Le chiffre 40 renvoie au
fait que l’indice intègre les 40 actions françaises les plus actives du marché à
règlement mensuel. Le CAC sert de baromètre, il permet en effet de mesurer
instantanément le sens et l’ampleur des mouvements du marché des actions.
Chaîne de valeur globale (CVG) : Elle désigne une stratégie d’optimisation des
firmes multinationales consistant à répartir géographiquement au niveau mondial
leurs activités productives en fonction des avantages comparatifs de chaque
pays. Elle est à l’origine du « Made in the world » ou « Fabriqué dans le monde ».
Crédit crunch : Terme anglo-saxon désignant le rationnement du crédit bancaire
consécutif à la montée des risques ou de difficultés propres aux établisse-
ments de crédit.
Crédit hypothécaire : Il désigne un prêt consenti par une banque à un parti-
culier en se réservant le droit de saisir le bien financé en cas d’insolvabilité
de l’emprunteur. La revente de l’actif saisi par la banque permet à celle-ci
de recouvrer sa créance. L’hypothèque peut porter sur le bien financé ou sur
d’autres éléments faisant partie du patrimoine de l’emprunteur.
Crise systémique : Crise au départ localisée mais qui du fait de l’interdépendance
des économies se propage à l’ensemble du système financier provoquant
un effondrement économique global.
Décomposition internationale des processus de production (DIPP) : Phénomène
consistant à répartir la production de différents composants d’un produit
dans des pays différents en fonction de leurs avantages comparatifs. La
DIPP correspond à une division verticale du travail. Elle est à l’origine du
commerce intra-firme.
Décloisonnement : Ce terme traduit une des réformes affectant les marchés
financiers. Il s’agit d’une part de l’abolition des frontières entre différents
marchés séparés c’est-à-dire le marché monétaire, le marché des changes et
le marché des capitaux à terme. Il s’agit d’autre part de la fin de la distinction
entre banque de dépôt et banque d’investissement et enfin de la fin du
contrôle des changes permettant la libre circulation des capitaux.

134

046092.indd 134 18/11/2020 09:10


Lexique

Déficit commercial : Il désigne le solde de la balance commerciale lorsque celui-ci


est déficitaire c’est-à-dire quand la valeur des exportations est inférieure à
celle des importations.
Déficit public : Il y a déficit public lorsque les recettes fiscales perçues par l’État
ne couvrent pas ses dépenses.
Délocalisation : Il s’agit de transfert d’activités d’un pays vers un autre dans le
but de bénéficier de conditions économiques plus avantageuses.
Déréglementation : Il s’agit de la suppression des règles instituées par les
pouvoirs publics visant à encadrer l’activité des acteurs du secteur financier.
L’objectif de la déréglementation est de renforcer la concurrence entre les
acteurs financiers afin d’élargir les opportunités des agents économiques
en matière de placement et de financement.
Désintermédiation : Elle consiste à réduire le poids du financement indirect ou
bancaire au profit du financement direct ou par les marchés financiers. En
d’autres termes les capacités et les besoins de financement des agents écono-
miques se rencontrent sur les marchés financiers par le biais d’émissions de
titres financiers (actions, obligations). La désintermédiation favorise le passage
d’une économie d’endettement à une économie des marchés financiers.
Endettement public : Il représente la dette de l’état et celle des administrations
publiques (État + collectivités locales + Sécurité sociale). C’est en somme
l’ensemble des engagements financiers d’un pays permettant de financer le
fonctionnement de ses institutions. L’endettement public est généralement
le résultat de l’accumulation de déficits publics.
Fondamentaux économiques : Ce terme désigne les données fondamentales
d’une économie censées mesurer son état de santé. Le taux de croissance
du PIB, le solde de la balance commerciale, le taux de chômage et le taux
d’inflation font partie des fondamentaux économiques.
Fonds de pension : Il s’agit d’organismes dont la principale mission est de faire
fructifier l’épargne qui leur est confiée par des actifs en la plaçant sur les
marchés financiers. En échange les ménages reçoivent durant la période de
retraite une pension sous forme de rente viagère. Les fonds de pension sont
essentiellement en vigueur dans un système de retraite par capitalisation.
Fonds souverain : Il s’agit de fonds d’investissement détenu par un État. On
dénombre plus de 50 fonds souverains aujourd’hui. Les États les utilisent
généralement pour faire fructifier les ressources financières provenant d’une
rente. C’est le cas de bon nombre de pays producteurs de pétrole.
Lexique

Grande Dépression : Elle désigne la période de grand marasme consécutive


au krach boursier de 1929 aux États-Unis. C’est la dépression la plus sévère
que l’économie mondiale ait subie au XXe siècle.
Hedges funds ou « fonds alternatifs » : Il s’agit de fonds d’investissement à statut
non réglementé recherchant des rendements élevés. Pour y parvenir, ils utilisent
différentes techniques, la vente à découvert, l’arbitrage et l’effet de levier. Peu

135

046092.indd 135 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

transparents, ils sont souvent implantés dans les paradis fiscaux et sont en
croissance continue. Il en existe aujourd’hui près de 10 000 dans le monde.
Investissement direct à l’étranger (IDE) : Il s’agit d’investissements par lesquels
des entités résidentes d’une économie acquièrent un intérêt durable dans
une entité d’une autre économie. La notion d’intérêt durable implique l’exis-
Lexique

tence d’une relation à long terme entre l’investisseur et l’entité bénéficiaire


de l’investissement. Les IDE sont un des moteurs de la multinationalisation
des entreprises.
Investisseurs institutionnels : Encore appelés « zinzins de l’économie » ou
« grands investisseurs », ce sont des organismes qui ont vocation à collecter
l’épargne des particuliers et de la placer sur les marchés financiers afin de
la rentabiliser. Ce sont des acteurs majeurs de la mondialisation financière.
On y compte les sociétés d’investissement, les caisses de retraite, les fonds
de pension, les sociétés d’assurance et les banques.
Libre-échange : Système économique dans lequel tous les obstacles défavo-
rables à la libre circulation de flux économiques sont abolis. Le libre-échange
s’oppose au protectionnisme.
Liquidité : Il s’agit d’une situation qui se caractérise sur un marché par une facilité
de réaliser au moindre coût des transactions. Les actes d’achat et de vente
sont aisés et rapides. Dans le cas contraire, on parle de marché illiquide.
Krach boursier : Il s’agit d‘un effondrement brutal des cours des actions sur
une ou plusieurs places financières à la suite d’ordres massifs de vente. Un
krach intervient généralement à la suite d’une bulle spéculative.
Marchés financiers : Ce sont des lieux physiques ou virtuels qui ont vocation à
permettre la rencontre entre l’offre et la demande de capitaux à long terme.
Leurs fonctions consistent à permettre le financement de l’économie mondiale.
Marché primaire : Il s’agit de marchés financiers sur lesquels sont émises de
nouvelles actions ou de nouvelles obligations.
Marché secondaire : Il s’agit de marchés financiers sur lesquels sont échangés des actifs
financiers déjà émis. Par opposition au marché primaire, le marché secondaire est
appelé marché de l’occasion. Il permet d’assurer la liquidité du marché primaire.
Minima-sociaux : Il s’agit des prestations sociales non contributives perçues
par les ménages en situation de précarité ou d’exclusion sociale. Le RSA et
l’allocation adulte handicapé (AAH) sont des exemples de minima-sociaux.
Multilatéralisme : Il s’agit d’un mode d’organisation des relations internationales
centrée sur la concertation, les engagements réciproques, la coopération entre
pays. Il permet d’aboutir à des accords plus larges et transparents. Ce sont
les grands organismes mondiaux tels que l’ONU, l’OMC, l’OMS et le PNUD
qui sont au centre du multilatéralisme. Celui-ci s’oppose à l’unilatéralisme.
Obligation : Titre de créance à long terme donnant lieu au règlement d’un
intérêt fixe ou variable déterminé au moment de l’émission. Le marché

136

046092.indd 136 18/11/2020 09:10


Lexique

obligataire est le lieu d’émission des obligations. Le cours des obligations


varie en sens inverse des taux d’intérêt.
OMC (Organisation mondiale du commerce) : C’est une institution qui a vu le
jour en 1995 en remplacement de l’Accord général sur les tarifs douaniers
(GATT). L’OMC a pour mission de promouvoir le libre-échange sur une base
multilatérale.
Politique budgétaire : Il s’agit d’un des instruments à disposition des pouvoirs
publics pour influencer la conjoncture économique. Elle consiste à utiliser
le budget via les recettes ou (et) les dépenses publiques pour relancer ou
freiner l’activité économique.
Politique de rigueur : Elle désigne une politique économique visant à limiter
les déficits publics et de juguler la dette publique. Elle recommande pour ce
faire la hausse de la fiscalité et la maîtrise des dépenses publiques. Synonyme
de politique de rigueur, elle ambitionne d’assainir les finances publiques,
elle s’oppose de ce fait aux politiques de relance d’inspiration keynésienne.
Politique monétaire conventionnelle : Il s’agit d’un ensemble d’instruments
à disposition des banques centrales permettant de réguler le niveau de
la masse monétaire. Les réserves obligatoires, le taux d’intérêt directeur,
les opérations d’open market font partie des instruments contribuant à la
réalisation de cet objectif.
Politique monétaire : C’est un des instruments de la politique économique.
Elle désigne l’ensemble des moyens à disposition des pouvoirs publics ou
des autorités monétaires pour influencer l’activité économique via l’offre
de monnaie. Dans le cadre de la zone euro, la politique monétaire est du
ressort de la Banque centrale européenne (BCE) et a pour objectif central
le maintien de la stabilité des prix.
Prêteur en dernier ressort : C’est un des rôles des banques centrales. Cela
consiste pour la banque des banques à venir en aide aux établissements
financiers insolvables ou à l’ensemble du système bancaire en cas de risque
systémique. Cette intervention devient inéluctable lorsque sur le marché
interbancaire les banques hésitent de se prêter entre elles. Dans le cadre
de la zone euro, ce rôle est assuré conjointement par la Banque centrale
européenne et les 19 banques centrales nationales des pays de la zone euro.
Protectionnisme : C’est une politique économique consistant par des mesures
tarifaires et/ou non tarifaires à limiter l’entrée sur le marché intérieur des
produits en provenance de pays tiers. Le protectionnisme s’oppose au libre-
Lexique

échange.
Quantitative easing : Ou assouplissement quantitatif désigne la politique
monétaire menée par les banques centrales dans le but d’influencer le
coût du crédit afin d’agir sur l’inflation et la croissance économique. C’est
un instrument qui relève de la politique monétaire non conventionnelle,
consistant en effet à acheter massivement des actifs financiers aux banques
afin de les inciter à prêter aux agents économiques.

137

046092.indd 137 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

Récession : C’est un phénomène économique qui se caractérise par une


contraction significative de l’activité économique. Techniquement, elle est
associée à une croissance négative du PIB pendant au moins deux trimestres
consécutifs. Une récession économique se traduit par des effets négatifs sur
l’emploi, la production industrielle et les revenus réels.
Lexique

Relocalisation : Processus consistant à rapatrier une ou des unités de production


industrielle dans le pays d’origine. C’est l’opération inverse d’une décision
de délocalisation. La relocalisation est généralement associée au phénomène
de démondialisation.
Réserves obligatoires : Ce sont des réserves financières que les banques commer-
ciales et les établissements financiers sont tenus de déposer sur leur compte
courant à la banque centrale. Les réserves ainsi constituées représentent un
pourcentage des dépôts collectés par les institutions financières.
Revenu universel : Encore appelé revenu de base ou d’existence, il correspond à
une somme versée inconditionnellement à tous les citoyens afin de permettre
la satisfaction de leurs besoins primaires.
Subprime : C’est un type de crédit immobilier qui a vu le jour aux États-Unis au
début des années 2000 et qui était destiné aux ménages fragiles économi-
quement et financièrement. Associés à un taux d’intérêt variable, de nombreux
ménages américains se sont retrouvés en situation de défaut de paiement
en raison de son surcoût provoquant des effets en chaîne qui eurent pour
effet d’ébranler l’ensemble du secteur bancaire et financier mondial.
Taux directeur : C’est le taux d’intérêt qu’une banque centrale applique lorsqu’elle
accorde des prêts aux banques commerciales ou aux institutions financières
commerciales. Encore appelé taux d’intérêt de base, il a une incidence sur la
politique pratiquée par les banques commerciales en matière de prêts. Lorsque
la banque centrale augmente son taux directeur, les banques commerciales
répercutent cette augmentation sur les taux d’intérêt appliqués aux agents
économiques et inversement.
Taxe Tobin : Suggérée par James Tobin en 1972, cette taxe internationale vise
à décourager la spéculation sur les monnaies. Elle est devenue depuis les
années 90 le cheval de bataille des altermondialistes.
Théorie keynésienne : Elle s’appuie sur la doctrine développée dans les années 30
par John Maynard Keynes dans l’un de ses principaux ouvrages intitulé Théorie
générale de l’emploi, de l’intérêt et de la monnaie. Keynes y défend la thèse
selon laquelle l’intervention active de l’État via la politique budgétaire et la
politique monétaire est un moyen efficace pour assurer la croissance et l’emploi.
Théorie néo-classique : C’est la théorie dominante en économie, sa naissance
remonte à la fin du XIXe siècle avec l’avènement du courant marginaliste.
La théorie néo-classique défend l’idée que les agents économiques sont
rationnels et qu’en outre le marché de concurrence pure et parfaite permet
l’allocation optimale des ressources. Elle s’oppose de ce fait à l’intervention
de l’état dans l’économie.

138

046092.indd 138 18/11/2020 09:10


Bibliographie

Titrisation : Elle désigne une technique financière consistant à transformer des


créances (crédits immobiliers par exemple) en titres financiers afin de les céder
à des investisseurs sur les marchés financiers. Ce faisant, ceux-ci deviennent
les porteurs du risque de crédit associé aux créances sous-jacentes.
Trappe à inactivité : Situation qui conduit les individus à préférer l’inactivité à
la reprise d’un emploi en raison d’un manque à gagner financier ou d’une
absence d’incitation financière. La trappe à inactivité se distingue de la trappe
à chômage. Dans ce dernier cas, les personnes au chômage renoncent à
occuper un emploi du fait de l’existence d’un système d’allocation-chômage.
La trappe à chômage est de ce fait assimilable à du chômage volontaire.

Bibliographie

ADDA Jacques, La mondialisation de l’économie. Genèse et problèmes, La


découverte, 2006.
AGLIETTA Michel, BRENDER Anton, COUDERT Virginie, La globalisation financière :
l’aventure obligée, Economica, 1990.
AGLIETTA Michel et REBÉRIOUX Antoine, Dérives du capitalisme financier, Albin
Michel, 2004.
ALLEGRET Jean-Pierre et LE MERRER Pascal, Économie de la mondialisation : vers
une rupture durable, De Boeck supérieur, 2015.
AGLIETTA Michel, La crise : pourquoi en est-on arrivé là ? comment s’en sortir ?,
Éditions Michalon, 2008.
Alternatives économiques, « Covid-19 c’est par où la sortie ? », mai 2020.
ANDREAU Jean et alii, La dette publique dans l’histoire, La Documentation française,
2006.
ARDINAT Gilles, Comprendre la mondialisation en 10 leçons, Ellipses, 2012.
ASKENAZY Philippe, Le partage des richesses, Odile Jacob, 2019.
BÉNASSY-QUERÉ Agnès, Les taux d’intérêt, La Découverte, 2003.
BERNANKE Ben S. et FRANCK Robert H., Principes d’économie politique, Economica,
2009.
BIHR Alain, France : Covid-19, pour une socialisation de l’appareil sanitaire,
Édition Syllapse, 2020.
Bibliographie

Conseil d’analyse économique : « Avis de tempête sur le commerce international »,


Les notes du Conseil d’analyse économique, n° 46, La documentation
française, 2008.
DIDIER Raphael, Les marchés financiers en chair, Ellipses, 2009.
—, Comprendre la dette publique, Ellipses, 2011
—, Les grands débats économiques actuels, Ellipses, 2013.
Fonds monétaire international : « Perspectives de l’économie mondiale », 2020.
GÉNÉREUX Jacques, La Grande Régression, Le Seuil, 2010.

139

046092.indd 139 18/11/2020 09:10


Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?

GIRAUD Pierre-Noel, La mondialisation : Émergences et Fragmentation, Éditions


Sciences humaines, 2008.
GRAEBER David, Bullshit jobs, Les liens qui Libèrent, 2018.
GUERRIEN Bernard et GUN Ozgun, Dictionnaire d’analyse économique, La
Bibliographie

Découverte, 2012.
HERLIN Philippe, Finance : le nouveau paradigme, Eyrolles, 2010.
KEYNES John Maynard, Théorie de l’emploi, de l’intérêt et de la monnaie, Le
seuil, 1988.
KRUGMAN Paul, Pourquoi les crises reviennent toujours, Le seuil, 2009.
MAILLARD Denis, L’impossible reconnaissance du back-office de la société, Fondation
Jean Jaurès, 2020.
MÉDA Dominique, « La crise du Covid-19 nous oblige à réévaluer l’utilité sociale
des métiers », Pour l’éco, 18 mars, 2020.
MINC Alain, La mondialisation heureuse, Plon, 2006.
MOULIER BOUTANG Yann, « Sidération Covid-19 : l’économie suspendue et le tournant
2020 », Revue Multitudes, 2020.
MUCHIELLI Jean Louis, Relations économiques internationales, Hachette supérieur,
2005.
ORLÉANS André, De l’euphorie à la panique : penser la crise financière, collection
« CEPREMAP », Éditions de la rue d’Ulm, 2009.
PIKETTY Thomas, Landais Camille, Saez Emmanuel, Pour une révolution fiscale.
Un impôt sur le revenu pour le XXIe siècle, Le seuil, 2011.
Rapport du Sénat : « Le revenu de base en France : de l’Utopie à l’expérience »,
2017.
RAINELLI Michel, L’organisation mondiale du commerce, collection « Repères »,
La Découverte, 2011.
SAPIR Jacques, La démondialisation, Seuil, 2011.
SCIALOM Laurence, Économie bancaire, collection « Repères », La Découverte, 2013.
SMITH Adam, Recherche sur la nature et les causes de la richesse des nations,
Economica, 2002.
STIGLITZ Joseph, La Grande désillusion, Livre de Poche, 2002.
—, Un autre monde. Contre le fanatisme du marché, Fayard, 2016.
STRAUSS KHAN Dominique, « L’être, L’avoir et le pouvoir dans la crise », Slate.fr, 2020.
WALLERSTEIN Immanuel, Comprendre le monde, introduction à l’analyse des
systèmes-monde, La découverte, 2016.

140

046092.indd 140 18/11/2020 09:10


Chapitre 3.

L’Afrique noire face au défi


de l’émergence1

S’il est un continent qui depuis des lustres souffre d’une image dépréciée et
d’une vision stéréotypée de ses perspectives de développement, c’est l’Afrique.
Pour le commun des mortels, l’Afrique est de loin le continent de la pauvreté, des
inégalités, des pandémies, de la corruption, bref de la mauvaise gouvernance et
sans aucun espoir d’émergence2.
Ce regard misérabiliste qui nourrit de manière récurrente l’afro-pessimisme résiste
de moins en moins à l’analyse objective des faits. Il fait en effet fi des évolutions et
des transformations structurelles en cours dans de nombreux pays du continent.
Depuis deux décennies, un nombre croissant de pays africains bénéficie d’une
embellie économique témoignant d’un certain éveil. Celui-ci se matérialise par des
taux de croissance économique élevés favorisant des effets d’entraînement positifs
et des mutations structurelles dont l’émergence d’une classe moyenne africaine
appelée à croître et à jeter les bases d’un processus de croissance endogène.
Ces mutations porteuses d’avenir ont ainsi contribué à un afflux des investisse-
ments en provenance de pays émergents particulièrement de la Chine. Investisseur
et banquier de premier plan des pays africains depuis le début des années 2000,
l’Empire du milieu incarne aujourd’hui un acteur incontournable du processus
d’émergence du continent. Son rôle actif est néanmoins l’objet de controverses
portant sur ses réelles finalités.
L’optimisme suscité par ces mutations mérite néanmoins d’être tempéré car
l’Afrique reste en proie à de nombreux obstacles rédhibitoires. Aux problèmes
liés à la croissance exponentielle de sa population et aux inégalités galopantes
s’ajoute une spécialisation primaire de ses économies, exposées de ce fait aux
fluctuations des termes de l’échange. L’intégration économique et financière du

1. Ce chapitre a été écrit plusieurs mois avant la crise à l’œuvre actuellement. Il s’appuie donc
essentiellement sur la situation des pays africains avant l’avènement de la crise économique
liée à la Covid-19.
2. À la fin des années 90, le Time faisait sensation en titrant un de ses numéros « The hopeless
Continent ». D’autres titres à la même tonalité, celui de Stephen Smith notamment « Négro-
logie, pourquoi l’Afrique se meurt » ont contribué à nourrir ce sentiment afro-pessimiste.

141

046092.indd 141 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

continent reste par ailleurs un immense chantier. Le contexte politique dans de


nombreux pays demeure marqué par l’instabilité et des conflits politiques du fait
de la difficulté d’enracinement des processus démocratiques.
À ces difficultés invariantes se greffe une autre de nature politique et monétaire,
le maintien du franc CFA dans de nombreux pays francophones que certains consi-
dèrent à tort ou à raison comme un obstacle au développement des anciennes
colonies françaises.
Longtemps considérée comme un angle mort des relations économiques et
financières internationales, l’Afrique peut-elle se défaire de son image d’éternel
« continent perdu » pour incarner celle plus valorisante et plus optimiste de continent
émergent du XXIe siècle ? En somme, le temps de l’éveil de l’Afrique est-il malgré
tout arrivé ?

I. De l’échec des stratégies de développement


au renouveau de l’espoir

Les espoirs de développement du continent africain se sont appuyés au lendemain


des indépendances sur la mise en œuvre de stratégies de développement visant à
faire du processus d’industrialisation le principal moteur de leur décollage écono-
mique.
Le diagnostic communément partagé était le suivant. Les pays d’Afrique à
l’instar d’autres pays du Tiers-monde étaient insérés dans un système de trappes
– trappes de la pauvreté, de la sous-épargne, de la sous-industrialisation… – qui
alimentait un ensemble de cercles vicieux défavorable au processus de dévelop-
pement. L’industrialisation des pays d’Afrique devait alors créer les conditions
favorables à leur développement.
Ce diagnostic partagé ne s’accompagnait pas toutefois d’une convergence sur
les voies permettant d’y parvenir. Si pour certains économistes du développement,
l’intégration à l’économie mondiale était la voie la plus efficace, pour d’autres,
notamment inspirés par la pensée marxiste, la rupture avec le système capitaliste
et son corollaire le refus de l’économie de marché s’imposaient. La stratégie de
promotion des exportations relevait de la première approche tandis que celle des
« industries industrialisantes » ou de la substitution des importations s’inspirait de
la seconde.

A. Des stratégies de développement comme solutions clés


en mains

Les stratégies précédemment énoncées présentaient les singularités suivantes. La


promotion des exportations consistait à prendre le parti du libre-échange en tirant
profit des avantages comparatifs dont disposaient les pays africains (main-d’œuvre
moins coûteuse, terres fertiles, ressources naturelles abondantes). La théorie ricar-

142

046092.indd 142 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

dienne et ses prolongements constituent le socle de cette stratégie qui considère


le développement des exportations et la participation au commerce international
comme de puissants vecteurs du développement économique.
La stratégie des « industries industrialisantes » s’inspirait du modèle de dévelop-
pement soviétique. Elle prônait le développement d’industries ayant de puissants
effets d’entraînement sur l’activité économique globale. Il s’agissait en l’occurrence
d’industries lourdes permettant de concilier à la fois rentabilité des industries
existantes et effet d’entraînement des activités situées en aval. La construction
d’une économie autonome et intégrée dans laquelle l’état devait jouer un rôle de
chef d’orchestre ou de planificateur était sa principale finalité.
La stratégie de substitution aux importations s’inscrivait dans le même sillage
que la précédente. Il s’agissait de remplacer les produits importés par des produc-
tions locales afin de parvenir à un développement autocentré s’appuyant sur une
large demande intérieure. L’état devait une fois de plus jouer le rôle de catalyseur,
en finançant les dépenses d’infrastructures, en protégeant le marché intérieur via
des mesures protectionnistes. Portée par des élites nationalistes, cette stratégie
incarnait aux yeux de ses partisans le moyen le plus sûr permettant de réduire la
dépendance extérieure des pays africains.

B. Des résultats sources d’espoirs mais contrariés


par le retournement conjoncturel des années 70

Après une décennie de mise en œuvre, des résultats concluants couronnent les
choix de nombreux pays africains. Ceux-ci bénéficient en effet d’une amélioration
substantielle de nombreux indicateurs socio-économiques. La croissance du PIB
augmente en moyenne de 3.46 % par an. Une évolution favorable à l’accroissement
du niveau de vie d’autant plus que la croissance économique s’avère supérieure
à la croissance démographique. Les exportations bénéficient d’une percée avec
une croissance annuelle moyenne de 6 %. La valorisation du cours des produits
de base et le développement des terres cultivables stimulent ce dynamisme.
Cette embellie génère des conséquences positives, elle se traduit en effet par une
amélioration des conditions de vie et de l’espérance de vie à la naissance. Cette
croissance des richesses permet aussi le financement de nombreuses infrastruc-
tures favorables au développement humain : routes, écoles, télécommunication,
électricité, etc. Bref, l’amélioration générale de la situation de nombreux pays
africains accrédite progressivement l’idée que leur développement est possible
malgré des réserves très appuyées de René Dumont à travers la publication d’un
livre au titre très évocateur L’Afrique noire est mal partie.
Le tournant des années 70 lui donne raison. Les stratégies engagées montrent
progressivement leurs faiblesses. Des facteurs tant conjoncturels que structurels
se conjuguent pour en montrer les limites.

143

046092.indd 143 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Tout d’abord, l’absence de modernisation de l’agriculture fait qu’elle demeure


encore traditionnelle c’est-à-dire centrée sur l’autoconsommation. Elle s’avère de
ce fait dans l’incapacité de dégager un surplus économique et d’avoir des effets
d’entraînement sur le reste de l’économie.
Les exportations supposées être le moteur de leur développement se heurtent à
la concurrence d’autres pays en développement. Il s’ensuit un recul du volume des
exportations de 0.7 % par an. Les pays tributaires de celles-ci subissent alors une
aggravation de leurs difficultés et une dégradation financière de leurs situations.
La baisse des cours des produits primaires conjuguée à l’échec des politiques de
diversification des exportations conduit de nombreux pays africains à s’endetter
auprès d’institutions financières internationales afin de maintenir le niveau de la
dépense publique. Ces choix contraints alimentent la spirale de la dette publique.
De l’ordre de 6 milliards de dollars pour l’ensemble de l’Afrique subsaharienne
au début des années 70, elle s’envole vertigineusement pour atteindre la somme
astronomique de 134 milliards dans les années 80. Un montant représentant 100 %
du PIB africain et plus de trois fois les recettes d’exportation de l’Afrique subsaha-
rienne. Une évolution périlleuse qui va exposer certains d’entre eux à la faillite.
Sur le plan social, l’espoir suscité par les indépendances se transforme en désil-
lusions. L’absence d’investissement et de modernisation des structures éducatives
et sanitaires engendre une baisse du taux de scolarisation et un recul de l’espérance
de vie. L’échec des industries de substitution en raison d’une mauvaise gouvernance
favorise la montée du chômage notamment chez les jeunes diplômés. On assiste
alors à une dégradation dans la plupart des pays des capacités institutionnelles.
Les tribunaux, les administrations publiques, les universités ne deviennent plus
que l’ombre de ce qu’ils étaient au début des indépendances.
Nombre de dérives vont aggraver les difficultés précédemment décrites. Les
années 70 se singularisent en effet par l’arrivée au pouvoir dans de nombreux pays
africains d’autocrates à la suite de coups d’état. Des régimes militaires s’installent au
pouvoir dans plusieurs pays. Au nombre de 16 au début des années 70, ils passent
à 23 dans les années 80. Les processus démocratiques initiés au lendemain des
indépendances cèdent alors le pas au système de parti unique. Le multipartisme
devient de ce fait l’exception dans cet univers marqué par une hostilité prononcée
à l’égard des valeurs démocratiques. Le Sénégal et le Botswana sont ainsi les rares
pays à résister à la tentation autocratique. De nombreux régimes se réclamant du
marxisme-léninisme voient le jour. La personnalisation du pouvoir à l’image du
régime soviétique entraîne de fait la disparition de tout contre-pouvoir. De nombreux
opposants aux régimes en place n’ont d’autres choix que l’exil ou la prison. Pour
dissuader toute velléité d’opposition, des procès de type stalinien sont organisés
à l’encontre des opposants politiques tombés en disgrâce. Des peines capitales
sont prononcées et exécutées consacrant ainsi le règne de l’arbitraire et la mise
sous tutelle politique de l’institution judiciaire.
Au niveau de la gouvernance économique et financière, la gestion clanique
et ethnique des deniers publics prime avec pour corollaire l’institutionnalisation
de la gabegie des ressources publiques. La prédation des richesses nationales à

144

046092.indd 144 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

des fins de consommation ostentatoire au détriment de l’investissement productif


devient la norme. L’intérêt général perd du terrain au profit de la satisfaction des
besoins d’une petite élite politique et militaire. Pour des raisons intrinsèquement
idéologiques, l’état planificateur inspiré du modèle soviétique nationalise des pans
entiers de l’économie. Le recul du secteur privé qui en résulte prive l’économie de
tout ressort et obère son potentiel de croissance. L’emploi public devient prépon-
dérant favorisant ainsi l’hypertrophie du secteur public.
Bénéficiant dans certains cas de la bienveillance des anciennes puissances
coloniales, nombre de pays africains verront se succéder des dictatures prédatrices
dont les pratiques abominables passées à la postérité auront pour effet de nuire
à leur développement économique et social. L’Empereur Bokassa et le Général
Idi Amine Dada sont quelques-uns des noms emblématiques d’autocrates restés
dans la mémoire collective.
Les difficultés économiques et financières croissantes de nombreux pays africains
dans un contexte marqué par la récession de l’économie mondiale consécutive
au premier choc pétrolier poussent nombre d’entre eux à solliciter au début des
années 80 l’aide du Fonds monétaire international (FMI).

C. L’ajustement structurel ou le temps de l’effort et des larmes

Les politiques d’ajustement structurel sont nées de la nécessité pour les


économies en développement ou du Tiers-monde de s’adapter aux nouvelles
évolutions de l’économie mondiale largement influencées par la théorie libérale.
La résorption des déséquilibres macro-économiques et l’insertion dans l’économie
mondiale des pays en développement constituent leurs finalités premières. Le
FMI et la Banque mondiale sont chargés de leur mise en œuvre. Les politiques
d’ajustement structurels accordent aux pays déficitaires la possibilité de bénéficier
de lignes de financements internationaux reposant sur le principe de condition-
nalité. L’ajustement subordonne le décaissement des sommes promises à la mise
en œuvre des mesures préconisées.
Deux blocs de mesures sont au cœur de ces politiques. D’un côté, le bloc de
stabilisation comportant trois grandes mesures : la réduction des dépenses publiques,
le contrôle de la masse monétaire et du crédit domestique et la dévaluation de la
monnaie nationale. Chacune de ces mesures concoure à la réalisation d’objectifs
précis de stabilisation macro-économique1. De l’autre, les réformes de structure, à
savoir la libéralisation des marchés intérieurs et du commerce extérieur, la réforme
ou la privatisation des entreprises publiques. À l’instar des mesures de stabilisation,
les réformes de structure ont pour finalité l’assainissement des comptes publics
et la réorientation de l’appareil productif. En effet, la libéralisation des marchés
domestiques et du commerce extérieur, en accélérant le rétablissement des prix

1. Voir l’encadré 1, page 147, rappelant les fondements théoriques et les objectifs des politiques
d’ajustement structurels.

145

046092.indd 145 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

relatifs et l’élimination des distorsions de marché, vise à orienter les investissements


vers les secteurs les plus productifs. Ce faisant, il permet une meilleure allocation
des ressources.
Ces deux blocs de mesures visent somme toute à doter le pays sous ajustement
d’un appareil productif efficace, celui-ci tirant pleinement bénéfice de ses avantages
comparatifs. La compétitivité retrouvée permet au pays déficitaire d’accroître ses
parts de marché à l’export et de retrouver in fine l’équilibre extérieur.
Plusieurs générations de programme d’ajustement structurel ont été ainsi appli-
quées en Afrique. Les réformes engagées ont généralement combiné réformes
macro-économiques et réformes sectorielles. La baisse de la dépense publique,
mesure phare de ces politiques, s’est souvent traduite par des blocages et/ou des
réductions substantielles de salaires, des diminutions des effectifs de fonctionnaires,
des baisses de subventions versées aux entreprises publiques et à certains services
sociaux de base, et par des opérations de privatisation1. Pour les pays africains
membres de la zone franc, l’une des mesures symbolisant cette cure d’austérité
restée en travers la gorge des populations, c’est indiscutablement la dévaluation
de 50 % du franc CFA2.
Ces programmes d’ajustement successifs ne se sont toutefois pas montrés à la
hauteur des espoirs suscités tant au plan macro-économique que sur le plan social.
Dans le premier cas, ces programmes ont mis en lumière de nombreuses insuf-
fisances. La première, c’est l’absence d’effet accélérateur sur la croissance de
ces politiques. Dans bon nombre de cas, certains pays africains notamment les
plus pauvres se sont retrouvés avec un PIB par habitant inférieur à celui d’avant
ajustement. Les mesures drastiques et coercitives induites par la conditionnalité
ont souvent eu pour conséquence de déprimer la demande intérieure et donc la
croissance économique.
La seconde insuffisance concerne la difficulté d’appliquer des politiques dont
les principaux fondements vont à l’inverse des modes de pensée, des avantages
acquis et des rentes de situation des acteurs locaux. Dans l’immense majorité
des pays africains, ces politiques se sont heurtées à des résistances profondes
du fait notamment de leurs coûts sociaux très élevés. Les sacrifices consentis par
les populations africaines ont été conséquents : chômage de masse, perte de
pouvoir d’achat, croissance des inégalités, paupérisation d’une large partie de la
population. Des émeutes anti-FMI instrumentalisées par les pouvoirs locaux ont
ainsi vu le jour afin de contraindre les institutions de Bretton Woods à reconsidérer
certaines de leurs mesures jugées excessivement antisociales.
La troisième critique porte sur le développement inabouti de l’économie de
marché. Les réformes de structure envisagées visaient en effet de créer les condi-
tions d’une véritable concurrence. Les distorsions de prix dommageables aux

1. Les fondements théoriques de ces politiques sont exposés plus longuement dans l’encadré 1,
page 147.
2. Le fonctionnement de cette zone monétaire singulière hérité de la période coloniale et qui
nourrit de manière récurrente des controverses sur ses finalités est abordé dans le II.

146

046092.indd 146 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

producteurs ont ainsi été corrigées. Néanmoins, ces politiques d’ajustement ont eu
pour effet d’encourager le développement de l’économie informelle au détriment
des marchés formels. Par ailleurs les opérations de privatisation des entreprises
publiques engagées dans de nombreux pays se sont traduites par des transferts
de propriété au profit d’amis ou de proches parents des responsables politiques.
Quant à la dévaluation, elle a eu des effets mitigés. Bénéfique pour les pays
exportateurs de matières premières, elle a permis une reprise sensible de l’activité,
économique permettant aux pouvoirs publics de bénéficier d’une bouffée d’oxygène
en termes d’accroissement des recettes fiscales et d’assainissement des finances
publiques. Elle n’a néanmoins pas permis la restauration de l’équilibre extérieur
comme envisagé. Dotée en effet dans leur immense majorité d’un appareil productif
peu diversifié et largement importateurs de produits manufacturés, la plupart des
pays africains de la Zone franc ont vu l’effet renchérissement des importations
l’emporter sur l’hypothétique effet de substitution.
Le bilan peu reluisant des politiques d’ajustement a au final conduit à une
profonde remise en cause de celles-ci. Des inflexions majeures ont ainsi vu le jour
avec l’apparition, au début du nouveau millénaire, des programmes stratégiques
de réduction de la pauvreté. Ceux-ci ont contribué à la mise en place de l’initiative
de remise de dettes dans les pays les plus endettés. Lourdement affectés par les
politiques d’ajustement structurel, les pays les moins avancés d’Afrique ont été
les principaux bénéficiaires de ces dispositifs. Les programmes stratégiques de
réduction de la pauvreté (PSRP) se singularisent des programmes d’ajustement
classiques sur plusieurs points. Ils privilégient d’abord le long terme au détriment
du court terme. Ils ambitionnent ensuite la réalisation d’une croissance forte, stable
et permettant de réduire significativement la pauvreté. Ils visent enfin à promouvoir
la bonne gouvernance au plan national et mondial d’où l’apparition du concept
de biens publics mondiaux.

Encadré 1 Les fondements théoriques et les objectifs macro-


économiques des politiques d’ajustement structurels du FMI

Créé en juillet 1944 à l’issue d’une conférence rassemblant les délégués de 45 pays
dans la petite ville de Bretton-Woods dans le New Hampshire, le Fonds monétaire
international a vu ses missions évoluer en plus d’un demi-siècle d’existence.
Chargée à l’origine de veiller au bon fonctionnement du système monétaire
international issu de ces accords, cette institution est depuis la fin des années
70 missionnée d’aider les pays en développement confrontés à des crises de
balance de paiement. Elle dispose pour ce faire de ressources provenant des
États membres appelés quote-part. Celles-ci sont fonction de la taille et du poids
dans les échanges internationaux de chaque économie. Les quotes-parts font
l’objet de révision tous les cinq ans et leur calcul tient compte notamment de
divers critères économiques comme le PIB, le solde des transactions courantes
et les réserves de change en devises. Exprimées en droits de tirages spéciaux
(DTS), les quotes-parts fixent les droits de vote et la capacité de chaque pays à

147

046092.indd 147 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

tirer sur les ressources du FMI en cas de nécessité. Ces ressources auxquelles
s’ajoutent d’autres sont destinées à financer entre autres les programmes d’ajus-
tement structurels.
Deux approches servent de base d’inspiration à ces politiques. D’un côté,
l’approche monétaire de la balance des paiements et de l’autre l’absorption.
L’approche monétaire appelée modèle de Polak établi en 1957 privilégie le court
terme. Il a pour objectif le rétablissement de la balance des paiements. La théorie
quantitative de la monnaie est sa principale source d’inspiration. Celle-ci stipule
que l’accroissement de la masse monétaire laisse invariante la production et
l’emploi mais impacte significativement le niveau général des prix. Différentes
hypothèses sont au cœur de ce modèle.
On suppose d’abord qu’on est en présence d’une petite économie ouverte. Du
fait de sa petite taille, le niveau des prix extérieurs lui est imposé. L’absence de
marchés financiers découlant de l’état de sous-développement de l’économie
locale transforme tout excès de monnaie en surcroît de demande.
L’équilibre macro-économique est déterminé par trois équations indépendantes.
La première fait dépendre la demande de monnaie Md d’une proportion fixe k
du revenu PY avec Y et P désignant respectivement le revenu réel et le niveau
général des prix soit :
Md = k PY.
La seconde équation fait apparaître l’offre de monnaie Mo comme dépendante
de deux paramètres, d’une part du volume du crédit C accordé par le système
bancaire au secteur privé et à l’État et de l’autre, de la variation des réserves de
change R avec l’extérieur, soit :
Mo = C + R.
La troisième équation met en relation le niveau général des prix domestiques P
et celui en vigueur à l’étranger Pe auquel on applique le taux de change t soit :
P = t Pe.
L’égalité entre offre et demande de monnaie est la condition d’équilibre de ce
modèle en situation de change fixe soit :
Mo = Md.
En remplaçant ces deux agrégats monétaires par leurs valeurs respectives, on
obtient l’égalité suivante :
kPY = C + R
c’est-à-dire :
ktPeY = C + R
d’où :
R = ktPeY – C
Les implications suivantes découlent de cette relation mathématique. Tout d’abord
les réserves de change sont d’un côté, tributaires du niveau de production et
des prix domestiques et de l’autre du crédit intérieur. Le rétablissement de
l’équilibre extérieur au regard de cette équation passe donc par l’accroissement
du différentiel entre la production nationale et le crédit intérieur. Pour ce faire,
il est nécessaire de contracter le crédit d’une part et de stimuler d’autre part la
production intérieure via la dévaluation de la monnaie nationale. La contraction
du crédit implique le recours notamment à des taux d’intérêt prohibitifs afin de
dissuader la demande de monnaie des agents économiques. Quant à l’effet

148

046092.indd 148 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

stimulant de la dévaluation, il est subordonné à deux effets aux conséquences


opposées sur la balance des paiements. En dépréciant le taux de change de la
monnaie nationale par rapport à d’autres devises, la dévaluation renchérit le coût
des produits importés. Il peut en résulter un phénomène « d’inflation importée »
qui a pour effet de dégrader à court terme le solde de la balance commerciale.
Néanmoins ses effets peuvent être minorés en cas d’effet de substitution au profit
des produits locaux. Les biens importés se révélant fort onéreux, les consom-
mateurs peuvent s’en détourner pour préférer les productions domestiques. La
dévaluation génère à l’inverse un effet de compétitivité des produits locaux sur
les marchés internationaux. En effet, leurs prix exprimés en devises diminuent, il
peut en résulter un accroissement du volume des exportations aux conséquences
bénéfiques sur le solde de la balance commerciale. Au final, les effets de la
dévaluation sur la balance commerciale dépendent de l’ampleur des effets-prix
et des effets volume. Ceux-ci sont fonction de la valeur de l’élasticités-prix des
importations d’une part et celle de l’élasticité-prix des exportations d’autre
part. Le théorème des élasticités critiques ou la condition de Marshall-Lerner
précise les conditions de réussite d’une dévaluation. Il stipule qu’une balance
commerciale d’un pays s’améliore suite à une dévaluation si et seulement si la
somme des valeurs absolues des élasticités-prix est supérieure à 1. Dans le cas
contraire, le solde extérieur se dégrade et cela est particulièrement probant
dans le cas d’un pays peu ou pas doté en ressources naturelles notamment
énergétiques. La dévaluation amplifie dans ces conditions l’effet-prix et dégrade
l’équilibre extérieur. Présentée comme la panacée aux déséquilibres extérieurs,
la dévaluation apparaît néanmoins comme une mesure sujette à caution, ses
effets bénéfiques étant assujettis à de multiples conditions dont l’existence d’un
appareil productif susceptible à la fois de satisfaire la demande extérieure et
intérieure. Une condition que peu de pays en développement remplisse et qui
renforce le caractère aléatoire de la réussite de cette mesure phare des politiques
d’ajustement structurel.
L’approche par l’absorption domestique s’appuie sur l’équilibre emploi-res-
sources. C’est un modèle d’inspiration keynésienne. L’absorption domestique
regroupe l’ensemble des dépenses effectuées par les agents économiques
dans une économie. Il s’agit des dépenses publiques G, des dépenses privées
des ménages à des fins de consommation C et des dépenses d’investissement
des entreprises I.
L’absorption domestique A est ainsi égal à :
G + C + I.
En tenant compte de l’équilibre emploi ressources, on peut égaliser le revenu
national Y à l’absorption domestique soit :
Y = G + C + I.
Si l’on intègre l’hypothèse qu’on est en présence d’une économie ouverte la
relation précédente se transforme en :
Y+M=G+C+I+X
soit :
Y = C + I + G + (X – M) ou Y = A + B avec B = X – M désignant le solde
extérieur et A la valeur de l’absorption domestique.

149

046092.indd 149 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

De l’équation précédente, on peut déduire la relation suivante :


B=Y–A
Différents enseignements peuvent en être tirés. Il y a d’abord le fait que le solde
extérieur est positif ou excédentaire lorsque le revenu national est supérieur à
l’absorption domestique, en d’autres termes lorsque la production intérieure est
capable d’absorber la demande intérieure. Dans le cas contraire, il y a déficit
extérieur car la production intérieure étant insuffisante, il est nécessaire d’importer
des biens et services de l’étranger. Cette égalité permet donc de mettre en
lumière le lien entre déficit domestique et déficit extérieur. Pour contenir le
déficit domestique afin d’améliorer le solde extérieur, il convient de procéder
à la contraction de l’absorption domestique. Cela implique, la réduction des
dépenses intérieures, c’est-à-dire la baisse de la consommation des ménages,
de la dépense publique et de l’investissement des entreprises. En somme, il
s’agit de mettre en œuvre des mesures dont la finalité est somme toute de
freiner l’activité intérieure. Cette option est qualifiée d’ajustement par le bas.
Elle est généralement décriée en raison de ses conséquences économiques
et sociales négatives. Une des limites de ce modèle est qu’il ne prend pas en
compte les facteurs monétaires et les mouvements de capitaux. L’analyse est
ainsi menée en terme réels en négligeant les relations entre masse monétaire
et taux de change. ©

D. Le tournant des années 2000, source d’espoir

Après des décennies de stagnation économique favorisées d’une part par de


nombreux conflits politiques et militaires et d’autre part par une gouvernance
inappropriée et un niveau d’endettement insoutenable, l’Afrique subsaharienne
va opérer un tournant au début du nouveau millénaire en renouant avec un niveau
de croissance dynamique permettant d’entrevoir l’avenir avec optimisme1.

Une croissance vigoureuse tirée par les exportations de ressources


naturelles et par des réformes de structure

À partir de l’an 2000 de nombreux pays africains entre dans un long processus
d’embellie économique se matérialisant par des niveaux de croissance relati-
vement élevés. Les statistiques de la banque mondiale mettent en lumière le fait
qu’entre 1995 et 2017, le PIB des pays africains a augmenté en moyenne de 4.5 %
par an soit trois points de pourcentage de plus qu’au cours des deux décennies
précédentes. La croissance africaine va se singulariser d’autres zones de dévelop-
pement à l’instar de l’Asie de l’Est en augmentant plus vite. Par ailleurs, différents
pays africains apparaissent en meilleure position dans différents classements de pays

1. Ainsi le discours centré sur l’afro-pessimisme des années 90 va céder progressivement la


place, à partir du nouveau millénaire, à une vision afro-optimiste de l’avenir du continent.
« L’Afrique qui émerge », ou « Africa achieves, Africa rising » sont quelques-uns des titres qui
ont marqué le renouveau de l’Afrique.

150

046092.indd 150 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

les plus dynamiques et performants. Deux pays vont particulièrement se distinguer


au cours de cette période, l’Éthiopie1 et le Rwanda. Bénéficiant d’une croissance
à deux chiffres, l’ancienne Abyssinie va se voir décerner le qualificatif de « tigre
africain » et nourrir ainsi l’ambition de devenir comme son mentor chinois le nouvel
atelier du monde. Quant au Rwanda, petit pays enclavé, sa volonté réformatrice
va lui valoir la distinction de meilleur pays réformateur au niveau mondial selon
l’étude de « Doing business 2010 » de la Banque mondiale.

Figure 1 : Croissance du PIB en % entre 1961-2011

Source : Banque mondiale, indicateurs africains de développement, 2013.

Cette croissance retrouvée source de bouffée d’oxygène est le produit de la


conjonction de plusieurs facteurs. Il y a d’abord l’amélioration de la conjoncture
internationale résultant de la forte croissance de la demande mondiale. Cette
dernière va favoriser la remontée du niveau des prix des matières premières et
générer ce faisant des effets bénéfiques sur les termes de l’échange des pays
africains.
L’émergence accélérée de la Chine va aussi contribuer à amplifier ce phénomène.
Consommatrice boulimique des matières premières, l’Empire du milieu va davantage
peser, pour les besoins de sa croissance, sur la demande et contribuer de ce fait
à tirer vers le haut le cours des ressources naturelles et permettre ainsi aux pays
africains exportateurs de matières premières de bénéficier de cette amélioration
conjoncturelle.

1. La stratégie adoptée par ce pays aux grandes ambitions et les mutations en cours sont décrites
dans l’encadré 2, page 152.

151

046092.indd 151 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

La seconde cause explicative du retour de la croissance relève de facteurs


internes aux pays africains. Les réformes de structure engagées dans le cadre des
programmes d’ajustement structurel finissent par porter leurs fruits. La réduction
des déficits et de l’endettement publics consécutive à une meilleure gestion
macro-économique ainsi que la baisse du niveau de l’inflation permettent l’amé-
lioration des fondamentaux économiques. Les pays africains vont grâce à cette
évolution favorable de l’activité économique recouvrer des marges de manœuvre
budgétaires. L’amélioration du climat des affaires qui en résulte permet aux pays
africains de retrouver de la crédibilité sur les marchés financiers. Ainsi bénéficiant
de la confiance des investisseurs, certains d’entre eux recouvrent la possibilité
d’émettre des obligations souveraines afin de financer leurs besoins d’infrastruc-
tures. Cette confiance retrouvée se traduit par un financement à moindre coût au
bénéfique des pays africains. Certains d’entre eux bénéficient alors de conditions
de financement avantageuses par rapport à certains pays membres de l’Union
européenne comme la Grèce ou le Portugal.
L’amélioration du climat des affaires favorisée aussi par la baisse des conflits
politiques ou armés va contribuer à faire de l’Afrique une des destinations préférées
des investissements directs étrangers. Les flux financiers au profit de l’Afrique
subsaharienne augmentent alors dans des proportions considérables. De l’ordre
de 20 millions de dollars en 1990, ils passent à 120 milliards en 2012. Une hausse à
mettre au crédit des capitaux privés et aux envois de fonds de la part de la diaspora.
Cette croissance des flux financiers ne bénéficie toutefois pas équitablement
à tous les pays. Certains en sortent mieux lotis que d’autres. C’est le cas particu-
lièrement des pays producteurs de ressources extractives
En dépit de ce regain d’intérêt des IDE pour l’Afrique, la part d’IDE qui lui est
destinée demeure très marginale comparativement à d’autres continents. Celle-ci
représente à peine 5 % du total des IDE mondiaux.

Encadré 2 L’Éthiopie se rêve en tigre africain et en atelier du monde

Il est bien loin le temps où l’Éthiopie était le symbole de la misère extrême et


suscitait de ce fait la commisération générale au point de bénéficier d’un vaste
mouvement de solidarité planétaire. Depuis l’eau a coulé sous les ponts et ce
pays situé dans la corne de l’Afrique a connu des transformations fulgurantes
qui font de lui l’un des nouveaux ateliers du monde. Ses performantes écono-
miques éblouissantes lui valent aujourd’hui le qualificatif de « tigre africain ».
L’Éthiopie figure en effet depuis plusieurs années en haut du classement des
pays à haut niveau de croissance. Son PIB a selon le FMI augmenté de 10.8 %
en moyenne par an entre 2004 et 2016. En 2017, avec un taux de croissance
de 10.2 %, l’Éthiopie est de toute la planète le pays qui a affiché la plus forte
croissance selon la Banque mondiale.
Grâce au dynamisme de la croissance de son économie, l’Éthiopie a bénéficié
d’un recul significatif de la pauvreté (passée de 45 % à 22 %), d’une augmentation
de 55 % de son niveau d’IDH (indicateur de développement humain) entre 2000

152

046092.indd 152 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

et 2014. Ces résultats à faire pâlir de jalousie plus d’un pays en développement
n’est pas le fruit du hasard mais le produit d’une stratégie de développement
s’inspirant des tigres asiatiques. À l’instar de ceux-ci, l’État éthiopien est pleinement
engagé dans le développement économique du pays. Il affiche un volontarisme
à la hauteur de ses espoirs, transformer d’ici 2025 l’Éthiopie en un pays à revenus
intermédiaires.
Pour ce faire, un code des investissements favorables aux entreprises a été adopté
dès 2002 ainsi que des mesures d’incitation fiscales à l’avantage des entreprises
désireuses de s’installer dans les 13 parcs industriels dont 6 sont le produit de
la coopération avec la Chine. Des dispositions avantageuses accueillies favora-
blement par les investisseurs. 4.2 milliards de dollars d’investissement direct à
l’étranger (IDE) ont été enregistrés entre 2016 et 2017 dont 75 % dans le secteur
manufacturier. L’Éthiopie ambitionne de porter à 25 % la part du secteur secondaire
dans le PIB dans les 10 années à venir contre 5 % actuellement. Il souhaite ainsi
faire de l’industrie le fer de lance de ses exportations à destination des marchés
mondiaux d’ici 2025. Il espère aussi en faire un grand pourvoyeur d’emplois afin
de diminuer le chômage qui demeure à des niveaux encore trop élevés.
Des ambitions qui semblent bien engagées car l’Éthiopie apparaît depuis quelques
années comme l’une des destinations des grandes marques internationales.
Zara, Calvin Klein, HM, Guess, sont quelques-unes des multinationales de la
mode qui y ont élu domicile. Le pays connaît aussi quelques succès dans ses
choix stratégiques d’investissement qui apportent du crédit à ses ambitions.
Certaines entreprises éthiopiennes ont en effet réalisé des percées remarquables
dans différents secteurs d’activité. Dans la filière café, la marque Roberta PLC
affiche un niveau d’exportation qui le place en tête des exportateurs africains.
Elle vend ses arabicas dans le monde entier et affiche des résultats reluisants.
Il en est de même de sa filière de production de roses pour laquelle l’Éthiopie
occupe le rang de deuxième exportateur au monde. Autre secteur vitrine de la
réussite économique de ce pays, c’est « Ethiopian Airlines », une compagnie
aérienne qui prospère sous l’aide protectrice de l’État éthiopien et de la Chine.
D’autres atouts confortent les ambitions de ce pays en matière de développement
accéléré, il s’agit notamment de sa population, de ses terres arables et de ses
ressources hydrauliques.
Peuplé de 100 millions d’habitants, l’Éthiopie dispose d’une main-d’œuvre
abondante, peu coûteuse et jeune. La Chine, son premier partenaire écono-
mique entend au demeurant tirer profit de cette main-d’œuvre en y délocalisant
progressivement de nombreux emplois industriels. Avec d’abondantes ressources
en matière de terres arables, 4.5 millions d’hectares, celles-ci sont mises au
service de la production de coton destinée à l’approvisionnement des industries
du textile. Son potentiel hydraulique impressionnant, environ 40 000 mégawatts
nourrit ses ambitions de devenir le premier exportateur d’électricité en Afrique.
Un objectif légitimé par le fait que c’est l’une des énergies les moins chères au
monde. Enfin sa position géographique n’en constitue pas moins un atout. Elle
lui permet en effet de signer des accords ouvrant la voie à plusieurs marchés,
ceux du Moyen-Orient, de l’Europe et de l’Asie.

153

046092.indd 153 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

L’Éthiopie mise aussi sur le développement de son capital humain pour améliorer
son potentiel de croissance. La multiplication du nombre des universités, une
quarantaine aujourd’hui contre 2 il y a une vingtaine d’années témoigne de ce
volontarisme des pouvoirs publics éthiopiens de tirer vers le haut le niveau de
formation de sa jeunesse et plus globalement de sa population active.
Ces nombreux avantages énumérés doivent cependant être mis en regard des
handicaps structurels rencontrés par ce pays et des effets pervers générés par
cette course obsessionnelle vers la croissance à deux chiffres.
L’Éthiopie est tout d’abord en effet en proie à des épisodes de sécheresse
dommageables économiquement. L’agriculture reste pour l’heure le secteur
dominant de l’économie de ce pays. Elle représente 40 % du PIB, occupe 80 % de
la population active et réalise 85 % des exportations. La récurrence des périodes
de sécheresse rend très vulnérable ce secteur d’activité aux aléas climatiques.
Son niveau de productivité s’en trouve donc affecté.
Au plan politique, le pouvoir central est confronté à des mouvements de contes-
tation de la part de certains groupes ethniques. Ceux-ci ont le sentiment d’être
marginalisés par le régime en place. Il s’agit des Afars, des Monos et des Samalis.
Des tensions inter-ethniques sont ainsi courantes et le pays est en proie à un
risque d’instabilité interne. Les relations avec L’Érythrée, pays voisin, se sont
apaisées mais restent marquées par une forme de méfiance.
Au plan économique, le programme de modernisation engagé et porté par
l’investissement public a une contrepartie, celle d’un endettement croissant.
L’Éthiopie apparaît très dépendante de ses créanciers internationaux dont la Chine.
Autre obstacle, c’est celui émanant de sa forte pression démographique. Ce pays
de la corne de l’Afrique verra sa population doubler d’ici 2050. Une croissance
démographique dont les effets se matérialisent aujourd’hui par un exode rural
massif. Ces migrations massives vers les villes se traduisent par la multiplication
de bidonvilles et par des conditions de vie déplorables. Le défi qui se présente
à ce pays est donc de taille, absorber ce surplus d’habitants de 100 millions. Les
autorités entendent le relever en ambitionnant de créer 14 millions d’emplois
au cours des six prochaines années et 20 millions d’ici 2030.
Enfin la course obsessionnelle de ce pays enclavé vers la croissance à deux
chiffres a un revers, celui d’un prix social et écologique élevé. L’installation des
firmes multinationales est certes créatrice d’emplois mais au prix d’une très
faible rémunération de la main-d’œuvre locale. 26 dollars soit 23 euros, tel est le
salaire mensuel moyen d’un ouvrier du textile éthiopien. Ce sont les travailleurs
les moins payés de l’industrie mondiale du textile loin derrière le Bangladesh.
Quant à l’impact écologique de certaines activités dont la production de roses,
il est indéniablement avéré. Cette industrie qui fait la fierté de ce pays est à
l’origine de l’assèchement de certains lacs. Excessivement consommatrice d’eau,
l’activité horticole favorise le pompage sans limite et incontrôlé des eaux. À cela
s’ajoute, l’utilisation des produits chimiques qui ont des conséquences nuisibles
sur la fertilité des sols et sur la santé des ouvriers de la chaîne de production. Le
gouvernement éthiopien tente d’atténuer ce bilan peu reluisant en prenant des
initiatives en faveur de l’environnement. Une vaste campagne de reboisement
« Green legacy » est engagée. L’ancienne Abyssinie a récemment annoncé avoir
planté 353 millions d’arbres en l’espace de 12 h et affiche l’ambition d’en planter

154

046092.indd 154 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

4 millions avant la fin de l’année 2019. Destinée à lutter contre le réchauffement


climatique et à réduire le volume des importations du bois, cette campagne
suscite toutefois des critiques tant elle semble destinée à des fins de commu-
nication visant à redorer l’image du pouvoir en place.
Qualifiée par certains de « petite Chine de l’Afrique », l’Éthiopie semble bien
engagée pour troquer son image dévalorisante de pays en haillons ravagés par
les guerres et les famines au profit de celle plus valorisante de pays dynamique
incarnant l’émergence économique de l’Afrique. Les fragilités précédemment
énumérées montrent s’il en est besoin que son parcours reste néanmoins parsemé
d’embûches. Ce pays boulimique de croissance et dont le nombre de million-
naire ne cesse de croître rêve à l’évidence de renaissance ; peut-il néanmoins
retrouver ses lustres d’autrefois c’est-à-dire le rayonnement qui était le sien
jadis au temps du royaume d’Abyssinie ? Les années à venir y apporteront une
réponse décisive. ©

Un investisseur s’est particulièrement distingué au cours de cette période,


en jouant un rôle très actif dans cette croissance retrouvée : il s’agit de la Chine.
L’Empire du milieu a en effet augmenté de manière significative ses investissements
en Afrique en renforçant sa présence dans plusieurs pays via son implication dans
de nombreux projets de construction d’infrastructures.

Figure 2 : Les investissements chinois en Afrique

Source : China Africa Research

D’à peine 400 milliards de dollars au début des années 2000, les investissements
de la Chine en Afrique vont littéralement s’envoler pour atteindre la somme astro-
nomique de 43 296 milliards de dollars en 2017, soit 8 fois plus que leur niveau
initial au début du millénaire.

155

046092.indd 155 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Encadré 3 L’envers de la coopération sino-africaine : un risque


d’emballement de la dette publique.

Longtemps la Chine a privilégié les affinités idéologiques et politiques dans ses


choix de relation avec l’Afrique. Depuis le début des années 2000, c’est davantage
le pragmatisme économique qui dicte l’intervention chinoise en Afrique. Cette
évolution de Pékin qui le conduit à exclure toute forme de sélectivité dans ses
investissements est la conséquence de la croissance vertigineuse de ses besoins
en matières premières et de sa volonté de s’affirmer comme une puissance sur
la scène mondiale.
Échaudés par les affres des politiques d’ajustement structurel engagées par le
FMI dans les années 90, les pays africains ont trouvé dans l’Empire du milieu
un nouveau partenaire économique moins exigeant, moins moraliste et moins
paternaliste capable, grâce à son aide multiforme de les conduire radieusement
vers le développement économique et social.

Du consensus de Washington au consensus de Pékin


Cette convergence d’intérêts entre l’Empire céleste et l’Afrique est à la base du
consensus de Pékin perçue comme une alternative au consensus de Washington.
À l’inverse du principe de conditionnalité au cœur des politiques imposées par
les institutions de Bretton Woods, le consensus de Pékin repose officiellement sur
des relations bilatérales fondées sur la non-ingérence dans les affaires intérieures
et le respect de souveraineté des États, sur l’absence de conditionnalité politique,
en somme sur des relations promouvant la stricte égalité entre partenaires et
visant à assurer un échange gagnant-gagnant1. Lancé au début des années
2000, le forum sur la coopération sino-africaine réunissant les autorités chinoises
et les chefs d’État africains est devenu au fil des années la pierre angulaire des
relations entre l’Afrique et l’Empire du milieu.
Premier partenaire commercial de l’Afrique, la Chine a renforcé tout au long des
deux dernières décennies sa présence en Afrique via l’explosion des échanges
bilatéraux et des investissements directs.
La coopération sino-africaine se matérialise par la mise en œuvre de projets
d’infrastructure. Constructions de routes, de ports, de chemins de fer, de barrages
hydrauliques et aménagements des réseaux de télécommunications sont généra-
lement confiées aux entreprises chinoises. Des investissements en infrastructures
qui s’avèrent salvateurs tant ils permettent d’atténuer les goulets d’étranglement
au niveau de l’offre productive améliorant ainsi la compétitivité et l’attractivité
des pays africains.
L’intervention chinoise en Afrique se concrétise aussi par la construction de ZES
(zone économique spéciale). Leur but est d’attirer des investisseurs étrangers
afin d’améliorer la compétitivité du secteur manufacturier à l’état embryonnaire
dans de nombreux pays. Il s’agit aussi de bénéficier du savoir-faire chinois avec

1. Dans ses relations avec l’Afrique la Chine entend faire valoir la pratique des cinq non : ne pas
s’ingérer dans la recherche par les pays africains d’une voie de développement adaptée à
leurs conditions nationales, ne pas s’immiscer dans les affaires intérieures africaines, ne pas
imposer sa volonté à l’Afrique, ne pas assortir son aide à l’Afrique de conditions politiques
quelconques, ne pas poursuivre des intérêts politiques égoistes en matière d’investissement
et de financement avec l’Afrique.

156

046092.indd 156 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

de possibles effets bénéfiques sur le tissu productif local. L’Éthiopie est un des
pays récipiendaires de cette pratique. La chine y a construit 6 zones économiques
spéciales sur lesquelles sont implantées de nombreuses firmes multinationales.

Un échange réellement gagnant-gagnant ?


Le partenariat sino-africain est-il à la lumière des faits un véritable échange
gagnant-gagnant comme l’affirment les autorités tant chinoises qu’africaines ?
L’analyse des flux économiques entre les deux continents met en lumière un
déséquilibre structurel au détriment de l’Afrique avec de possibles conséquences
environnementales dommageables.
Tout d’abord, l’essor de la relation commerciale et d’investissement entre Pékin
et l’Afrique ne bénéficie pas à tous les pays. 70 % des exportations africaines à
destination de la Chine sont le fait de quelques pays. L’Angola, l’Afrique du sud,
le Soudan et la république démocratique du Congo sont les principaux pays
exportateurs. Ces exportations sont pour l’essentiel constituées de matières
premières c’est-à-dire de pétrole, cuivre, cobalt et coton. Quant aux importations
en provenance de Chine, elles sont constituées à 60 % de produits manufactu-
riers. Les principaux destinataires de ceux-ci sont l’Afrique du sud, le Nigeria,
l’Algérie, l’Égypte et le Maroc. Ces statistiques mettent donc en évidence le fait
que la plupart des économies africaines entretiennent une relation commer-
ciale relativement limitée avec l’Empire du milieu. Concernant les IDE, ils sont
aussi concentrés. 50 % sont consacrés au secteur minier d’une poignée de pays
richement dotés en ressources minières (Nigéria, Afrique du sud et Soudan).

Figure 3 : Les investissements chinois

Source : Cari

157

046092.indd 157 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Le caractère déséquilibré de la relation commerciale nourrit controverses et débats.


Pour les contempteurs de la relation sino-africaine, la présence de l’Empire du
milieu en Afrique est essentiellement motivée par des considérations mercan-
tiles. En transformant l’Afrique en immenses réservoirs de ressources naturelles
et minières destinés à assouvir ses besoins croissants et à assurer son expansion
économique, la Chine reproduit de facto l’attitude coloniale occidentale qui a
contribué à asservir l’Afrique durant des siècles. De même en mettant en œuvre
un partenariat basé sur l’échange ressources contre infrastructures, l’Empire du
milieu renforce la spécialisation primaire des économies africaines, les exposant
ainsi continûment à la dégradation des termes de l’échange facteur de leur
appauvrissement.
La présence chinoise en Afrique a aussi des conséquences sociales et environne-
mentales non négligeables. L’acquisition d’immenses terres pour la production
d’agrocarburant menace la sécurité alimentaire de certains pays et accroît la
pression sur les paysans contraints de céder leurs terres. Les importations massives
de produits chinois (textile, vêtements, etc.) détruisent l’emploi dans le secteur
artisanal et compromettent les perspectives de développement de l’industrie dans
certains pays où il est à l’état embryonnaire. Enfin le primat accordé à la renta-
bilité économique de certains projets relègue au second rang les préoccupations
écologiques. Des entreprises chinoises sont ainsi accusées de contribuer à la
déforestation sauvage des couverts forestiers de certains pays d’Afrique centrale

Des prêts préférentiels qui portent en germe le risque de surendettement.


Avec ses immenses réserves de change évaluées à plus de 3 000 milliards de
dollars, la Chine est devenue le premier créancier de l’Afrique. Sur les vingt
dernières années, Pékin a octroyé 140 milliards de dollars de prêts aux pays
d’Afrique subsaharienne. De ce fait, la Chine détient, à elle seule, 14 % du stock
de dette des pays africains. En échange d’un accès privilégié aux ressources
pétrolières et minières, Pékin accorde des prêts à faible taux à ses partenaires
africains. Des prêts gagés qui suscitent de vives réserves et critiques tant ils sont
accusés de manquer de transparence. De nombreux pays africains se retrouvent
en situation de surendettement ou sont exposés à ce risque. À la fin 2017, la
dette publique africaine atteignait 57 % du PIB. Elle a ainsi doublé en cinq ans.
L’opacité des conditions dans lesquelles ces prêts sont consentis fait l’objet de
critiques de la part des institutions de Bretton Woods. Celles-ci redoutent en
effet une nouvelle crise de la dette impliquant les pays d’Afrique. Un risque réel
tant de nombreux pays africains se trouvent en proie à une dette croissante. Le
Mozambique, l’Angola, la Zambie sont quelques-uns des pays en proie à ces
« dettes collatérisées » ou gagées sur des ressources naturelles.

158

046092.indd 158 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

Figure 4 : Les prêts chinois aux gouvernements africains

Source : Cari

Figure 5 : La dette extérieure publique

Source : Banque mondiale, Statistics 2019.

Les prêts accordés par Pékin sont considérés par certains critiques comme un
instrument de domination politique. La relation de dépendance économique
et financière qui en résulte permet à l’Empire du milieu d’étendre son influence
politique sur le continent africain. Comptant 55 pays et représentant à elle seule
un tiers des voix à l’assemblée générale de l’ONU, l’Afrique représente un atout
important pour Pékin en cas de crise du fait du soutien qu’elle peut lui apporter.

159

046092.indd 159 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Ces critiques formulées à l’encontre de la relation sino-africaine ne font toutefois


pas l’unanimité. Ses ardents défenseurs estiment à l’inverse que sans celle-ci
le développement de la téléphonie mobile, la révolution des transports, la
construction d’infrastructures permettant de désenclaver une partie des terri-
toires n’aurait pas été possible en un temps record.
Reste que dans de nombreux pays africains, le sentiment d’une forme de néo-co-
lonialisme gagne du terrain. La qualité des travaux d’infrastructures entrepris
par les entreprises chinoises est souvent jugée de piètre qualité par les popula-
tions locales, ce qui a pour effet de nourrir leur ressentiment à l’égard de cette
coopération1. ©

Diverses mutations socioéconomiques porteuses d’espérance

L’une des mutations socioéconomiques découlant de cette période de croissance


relativement faste est la naissance d’une classe moyenne africaine. L’augmentation
du niveau de vie et le recul de la pauvreté ont contribué à l’émergence de celle-ci.
Selon la Banque africaine de développement (BAD), 350 millions d’Africains soit
34 % de la population africaine en feraient partie2. Ceux-ci dépenseraient entre 2
et 20$ en parité de pouvoir d’achat par jour. Cependant, cette institution opère
une distinction entre la « flotting middle class » ou classe flottante, la « middle
class lower » ou classe moyenne intermédiaire et la « upper middle class » ou
classe moyenne supérieure.
Figurent dans la classe flottante, les individus qui ont un revenu compris entre 2$
et 4$ en parité de pouvoir d’achat (PPA) par jour et par tête. Cette classe représente
plus de 50 % de la classe moyenne africaine. Cette dernière comptabilise toutes
les personnes à la situation sociale fragile qui peuvent basculer de nouveau dans
la pauvreté en raison de l’instabilité de leurs revenus. Ces derniers cumulent ainsi
insécurité économique, sociale et foncière. Ce sont donc des ménages sous tension,
animés par l’ardente motivation d’échapper au déclassement. Ils développent pour
ce faire différentes stratégies pour y parvenir et cela implique la multiplication des
activités notamment dans l’économie informelle.
La lower middle class comptabilise les ménages dont le revenu est compris
entre 4$ et 10$ PPA par jour et par tête. Les membres de cette classe bénéficient
d’une situation stabilisée. Ils disposent de ce fait des revenus leur permettant
d’épargner et d’investir pour l’avenir.

1. On raconte volontiers en Afrique cette anecdote qui en dit long sur la volonté de captation
de la rente par les élites locales. Un responsable des travaux d’une société chinoise se voyant
reprocher la piètre qualité d’une route bitumée cinq mois seulement après sa mise en fonction-
nement, rétorqua « Gros travaux, petits budgets mais grosses commissions ». Cette courte
réponse résume à elle seule la réalité de bon nombre de travaux menés tambour battant
en Afrique. Ils donnent lieu à des versements de confortables commissions à des dirigeants
locaux au détriment de la qualité des travaux.
2. C’est en 2011 que la Banque africaine de développement a dévoilé les résultats de ses travaux
reposant essentiellement sur une classification en fonction des revenus.

160

046092.indd 160 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

La dernière classe ou classe moyenne supérieure regroupe tous les ménages


dont les revenus sont supérieurs à 10$ PPA par jour et par tête. Elle est néanmoins
marquée par une très grande hétérogénéité. La classe moyenne supérieure regroupe
en effet à la fois des ménages disposant d’une situation économique et financière
très confortable et ceux dont la situation est marquée par une certaine forme
d’instabilité économique. Cette classe moyenne supérieure intègre en son sein une
élite qui incarne la classe possédante, celle des nouveaux riches. On les appelle
« Blacks Diamonds » en Afrique du Sud, les « Oils Blockes » au Nigéria, les « en
haut d’en haut » au Congo. Ils forment un groupe composé de quelques millions
de personnes dont la fortune et le niveau de vie n’ont aucune commune mesure
avec le commun des mortels africain. Leur mode de vie incarné par les 4 V : Voiture,
Villas, Voyages et Virements bancaires s’apparente davantage à celui des classes
très aisées des pays occidentaux.

Figure 6 : Les classes moyennes africaines


selon la Banque africaine de développement

Source : BAD

Les travaux de la BAD ont bénéficié d’emblée d’un écho favorable. Des formules
chocs telles que « l’Afrique est notre avenir » ou « Le grand boom » ont accompagné
l’idée optimiste de l’apparition d’une classe moyenne africaine formée de ménages
relativement jeunes, éduqués vivant dans des centres urbains et disposant de
métiers stables et relativement bien rémunérés1. Cependant cette idée de classe
moyenne africaine ne fait pas l’unanimité, de profondes divergences existent au

1. L’idée d’une classe moyenne africaine ne date pas d’aujourd’hui. Au moment des indépen-
dances, il était utilisé pour désigner les catégories lettrées ou « évoluées » destinées à assumer
les rênes du pouvoir.

161

046092.indd 161 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

niveau de sa définition et de sa délimitation. La diversité des économies et des


marchés qui composent le continent africain rend en effet particulièrement délicate
la définition d’une classe moyenne africaine.
Ainsi pour l’institut Mc Kinsey (2012), les ménages faisant partie de la classe
moyenne africaine sont ceux qui gagnent plus de 5 000$ par an et qui disposent
des ressources nécessaires pour réaliser des dépenses discrétionnaires. Quant à
l’étude de la Standard Bank (2014), elle intègre dans la classe moyenne les ménages
dont les revenus sont compris entre 8 500$ et 42 000$ par an. Il est évident que
ces différences notoires au niveau du critère de revenu créent inévitablement des
désaccords sur le pourcentage de personnes faisant partie de la classe moyenne.
Les deux dernières définitions aboutissent à une classe moyenne africaine compta-
bilisant plutôt autour de 14 % de la population totale africaine, loin des 34 %
annoncés par la BAD. Si certaines études privilégient le critère de revenu dans
la définition des classes moyennes africaines, d’autres portent leur attention sur
l’attitude comportementale des ménages pour caractériser les classes moyennes.
L’Institut français des relations internationales (IFRI), à partir d’observations menées
sur le terrain, dresse un portrait des classes moyennes africaines en mettant l’accent
sur trois points de définition concernant l’avoir, l’être, et le faire.
L’avoir concerne les revenus et le patrimoine. Sur ce point, les membres de la
classe moyenne disposent de revenus leur permettant de manger à leur faim. Ils ne
dépendent pas de quelqu’un d’autre pour survivre. Leurs conditions de logement
sont nettement meilleures que celles des populations pauvres.
L’être s’applique à la conscience de soi, aux valeurs fondamentales. Les membres
de la classe moyenne ont une grande estime pour les valeurs d’éducation et de
mérite. Ils sont portés par des valeurs progressistes et limitent le nombre de leurs
enfants.
Concernant le faire, les classes moyennes développent des stratégies de lutte
contre le déclassement en cumulant de multiples emplois, en investissant dans
le patrimoine culturel et immobilier et en épargnant. L’étude comportementale
des classes moyennes développée par l’Ifri permet ainsi de rendre compte d’une
réalité qui est davantage sociale qu’économique.
Au-delà des divergences d’interprétations, il y a néanmoins consensus sur
les potentiels effets bénéfiques générés par l’émergence des classes moyennes
africaines.
Au plan économique, le développement des classes moyennes africaines devrait
contribuer à l’éclosion d’un véritable marché intérieur. La croissance économique
des économies africaines pourrait avoir des ressorts internes ou endogènes et serait
de ce fait moins dépendante à l’égard des ressources tirées de l’exploitation et
de l’exportation des ressources naturelles. La formation d’une demande solvable
devrait dynamiser de nombreux secteurs d’activité. Le secteur de la distribution par
exemple, devrait tirer le plus grand bénéfice de cette nouvelle masse croissante de
consommateurs. Le Groupe Carrefour a anticipé cette croissance à venir des classes
moyennes en projetant d’installer sur le continent de nombreux magasins d’ici 2024.
D’autres géants de la distribution à l’instar de Danone, Wal-Mart ou le sud-africain

162

046092.indd 162 18/11/2020 09:10


I. De l’échec des stratégies de développement au renouveau de l’espoir

Shoprite nourrissent la même ambition. Pour capter ces nouveaux consommateurs,


ces firmes multinationales développent des stratégies de croissance des produits
de moyenne gamme à destination de cette clientèle. La restauration rapide n’est
pas en reste, elle est aussi stimulée par les nouvelles habitudes de consommation
des classes moyennes. Son dynamisme se caractérise par des créations d’emplois
nombreuses. Il en est de même des secteurs de l’immobilier et de la banque. Ce
dernier devrait bénéficier d’un taux de bancarisation croissant. Ce qui devrait se
traduire par une offre de crédits plus volontariste à destination de ces ménages.
Au plan politique, certaines analyses (J.M. Severino et O. Ray, 2011), consi-
dèrent que des groupes mieux éduqués peuvent être le fer de lance des mutations
démocratiques des sociétés africaines en remettant en cause les dérives autoritaires
de certains régimes. En effet, les attentes grandissantes qui les caractérisent et la
volonté de participer aux activités citoyennes qui les animent peuvent être le moteur
du changement. Cette vision optimiste est récusée par d’autres études qui mettent
en lumière le fait que dans certains pays, les classes moyennes se caractérisent par
une certaine forme d’apathie notamment dans les pays où économie et pouvoirs
sont étroitement imbriqués. Elles trouvent en effet une forme de confort dans le
statu quo et redoutent le changement dans la mesure où il peut déboucher sur la
remise en cause de leur situation personnelle.

La révolution du mobile, symbole de l’éveil de l’Afrique

Pour certains analystes, « la révolution du mobile » est le symbole le plus


patent de la résurgence économique de l’Afrique. La croissance fulgurante du
téléphone portable en à peine plus d’une décennie a dépassé tous les pronostics
les plus optimistes. De l’ordre de 51.4 millions d’utilisateurs en 2003, le nombre
d’abonnés est passé à 772 millions en 2016, soit une augmentation exponentielle
de 1 500 %. Outil de communication, la diffusion du téléphone portable en Afrique
a des implications variées. Au plan économique, elle constitue un pourvoyeur
d’emplois faiblement qualifiés permettant à de nombreux actifs d’échapper à
l’oisiveté et d’acquérir une autonomie financière. Il a été démontré en Afrique du
sud l’existence d’une corrélation positive entre croissance du téléphone portable
et emplois. Les régions où la téléphonie mobile s’est développée ont bénéficié
d’une croissance plus importante de l’emploi.
Le téléphone favorise aussi la rationalisation des comportements en matière
économique via diverses applications permettant la transmission d’informations
sur les récoltes ou les conditions météorologiques.
Un des impacts les plus importants de cette révolution est la bancarisation
d’une partie croissante de la population africaine notamment dans les zones
rurales. Le développement du paiement par téléphone mobile est le principal
vecteur de ce processus. Le pionnier en la matière est M-Pesa au Kenya1. C’est
l’œuvre de Safaricom, le plus grand opérateur kényan de la téléphonie. Depuis son

1. Pesa signifie argent en Swahili.

163

046092.indd 163 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

lancement, M-Pesa n’a cessé de gagner des clients. De 8 millions à ses débuts,
il compte de nos jours plus de 19 millions d’utilisateurs au Kenya soit 70 % de
la population adulte et 30 millions d’abonnés dans le monde. Chaque seconde,
environ 900 transactions sont réalisées par ce biais. M-Pesa voit transiter 68 % des
transactions monétaires du Kenya.
Les services offerts par cette plateforme ont le mérite d’être simples mais
permettent de rendre service aux populations. Il est possible à partir d’un SMS
d’envoyer du crédit téléphonique à un autre utilisateur, de transférer de l’argent à
moindre frais vers des zones isolées et pauvres. De nombreux ménages non banca-
risés ont aussi recours à M-Pesa comme moyen d’épargne. Depuis son lancement,
M-Pesa a créé au total près de 180 000 emplois soit 8 % de l’emploi formel au
Kenya et contribué à hauteur de 6.5 % au PIB de ce pays. Son succès grandissant
a fait des émules dans de nombreux pays mais ses principaux concurrents peinent
à remettre en cause sa position dominante dans le domaine de transfert d’argent
par téléphone mobile.
Le développement du téléphone mobile en Afrique constitue par ailleurs un
puissant outil d’amélioration de la gouvernance locale. Ce moyen de communication
est mis à profit dans le cadre de la mobilisation électorale pour réduire l’abstention.
C’est aussi un moyen dans certaines communautés pour renforcer la démocratie
locale. C’est le cas en Tanzanie, où les populations locales sont sollicitées pour se
prononcer par SMS sur les priorités budgétaires locales. Une initiative qui permet
de renforcer l’engagement des populations locales et d’instaurer un climat de
confiance entre élus et administrés. Grâce au téléphone portable, certains scrutins
électoraux ont eu des résultats inattendus. La mobilisation des citoyens a permis
de faire échec aux tentatives de falsification des résultats par les pouvoirs sortants.
La libéralisation du marché de la téléphonie n’a pas totalement résorbé la fracture
numérique entre villes et campagnes. Le téléphone portable reste un phénomène
très urbain. Pour de nombreuses populations pauvres, analphabètes vivant à la
campagne, il représente encore un coût inaccessible. Reste que cette révolution
dispose d’un énorme potentiel de croissance dont l’ampleur dépend largement
de la baisse des coûts de télécommunications et de la croissance économique
africaine à venir.

II. De multiples facteurs rhédibitoires qui sont autant


de défis à relever

Le retournement conjoncturel de la fin de la dernière décennie marquée par


une croissance atone dans de nombreux pays africains a fait naître un regain de
scepticisme sur la capacité de l’Afrique à relever le défi de l’émergence. Le déficit
en matière de mutations structurelles dans de nombreux domaines en dépit de
deux décennies de croissance plus ou moins vigoureuse rend cette perspective
très incertaine.

164

046092.indd 164 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

L’Afrique, pôle de croissance et continent émergent du XXIe siècle, demeure


une possibilité mais à la condition expresse qu’elle s’emploie à relever différents
défis dont celui de la diversification économique, de la souveraineté monétaire, de
l’intégration régionale, de la maîtrise démographique et de la stabilité politique

A. Le défi de la diversification économique


et de l’industrialisation

L’une des principales caractéristiques des économies africaines c’est leur extrême
dépendance à l’égard de la production et l’exportation des ressources naturelles
ou de produits primaires. Les économies africaines restent donc très marquées par
la gestion de la rente. Elles subissent de ce fait plus que d’autres économies les
fluctuations des termes de l’échange qui sont une des sources d’appauvrissement
de ce continent.
L’absence de diversification des économies africaines s’explique notamment par
la grande convoitise suscitée par ses ressources en hydrocarbures et en minerais. Le
besoin croissant en matières premières des pays industrialisés et des pays émergents
conduit de nombreux pays à privilégier les industries extractives de ressources
naturelles au détriment d’autres secteurs notamment de l’agriculture, réduisant ainsi
à une portion congrue sa contribution aux grands équilibres macro-économiques.
Pourvoyeuse d’une grosse rente, ces industries minérales créent à l’inverse peu
d’emplois et se révèlent peu complémentaires avec d’autres activités locales. Elles
ne sont donc pas inclusives en dépit du fait qu’elles créent de la croissance en valeur.
La préférence accordée aux activités rentières provoque d’une part l’abandon
des campagnes au profit des cités urbaines et favorise d’autre part, le dévelop-
pement de modèles alimentaires à base de produits importés. Ce qui a pour effet
d’accroître la dépendance extérieure et le déficit commercial de nombreux pays
africains. Ces évolutions dommageables aux structures économiques africaines ont
ainsi contribué à accréditer la thèse de la malédiction des ressources naturelles.

Encadré 4 La malédiction des ressources naturelles, un mal


endémique en Afrique

Nombreux sont les pays africains qui regorgent d’abondantes ressources naturelles
à faire pâlir de jalousie plus d’un pays mais il y a un invariant qui les caractérise,
c’est leur incapacité à satisfaire les besoins les plus vitaux de leurs populations
parce que victimes d’un phénomène qualifié de « malédiction des ressources
naturelles ». Le Congo démocratique est sans aucun doute le cas le plus emblé-
matique de cette situation. Situé en Afrique centrale, ce pays grand 4 fois comme
la France dispose à lui seul de 80 % des réserves de cobalt, de 10 % des réserves
mondiales de cuivre et de tant d’autres ressources minérales. Malgré la richesse
extravagante de son sous-sol, le Congo-démocratique figure paradoxalement
parmi les pays les plus pauvres au monde avec 73 % de sa population vivant

165

046092.indd 165 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

sous le seuil de la pauvreté (c’est-à-dire avec moins d’1,90 dollars par jour selon
la banque mondiale) et fait partie des pays les corrompus selon le classement
établi par Transparency international.
D’autres pays d’Afrique, l’Angola, le Gabon, le Tchad, etc., n’échappent pas à
ce qui semble relever de la fatalité.
Comment expliquer que le pétrole, les diamants, le gaz ou le cuivre, symboles
s’il en est de la richesse, puissent rendre pauvres ? Comment expliquer que
l’abondance des ressources naturelles puisse maintenir l’immense majorité d’une
population dans le dénuement ? Bref, comment expliquer que l’absence de
développement puisse provenir de la richesse des ressources ?
Ce paradoxe qui dépasse l’entendement a été mis en lumière pour la première
fois par un économiste britannique Richard Audit au début des années 90. Selon
lui, « les économies reposant sur les matières premières, le pétrole notamment
tendent à se développer plus lentement et que celles-ci génèrent de la corruption
et des violences internes au sein des pays en question ». Une thèse parfaitement
confortée par les pratiques en cours dans de nombreux pays africains.

Des causes multifactorielles


Plusieurs facteurs notamment économiques, politico-institutionnels et socio-en-
vironnementaux sont souvent mis en exergue pour élucider cette paradoxale
malédiction.
L’un des premiers facteurs porte la qualification de « mal hollandais ». Les pays
dont l’immense partie des ressources d’exportation découle du secteur extractif
tendent à souffrir de la maladie hollandaise. Ce mal a été mis au jour dans les
années 50 et 60 suite à la découverte d’importants gisements gaziers par les
Pays bas. La hausse des recettes d’exportation qui en avait résulté eut pour
effet d’apprécier la monnaie hollandaise, le florin face au dollar. Cette appré-
ciation du florin eut des effets dommageables sur les autres secteurs d’activité
en renchérissant les prix de leurs exportations à destination des marchés inter-
nationaux. Cette perte de compétitivité fragilisa somme toute des pans entiers
de l’économie hollandaise d’où ce qualificatif. D’une manière générale, ce type
de situation favorise des mouvements de concentration d’activités en faveur du
secteur extractif et des phénomènes inflationnistes. Les États dépendant d’une
telle rente sont souvent en proie à une dégradation de l’état de leurs finances
publiques du fait qu’ils sont plus que d’autres exposés à la volatilité des cours
des matières premières.
Le deuxième facteur explicatif découle du paradoxe de l’abondance. Les revenus
tirés des ressources naturelles font l’objet d’une affectation pas toujours appropriée
par les gouvernements des pays concernés car ceux-ci sont guidés par une vision
à court terme. Les recettes d’exportations ne sont pas de ce fait consacrées à la
diversification économique mais à des politiques budgétaires expansionnistes
souvent inefficaces. Des investissements à la réalité économique contestable
mais dotés d’un prestige élevé sont privilégiés au détriment de ceux pourvus
d’une réelle valeur ajoutée. Cette mauvaise allocation des ressources débouche
sur un accroissement du déficit budgétaire et du niveau de la dette publique.
L’absence de transparence, la corruption et l’instabilité politique constituent par
ailleurs des éléments contribuant à cette malédiction.

166

046092.indd 166 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Le défaut de transparence dans la gestion des deniers tirés des industries extrac-
tives est le propre de plusieurs pays africains tributaires de cette rente. Cette
situation génère de la corruption généralisée dans un contexte marqué par
l’inexistence d’institutions inclusives véritablement animées par la volonté d’y
lutter. Le détournement de fonds qui en découle au profit d’une petite élite
maintient l’immense majorité de la population dans la pauvreté. Cette captation
des revenus rentiers renforce les inégalités existantes et crée des tensions sources
d’instabilité politique et de conflits armés. Nombre de situations de guerres
civiles constatées ces dernières années en Afrique tire leurs origines de cette
frustration résultant de l’inégale répartition de la rente.
La captation par une petite élite de la rente a des conséquences en matière de
choix d’orientation universitaire et professionnelle des jeunes générations. Des
études ont mis en lumière l’effet de détournement des talents en faveur des
métiers menant à des carrières permettant un meilleur accès à la rente. Ainsi les
carrières de militaire sont valorisées dans certains pays africains au détriment des
métiers de l’agriculture ou de l’artisanat. En effet le culte du galon, de l’uniforme
et l’impunité associée au statut de militaire gradé font de celui-ci le privilégié
du système et le symbole de la réussite sociale. Le caractère hypertrophié de
certaines armées africaines et les budgets pour le moins conséquent consacré
à leur fonctionnement tirent leur source de cet état de fait.
Ces ressources minérales suscitent également la convoitise d’autres pays ou des
firmes multinationales qui pour mieux s’approprier leur part du gâteau alimentent
l’instabilité en armant les pouvoirs en place ou en encourageant des mouvements
de rébellion contre le pouvoir central. Une étude du Royal Institute of Foreign
Affairs a en effet montré que les pays producteurs entre 5.5 et 24 barils de pétrole
par jour par habitant sont les plus en proie à l’instabilité politique, à une faible
capacité de gouvernance et à des conflits armés. Au-delà de 24 barils, les revenus
générés sont assez suffisants pour assurer une meilleure répartition de la rente.
Le Nigéria, l’Angola relèvent du premier cas et les pays du Golfe relèvent de la
seconde situation. Les premiers sont confrontés invariablement à des turbulences
politiques sur fond de pauvreté endémique tandis que les seconds prospèrent
en dépit d’une forte dépendance à la rente pétrolière.

Quel antidote pour conjurer cette malédiction ?


La malédiction des ressources naturelles est loin d’être une fatalité. Il n’y a pas
de déterminisme en la matière comme en porte témoignage le Botswana, le
Chili, la Norvège des pays qui ont su parti de leurs ressources extractives et qui
de ce fait démontrent que l’abondance des ressources naturelles est compatible
avec la mise à disposition des populations des services favorables au dévelop-
pement humain.
Le Botswana, pays situé en Afrique australe, est depuis les trois dernières décennies
un des champions mondiaux de la croissance grâce à l’exploitation du diamant.
Pour ne pas obérer l’avenir, le Botswana adopte une approche budgétaire soute-
nable en interdisant que les dépenses courantes de l’état soient financées par la
rente diamantaire. Le Chili à l’image du Botswana suit une politique budgétaire
anticyclique. Tout déficit budgétaire est exclu durant les années où le cours
du cuivre, une des ressources du pays, est supérieur ou égal à sa tendance de

167

046092.indd 167 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

long terme. Quant à la Norvège, elle incarne de très loin le pays qui arrive à
conjurer cette malédiction des ressources naturelles en conjuguant abondance
des richesses extractives et développement économique et social harmonieux.
Avec ses ressources pétrolières, ce pays nordique a fait le choix d’investir dans
l’éducation et les programmes sociaux. Des fonds souverains gouvernementaux
de l’ordre de 1 000 milliards de dollars ont été créés dans le but d’assurer le
fonctionnement de l’état providence dans le futur notamment en cas de taris-
sement de la rente pétrolière.
Ces différents exemples illustrent la nature des institutions indispensables à la
bonne gouvernance dans un pays richement doté en ressources naturelles. Des
politiques budgétaires et fiscales prudentes, des choix d’investissement permettant
la diversification économique et la mise en œuvre d’institutions visant à assurer
un partage équitable des richesses sont en définitive les éléments constitutifs
de l’antidote permettant aux pays africains de tirer parti de l’abondance des
ressources naturelles. C’est à cette condition que sera démentie l’assertion du
vénézuélien Juan Pablo Perez Alfonso, l’un des premiers fondateurs de l’OPEP
qui affirmait « le pétrole n’est pas de l’or noir, c’est l’excrément du diable ». ©

La spécialisation primaire des économies africaines a aussi pour conséquence


la faible participation de l’Afrique aux chaînes de valeur mondiale. Alors que celle
de l’Europe, de l’Asie et de l’Amérique du Nord est respectivement de 51 %,23 %
et 12 %, la part de l’Afrique est d’à peine 2 %. L’Afrique apparaît donc en marge
du processus de fragmentation de la production découlant de la nouvelle division
internationale du travail. Les spécialisations sont ainsi davantage fonctionnelles.
Elles reposent en effet sur des avantages relatifs à différentes étapes des chaînes
de valeur. Cette décomposition des processus de production est source d’oppor-
tunités pour les pays car elle supprime l’obligation de compétence sur l’ensemble
des étapes de fabrication des produits. Les avions du géant américain de l’aéro-
nautique Boeing et l’Iphone, le produit phare d’un des géants du numérique
sont les exemples les plus emblématiques de cette décomposition internationale
des processus de production. De la conception jusqu’à la commercialisation, ces
deux produits mobilisent des compétences localisées dans différents pays. Ainsi
le Boeing 787 est qualifié d’avion « made in world » car sa fabrication implique
l’Europe, l’Asie et l’Amérique du Nord. En effet l’extrémité de ses ailes est fabriquée
en Corée du sud, son fuselage au Japon, ses stabilisateurs en Italie, ses portes de
soute en Suède, ses portes d’entrée en France, et ses moteurs en Grande-Bre-
tagne et aux USA. La fabrication de l’Iphone répond aux mêmes schémas. Conçu
aux États-Unis, ses différents composants viennent de pays aussi variés comme la
Chine, la Mongolie, la Corée du sud, l’Allemagne. Tirer avantage des avantages
comparatifs dont dispose chaque pays tel est le but recherché par les firmes
multinationales. Hormis la fourniture de matières premières, l’Afrique est absente
de ce processus au cœur des chaînes de valeurs mondiales.

168

046092.indd 168 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Quelques pays font néanmoins exception à cette marginalité, l’Afrique du Sud,


le Kenya, Maurice font partie des pays où un effort de diversification économique
est constaté grâce à la participation à quelques filières de produits manufacturés
ou semi-transformés de relative haute technologie.
Cette participation infinitésimale aux chaînes de valeurs mondiales s’explique
d’une part par l’absence de marchés de capitaux régionaux qui engendre des
difficultés en matière de financement et d’autre part, par un déficit très prononcé
en matière d’infrastructures qui alourdit les coûts de transport et réduit les perspec-
tives de rentabilité des activités.
L’absence de diversification se traduit par la sous-industrialisation de l’Afrique
et sa faible participation au commerce international. Dans de nombreux pays le
secteur secondaire n’a guère progressé depuis les indépendances et l’activité
économique reste marquée par la montée des activités informelles.
L’intensification du processus de mondialisation n’a pas modifié le poids de
l’Afrique dans les échanges internationaux, celui-ci demeure marginal. 2 % seulement
des échanges mondiaux sont en effet le fait de l’Afrique. La résorption de cette
marginalité implique la mise en œuvre de politiques industrielles volontaristes
nécessitant entre autres la maîtrise de l’outil monétaire.

B. Le défi de la souveraineté monétaire : le franc CFA, atout


ou obstacle au développement de l’Afrique francophone ?

Véritable serpent de mer des relations franco-africaines, le franc CFA est de


manière récurrente accusé, à tort ou à raison, par les élites africaines et par une
partie de la communauté internationale d’être un obstacle au développement des
pays africains membres de la Zone franc1. Survivance de la période coloniale, cette
zone monétaire sans équivalent dans le monde fonctionne selon des principes
invariants depuis sa création en 19452. Le premier principe de fonctionnement
de cette zone est la fixité des parités. Le taux de change entre l’euro (auparavant
le franc) et le franc CFA est invariant (1 euro vaut 655,957 franc CFA). À la fixité
des changes s’ajoute la libre transférabilité des capitaux dans la zone et la centra-
lisation des réserves de change. Le Trésor français apporte sa garantie illimitée à
la convertibilité du franc CFA. Cette garantie implique l’existence d’un compte
d’opérations ouvert dans les livres du Trésor français dans lequel chaque banque
centrale de la sous-zone est tenue de déposer 50 % de ses réserves de change.

1. En janvier 2019, le vice-président du conseil italien avait créé une vive tension diplomatique
entre Paris et Rome en affirmant que la France par le biais du franc CFA appauvrissait l’Afrique
et portait de ce fait une responsabilité dans les migrations africaines vers l’Europe.
2. Deux sous-ensembles composent la Zone franc. D’un côté, l’UEMOA (Union économique
et monétaire ouest-africaine) composé de 8 pays (Bénin, Burkina Faso, Côte d’Ivoire, Mali,
Niger, Sénégal, Togo, Guinée Bissau) et de l’autre la CEMAC (Communauté économique
et monétaire de l’Afrique centrale) regroupant 6 pays (Congo, Gabon, Tchad, Cameroun,
Centrafrique, Guinée équatoriale). Ces deux zones disposent d’un institut d’émission

169

046092.indd 169 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Des principes très controversés

C’est l’existence de ce compte d’opération qui aux yeux de nombreux détrac-


teurs du franc CFA témoigne du caractère colonial de la Zone franc et de la servilité
monétaire dans laquelle la France contraint ses anciennes colonies. Ces réserves de
change mobilisées pour assurer la convertibilité du franc CFA sont autant de moyens
financiers indisponibles pour assurer le financement des pays africains. Pour ses
pourfendeurs la répression financière et monétaire dont sont victimes les pays de la
Zone franc se matérialise par des taux d’intérêt réels exorbitants qui renchérissent
le coût du crédit et empêchent par voie de conséquence le développement de
l’investissement productif et la création d’emplois. Une situation intenable compte
tenu de l’explosion démographique que ces pays devraient connaître.
Arrimé à l’euro, le franc CFA se voit doté superficiellement des attributs d’une
monnaie forte. Ce faisant, cette monnaie produit un double effet handicapant, celui
d’une subvention pour les importations et d’une taxe sur les exportations. Dans le
premier cas, le franc CFA favorise l’importation massive de produits émanant de
pays à faible monnaie, dissuadant ainsi le développement d’une base industrielle
locale. Dans le second cas, cette monnaie pénalise les exportations à destination
des marchés mondiaux du fait de leur renchérissement.
En ne facilitant pas le développement d’activités industrielles de transformation
de matières premières dans la zone, le franc CFA contribue à maintenir la spéciali-
sation primaire des économies africaines et leur exposition prolongée à la fluctuation
des termes de l’échange.
En facilitant par ailleurs le libre transfert des capitaux à l’intérieur de la zone et
en apportant sa garantie illimitée à la convertibilité entre l’euro et le franc CFA,
la Zone franc facilite l’évasion fiscale c’est-à-dire l’accumulation des capitaux hors
de ses pays membres. Ceux-ci subissent alors une restriction de leurs sources de
financement. Pour les entreprises françaises ou européennes, l’existence de cette
zone leur apporte nombre d’avantages. Elles peuvent sans contraintes rapatrier
l’intégralité de leurs profits générés dans ces pays au lieu d’y investir pour contribuer
au développement d’une base industrielle. Le franc CFA contribue ce faisant selon
ses contempteurs à la privatisation des ressources de ces pays.
En maintenant la rigidité du taux de change du franc CFA par rapport à l’euro,
cette zone monétaire prive chaque pays membre de la possibilité de procéder à
une réponse appropriée face à des chocs externes. D’autre part, ce rattachement
à l’euro a une conséquence sur les politiques monétaires au sein de la Zone franc.
Celles-ci sont davantage influencées par des évènements spécifiques à la zone
euro plutôt que par la conjoncture au sein de la Zone franc. Une véritable hérésie
selon ses détracteurs d’autant plus que les pays de la Zone franc sont confrontés
à des cycles économiques qui sont loin d’être corrélés à ceux des pays membres
de la zone euro ou de l’Union européenne.
Monnaie des élites fortunées, elle leur permet un accès privilégié au marché
mondial en facilitant l’importation de biens de consommation ostentatoire permettant
l’affirmation de leur domination sociale. Bénéficiant par ailleurs d’une libre transfé-

170

046092.indd 170 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

rabilité des capitaux, ces élites dirigeantes peuvent valoriser leur fortune en euro
en toute aisance sans avoir à subir le risque de change. Ce parti pris du franc CFA
s’avère in fine défavorable pour l’immense majorité de la population pour l’essentiel
rurale qui dotée de faibles revenus peine à assouvir ses besoins du fait du coût
onéreux des produits importés. Cet état de fait contribue à accroître les inégalités
sociales entre d’un côté les élites dirigeantes bénéficiant d’un accès privilégié à la
rente et de l’autre les populations en proie aux difficultés quotidiennes.
À ces critiques non exhaustives, les thuriféraires de la Zone franc, pour l’essentiel
membres de la classe politique africaine et hommes d’affaires, font valoir plus d’un
bénéfice à l’actif de cette zone monétaire. Le premier bénéfice porte sur les vertus
de la stabilité permises par le franc CFA. La fixité des parités permet aux pays de
la Zone franc d’être moins inflationnistes par rapport à d’autres pays d’Afrique
subsaharienne. Le niveau d’inflation reste limité autour de 3 % contre 14 à 15 % dans
certains pays anglophones comme le Nigéria ou le Ghana. La création monétaire
étant sous contrôle extérieur, le recours à la planche à billets est de ce fait proscrit.
Les États africains membres de la Zone franc sont ainsi contraints de mener des
politiques vertueuses permettant de limiter l’endettement et les déficits publics.
Le second bénéfice concerne la crédibilité monétaire dont bénéficient les
pays membres de la Zone franc. La garantie apportée par le Trésor français via le
mécanisme des comptes d’opérations contribue à rassurer les investisseurs inter-
nationaux et permet de ce fait d’éviter les mouvements spéculatifs et les fuites
massives de capitaux. Cette crédibilité internationale apparaît ainsi comme un
gage de sécurité auprès des marchés financiers.
Le dernier avantage porte sur l’atout en matière d’intégration régionale. Du fait
de l’inexistence du risque de change, le franc CFA facilite les échanges entre pays
de la zone. L’institution d’un ensemble de règles communes dont la centralisation
des avoirs extérieurs permet la solidarité financière entre pays membres.
Pour les partisans de la Zone franc certaines critiques formulées à l’encontre
de cette zone monétaire paraissent infondées et témoignent surtout de la mécon-
naissance des règles de fonctionnement de cette institution. Il s’agit notamment
de la controverse concernant l’affectation des réserves de change détenues par le
Trésor français. Celles-ci ne constituent pas un manque à gagner pour les économies
africaines en terme de ressources de financement puisqu’elles sont de fait déjà
en circulation dans la Zone franc en équivalent franc CFA. En effet lorsqu’une
société africaine exporte et reçoit des devises, elle les cède à sa banque et reçoit
en échange des francs CFA. La banque commerciale désormais détentrice de
ces devises les transfère à la BCEAO (Banque centrale des États de l’Afrique de
l’Ouest) ou à la BEAC (Banque des États d’Afrique centrale) qui en dernier ressort
les place dans les comptes d’opération.
Ces polémiques à répétition, aussi vieilles que cette zone, ont contribué
néanmoins à faire émerger progressivement un consensus sur la nécessité de
réformer la Zone franc.

171

046092.indd 171 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

L’éco, une réponse pertinente à la contestation croissante


contre le franc CFA ?

En déplacement en Côte d’Ivoire au mois de décembre 2019, le président


Emmanuel Macron a annoncé à la surprise générale aux côtés du président ivoirien
Alassane Ouattara, la fin du franc CFA au profit d’une nouvelle monnaie, l’éco
appelée à circuler en Afrique de l’Ouest dès 2020.
Cette décision française qui à bien des égards revêt un caractère historique
prend ainsi acte des différentes mobilisations à l’encontre du franc CFA de la société
civile africaine impulsée par les jeunes générations. Cette survivance coloniale était
de plus en plus considérée par les nouvelles générations comme un instrument
d’assujettissement et de domination au profit des seuls intérêts de la France1.
La réforme annoncée suscite néanmoins doutes et scepticisme sur la volonté
réelle des autorités tant françaises qu’africaines de couper le cordon ombilical
monétaire qui lie la France depuis 75 ans à ses anciennes colonies africaines.
Certains aspects de la réforme loin de promouvoir des changements de nature
cosmétique bénéficient de l’assentiment des plus ardents contempteurs du franc
CFA tant ils induisent une modification considérable du fonctionnement de la
coopération monétaire entre la France et les pays africains.
Il en est ainsi d’abord du changement de nom. Même symbolique, cette modifi-
cation devenait une nécessité tant le maintien de l’acronyme franc CFA continuait à
renvoyer au passé colonial de cette monnaie. Signifiant au moment de sa création
franc des colonies françaises d’Afrique, le franc CFA a depuis les indépendances
une tout autre signification. Pour les 6 pays de la zone CEMAC (Congo, Gabon,
Tchad, Cameroun, Centrafrique,…) cet acronyme signifie franc pour la Coopération
financière en Afrique tandis que pour les huit pays de l’UMEOA (Côte d’Ivoire,
Togo, Bénin, Sénégal, Mali, Guinée Bissau, Burkina Faso…), celui-ci veut dire franc
pour la Communauté financière Africaine. Les multiples réformes intervenues au
sein de cette zone n’ont jamais impliqué un changement de cette nature, cela
confère donc à cette décision un caractère historique.
Le deuxième changement majeur annoncé est la suppression du mécanisme
des comptes d’opérations. Au cœur de toutes les polémiques, il a souvent été
décrié en raison de son caractère paternaliste et néo-colonialiste2. Abondées à
hauteur de 18 000 milliards de dollars, les réserves de change ainsi constituées
font l’objet d’une rémunération au taux de la facilité marginale de la BCE. Elles

1. De multiples pressions ont contribué à cette évolution. Outre celle exercée par une partie des
intellectuels africains, la volonté du FMI de voir cette institution évoluer a plus d’une fois été
exprimée par ses dirigeants. La Russie et l’Italie en prenant fait et cause pour les anti-CFA ont
incontestablement conduit Paris à faire évoluer sa position sur les règles de fonctionnement
de cette zone monétaire.
2. L’existence de ce compte a souvent nourri nombre de fantasmes et de « théories complotistes ».
Pour certains détracteurs, ces comptes d’opérations correspondent à un impôt colonial prélevé
par la France pour financer sa dette. En réalité, ces réserves de change pèsent très peu dans
l’économie française, à peine 0.25 % de sa dette publique et font l’objet d’une rémunération
à un taux supérieur à celui marché.

172

046092.indd 172 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

sont théoriquement à disposition des pays membres. Leur suppression a pour


conséquence la liberté de gestion des réserves de change par la Banque centrale
des États de l’Afrique de l’Ouest (BCEAO). Elle sera ainsi libre de placer ses
avoirs dans les actifs financiers de son choix et de définir sa politique monétaire
de manière autonome et indépendante en centrant davantage ses missions sur la
croissance et la lutte contre le chômage. Cet institut d’émission pourrait de ce fait
être conduit à privilégier des objectifs internes au détriment de l’équilibre externe.
Cette volonté de conférer davantage d’autonomie aux banques centrales
africaines se traduit dans le cadre de la réforme annoncée par la fin de la présence
de représentants français au sein des instances de la Banque centrale des États
d’Afrique de l’Ouest. Ceux-ci ne seront plus présents au conseil d’administration
et au comité de politique monétaire de la BCEAO, ni à la commission bancaire
de l’UMOA (Union monétaire ouest-africaine). Néanmoins deux mécanismes au
cœur du fonctionnement de la Zone franc demeurent invariants. Il s’agit d’une
part de la réaffirmation de la fixité de la parité entre l’euro et l’éco, et d’autre part
du maintien de la garantie illimitée assurée par le Trésor français et la Banque de
France. Un statu quo qui se justifie par la volonté de Paris de rassurer les inves-
tisseurs internationaux afin d’éviter une transition catastrophique qui pourrait se
traduire par des fuites massives de capitaux et des dévaluations en cascade dont
les conséquences seraient incalculables pour les pays africains. Au final ces diffé-
rentes décisions témoignent de la volonté de la France de ne plus être impliquée
dans la cogestion de cette monnaie tout en gardant le statut de garant financier
et de prêteur en dernier ressort. En cas de manque de disponibilité pour couvrir
ses engagements, la Banque centrale des États de l’Afrique de l’Ouest pourra en
effet se procurer les euros nécessaires auprès de la France. Cette garantie française
prendra la forme d’une ligne de crédit auprès de la Banque de France.
Ces évolutions majeures car sans précédent font craindre toutefois des doutes de
la part des partisans d’une Afrique pleinement maîtresse de son destin monétaire.
Ils redoutent en effet le maintien d’un côté de la tutelle française sur cette nouvelle
monnaie et de l’autre la persistance des effets pervers précédemment énumérés à
savoir l’absence de perspective industrielle du fait d’une monnaie artificiellement
surévaluée. Des craintes que les autorités françaises s’emploient depuis à relativiser.
Pour nombre d’économistes africains1, une vraie réforme du franc CFA doit
consacrer l’abandon de la fixité du taux de change entre l’euro et le franc CFA au
profit d’un régime de change flexible. La fixité de la parité entre le franc CFA et
l’euro crée en effet des rigidités défavorables aux économies africaines. Aucun
ajustement par les taux de change n’est possible même en cas de dégradation des
équilibres macro-économiques sauf décision à l’unanimité des chefs d’États des
pays membres. Largement tributaires des exportations de leurs produits primaires,

1. Auteur en 2018 d’un rapport sur la Zone franc et le franc CFA intitulé « Zone franc, pour une
émancipation bénéfique pour tous », Dominique Strauss Khan, ancien ministre de l’Économie
et Directeur général du FMI qualifiait ce régime de change de « mécanisme désuet et de frein
au développement » et plaidait pour une évolution du mécanisme de change vers davantage
de flexibilité.

173

046092.indd 173 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

ces pays se trouvent généralement doublement pénalisés lorsque l’euro s’apprécie


par rapport au dollar et qu’en outre le prix des matières premières diminue. Leurs
recettes chutent en effet et leurs produits transformés perdent des parts de marché
du fait de la perte de compétitivité induite par l’appréciation de la monnaie unique
européenne. Un ajustement par le taux de change pourrait contribuer dans ces
conditions à rétablir la compétitivité prix et atténuer la baisse des recettes générée.
Plusieurs options sont envisageables en matière de taux de change. Il y a
d’abord le flottement libre de l’éco sur les marchés de change. Ce choix n’est
cependant pas viable économiquement et financièrement car la détermination
des cours de l’éco par les seules lois du marché ferait peser sur les pays africains
des risques de change très élevés et les exposerait à une spéculation effrénée en
l’absence de garantie notamment.

Figure 7 : La Zone franc avant l’avènement de l’éco

174

046092.indd 174 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Figure 8 : Le nouveau paysage monétaire après la création de l’éco

Le régime de change qui apparaît le plus approprié pour les pays africains de
la Zone franc est celui qui lie flexibilité et rattachement à un panier de devises.
L’intérêt d’un tel choix réside dans le fait que toute variation du cours d’une devise
du panier par rapport à d’autres devises atténue mécaniquement la dépréciation
ou l’appréciation de l’éco. Le choix du panier de devises doit tenir compte de la
composition des échanges des pays africains. L’euro, le dollar et le yuan pourraient
de ce fait être privilégiés.

L’éco, un projet à la viabilité incertaine

Au-delà des polémiques inhérentes à cette monnaie, force est de reconnaître


que cette réforme ouvre de nouvelles opportunités aux pays d’Afrique de l’Ouest.
La perspective de voir le Nigéria et le Ghana adopter cette nouvelle monnaie
confère à ce projet d’indéniables atouts. Ainsi devrait se constituer un consi-

175

046092.indd 175 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

dérable marché de près de 350 millions d’habitants, une opportunité dont les
entreprises pourraient tirer avantages. L’adoption de l’éco par l’ensemble des
15 pays de la sous-région Afrique de l’Ouest, devrait permettre de réduire les
coûts de transaction, de stimuler l’investissement et de favoriser la création d’un
marché intérieur dynamique. Restent néanmoins des incertitudes sur la mise en
circulation effective de cette monnaie. Les critères de convergence économique
et financier nécessaires à son adoption ne sont pas respectés par de nombreux
pays candidats. Ils sont au nombre de quatre, premièrement le niveau d’inflation
doit être inférieur à 10 %, ensuite les réserves de change doivent couvrir trois mois
d’importations, troisièmement le déficit public doit être inférieur à 3 %, quatriè-
mement la dette publique doit être inférieure ou égale 70 % du PIB et enfin le
financement du déficit budgétaire par les banques centrales ne doit pas dépasser
10 % des recettes fiscales de l’année précédente.
Face à la difficulté rencontrée par les États dans le respect des critères d’éli-
gibilité à l’éco, le Nigéria a demandé le report du lancement de cette monnaie
initialement prévu courant 2020. En déstabilisant davantage les économies africaines,
la crise économique née de la Covid-19 risque de retarder d’autant l’avènement
de cette monnaie.
Des doutes accompagnent aussi le processus de création de cette monnaie
laissant craindre un risque d’échec. Ils s’appuient sur l’expérience européenne
en matière d’intégration économique, monétaire et financière. L’avènement de
la monnaie unique, l’euro, a été précédé de plusieurs étapes constitutives d’un
processus d’intégration économique. Zone de libre-échange au départ, le projet
d’intégration européen est passé par différentes phases allant de l’union douanière,
en passant par le marché commun, l’union économique et monétaire apparaissant
en phase ultime. Dans le cas des pays africains éligibles à l’éco, le processus
d’intégration économique n’est en fait qu’à ses balbutiements, ce qui suscite le
sentiment d’une naissance précipitée de la nouvelle monnaie africaine. Par ailleurs
en calquant les critères de convergence économique et financière sur ceux de la
zone euro1, la zone éco risque d’en reproduire les lacunes structurelles qui ne font
pas de la zone euro une zone monétaire optimale. Tout d’abord en corsetant leurs
budgets et en limitant le niveau de leur endettement, les pays membres de la
future zone éco se privent d’emblée de la relance budgétaire comme instrument
de stabilisation conjoncturelle. En cas de choc asymétrique notamment et en
l’absence de mécanisme de solidarité budgétaire entre États, ils n’auront pas
d’autres choix que de procéder par un ajustement par le bas c’est-à-dire de mettre
en œuvre des politiques budgétaires restrictives pour espérer sortir de l’ornière. Un
choix qui généralement a pour effet d’amplifier les effets de la crise. L’expérience
de la crise de la dette souveraine grecque est depuis devenue un cas d’école
permettant d’illustrer ce cas de figure. Les dirigeants africains n’ont manifestement

1. Les critères de convergence de la zone euro sont ceux définis par le pacte de stabilité et de
croissance à savoir des déficits publics inférieurs à 3 % du PIB et le niveau de la dette publique
inférieur à 60 % du PIB.

176

046092.indd 176 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

pas tiré les leçons de l’expérience européenne attestant de la difficulté de créer


une zone monétaire sans qu’elle soit accompagnée d’un fédéralisme budgétaire.
Des améliorations s’avèrent ainsi nécessaires pour viabiliser ce projet afin qu’il ne
se transforme pas en échec. La zone euro a depuis sa création été confrontée à
de multiples crises qui ont débouché sur des réformes institutionnelles permettant
de combler les lacunes originelles du projet d’intégration et d’améliorer la gouver-
nance de la zone euro. Il en est ainsi du pacte budgétaire européen, de la création
du mécanisme européen de stabilité (MES) et de l’union bancaire. Ces réformes
institutionnelles témoignent du long chemin parsemé d’embûches à parcourir par
les pays africains de la future zone éco et qui à terme posera la question de l’union
politique nécessaire pour parachever tout processus d’intégration économique
et monétaire.
Les doutes qui accompagnent ce projet de monnaie africaine n’ont pas retardé
sa validation officielle par Paris. Le Conseil des ministres du 20 mai 2020 a en effet
voté le projet de loi officialisant la fin du franc CFA en Afrique de l’Ouest. Celui-ci
confirme les dispositions précédemment énoncées à savoir la transformation du
franc CFA en l’éco, le maintien de la parité fixe avec l’euro, la fin de la centralisation
des réserves de change des pays de l’Afrique de l’Ouest auprès du Trésor français.
Le texte précise cependant que la parité fixe avec l’euro n’est plus intangible mais
appelée à évoluer au moment de la naissance de l’éco. Il est probable que la valeur
de la nouvelle monnaie africaine sera adossée à un panier de devises (euro, dollar,
yuan, livre sterling, yen) pour mieux tenir compte de la diversité des partenaires
avec lesquels les pays d’Afrique de l’Ouest échangent.
Appelé à disparaître en Afrique de l’Ouest, le franc CFA pourrait cependant voir
sa survie prolongée en Afrique centrale et aux Comores. Il ne fait aucun doute que
Paris sera appelé à clarifier ses relations monétaires avec ces anciennes colonies
dans les mois à venir. On peut présumer que celles-ci seront identiques à celles
envisagées avec les pays d’Afrique de l’Ouest.
Au final, la perspective d’une large souveraineté monétaire des pays africains
au moment du 60e anniversaire de leur indépendance est un processus louable
et encourageant. Reste un défi de taille qui se présente à eux, il s’agit de faire de
cet instrument un atout en matière de développement économique profitable à
l’ensemble des populations. Un objectif qui nécessite l’adoption des règles de
bonne gouvernance monétaire afin que ce processus ne débouche pas sur une
catastrophe généralisée.

Encadré 5 La « Françafrique », une survivance coloniale


controversée

Elle a 60 ans d’existence et pourtant nombre de chefs d’État français ont exprimé
au moment de leur accession à l’Élysée l’ardent souhait d’y mettre fin mais à
l’épreuve du pouvoir, ils ont dû se raviser pour laisser se perpétuer des pratiques
qualifiées de néo-colonialistes par les pourfendeurs de ce système dont la
principale singularité est d’être très opaque.

177

046092.indd 177 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

L’expression « France-Afrique » a pour la première fois été utilisée en 1955, soit à la


veille des indépendances, par le futur président ivoirien Felix Houphouet Boigny,
alors ministre du gouvernement français. L’ancien président ivoirien voulait ainsi
exprimer publiquement le souhait d’une large partie des élites africaines d’alors
de maintenir des liens privilégiés et étroits entre les pays africains nouvellement
indépendants et l’ancienne puissance coloniale.
C’est tout compte fait dans les années 80 que l’expression « Françafrique » va
revêtir une connotation péjorative avec la parution du livre de François Xavier
Verschave intitulé Françafrique, le plus grand scandale de la République. Dans
cette publication l’auteur révéla avec minutie les arcanes et les pratiques occultes
de cette structure élyséenne visant à desservir les intérêts des pays africains
au profit de l’ancienne puissance coloniale et de ses hommes de paille. Pour
l’auteur de ce néologisme, la Françafrique est un système informel constitué
de réseaux d’influence et de lobbies d’acteurs français et africains intervenant
dans les domaines économiques, politiques et militaires dans l’unique but de
s’accaparer indûment les richesses liées à l’exploitation des matières premières
et l’aide publique au développement versée par Paris aux pays africains.

Jacques Foccart, l’indéboulonnable figure de la Françafrique


La naissance de ce système qualifié par d’aucuns de nébuleux remonte aux
débuts de la Ve République avec la création à l’Élysée d’une cellule aux affaires
africaines répondant aux objectifs suivants. Tout d’abord le maintien sous influence
française des anciennes colonies dans un contexte marqué par la confrontation
Est-Ouest et par la domination du monde par les puissances américaines et
russes. Secundo, préserver l’emprise de la France sur le continent afin d’assurer
à l’ancienne puissance coloniale un accès privilégié aux ressources naturelles.
C’est à Jacques Foccart, un gaulliste de la première heure que cette mission fut
confiée. Pour parvenir efficacement à ses buts, ce baroudeur et fin connaisseur de
l’Afrique, mis opportunément en place un réseau d’amitié composé d’hommes
politiques, de diplomates, de militaires et d’hommes d’affaires chargés d’asseoir
cette domination au profit de Paris.
Pour Jacques Foccart surnommé « Monsieur Afrique », le maintien d’une Afrique
sous tutelle française impliquait d’un côté un soutien aux dirigeants locaux
favorables au maintien des intérêts de la France et de l’autre, la déstabilisation a
contrario de ceux considérés comme hostiles à l’ancienne puissance coloniale. C’est
ainsi que nombre de dirigeants ou leaders africains connurent dès les lendemains
des indépendances diverses infortunes pour avoir déplu à la Françafrique. Isolés
ou obstrués dans leur gestion pour certains, chassés du pouvoir à l’issue de coup
d’état ou de guerre civile pour d’autres ou simplement éliminés physiquement par
des hommes de paille, ces indésirables de la Françafrique payèrent au prix fort leur
volonté d’émancipation politique de l’ancienne puissance coloniale. À l’inverse,
d’autres chefs d’État africains à la fidélité et à la loyauté à toute épreuve à l’égard
de Paris bénéficient jusqu’à nos jours d’une longévité au pouvoir à faire pâlir de
jalousie plus d’un dirigeant occidental en mal de réélection. Des présidences
inamovibles défiant le temps sont ainsi monnaie courante au grand mépris de
la volonté populaire et des règles élémentaires de démocratie.

178

046092.indd 178 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Ce soutien apporté aux pouvoirs locaux implique toutefois une contrepartie


économique et financière. D’une part, il permet l’accès préférentiel des entreprises
françaises sur les marchés africains, ce que d’aucuns qualifient de « chasses gardées
commerciales » et de l’autre, la nécessité pour certains pays africains richement
dotés en ressources pétrolifères de subvenir aux besoins de financement des
campagnes électorales des partis politiques hexagonaux via des financements
occultes. Pierre Péan, parfait connaisseur des dossiers de la Françafrique a dans
plus d’un de ses ouvrages mis en lumière les rouages de ces financements sur fond
de transfert de mallettes et valises remplies de billets qui durant des décennies
ont bénéficié indistinctement aux partis de gauche et de droite.
Pour de nombreux Africains, l’involution du continent africain est indissociable
des pratiques néfastes de la Françafrique. En contribuant à maintenir indéfi-
niment au pouvoir certains dirigeants, la Françafrique favorise la persistance
des pratiques peu soucieuses de l’intérêt général basées sur la prédation et
la gestion clanique des richesses lesquelles débouchent invariablement sur le
maintien dans la pauvreté et la précarité des populations africaines et laissent
sans perspective d’avenir une jeunesse désœuvrée de plus en plus nombreuse.
De nombreux scandales ont aussi permis d’élucider le fonctionnement de cette
organisation nébuleuse. Il en est ainsi de l’affaire Elf1 mis au jour dans les années
90 et qualifiée par une partie de la presse française de « plus grand scandale
politico-financier de la Ve République ». Impliquant de nombreuses personnalités
et non des moindres, cette affaire a contribué à apporter un éclairage édifiant
sur l’utilisation à des fins de corruption de la substantielle manne financière tirée
de l’exploitation du pétrole africain par la société Elf. Un des protagonistes de
premier plan de cette affaire déclara péremptoirement dans la presse « qu’il
détenait des secrets d’État de nature à faire sauter vingt fois la république ». Il
ne fit toutefois aucune déclaration de cette nature au cours de son procès pour
complicité et recel d’abus de biens sociaux.
La françafrique c’est aussi le regard bienveillant de l’ancienne puissance coloniale
à l’égard de la fortune personnelle des chefs d’État africains et son corollaire
l’accumulation patrimoniale des dirigeants africains en France. Connu sous
l’appellation « Affaire des biens mal acquis », la justice française instruit depuis
plusieurs années ce dossier épineux à la suite d’une plainte déposée par une
Organisation non gouvernementale (ONG) Transparency International France.
Nombre de dirigeants africains ainsi que leurs proches ont été ainsi accusés
de détournement de fonds publics, d’abus de confiance et de blanchiment.
L’instruction a permis en effet de mettre au jour l’impressionnant patrimoine
immobilier constitué par certaines familles présidentielles sur fond d’argent public.

1. La société Elf, entreprise publique a disparu à la fin des années 90 du paysage économique


français après une opération publique d’échange lancée par la société Total Fina. Cette fusion
a contribué à la naissance de Total, un géant pétrolier qui fait aujourd’hui partie des majors
c’est-à-dire des six premières compagnies mondiales de pétrole.

179

046092.indd 179 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Une survivance appelée à disparaître ?


Comme ses prédécesseurs à l’Élysée, le président Macron a aussi exprimé le
souhait de prendre ses distances avec ces pratiques en substituant les réseaux
d’influence français par un « soft power » permettant à la France de garder
son influence dans ses anciennes colonies tout en favorisant leur émancipation
politique et financière. Un conseil présidentiel pour l’Afrique a ainsi vu le jour
composé d’entrepreneurs, chercheurs, journalistes appartenant à la diaspora
africaine en France. Ils seront le tampon entre la diplomatie élyséenne rénovée
et la société civile africaine. Pour exprimer officiellement sa volonté de tourner le
dos à la Françafrique, le président Macron a organisé une tournée en Afrique au
cours de laquelle il s’est adressé directement à la jeunesse africaine en vantant
« le défi civilisationnel de l’Afrique ». Des propos diamétralement opposés à ceux
de Nicolas Sarkozy qui en 2007, nouvellement élu président de la République,
déclara sans sourciller lors d’un discours passé à la postérité à Dakar devant
un auditoire médusé « Le drame de l’Afrique, c’est que l’homme africain n’est
pas assez entré dans l’histoire… ». Un discours controversé qui valut à l’ancien
président de la république des critiques acerbes de la part de l’intelligentsia
africaine.
La volonté d’apaisement de la relation entre la France et ses anciennes colonies
se matérialise aujourd’hui au travers de l’ouverture par Paris des archives sur
l’assassinat de Thomas Sankara, ancien président du Burkina Faso, de la resti-
tution de certaines œuvres africaines spoliées lors de la période coloniale et
enfin de l’aval de Paris sur la fin du franc CFA au profit de l’Éco. Des décisions
qui en disent long sur la volonté manifeste du président français de ranger aux
oubliettes de l’histoire ces pratiques héritées de l’ancien monde. Pour autant,
permettent-elles de sonner le glas de la Françafrique ? Rien n’est moins sûr tant
les intérêts économiques et financiers en jeu sont colossaux. Dans un contexte
marqué par la montée en puissance de la Russie et notamment de la Chine en
Afrique, il semble difficile pour Paris de se priver de relais locaux qui sont autant de
vecteurs de son rayonnement international. Il faut aussi compter sur la résistance
des réseaux occultes constitués d’acteurs français et africains pour qui la fin de
la Françafrique signifierait l’abandon d’avantages et de privilèges multiples. S’il
est donc fondé de dire que l’actuel président français a entamé un processus
de dépoussiérage de la relation franco-africaine, il reste cependant beaucoup à
faire pour que disparaissent à jamais les oripeaux de la Françafrique. ©

C. Le défi de l’intégration régionale, un vaste chantier


indispensable pour défragmenter le continent

Le développement inclusif de l’Afrique implique l’intensification du commerce


intra-africain. Nombreuses sont les études qui témoignent du caractère bénéfique
du commerce dans un cadre régional. Les participants gagnent en moyenne 15 %
de valeur ajoutée supplémentaire à l’exportation. L’exemple de l’Union européenne
montre s’il en est besoin des vertus de l’intégration économique. L’Afrique tend à
s’inspirer de cette expérience mais peine à réaliser des résultats concluants en la

180

046092.indd 180 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

matière. De multiples organisations à vocation régionales existent. On comptabilise


autour de 14 groupements économiques régionaux plus ou moins intégrés. Ce
sont des espaces qui ont vocation à permettre la libre circulation des personnes
et des biens. Mais dans les faits le bilan se révèle très mitigé. Les pays africains
commercent très peu entre eux. Les relations commerciales et financières intra-afri-
caines ne représentent que 12 % du total des échanges du continent.
Les difficultés d’intégration des économies résultent de multiples facteurs qui
sont autant de défis à relever. Il y a en premier lieu l’absence d’infrastructures. Moins
d’un tiers de la population africaine selon la Banque africaine de développement
(BAD 2012) a accès à une route praticable en toute saison. La densité routière est
en effet très faible à peine 7 sur 100 kilomètres carré. Ce déficit se traduit par des
difficultés d’acheminement des matières premières et des marchandises vers des
zones de transformation ou de commercialisation. Les délais d’acheminement des
marchandises se révèlent très longs. Ils sont 2 à 3 fois supérieurs à ceux en vigueur
dans les autres régions du monde. À cela s’ajoutent les effets des tracasseries
administratives résumés par un indicateur le « temps d’attente à la frontière ».
Celui-ci se calcule à partir du nombre de documents douaniers multiplié par le
nombre de signatures requis et le temps de franchissement des postes frontières. En
Afrique, ce temps est évalué à 35 jours à l’export et de 41 jours à l’importation. Un
temps sans commune mesure avec celui en vigueur dans les pays industrialisés qui
n’est que de 10 jours en moyenne. Ce temps d’attente extrêmement long pénalise
notamment les pays enclavés très dépendants des grands corridors internationaux
par lesquels transite l’essentiel de leurs échanges internationaux.
Le réseau ferroviaire n’est pas non plus très développé. Il comptabilise à peine
80 000 kilomètres de rails soit une densité de 2.7 kilomètres sur 100 kilomètres
carré. Il est pour l’essentiel constitué de lignes ferroviaires héritées de la période
coloniale et n’a pas fait l’objet d’une quelconque modernisation. Une vingtaine
de pays ne dispose pas de lignes ferroviaires.
Au final de nombreux réseaux routiers, aériens et ferroviaires ne sont pas inter-
connectés sur l’ensemble du continent. Ce déficit coûte selon la Banque africaine
de développement (BAD) deux points de croissance.
Le second facteur du faible commerce intra-africain découle du modèle de
production extravertie hérité de la colonisation. Producteurs dans la majorité des
cas de matières premières, les pays africains ont donc des structures de production
semblables. L’absence de complémentarité qui en découle ne favorise pas le
développement des échanges entre pays. À cela s’ajoute l’étroitesse des marchés
qui ne permet pas d’obtenir des économies d’échelle.
Malgré l’immensité de ces difficultés, il y a des projets qui se révèlent porteurs
d’espoir. Un de ceux à mettre en lumière concerne la TFTA (Tripartite Free Trade
Area), un accord commercial signé en 2016 par 26 pays comptabilisant plus de
600 millions d’habitants et réalisant plus de 1 000 milliards de PIB. Ce projet d’inté-
gration vise à mettre fin à la fragmentation commerciale dont sont victimes les
pays africains. Il ambitionne donc de supprimer les barrières douanières et non
tarifaires qui font obstacle au développement du commerce intra-africain. Sont

181

046092.indd 181 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

ainsi associés à cet accord de grande ampleur des pays dont la taille et le potentiel
économique peuvent avoir des effets d’entraînement en matière d’intégration
économique continentale avec au Nord l’Égypte, à l’Est le Kenya et au Sud l’Afrique
du Sud. Grand absent de ce processus, le Nigéria qui est des pays les plus riches
d’Afrique subsaharienne.
La création de ce grand marché ne débouchera sur des progrès concrets que
s’il s’accompagne de colossaux investissements en matière d’infrastructures (trans-
ports, énergie) à vocation régionale et de la mise en œuvre de règles communes
en matière de concurrence et de trafic.

D. Le défi de la maîtrise démographique, un impératif


pour bénéficier du dividende démographique et réduire
la pauvreté

Il n’est de richesse que d’hommes affirmait Jean Bodin au XVe siècle. Cette
affirmation validée depuis dans de nombreux pays peine à se concrétiser en Afrique
et pour cause, ce continent peine à achever sa transition démographique afin d’en
tirer un dividende démographique favorable à l’augmentation de la productivité
et donc à la croissance économique.
Les chiffres concernant ses perspectives démographiques laissent en effet
craindre le maintien du continent dans la pauvreté. De l’ordre de 9 % en 1950,
la part de l’Afrique dans la population mondiale devrait être de l’ordre 25 % en
2050 soit 2.4 milliards d’habitants. La population africaine sera supérieure à celle
de la Chine ou de l’Inde. Un humain sur six habite aujourd’hui en Afrique, en 2050
ce sera un humain sur 4 et plus d’un sur trois en 2100 selon les projections des
Nations unies.
Le Nigéria est le pays africain qui illustre de très loin cette réalité d’une croissance
démographique explosive, soit la plus rapide du monde. En 1960, au moment de
son accession à l’indépendance, ce pays, situé en Afrique de l’Ouest, comptait
45 millions d’habitants. Depuis sa population a quadruplé pour atteindre 190 millions
d’habitants. D’ici 2050, les projections les plus optimistes tablent sur un doublement
de sa population. Le Nigéria deviendra ainsi le troisième pays le plus peuplé au
monde après les États-Unis.

182

046092.indd 182 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Figure 9 :Évolution de la population africaine

Source : ONU

Plusieurs facteurs concourent à faire de la croissance démographique africaine


la plus rapide de toutes les régions du monde. Malgré la baisse de la mortalité
infantile, le taux de fécondité des femmes africaines demeure relativement stable.
Avec 4.7 enfants par femme, la fécondité des femmes africaines reste très élevée
comparativement à d’autres régions du monde en développement notamment
en Afrique du Nord où le processus de transition démographique est en cours
d’achèvement.
Le maintien du taux de fécondité à un niveau aussi élevé résulte d’obstacles
culturels et du déficit en matière d’éducation et de planification familiale.
La population africaine reste majoritairement rurale, la perception de l’enfant
y est de ce fait particulière. Celui-ci est avant tout considéré comme une force de
travail. Plus d’enfants équivaut à plus de bras pour les travaux champêtres au profit
de la survie de la famille. L’enfant a aussi une fonction d’assurance – vieillesse.
En l’absence de protection sociale, avoir une famille nombreuse constitue une
garantie pour ses vieux jours. Le désir de constituer une famille nombreuse de 8
à 10 enfants est ainsi très prégnant. À ces entraves culturelles s’ajoute l’absence
de démocratisation en matière de planning familial. Peu de femmes en Afrique
subsaharienne ont en effet recours à la contraception. Ce privilège n’est réservé qu’à
25 % d’entre elles contre 60 % dans le monde. La révolution contraceptive revêt
de ce fait une nécessité cardinale afin de permettre aux femmes d’être maîtresses
de leur calendrier matrimonial. Quelques pays africains ont fait de considérables
efforts dans le domaine de la planification familiale. Le Rwanda, un des pays les
plus densément peuplés d’Afrique a fait de la planification familiale une de ses
priorités avec une politique contraceptive très volontariste se traduisant par des
résultats très remarquables. Sa natalité a en effet baissé plus vite que la moyenne.

183

046092.indd 183 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Tableau : Taux de fécondité par rapport au PIB par tête en Afrique


subsaharienne (2016)

Tranches de taux de fécondité

[1 ; 2[ [2 ; 3[ [3 ; 4[ [4 ; 5[ [5 ; 6[ [6 ; 7[ 7 et +

Rép. centraficaine Burundi RDC Niger


Malawi Mozambique
1er Libéria
Sierra Leone
Madagascar

Rwanda Togo Gambie


Guinée Bissau Burkina Faso
2e
Quintiles de PIB/tête (PPA – USD)

Soudan du Sud Ouganda


Éthiopie Tchad

Zimbabwe Guinée Bénin Mali


Lesotho Comores Tanzanie
3e
Kenya Sao Tomé-et-
Principe

Sénégal Zambie
Cameroun Nigéria
Côte d’Ivoire
4e
Mauritanie
Ghana
Soudan Congo

Maurice Cap Vert Eswatini Guinée Angola


Afrique Namibie Équatoriale
5e du Sud Gabon
Botswana
Seychelles

Source : Banque mondiale.

Le faible taux de scolarisation des filles ainsi que les mariages précoces qui en
découlent sont autant de freins à cette baisse de la natalité. L’éducation apparaît de
ce fait comme un levier sur lequel il est possible d’agir pour inverser la tendance.
De nombreuses études ont permis en effet d’établir un lien étroit entre scolarisation
des filles et baisse de la fertilité. L’allongement de la durée de scolarité des filles
permet en effet de retarder leur date d’entrée dans la conjugalité, puis celle des
premières naissances et de renforcer leur indépendance économique et financière
en leur permettant d’accéder à un emploi plus qualifié et mieux rétribué. Une étude
menée au Nigéria par l’UNICEF en 2010 a permis de mettre en exergue le fait
que 80 % des femmes nigérianes dont l’âge se situait entre 20 et 24 ans n’ayant
bénéficié d’aucune éducation scolaire entraient précocement dans la conjugalité
avant d’atteindre 18 ans. Ce pourcentage n’était que de 16 % pour celles pourvues
d’un niveau d’éducation scolaire secondaire ou supérieure.

184

046092.indd 184 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Pour l’UNESCO, si toutes les femmes d’Afrique subsaharienne terminaient le


cycle primaire des études, cela déboucherait sur une chute des natalités de l’ordre
de 7 %. Cette baisse s’accentuerait et s’élèverait à 37 % si elles allaient au bout de
l’enseignement secondaire. Ces études montrent s’il en est besoin que le nombre
d’enfants est corrélé négativement avec le niveau d’instruction des femmes.

Figure 10 : Scolarisation et taux de fertilité

Source : D. Shapiro, « Linkages between Education and Fertility »


in Sub Saharan Africa, 2017.

Favoriser la scolarisation des filles constitue une des orientations en matière de


politique éducative permettant de renforcer le lien entre éducation et réduction de
la natalité. L’Éthiopie est un des pays qui fait figure d’exemple dans ce domaine.
L’ancien royaume d’Abyssinie a adopté dès 1994 une politique d’éducation volonta-
riste visant à atteindre un taux de scolarisation de 100 % des filles sur toute l’étendue
du territoire éthiopien. Un choix volontariste qui porte progressivement ses fruits.
Confrontée à une croissance démographique exponentielle, l’Afrique court
ainsi le risque, en l’absence de changements radicaux en matière de maternité, de
perdre le bénéfice du dividende démographique qui a permis à d’autres régions
du monde d’enclencher le processus d’émergence.

Le dividende démographique une perspective à la portée


de l’Afrique ?

On désigne par dividende démographique la croissance économique découlant


de la modification de la pyramide des âges de la population d’un pays. Ce bénéfice
économique lié à l’évolution démographique survient lorsque le nombre d’actifs
devient supérieur à celui des enfants et des personnes en situation de dépendance.

185

046092.indd 185 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Les dépenses nécessaires pour satisfaire les besoins des personnes dépendantes
diminuent au profit d’investissements porteurs de croissance économique. C’est
le chemin antérieurement choisi par les Tigres asiatiques puis par l’Amérique
latine dans leur processus d’émergence. Avant que ces pays n’occupent la tête
d’affiche en matière de performances économiques, bon nombre d’entre eux avait
des profils et des caractéristiques socio-économiques comparables à ceux des
pays d’Afrique subsaharienne. La baisse de la mortalité conjuguée avec la baisse
des naissances a contribué à modifier radicalement la pyramide des âges. Il en
a résulté une croissance de la population active en âge de travailler supérieur au
nombre de personnes dépendantes, jeunes ou âgées. Ce bonus démographique
s’est ainsi mué en dividende démographique car pourvue d’une éducation, la
jeune population active en âge de travailler a pu être intégrée sur le marché du
travail et elle a contribué ce faisant au dynamisme de la croissance économique
de ces pays. Pour tirer profit de ce bonus démographique, les Tigres asiatiques
ont pris le parti d’investir dans le capital humain c’est-à-dire dans l’éducation et
dans la planification familiale. Des initiatives ont été aussi prises en matière d’inté-
gration des femmes sur le marché du travail. En définitive, pour que le dividende
démographique puisse exercer pleinement ses effets, il faut, outre une baisse de
la natalité, des politiques sociales et économiques volontaristes.
Avec 2.4 milliards d’habitants prévus en 2050, l’Afrique peut-elle aussi bénéficier
de ce phénomène vertueux ?
À la lumière des expériences des pays asiatiques ou d’Amérique Latine, les
pays d’Afrique subsaharienne peuvent aussi profiter de cette fenêtre d’opportunité
en menant des politiques actives en matière d’éducation, de santé, de création
d’emplois tout en s’employant à baisser la natalité.
Dans une de ses études en 2015, le FMI précisait néanmoins que « pour obtenir le
dividende le plus élevé possible les pays d’Afrique subsaharienne devront rapidement
réduire la mortalité infantile et la fécondité et créer de nombreux emplois, soit
18 millions par an en moyenne entre 2010 et 2035 ». S’ils ne saisissent pas cette
opportunité offerte par la transition démographique, le chômage pourrait atteindre
des niveaux culminants et provoquerait de ce fait des conséquences sociales d’une
extrême gravité. La structure par âge de la population africaine actuelle et à venir
transforme cet enjeu en course contre la montre.
L’Afrique subsaharienne dispose de la population la plus jeune population au
monde. Les moins de 25 ans représentent 67 % de la population et les 15 à 24 ans
pèsent près d’un cinquième de la population mondiale de jeunes. Sans création
massive d’emplois, ces millions de jeunes totalement désœuvrés, sans perspective
d’avenir risquent de représenter une grande source de troubles sociaux et d’insta-
bilité politique. Pour nombre d’entre eux, la tentation de l’émigration risque d’être
la seule perspective viable pour un hypothétique mieux-être ailleurs.

186

046092.indd 186 18/11/2020 09:10


II. De multiples facteurs rhédibitoires qui sont autant de défis à relever

Figure 11 : Évolution de la pauvreté

Source : Banque mondiale

Le maintien d’une croissance démographique élevée fait aussi courir un risque


aux grandes villes africaines, celui d’une bidonvilisation accélérée avec son cortège
de maux : habitats insalubres, conditions de vie précaires, insécurité et pauvreté
galopantes. La croissance exponentielle de ce dernier phénomène semble de fait
inéluctable. Selon la Banque mondiale (2015), l’Afrique compte à elle seule plus de
la moitié des personnes considérées comme pauvres dans le monde c’est-à-dire
vivant avec 1.9$ par jour. Le graphique précédent montre qu’ils s’élèvent en 2015
à 412.3 millions sur un total de 736 millions. Ce chiffre fort élevé risque en cas
de statu quo des structures productives et d’invariance en matière matrimoniale
d’atteindre des records.
Cette croissance démographique galopante pose aussi un défi alimentaire à
l’Afrique. Nourrir des milliards d’individus avec une agriculture aux techniques
rudimentaires est un défi perdu d’avance. La modernisation des techniques de
production et la valorisation du métier d’agriculture s’avèrent indispensables afin
d’accroître et d’atteindre des niveaux de productivité permettant de garantir la
sécurité alimentaire. Le cas échéant, les émeutes de la faim risqueront de devenir
lésion dans de nombreux pays africains.
L’Afrique subsaharienne se trouve donc à la croisée des chemins. Pour conjurer
l’inéluctable c’est-à-dire éviter l’explosion de la pauvreté, elle se doit de prendre
radicalement le parti de l’investissement dans des infrastructures de base permettant
d’améliorer le développement humain et d’accroître la productivité.

187

046092.indd 187 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

E. Le défi de la démocratisation et de la stabilité politique

Longtemps dirigée par des autocrates, l’Afrique subsaharienne n’a pris le tournant
de la démocratie qu’au lendemain de la chute du mur de Berlin et précisément après
le sommet de la Baule au cours duquel le président François Mitterrand invita, dans
un discours devenu historique, les chefs d’État africains à accepter les principes
de la démocratie impliquant le pluralisme politique et l’organisation d’élections
libres et transparentes. Ce processus engagé au début des années 90 a ouvert des
perspectives porteuses de larges espérances en matière de liberté d’expression
après des décennies d’unanimisme contraint. Le bilan à tirer de ce processus apparaît
à bien des égards très mitigé. L’Afrique subsaharienne a vu émerger à la faveur
de ce processus des démocraties véritables. Le Bénin, le Burkina Faso, le Nigéria,
le Ghana, le Mali et le Sénégal font figure d’exemples de démocratie aboutie. La
libéralisation du champ politique a contribué dans ces pays à la diversification de
l’offre politique ainsi qu’à la consolidation des institutions démocratiques de sorte
que l’alternance politique, longtemps inespérée voire impensable, est devenue
une réalité tangible. Le renouvellement du personnel politique et l’éclosion de
personnalités issues de la société civile ont contribué à apporter un nouveau souffle
au processus démocratique en les dynamisant. Cependant dans de nombreux
pays, les processus démocratiques ont connu diverses infortunes. Ils ont été inter-
rompus par des coups d’état sur fond de restauration autoritaire ou simplement
instrumentalisés par les pouvoirs sortants dans l’unique but de s’auto-accorder
une légitimité populaire. Dans certains cas, des « réformes constitutionnelles sur
mesure » ont été opportunément décidées à dessein, contre vent et marrées, pour
contourner la limitation du renouvellement du mandat présidentiel.
De nombreux troubles sociaux ou conflits politiques armés en Afrique trouvent
leur source dans l’incapacité de certains dirigeants de penser la démocratie en
terme d’alternance politique. « Moi ou le chaos » telle est la justification de la
longévité de certaines magistratures érigées en présidence à vie. Ces dérives sources
d’immobilisme risquent de perdurer tant que l’exercice du pouvoir demeurera pour
les gouvernants ainsi qu’à leurs proches le plus sûr moyen d’accéder avantageu-
sement à la rente et de bénéficier ce faisant d’un accroissement exponentiel de
leur situation patrimoniale.
Se servir et non servir l’intérêt général tel est en résumé le comportement
déplorable d’une partie de la classe politique africaine. Certains de ses membres
ont été impliqués dans des scandales financiers mis au jour dans le cadre des
révélations des « Panama papers ». Des fortunes colossales sont ainsi placées à
l’abri dans des paradis fiscaux alors que les infrastructures de base font cruellement
défaut aux populations.
La responsabilité de l’Occident dans la perpétuation de ces régimes a souvent
été mise en cause. Le réalisme politique a souvent servi de justification pour soutenir
ou contribuer au maintien au pouvoir de certains dirigeants africains totalement
abhorrés par leurs peuples. Cette duplicité a contribué à renforcer le sentiment

188

046092.indd 188 18/11/2020 09:10


Conclusion

anti-occident notamment auprès de la jeunesse africaine profondément exaspérée


par l’immobilisme ambiant et totalement désespérée de voir son avenir compromis
par des générations au pouvoir depuis des décennies.
Au final le chemin conduisant les pays africains vers l’idéal démocratique est
un long parcours parsemé d’embûches. Le développement d’une véritable culture
démocratique est incontestablement la clé de voûte qui devrait conduire la classe
politique africaine à se débarrasser de ses oripeaux au profit de normes et valeurs
centrées sur la bonne gouvernance.

Conclusion

« L’Afrique est un continent riche habité par des pauvres » tel est le paradoxe
de cette région du monde convoitée pour la richesse de son sous-sol mais dont
les populations peinent à sortir des trappes à pauvreté dans lesquelles elles sont
enfermées.
La croissance du XXIe siècle sera-t-elle africaine en d’autres termes le XXIe siècle
verra-t-il l’émergence de l’Afrique ? Les prévisions les plus optimistes laissent
augurer la perspective d’un dividende démographique appelé à faire de ce
continent un pôle dynamique de croissance et de développement. La réalisation
de cette prévision est néanmoins sujette à caution tant de profondes mutations
économiques et culturelles s’avèrent impérieuses. La réduction de la taille des
familles condition sine qua none de la baisse de la pauvreté, le pari de l’inté-
gration régionale afin de remédier au déficit d’infrastructures et d’améliorer les
flux commerciaux intra-africains, l’appropriation de l’outil monétaire afin, dans le
cas des pays africains membres de la Zone franc, de faciliter la mise en œuvre
des politiques expansionnistes en matière de croissance et de création d’emplois,
l’adhésion aux valeurs démocratiques afin de promouvoir la bonne gouvernance
et de faciliter la stabilité politique, telle est la liste non exhaustive des orientations
nécessaires et impératives pour que l’émergence du continent africain ne demeure
pas un objectif vain mais une réalité bénéfique à sa population appelée à brève
échéance à représenter le quart de l’humanité.

189

046092.indd 189 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Lexique

Aide publique au développement : Il s’agit de prêts ou dons attribués à tarifs


préférentiels aux pays africains dans le but de promouvoir le développement
économique et d’améliorer ainsi les conditions de vie des populations locales.
Lexique

Balance des paiements : Il s’agit d’un compte recensant l’ensemble des relations
économiques, monétaires et financières entre un pays et le Reste du Monde
(RDM). Différentes balances la composent, la balance commerciale, la balance
des transactions courantes et la balance des capitaux. Les différents soldes
de flux réels, monétaires et financiers qui en découlent permettent d’établir
si un pays est créditeur ou débiteur à l’égard du RDM.
Banque mondiale : C’est une des institutions nées des accords de Bretton Woods
de 1944. 189 pays en sont membres et son siège est situé à Washington.
Fonctionnant comme une coopérative, la Banque mondiale a pour mission
de contribuer au développement des pays en développement via l’octroi
de prêts à taux d’intérêt faible permettant la construction d’infrastructures
et la mise en œuvre de réformes économiques et sociales.
Banques centrales : Généralement appelée banque des banques, les banques
centrales remplissent de multiples fonctions. Ce sont des instituts d’émission
chargées d’assurer les opérations de compensation interbancaires. Elles
assurent le financement des banques de second rang via leur intervention
sur le marché monétaire. Elles veillent à la stabilité du système financier
en jouant le rôle de prêteur en dernier ressort (PDR). Elles sont chargées
de déterminer et de conduire la politique monétaire. Dans le cas de la
Zone franc, les banques centrales ne jouissent pas d’une indépendance. Les
décisions de politique monétaire qu’elles mettent en œuvre sont étroitement
dépendantes de celles décidées par la Banque centrale européenne (BCE).
Chaîne de valeur globale : Il s’agit des différentes activités réalisées par les entre-
prises en différents lieux géographiques à travers le monde. Elles vont de la
conception du produit en passant par la production de celui-ci jusqu’à sa mise
à disposition aux consommateurs. Les choix de localisation de ces activités
géographiquement dispersées répondent à un objectif visant à tirer parti des
avantages comparatifs de chaque pays participant à la chaîne de production.
L’intensification de la mondialisation des chaînes de valeur a pour conséquence
l’exacerbation de l’interdépendance entre pays en matière d’approvisionnement.
Une faiblesse mise en lumière par la crise de la Covid-19.
Choc asymétrique : Il s’agit d’un choc d’offre ou de demande qui affecte avec
une intensité inégale différents pays ou différentes régions. Dans le cadre
d’une union monétaire, la résorption d’un choc asymétrique est difficile car
l’ajustement par les taux de change n’est pas possible.

190

046092.indd 190 18/11/2020 09:10


Lexique

Choc symétrique : Il est généralement le résultat d’un évènement exogène


affectant l’offre et/ou la demande avec une intensité équivalente dans
différents pays. C’est le cas d’un choc pétrolier qui généralement perturbe
de manière indifférenciée la plupart des économies. La coordination des
politiques budgétaires constitue un remède en présence de ce type de choc.
Cultures vivrières : Il s’agit de cultures destinées à l’autoconsommation des
populations locales. Ce sont des productions qui ne sont pas soumises
à une transformation par l’industrie agroalimentaire, ni destinées à
l’exportation. C’est en somme des productions issues d’une économie
de subsistance.
Consensus de Washington : C’est une expression tirée d’un article publié en
1989 par l’économiste américain John Williamson préconisant des mesures
libérales destinées à sortir de l’ornière les pays d’Amérique latine confrontés à
des difficultés de balance de paiements. Depuis, cette expression désigne un
corpus de mesures libérales imposées par les institutions issues des accords
de Bretton Woods (FMI et Banque mondiale) aux pays en développement
confrontés à des problèmes de soutenabilité de la dette.
Consensus de Pékin : Formulée par Joshua Cooper Ramo en 2004, cette
expression vise à décrire les rapports qui lient l’Empire du Milieu et de
nombreux pays en développement notamment africains. À l’inverse du
Consensus de Washington reposant sur le principe de conditionnalité de
l’aide apportée aux pays en développement en échange de la mise en
œuvre de réformes libérales, le Consensus de Pékin promeut officiellement
la non-ingérence et le respect mutuel des partenaires.
Dévaluation monétaire : Il s’agit d’une décision officielle des autorités consistant
dans le cadre d’un régime de changes fixes à réduire le taux de change d’une
devise ou d’une monnaie par rapport à une autre. Concrètement dans le cas
de la Zone franc, une dévaluation du franc CFA se traduit par une diminution
de la monnaie africaine par rapport à la monnaie ancre. Ainsi, il faut davantage
de franc CFA pour obtenir 1 euro ou inversement 1 euro permet d’obtenir
davantage de franc CFA. Dans le cas d’une modification à la hausse du taux
de change, on parle de réévaluation monétaire. On attend d’une dévaluation
qu’elle restaure la compétitivité-prix en favorisant les exportations et en outre,
qu’elle décourage les importations en les renchérissant. Une amélioration
du solde commercial est espérée de cette décision. Les chances de réussite
d’une telle opération sont généralement incertaines.
Développement : Phénomène désignant l’ensemble des mutations multidimen-
Lexique

sionnelles c’est-à-dire de nature technique, sociale et culturelle favorisant


l’apparition irréversible de la croissance économique et débouchant sur
une amélioration des conditions et du niveau de vie des populations. Le
développement devient durable lorsqu’il privilégie l’altruisme intergénéra-
tionnel c’est-à-dire lorsqu’il permet de satisfaire les besoins des générations

191

046092.indd 191 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

présentes sans porter atteinte à la capacité des générations à venir à satisfaire


les leurs. En d’autres termes il s’agit d’un développement reposant sur trois
piliers : le social, l’économique et l’environnement.
Dividende démographique : C’est une notion qui vise à décrire l’avantage
économique qu’un pays peut tirer de la structure démographique de sa
Lexique

population. Le dividende démographique se traduit par une augmentation


de la productivité notamment du fait que le ratio de la population active
rapporté au nombre de personnes à charge s’accroît. En d’autres termes
le dividende démographique se produit lorsque la population non dépen-
dante (active) augmente plus vite que la population dépendante (enfants
et personnes âgées). Il constitue le moment idoine pour investir dans la
santé et l’éducation afin d’améliorer le capital humain et ainsi le potentiel
de croissance.
Économie de rente : C’est une économie reposant essentiellement sur l’exploi-
tation des ressources naturelles qui de ce fait constitue la principale source
de rentrées financières. Aucun processus de création de valeur n’est à l’œuvre
car tout repose sur l’utilisation des richesses préexistantes. Ce type d’éco-
nomie est très vulnérable car exposé à la fluctuation des cours des matières
premières.
Économie informelle : Elle regroupe l’ensemble des activités productrices de
biens et services échappant aux institutions tant d’un point de vue légal que
social. L’économie informelle n’est ainsi soumise à aucune régulation étatique
et relève dans les pays en développement de l’économie de survie. Elle
s’oppose à l’économie formelle qui, elle, est soumise au pouvoir régulateur
de l’état.
Émergence économique : Un pays est en situation d’émergence économique
lorsqu’il dispose d’un PIB par habitant inférieur à celui des pays membres
de l’OCDE (Organisation pour la coopération et le développement écono-
mique) mais bénéficie d’un rythme de croissance soutenu accompagné de
transformations structurelles et d’une insertion croissante à la globalisation
économique.
Fonds monétaire international (FMI) : Né en 1945 à l’issue des accords de Bretton
Woods, le FMI est une institution au cœur de la gouvernance mondiale. 188
pays en sont membres et son siège est situé à Washington. Chargé d’abord
de veiller à la stabilité des changes, le FMI a vu ses missions évoluer avec la
fin du système monétaire international issu des accords de Bretton Woods.
Il est depuis les années 70 chargé d’encourager la stabilité financière, de
promouvoir la coopération économique, d’aider les pays confrontés à des
difficultés macro-économiques en leur accordant des prêts en contrepartie
de réformes structurelles et enfin d’évaluer les perspectives économiques
mondiales.

192

046092.indd 192 18/11/2020 09:10


Lexique

Fédéralisme budgétaire : C’est une des caractéristiques des États fédéraux qui
se traduit par un contrôle des politiques budgétaires des États membres par
le gouvernement central. Le fédéralisme budgétaire joue un rôle particulier
lorsqu’intervient une crise. Il favorise des transferts importants entre États
ou régions en cas de choc asymétrique et permet d’accroître le niveau
d’endettement de la fédération pour relancer l’économie.
Gouvernance : Elle désigne la manière avec laquelle un gouvernement gère
les ressources d’un pays en vue d’assurer son développement. À partir des
années 90, la bonne gouvernance a été érigée par la Banque mondiale
comme une des conditions nécessaires à la réussite des politiques de
développement.
Indicateur de développement humain (IDH) : Créé en 1990 par le Programme
des Nations unies pour le développement (PNUD), l’IDH est un indicateur
composite visant à rendre compte des inégalités mondiales en terme de
bien-être. Il tente de remédier aux lacunes du PIB en prenant en compte dans
son calcul des indicateurs socio-économiques comme le PIB par habitant,
l’espérance de vie, le taux d’alphabétisation des adultes et le taux de scola-
risation. Compris entre 0 et 1, il vise à rendre compte de l’amélioration du
développement humain résultant de la croissance économique. Plus son niveau
se rapproche de 1, meilleur est le développement humain. Néanmoins il est
l’objet de critiques car il ne permet pas de rendre compte de la dynamique
de développement des structures économiques et sociales.
Intégration économique : Processus visant à créer un espace économique
commun nécessitant une unification des politiques économiques des États
impliqués. Selon l’économiste Bela Balassa, cinq stades d’intégration écono-
mique sont possibles. Il y a d’abord la constitution d’une zone de libre-échange,
l’union douanière ensuite, le marché commun, l’union économique et enfin
l’union économique et monétaire.
Investissement direct étranger (IDH) : Il s’agit d’investissement réalisé à l’étranger
par une entité résidente d’une économie dans le but d’y acquérir un intérêt
durable. Il y a IDE pour la Banque de France dès lors que l’entité investisseuse
acquiert au moins 10 % du capital ou des droits de l’entreprise bénéficiaire
de l’investissement. Les IDE sont les principaux vecteurs de l’internationali-
sation des entreprises et de la mondialisation de l’économie.
Malédiction des ressources naturelles : Mis en lumière dans les années 90
par Richard Audit, ce phénomène traduit les difficultés rencontrées par de
nombreux pays en développement qui en dépit d’abondantes ressources
Lexique

peinent à en tirer le meilleur parti du fait d’une mauvaise gouvernance


marquée par la corruption, la prédation et la distribution de prébendes.

193

046092.indd 193 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

Programme d’ajustement structurel (PAS) : Il s’agit des politiques engagées par


les institutions de Bretton Woods dans les pays confrontés à des difficultés de
balance des paiements. Ils ont pour but, grâce à des mesures d’inspiration
libérale, d’assainir la situation économique du pays afin d’améliorer la soute-
nabilité de son endettement. Résultat du consensus de Washington, ils font
Lexique

l’objet de virulentes critiques en raison du coût social élevé qu’ils impliquent.


Produit intérieur brut (PIB) : Principal agrégat de la comptabilité nationale,
il vise à quantifier la richesse produite au cours d’une période donnée sur
un territoire. On l’obtient en additionnant l’ensemble des valeurs ajoutées
créées par les différentes branches de l’économie au cours d’une année. Le
PIB a toutefois deux composantes, une marchande et autre non marchande.
La composante non marchande regroupe les productions non marchandes
réalisées par les administrations publiques notamment. Elles sont évaluées
à leur coût de production. Indicateur synthétique permettant de mesurer les
performances économiques des pays et de comparer les niveaux de vie des
habitants, le PIB est toutefois l’objet de remise en cause croissante depuis
les années 70. On reproche à cet agrégat de ne pas prendre en compte
dans son calcul de nombreuses activités socialement utiles mais qui ne
donnent pas lieu à rémunération. On lui reproche aussi de ne pas prendre
les coûts environnementaux de la croissance. Ces multiples critiques ont
contribué à la mise en lumière d’indicateurs alternatifs dont l’indicateur de
développement humain (IDH).
Ressources naturelles : Elles regroupent l’ensemble des biens ou services fournis
par la nature. Les ressources naturelles sont indispensables aux sociétés
humaines du fait qu’elles contribuent à leur bien-être et à leur développement.
Réserves de change : Ce sont les devises étrangères que détient une banque
centrale et qui lui permettent de solder les déficits de la balance des paiements.
Ces liquidités internationales permettent aussi à la banque centrale d’inter-
venir sur le marché des changes afin d’influencer l’évolution du taux de
change. Elles peuvent enfin être placées en bons et obligations du trésor
émis par différents États.
Risque de change : Il désigne le risque auquel s’expose tout acteur impliqué
dans les échanges économiques et financiers internationaux du fait de la
variation des taux de change. Le risque de change constitue un handicap
pour les entreprises participant aux échanges internationaux. Il induit en
effet une incertitude au niveau de la facturation en raison du décalage
entre le moment de la facturation et celui du paiement. Il s’agit du risque
de transaction. De même, la variation des changes peut affecter négati-
vement la compétitivité-prix des entreprises exportatrices. La dévaluation
de la monnaie d’un pays concurrent renchérit de facto les exportations sur
les marchés internationaux. On parle dans ce cas de risque de compétitivité.

194

046092.indd 194 18/11/2020 09:10


Lexique

Spécialisation primaire : C’est une des caractéristiques de nombreux pays en


développement. Ceux-ci sont généralement spécialisés dans la production et
l’exportation de produits primaires (agricoles et miniers) c’est-à-dire n’ayant
subi aucune transformation de nature industrielle.
Syndrome hollandais : C’est une des causes de la malédiction des ressources
naturelles. Il traduit la difficulté rencontrée par les pays dotés d’abondantes
ressources naturelles à maintenir une activité industrielle compétitive du fait
de l’exploitation de ces richesses naturelles.
Taux de change : Le taux de change désigne le prix d’une devise par rapport à
une autre. Il est aussi synonyme de parité monétaire. Il représente le nombre
d’unité monétaire étrangère nécessaire pour obtenir une unité monétaire
nationale ou inversement. Dans le cas de la Zone franc, le taux de change
CFA-euro est de 655,96 franc CFA pour 1 euro. Comme tout prix, le taux
de change dans le cadre d’un régime de change flottant est le résultat de la
confrontation entre offre et demande de devises sur le marché des changes.
Le taux de change fluctue dans ce cas au gré des évolutions du marché.
L’intervention des banques centrales n’est pas nécessaire du fait de l’auto
ajustement du marché des changes. Dans le cas de la Zone franc, on est en
présence d’un régime de change fixe, la parité monétaire est déterminée
par les autorités politiques. Il est possible dans cette situation d’envisager
une dévaluation monétaire en modifiant à la baisse le taux de change entre
le franc CFA et la monnaie ancre.
Taux de croissance du PIB : Il permet de mesurer l’évolution de la croissance
économique d’un pays. Un taux de croissance positif signifie que le pays a
produit davantage de richesse par rapport à la période précédente. Cette
mesure de la croissance économique s’effectue à partir d’un PIB en volume
ou déflaté ou en euros constants. On parle alors de croissance réelle ou en
volume.
Taux de fécondité : C’est le rapport pour un groupe de femmes entre le nombre
de naissances annuelles et le nombre de femmes appartenant à ce groupe.
L’estimation de la fécondité du moment est obtenue à partir de l’indicateur
conjoncturel de fécondité (ICF). On obtient en faisant la somme des taux
de fécondité par âge de l’ensemble des générations en âge de procréer.
Il indique ainsi le nombre moyen d’enfants par femme en âge de procréer.
En France, l’ICF en 2017 était de 1.88 enfants par femme et de. Ce niveau
se révèle insuffisant pour assurer le renouvellement des générations, il doit
être de 2.1 pour que soit assuré le remplacement numérique des parents.
Lexique

Taux de mortalité : C’est le rapport entre le nombre de décès de l’année


rapporté à la population moyenne totale de l’année. Il indique le nombre
de décès pour 1 000 personnes, il ne s’exprime donc pas en pourcentage.
Le taux de mortalité est largement tributaire de la structure par âge de
la population. Lorsque la population est jeune et la part des personnes
âgées est faible, il en résulte généralement un taux de mortalité faible. Un
autre indicateur significatif peut être calculé, il s’agit du taux de mortalité

195

046092.indd 195 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

infantile. Il est obtenu en faisant le rapport entre le nombre de décès


d’enfants de moins d’un an rapporté au nombre de naissances vivantes
annuelles. Ce taux est généralement le reflet du niveau de développement
économique et social d’un pays. Plus celui-ci est élevé, plus le taux de
mortalité infantile est faible.
Lexique

Taux de natalité : Il est obtenu en faisant le rapport entre le nombre de naissances


au cours d’une période et la population totale moyenne au cours de la dite
période.
Taux de scolarisation : Il correspond au pourcentage d’enfants effectivement
scolarisés par rapport à l’ensemble des enfants susceptibles d’être scolarisés.
Terme de l’échange : Indicateur permettant de mesurer le pouvoir d’achat de
biens et services importés qu’un pays dispose du fait de ses exportations. Il
se calcule en faisant le rapport entre l’indice des prix des produits exportés
et l’indice des prix des produits importés. Lorsque le rapport est supérieur
à 100, cela traduit une amélioration des termes de l’échange, dans le cas
contraire, il y a dégradation des termes de l’échange. Dans ce dernier cas,
le pays s’appauvrit du fait que ses exportations ne couvrent pas ses impor-
tations car les prix des produits importés augmentent plus vite que ceux des
produits exportés. Cela débouche inévitablement sur un accroissement du
niveau d’endettement. Ce phénomène a été théorisé dès les années 50 par
l’économiste argentin Paul Prebisch pour illustrer l’inégalité des échanges
entre pays développés et pays en développement. Cette thèse a toutefois
fait l’objet d’une remise en cause.
Transition démographique : Il s’agit d’un phénomène démographique au
cours duquel une société passe d’un régime démographique traditionnel
à fortes mortalité et natalité à un régime démographique moderne à faible
mortalité et natalité. Quatre phases sont au cœur de ce phénomène. La
première phase est marquée par une mortalité et une fécondité élevées,
il en résulte une augmentation de la population relativement faible. La
seconde phase se singularise par une décrue de la mortalité tandis que
la fécondité reste au niveau précédent. Le différentiel entre fécondité et
mortalité s’accroît générant une accélération de la croissance démogra-
phique. Dans la troisième phase, la fécondité amorce une décrue, ainsi que
la mortalité occasionnant une diminution du taux d’accroissement de la
population. La quatrième phase se caractérise par une stagnation démogra-
phique du fait que la natalité et la mortalité atteignent des niveaux bas
quasiment identiques. Plusieurs décennies sont généralement nécessaires
pour que cette transition démographique s’achève. Si ce processus a pris
fin au début du XXe siècle pour les pays développés, il reste inachevé dans
de nombreux pays en développement.
Zone monétaire optimale (ZMO) : Développée par le prix Nobel d’économie,
Robert Mundell, la théorie de la zone monétaire optimale vise à évaluer
les bienfaits de la création d’une monnaie unique dans le cadre d’une
union monétaire. Quatre conditions doivent être réunies pour qu’une zone

196

046092.indd 196 18/11/2020 09:10


Bibliographie

monétaire puisse bénéficier des attributs d’une zone monétaire optimale. Il


faut simultanément l’existence d’une mobilité géographique des facteurs de
production (travail et capital) entre pays, la nécessité d’une forte intégration
commerciale, la prédominance de chocs asymétriques, et enfin l’existence
de mécanismes d’ajustement face aux chocs asymétriques impliquant le
fédéralisme budgétaire. La zone euro n’est pas une ZMO car elle contre-
vient à deux critères. La mobilité des travailleurs entre pays membres est
faible en raison d’obstacles liés notamment à la barrière linguistique. Les
mécanismes de transfert budgétaire se révèlent insuffisants en raison d’un
budget communautaire qualifié de Lilliputien.

Bibliographie

Agence française de développement : « Quelle classe moyenne en Afrique ? »,


document de travail, n° 118, décembre 2011.
ASSIDON Elsa, Les théories économiques du développement, collection « Repères »,
La découverte, 2002.
—, JACQUEMOT Pierre, « Politique de change et ajustement en Afrique », ministère
de la coopération, 1988.
AZIZI Jamal, GIRAUD Pierre-Noël, OLLIVIER Thimothée et TAMOKONÉ KANGA Paul-Hervé,
Richesses de la nature et pauvreté des nations. Essai sur la malédiction de
la rente minière et pétrolière en Afrique, Presses des Mines, 2016.
Banque africaine de développement :
– « The middle of the pyramid : dynamics of the African Middle class »,
avril 2011.
– « L’Afrique dans 50 ans, vers une croissance inclusive », Tunis, 2011.
– [et OCDE] « Les chaînes de valeur mondiales et industrialisation de
l’Afrique », 2014.
BANDELETTI Joan, Petite prospérité, les classes moyennes en Afrique, Images en
manœuvre éditions, 2011.
BEAU Nicolas, La maison Pasqua, Plon, 2002.
BOSC Serge, Sociologie des classes moyennes, collection « Repères », La
découverte, 2008.
Boston Consulting Group : « Understanting the consumers in the “Many Africas” »,
Bibliographie

mars 2013.
FOCCARD Jacques, « Foccard parle, entretien avec Philippe Gaillard » Fayard –
Jeune Afrique, 1951.
FOIRRY Jean Pierre, L’Afrique : continent d’avenir ?, Ellipses, 2006.
Fonds monétaire international : « Perspectives économiques régionales : Afrique
subsaharienne », avril 2017.

197

046092.indd 197 18/11/2020 09:10


Chapitre 3. L’Afrique noire face au défi de l’émergence

GLASER Antoine, Arrogant comme un français en Afrique, Fayard, 2016.


—, Comment la France a perdu l’Afrique, Calmann-Levy, 2005.
GOREUX Louis-Marie, « La dévaluation du FCFA, un premier bilan », Banque
mondiale, 1995.
Bibliographie

GUILLAUMONT Pierre, Économie du développement, PUF, 1986.


HAREL Xavier, « Elf-Aquitaine, il était une fois la Françafrique », Alternatives
économiques, n° 11, 2012.
—, SOLÉ Julien, L’argent fou de la Françafrique. L’affaire des biens mal acquis,
Glénat, 2018.
HUGON Philippe, Économie de l’Afrique, collection « Repères », La découverte,
2001.
JACQUEMOT Pierre, Les classes moyennes changent-elles la donne ? Réalité, enjeux
et perspectives, De Boeck supérieur, 2012.
—, L’Afrique des possibles, les défis de l’émergence, Khartala, 2016.
—, « L’Afrique doit jouer la carte de la régionalisation », L’Économie politique,
n° 77, février-mars, 2018.
NALLET Clélie, « Identifier les classes moyennes africaines : diversité, spécificités
et pratiques de consommation sous contraintes », Ifri, avril 2015.
NDONGO Sylla, PIGEAUD Fanny, L’arme invisible de la Françafrique, une histoire du
franc CFA, La découverte, 2018.
NUBUKPO Kako, L’urgence africaine, changeons le modèle de croissance, Odile
Jacob, 2019.
N’ZAMBI Georges, « Faut-il désespérer continûment de l’Afrique noire ? », lemonde.
fr, 2010.
—, « Afrique et démocratie : un couple antinomique ? », lemonde.fr, 2010.
—, « Zone franc : l’arrimage à la zone euro », Les problèmes économiques, La
Documentation française, 2003.
—, « Afrique noire : quelles perspectives d’avenir ? », Revue Idées, 2002.
McKinsey Global Institute : « Lions on the Move. The Progress and Potential of
African Economices », 2010.
PÉAN Pierre, L’argent noir. Corruption et sous-développement, Fayard, 1988.
—, Noires fureurs, blancs menteurs. Rwanda 1990-1994, Pluriel, 2005.
—, La république des mallettes, Fayard, 2011.
—, Nouvelles affaires africaines. Mensonges et pillage au Gabon, Fayard, 2014.
Rapport du Sénat : « L’Afrique est notre avenir », 2014.
Parlement européen : « La croissance économique de l’Afrique », janvier 2016.
SEVERINO Jean-Michel, RAY Olivier, Le temps de l’Afrique, Odile Jacob, 2010.
SMITH Stephen, Négrologie : pourquoi l’Afrique se meurt ?, Pluriel, 2012.
STRAUSS-KHAN Dominique, « Zone franc, pour une émancipation au bénéfice de
tous », Étude, avril 2018.

198

046092.indd 198 18/11/2020 09:10


Bibliographie

TURPIN Frédéric, Jacques Foccard dans l’ombre du pouvoir, CNRS éditions, 2018.
VERSCHAVE François-Xavier, La françafrique, le plus grand scandale de la république,
Stock, 1988.
—, Noir silence. Qui arrêtera la Françafrique ?, Les arènes, 2000.
ZIEGLER Jean, Main basse sur l’Afrique : la recolonisation, Seuil, 1978.

Bibliographie

199

046092.indd 199 18/11/2020 09:10


046092.indd 200 18/11/2020 09:10
Chapitre 4.

Les enjeux économiques, juridiques


et sociaux liés à l’intelligence artificielle

Après différentes révolutions industrielles marquées par la naissance de la machine


à vapeur, de l’électricité, de l’informatique et du numérique, le monde est à l’aube
de transformations majeures impulsées par le développement de l’intelligence artifi-
cielle. Cette prédiction de bon présage repose sur les innombrables promesses
fulgurantes prêtées aux technologies qui lui sont associées. La liste non exhaustive
des innovations de rupture à venir dépasse en effet l’entendement. Qu’il s’agisse de
la voiture autonome, de l’aide des robots dans la détection de maladies graves, des
objets connectés permettant un suivi efficace des patients ou du poids prégnant de
l’implication de robots intelligents dans le fonctionnement des marchés financiers ;
toutes ces avancées majeures dans de multiples domaines sont de nature à induire
des bouleversements tentaculaires susceptibles d’affecter à la fois les structures
économiques et sociales, les modes de vie et les rapports humains au travail.
Produit de la conjonction de plusieurs disciplines, l’intelligence artificielle
ambitionne en effet de comprendre le fonctionnement cognitif humain afin de
le reproduire en de multiples applications. Le développement du numérique, la
création du big data et l’augmentation de la puissance de calcul des ordinateurs
sont les principaux leviers de son développement.
Technologie disruptive, l’intelligence artificielle est souvent comparée par
certains analystes aux technologies nucléaires car sa maîtrise constitue une des
clés de voûte de l’avenir des grandes nations industrielles. Source de promesses
mirobolantes en matière de croissance économique et de gains de productivité,
l’intelligence artificielle suscite néanmoins de nombreuses interrogations à l’origine
d’angoisses face à l’avenir :
– La machine intelligente est-elle appelée à remplacer l’homme ?
– Faut-il in fine redouter le développement du chômage de masse du fait de
l’automatisation et de la robotisation des outils de production ?
– Son utilisation ne risque-t-elle pas de déresponsabiliser les individus du fait
de l’excès de confiance faite à la machine ?
– L’homme est-il assuré d’en avoir toujours le contrôle comme le font craindre
certaines dérives récemment mises au jour ?
– Quelles évolutions juridiques et quelles régulations face à ces transforma-
tions majeures ?

201

046092.indd 201 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

I. Une émergence marquée par des débuts très poussifs

L’intelligence artificielle a connu des débuts très laborieux avant de s’imposer


comme objet d’étude digne d’intérêt. C’est au début des années 50 que débute
véritablement la grande aventure de l’intelligence artificielle. On la doit au mathéma-
ticien britannique Alan Turing1. Dans son ouvrage fondateur Computing machinery
and intelligence, il s’interroge sur la possibilité d’apporter une forme d’intelligence
aux machines et sur leur capacité à imiter la conversation humaine. Il élabore pour
ce faire un test2 dont le protocole est le suivant : un évaluateur est chargé de juger
une conversation entre un humain et une machine. Celui-ci sait d’emblée que l’un
des deux protagonistes est une machine mais il ne peut l’identifier avant le début
de la conversation. Au terme de cinq minutes de dialogue, si l’évaluateur n’est
pas en mesure de distinguer l’homme de la machine, alors celle-ci est qualifiée
d’intelligente.

A. Un processus marqué par des aléas

L’objet de l’intelligence artificielle est donc de comprendre comment fonctionne


la cognition humaine afin de la reproduire. Il s’agit en somme de créer des processus
cognitifs comparables à ceux de l’être humain. C’est un champ d’étude mobilisant
diverses disciplines : les mathématiques, l’informatique et les sciences cognitives.
Son officialisation comme domaine d’étude scientifique intervient en 1956 lors de
la conférence de Dartmouth organisée par Marvin Lee Minsky. Vingt chercheurs
participent à cet évènement fondateur au cours duquel de nombreuses contribu-
tions mathématiques sont présentées dont le principe d’élagage alpha-bêta, un
algorithme d’évaluation au rôle fondamental dans la programmation en matière
d’intelligence artificielle.
De prestigieuses universités à l’instar de Stanford ou du Massachusetts Institute of
Technology (MIT) s’emparent alors du sujet en y consacrant un budget de recherche
conséquent. Le département de la défense américain voit dans le développement
de l’intelligence artificielle un facteur de modernisation de l’armée américaine, il
y affecte alors les moyens nécessaires.

1. Alan Turing est un mathématicien britannique dont les travaux permirent le décryptage des
codes secrets allemands au cours de la Deuxième Guerre mondiale. Il contribua de ce fait
de manière décisive à la victoire contre les nazis. Héros de la bataille contre le nazisme, il fut
néanmoins victime de la loi sur la protection des bonnes mœurs dans une Grande Bretagne
conservatrice. Condamné pour son homosexualité en 1952, le mathématicien britannique a
récemment été réhabilité par la reine Elisabeth II en raison « de son apport scientifique pour
briser les codes Enigma contribuant ainsi à sauver des milliers de vies ». Le film Imitation
Game (2014) retrace le brillant parcours de ce précurseur de la machine universelle qu’est
l’ordinateur.
2. Ce test est de nos jours l’objet de critiques parce qu’il s’appuie sur un nombre limité de
questions relevant d’un domaine restreint. Dès lors qu’on élargit le champ des connaissances,
les chances de succès de l’ordinateur se réduisent significativement par rapport à celles de
l’homme.

202

046092.indd 202 18/11/2020 09:10


I. Une émergence marquée par des débuts très poussifs

Les années 60 sont ainsi marquées par un vent d’optimisme mais celui-ci va
progressivement être confronté à l’épreuve de la réalité. De nombreux projets
porteurs d’espérance n’aboutissent pas car les difficultés rencontrées se révèlent
plus nombreuses que prévues. Les années 70 se singularisent alors par le recul
de la recherche en intelligence artificielle. Les financements jadis conséquents
se tarissent. En effet, faute de succès tangibles les gouvernements américains et
britanniques notamment réduisent leurs financements. La sélectivité des projets
devient la règle, seuls ceux ayant une chance d’aboutir sont encouragés. Cette
période de vache maigre est alors qualifiée de « AI winter ».
Le renouveau de l’intelligence artificielle intervient à partir de la décennie 90.
Plusieurs facteurs vont y contribuer. Il y a d’abord le développement de l’infor-
matique dans les entreprises, ensuite l’apparition puis l’utilisation des premières
machines intelligentes capables par exemple dans le cadre de l’activité bancaire
de lire automatiquement des chèques ou des enveloppes. Il y a enfin le succès des
systèmes experts c’est-à-dire des ordinateurs capables de se comporter comme
un expert humain dans un domaine précis.
La conjonction de ces facteurs relance de nombreux projets dans le domaine
de l’intelligence artificielle. Son marché est ainsi porté à 1 milliard de dollars. Les
gouvernements américains et britanniques se remettent à soutenir différents projets.
Le développement exponentiel des performances informatiques en suivant la loi
de Moore, permet à la fin des années 90 d’exploiter l’intelligence artificielle dans
des domaines jusqu’alors peu concernés. C’est le début du data mining et des
diagnostics médicaux. 1997 va alors constituer un tournant décisif. Un évènement
ultra-médiatisé va porter aux nues l’intelligence artificielle. L’ordinateur « Deep Blue »
créé par IBM prend le dessus sur le champion du monde d’échecs Garry Kasparov.
Au cours des années 2000, c’est le cinéma qui consacre l’intelligence artificielle
via différentes productions cinématographiques à gros budgets. Des « Block-
busters » à l’instar de Terminator, Blade Runner ou le premier volet de la saga Matrix
connaissent un succès retentissant auprès du grand public. Ces films s’appuient
sur des scénarios plus ou moins réalistes permettant de mettre en exergue les
bienfondés de l’intelligence artificielle ou ses potentiels dangers.
Le début des années 2010 voit l’apparition de « l’homo numéricus ». Son
éclosion est en effet favorisée par la démocratisation de l’ordinateur, de l’internet
et des smartphones. La connectivité devient alors un fait social favorisant en cela
la fulgurance de l’intelligence artificielle tant sur le plan académique qu’industriel.

203

046092.indd 203 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Des évènements médiatiques vont une fois de plus contribuer à crédibiliser


l’intelligence artificielle. Watson le super cerveau créé par IBM réalise une prouesse
de taille en battant les deux plus grands champions de Jeopardy1. Le surpas-
sement cognitif des facultés de l’Homme par la machine devient alors un facteur
accélérateur de l’intelligence artificielle. Ce tournant décisif a sans aucun doute
été rendu possible par le développement du deep learning.

Encadré 1 « Machine learning » versus « Deap learning »

Le passage du machine learning au deep learning est une des clés des progrès
fulgurants réalisés par l’intelligence artificielle. Ces deux méthodes présentent
des similarités mais aussi d’énormes différences. Le machine learning prend
naissance dans les années 50. Il est le résultat de l‘abandon de la program-
mation compliquée au profit des méthodes d’apprentissage de l’ordinateur. En
effet avec le machine learning, la machine acquiert la faculté d’apprendre par
elle-même afin de réaliser des calculs à partir d’une base de données. C’est une
forme d’apprentissage automatique par l’expérimentation dans le but d’établir
des corrélations. C’est la data qui dans ce cadre nourrit l’analyse de données,
plus le nombre de corrélations augmente et plus la qualité des prédictions des
algorithmes s’améliore. Les résultats des algorithmes de machine learning ont de
nombreuses utilisations dans de multiples domaines. Ils permettent par exemple
de rechercher les consommateurs les plus proches d’un individu afin de faire des
propositions de produits à ceux-ci, de prédire le salaire d’un individu en fonction
du nombre d’années d’expérience ou enfin de savoir si un individu est disposé à
acheter un produit en fonction d’un certain nombre de caractéristiques person-
nelles comme l’âge, le niveau d’études, le sexe ou la résidence géographique.
En général, le machine learning est utilisé en matière de recommandation, de
détection automatique de fraudes, d’anomalies ou d’erreurs de saisie.
Le deep learning est une des facettes du machine learning. Néanmoins si tout
deep learning est un machine learning, l’inverse n’est cependant pas vrai. Les
algorithmes du deep learning sont moins dirigés (apprentissage non supervisé)
par rapport à ceux du machine learning (apprentissage supervisé). C’est sur les
premiers que reposent les technologies comme la reconnaissance d’images ou la
vision robotique. Ces algorithmes disposent d’un réseau de neurones artificiels.
Ces réseaux s’inspirent des neurones du cerveau humain. Ceux-ci sont connectés
entre eux, plus ils sont élevés, plus le réseau est considéré comme profond. Pour
faire intervenir le deep learning en matière de reconnaissance d’images de chats
par exemple, les réseaux de neurones doivent être entraînés. Pour y parvenir,
il faut compiler un ensemble d’images de chats différents mélangés avec des

1. La victoire d’AlphaGo (Google) contre le champion du monde de jeu de Go, Lee Sedol, en
mars 2016 a aussi renforcé cette crédibilité et remis au goût du jour les prouesses de l’intel-
ligence artificielle. En 2017, une nouvelle version d’AlphaGo dénommée AlphaGo Zéro est
apparue. Elle présente la singularité d’être plus puissante et plus intelligente car elle est
capable d’apprendre par elle-même en se passant de la connaissance humaine. Ce nouveau
programme a créé la sensation en battant AlphaGo au jeu de Go par un score sans appel de
100 à 0.

204

046092.indd 204 18/11/2020 09:10


I. Une émergence marquée par des débuts très poussifs

images d’objets qui ne sont pas des chats. Converties en données, ces images
sont ensuite transférées sur le réseau neuronal. Un poids est attribué aux différents
éléments et c’est sur la base de ces informations que le réseau va déduire s’il
s’agit ou non d’un chat. Si la réponse est conforme à celle des humains, le réseau
va garder en mémoire cette réponse pour à l’avenir reconnaître les chats. D’une
manière générale, les performances des algorithmes de deep learning tendent
à s’accroître exponentiellement avec l’entraînement. Les avancées en la matière,
permettent aujourd’hui de nombreux progrès. Il en est ainsi de l’utilisation de la
parole dans l’exploitation d’un appareil, de l’analyse des émotions faciales des
clients ou des mauvais comportements des usagers de la route… ©

B. Le Big data ou la consécration de la donnée

Ce nouveau contexte marqué par une connectivité accrue fait de la donnée


une matière première essentielle. Certains groupes prennent conscience plus tôt
que d’autres de ce rôle cardinal de la donnée et devancent ainsi leurs concurrents.
C’est le cas de Google qui avec grande vélocité devient pionnier dans le domaine
de la collecte des données. En l’espace de quelques années, la firme de Mountain
View démultiplie ses projets avec succès. Facebook emboîte le pas de Google
en créant FAIR (Facebook Artificial Intelligence Research). Tous les géants des
réseaux sociaux et du numérique s’y mettent aussi. Amazon, Microsoft, Apple,
Netflix perçoivent alors tout l’intérêt qu’ils ont à tirer de cette mine que constitue
la donnée ou le big data1. Cet engouement pour l’intelligence artificielle va aussi
toucher l’Empire du milieu (voir encadré 2, page 212). Ces nombreuses conversions
à l’IA marquent ainsi le début de son assomption. Le dynamisme de ce secteur se
matérialise aujourd’hui par le nombre croissant de start-ups à l’échelle mondiale
et par la croissance exponentielle des investissements dont il bénéficie. En 2016
par exemple, plus de 1 600 start-ups spécialisées sont nées dans le monde et en
2017, plus de 2.2 milliards de dollars ont été investis dans ce secteur en Europe
soit trois fois plus que l’année précédente.
Une année va se singulariser au cours de cette grande chevauchée de l’intelli-
gence artificielle, il s’agit de l’année 2011. Trois grandes ruptures interviennent au
cours de celle-ci. Il s’agit d’abord de l’apparition d’algorithmes sophistiqués faisant
appel aux réseaux de neurones, ensuite de la mise sur le marché de processeurs
graphiques à bas coûts dotés d’une grande puissance de calculs et enfin de la
disponibilité d’une gigantesque base de données correctement annotées facilitant
un apprentissage plus fin.

1. En 2017, il a été constaté en une seule journée, 96 millions de messages sur Instagram,
200 millions de nouvelles photos et 456 millions de mises à jour de statuts dans Facebook,
645 millions de tweets, 5.5 milliards de requêtes sur Google, 4.17 milliards de messages sur
WhatsApp. Ces interactions génèrent donc une gigantesque base de données conférant ainsi
aux GAFA et leurs équivalents chinois (BATX) un pouvoir énorme.

205

046092.indd 205 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

La concomitance de ces trois grandes ruptures va avoir un effet dynamique


en permettant à l’intelligence artificielle de réaliser des tâches plus complexes
facilitant ainsi d’énormes prouesses au niveau technologique.

II. Un champ d’applications infini

A. Du journaliste virtuel à la voiture autonome

Il n’est pas un seul jour sans que la presse se fasse l’écho des prouesses techno-
logiques réalisées grâce aux avancées de l’intelligence artificielle. Il y a quelques
mois, c’est la chaîne de télévision chinoise « Xinhua New Agency » qui a fait sensation
en dévoilant à ses téléspectateurs et au monde entier un présentateur de journaux
télévisés issu de l’intelligence artificielle. Tous les attributs de ce présentateur virtuel
c’est-à-dire l’apparence, la voix, les expressions faciales au niveau des lèvres et
des sourcils ont été créés à partir des caractéristiques humaines. La ressemblance
avec un être humain s’avère si forte que les téléspectateurs non informés de la
situation peuvent être conduits à croire qu’ils sont face à un vrai présentateur. Ce
journaliste hybride est capable de réagir de manière autonome à des vidéos en
ligne et de lire tous les textes possibles de la manière la plus naturelle qui soit.
Utilisable Vingt-quatre heures sur vingt-quatre, il est considéré comme membre à
part entière de l’équipe de reporters et permet par conséquent à la chaîne chinoise
de réduire sa masse salariale.
Pour le grand public ce sont les assistants vocaux qui constituent la forme de
l’intelligence artificielle la plus connue. Ils font partie du quotidien des utilisateurs
de smartphones et sont de plus en plus présents dans les domiciles de particuliers.
C’est Apple qui, en 2011, en intégrant « Siri » dans l’IPhone devient alors pionnier
en matière d’IPA (Intelligent Personal Assistant). Associant reconnaissance vocale et
intelligence artificielle, cette application permet à l’utilisateur d’un iPhone de réaliser
des recherches web sous forme conversationnelle. Depuis d’autres applications
de marques concurrentes, désireuses de tirer profit de ce marché en plein essor,
ont vu le jour. Quatre principaux assistants vocaux font figure de leaders sur ce
marché. Outre Siri d’Apple, il y a « Google Assistant », « Cortana » de Microsoft et
« Alexa » d’Amazon. D’autres IPA devraient voir le jour et intensifier la concurrence
sur ce marché. Il s’agit de « Bixby » de Samsung, « M » de Facebook et « Djingo »
d’Orange. Le potentiel de ce marché est présumé très lucratif puisqu’il devrait
générer près de 16 milliards de dollars de revenus en 2021 et atteindre près de
2 milliards d’utilisateurs.

206

046092.indd 206 18/11/2020 09:10


II. Un champ d’applications infini

Figure 1 : Les utilisateurs d’assistant virtuels

#"!"#"-"! !" -  !! #!"  



3111
2911
2942
2711
2511 >ϯϲϵ͕ϰ= 2753
2311
2487
2111
911 2127
711 821
511
615
311 4:1

1
3126 3127 3128 3129 312: 3131 3132

"-"! !" -  !! #!"  

Source : Tractica ; Analysis : Wavestone

Figure 2 : Marché des assistants personnels intelligents

#"!"   !!   


!!  
29
27
26*9
25
23 >ϴϴϳ͕ϱ=
21 23*2

9
9*6
7
5 6*3

3 4
2*7 3
1
3126 3127 3128 3129 312: 3131 3132

   !!   !!  

Source : Tractica ; Analysis : Wavestone

Les domiciles des consommateurs bénéficient aussi de l’intelligence artifi-


cielle via le développement des enceintes intelligentes. Amazon & Co est depuis
sa création en 2014 leader sur ce marché tout aussi prometteur. Il est depuis
concurrencé par Apple avec « HomePod », par Microsoft avec « Invoke » et par
Alibaba avec « Tmall Genie ». Cette innovation consiste à intégrer la technologie

207

046092.indd 207 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

de l’assistant personnel intelligent dans des enceintes connectées au wifi d’un


domicile et pourvues de micros permettant ainsi à un utilisateur de réaliser des
commandes vocales.
Ces enceintes intelligentes font l’objet d’un plébiscite croissant de la part des
utilisateurs dès lors qu’elles s’avèrent moins intrusives. L’engouement croissant pour
la recherche web vocale garantit à ces technologies un avenir plus que prometteur.
En effet, l’utilisation croissante des terminaux mobiles au détriment des ordinateurs
lors des recherches sur internet fait de la voix un mode d’interaction plus efficace.
La voix serait selon de nombreuses études, près de quatre fois plus rapide que
l’écrit. En une minute un individu ne peut écrire que quarante mots alors qu’il est
capable d’en prononcer cent-cinquante. De fait le succès de ces assistants dépendra
indubitablement de leur capacité à reconnaître avec précision les mots prononcés
par les consommateurs. Ce faisant leur adoption ne souffrira d’aucune réticence1.
Au cœur de la mondialisation et de la financiarisation de l’économie, les marchés
financiers sont un des lieux où l’intelligence artificielle s’exprime de manière très
prolifique. L’essor du Trading Haute Fréquence (THF) en constitue l’exemple le
plus emblématique. De nos jours, cette innovation technologique représente plus
de la moitié des échanges sur les marchés financiers.
À partir d’algorithmes puissants, il est possible de passer des milliers d’ordres
d’achat et de vente en quelques secondes. 2.8 milliards de dollars annuels sont
consacrés par le secteur de la finance pour l’acquisition de ces technologies. Le
robot LOXM mis au point par JP Morgan est sans aucun doute celui qui incarne
le mieux actuellement les prouesses de l’intelligence artificielle sur les marchés
financiers. Capable d’effectuer des millions de calculs par nanosecondes, ce robot
se singularise des autres sur le fait qu’il ne se contente pas d’exécuter des ordres
de manière automatique mais d’apprendre en même temps. Loxm s’actualise en
temps réel, en tenant compte des informations et de l’historique des marchés
pour réaliser les meilleurs arbitrages possibles. Il a donc accès aux données et aux
transactions de JP Morgan de manière permanente, ce qui lui permet d’enrichir
le champ de ses décisions.
D’une manière générale, le recours au trading algorithmique a permis de réduire
les coûts de transaction sur les marchés financiers mais aussi à accroître leur insta-
bilité. Une erreur de programmation d’un algorithme ou un bug informatique peut
favoriser de violentes corrections2. Il est aussi fait le reproche à ces algorithmes
de favoriser de certaines pratiques frauduleuses3 dont la manipulation des cours
de la bourse.

1. Des améliorations s’avèrent encore nécessaires pour que cette technologie atteigne la perfection.
Dès lors que les questions se compliquent, leur fonctionnement devient aléatoire.
2. Le 1er août 2012, 148 valeurs américaines ont été injustement dépréciées à la suite d’un
problème technique intervenu chez un opérateur spécialisé en trading haute fréquence.
3. En 2015, l’Autorité des marchés financiers (AMF) a condamné Virtu Financial et Euronext à
8 millions d’euros d’amendes. Le premier s’était vu reprocher par le régulateur d’avoir enfreint
les règles en manipulant les cours de Bourse grâce à la technique du layering. Il a été reproché
au second d’être resté inerte face à ces agissements dommageables.

208

046092.indd 208 18/11/2020 09:10


II. Un champ d’applications infini

La robotisation des marchés financiers apparaît aussi comme un véritable écueil


pour les particuliers. Il leur est impossible de rivaliser en terme de réactivité avec
un algorithme à une information de marché. Le trading algorithmique permet
en effet d’émettre des ordres en un millionième de seconde, alors qu’un simple
battement de cils nécessite 0.35 seconde. La formation du prix des titres sur les
marchés financiers échappe donc aux épargnants consacrant ainsi le règne des
algorithmes et de l’intelligence artificielle.
Le marketing est aussi l’un des domaines d’élections de l’intelligence artifi-
cielle. La prédiction des ventes, la personnalisation des « Chatbots », l’écoute et
l’analyse des bruits sociaux sont autant de possibilités offertes par l’intelligence
artificielle. En effet, grâce à ces avancées de nombreuses variables extérieures
(la météo, les recherches des consommateurs sur internet) peuvent faire l’objet
d’une analyse fine permettant de prédire avec une extrême précision les volumes
de biens susceptibles d’être écoulés. De la même façon, l’intelligence artificielle
permet d’identifier les prospects les plus intéressés susceptibles d’être convertis
en consommateurs.
La méthode dite « look alike » permet en effet de circonscrire l’audience d’une
enseigne ou d’une marque via l’identification d’un groupe de clients potentiels
partageant les mêmes centres d’intérêts, visitant les mêmes sites et intéressé par
les mêmes familles de produits.
L’écoute et l’analyse des bruits sociaux sont aussi une des facultés permises par
ces technologies intégrantes. Savoir ce qui se dit sur soi sur les réseaux sociaux,
identifier ses promoteurs ainsi que ses détracteurs permet à une marque ou à
une enseigne d’agir avec pertinence afin de préserver sa crédibilité. C’est aussi la
possibilité pour elle d’encourager ceux ou celles qui contribuent à sa réputation,
c’est-à-dire « les prescripteurs » de la marque.
Ces quelques exemples non exhaustifs témoignent indéniablement de la montée
en puissance de l’intelligence artificielle. Trois domaines seront toutefois le théâtre
d’innovations disruptives qui auront pour effet de révolutionner nos pratiques et
modes de vie. Il s’agit indiscutablement du domaine des transports avec la création
de la voiture autonome, du secteur de la banque avec la création d’un conseiller
bancaire automatisé puis celui de la santé avec l’implication croissante des robots
dans de multiples tâches dont la détection des maladies.
Projet révolutionnaire, la voiture autonome est porteuse de nombreux avantages.
Outre la suppression des coûts liés à la mobilisation d’un chauffeur, cette technologie
devrait permettre une gestion plus aisée du trafic routier en optimisant la vitesse
de circulation des véhicules. La généralisation de la voiture autonome devrait aussi
renforcer la sécurité sur les routes en réduisant significativement les accidents
routiers. Nombre d’entre eux sont souvent le fait de la fatigue due à la conduite,
de l’endormissement au volant ou des effets néfastes liés à l’alcool. Avec la voiture
autonome, tous ces travers n’auront plus droit de cité. Cette technologie n’est pas
toutefois dénuée de limites. Largement tributaire des programmes informatiques,
le moindre dysfonctionnement en son sein pourrait causer de graves accidents.

209

046092.indd 209 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

La circulation de la voiture autonome est aussi très dépendante des conditions


météorologiques, en cas de pluie abondante ou de neige, certaines pourraient
voir leurs capteurs lasers altérés et nuire ainsi à la circulation.
Des problèmes éthiques pourraient aussi se poser qu’une machine ne peut
trancher. Que ferait par exemple le véhicule s’il avait le choix entre faucher un
groupe d’écoliers et sortir d’un pont au risque de tuer ses passagers1 ?
Concernant le secteur bancaire, le recours aux technologies dérivées de l’intelli-
gence artificielle apportera une valeur ajoutée certaine. Ce secteur repose en effet
sur l’exploitation des données et nombre de tâches y sont déjà numérisées. Avec
l’intelligence artificielle de nombreuses applications pourraient alors se développer.
Chatbots, algorithmes prédictifs, orientation des clients vers des produits adaptés,
gestion de la relation clients, sont autant de possibilités susceptibles de renforcer
l’efficacité de l’activité bancaire.
Les assistants conversationnels ou chatbots sont une des applications de l’intel-
ligence artificielle qui induiront une mutation profonde du travail dans le secteur
bancaire. Ils ont pour vocation de répondre aux questions des clients sur la base de
milliers de conversations analysées et enregistrées. Pour les opérations à distance,
ces agents conversationnels ont un intérêt pratique car ils constituent une interface
davantage disponible et plus rapide pour les clients des banques. Cette technologie
a été rendue possible par les avancées en matière de traitement automatique du
langage naturel. Les chatbots sont néanmoins loin d’être au point. Les pionniers de
cette technologie balbutiante en France sont Orange Bank et le Crédit Mutuel CIC.

B. Problèmes éthiques et conditions d’acceptabilité

Les avancées précédemment décrites ne seront cependant possibles que si


elles bénéficient d’une grande acceptabilité. Les usagers de la route voudront-ils
s’en remettre à une voiture sans conducteur ? Sur ce point différents sondages
semblent exprimer pour l’heure des réticences de la part des automobilistes.
Concernant les clients des banques, l’acceptabilité d’une interface dématérialisée
dépend de la nature des opérations. Lorsqu’elles sont simples, la dématérialisation
bénéficie d’un large plébiscite comme en témoigne la proportion grandissante
des clients qui consultent le solde de leurs comptes sur le site internet de leur
banque ou du succès croissant des banques en ligne. À l’inverse dans le cas
d’opérations complexes, les clients ont une grande préférence pour un conseiller
physique. Autre difficulté, l’existence ou la persistance d’une fracture numérique.
Une proportion non négligeable de la population française n’a pas encore accès à
internet. Aux non connectés s’ajoute une part significative de foyers mal connectés.
Le développement de l’intelligence artificielle via le processus de dématérialisation
dans le secteur bancaire peut ainsi déboucher sur l’accroissement des inégalités
en matière d’accès aux services bancaires.

1. Voir l’encadré 2, page 212, consacré aux dilemmes moraux.

210

046092.indd 210 18/11/2020 09:10


II. Un champ d’applications infini

En ce qui concerne le secteur de la santé, de nombreux outils s’appuyant sur


l’intelligence artificielle existent déjà. Des spécialités médicales comme l’oncologie,
la radiologie, la cardiologie, l’ophtalmologie ont recours aux technologies qui en
sont issues. Ce sont les mêmes principes d’apprentissage qui sont à l’œuvre. Des
algorithmes bénéficiant d’un entraînement à partir de données massives tirées
des résultats en recherches médicales sont ainsi programmés pour identifier des
pathologies. Watson est le logiciel informatique d’IBM qui incarne de manière
emblématique les prouesses de l’intelligence artificielle dans le domaine médical. Il
permet en effet, depuis son introduction en 2005 sur le marché de la santé, d’aider
au diagnostic du cancer et à la proposition thérapeutique. Il y parvient grâce à la
masse d’informations provenant de millions de rapports médicaux, de dossiers de
patients, de tests cliniques et des connaissances découlant de la recherche médicale.
Les avancées dans ce domaine sont si fulgurantes qu’il est fondé d’augurer que
certains logiciels parviendront à brève échéance à diagnostiquer un cancer avec
une meilleure efficacité que celle des spécialistes. De récentes études mettent en
lumière le fait que grâce à l’intelligence artificielle, certaines détections automa-
tisées du cancer s’obtiennent avec des taux de réussite élevés de l’ordre de 92 %.
En médecine générale, des logiciels d’aide au diagnostic sont à disposition des
médecins de longue date. Ils jouent le rôle d’assistants médicaux ; les versions les
plus récentes incorporent les technologies issues de l’intelligence artificielle et ont
de ce fait des capacités et une rapidité améliorées. Leur utilisation s’effectue de
la manière suivante. À partir d’une association de symptômes, ou d’une notion, le
praticien a accès à un champ important d’hypothèses de la maladie à diagnostiquer.
Le recours généralisé à ces nouveaux assistants par les médecins impactera de
manière significative leur profession. Les prises de décision dans les cas les plus
complexes devraient alors se faire en toute assurance. Le niveau de compétence
des médecins devrait aussi s’enrichir du fait de l’actualisation de leurs connaissances.
Concernant le grand public, il a d’ores et déjà la possibilité d’utiliser certaines
applications permettant de proposer des diagnostics à partir de l’analyse de diffé-
rents symptômes. SymptoCheck, Doc For You, ou Ade sont autant d’applications
qui ont vocation de permettre l’échange entre patients et un médecin virtuel. Ces
applications n’ont pas vocation à se substituer aux médecins mais à permettre de
mieux aiguiller les patients vers les services de santé adaptés particulièrement
ceux relevant de l’urgence médicale.
Le développement de l’intelligence artificielle devrait aussi déboucher sur
des avancées en matière de suivi connecté des patients. Transformés en rappor-
teurs de données via les objets connectés, les patients devraient bénéficier d’une
meilleure prise en charge grâce aux algorithmes permettant de prédire les risques
d’exacerbation ou de rechute d’une maladie ainsi que de la personnalisation de
certains traitements.
Autre évolution décisive dans le domaine de la santé, c’est la présence crois-
sante de la robotique en chirurgie. Le robot Da Vinci est celui qui apparaît le plus
révélateur de cette évolution. Issue d’une technologie développée par la NASA,
ce robot a la précieuse faculté de réaliser des interventions chirurgicales particu-

211

046092.indd 211 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

lièrement lourdes mais de manière moins invasive pour les patients. De nouvelles
générations de robots à base d’intelligence artificielle émergent progressivement
avec une tendance de fond, celle de l’autonomisation croissante par rapport au
chirurgien. C’est le cas du robot chirurgien STAR (Smart Tissue Autonomous Robot).
Autonome à hauteur de 60 %, ce robot ne peut pour l’instant se substituer aux
chirurgiens spécialisés mais il met à leur disposition un outil capable d’une plus
grande précision dans la réalisation de certains gestes comme les sutures.
La santé est un domaine très sensible, la question de l’acceptabilité sociale
est tout aussi importante. Nombre de patients restent très attaché au dialogue
patient-professionnel dans la prise en charge globale du parcours de soins. Cet
attachement constitue une limite à la diffusion de l’intelligence artificielle en cas
de virtualisation de la relation médecins- patients. Autre résistance possible, celle
émanant du corps médical à l’égard de ces évolutions. Les professionnels de santé
ne s’y résoudront que si ces outils s’avèrent simultanément capables de réduire le
risque d’erreur, d’accélérer le processus de prise en charge des patients, d’améliorer
les pratiques des médecins et sont simples d’utilisation.

Encadré 2 Les voitures autonomes à l’épreuve de dilemmes moraux

Choisir qui sauver en cas d’accident tel est le dilemme auquel les voitures
autonomes seront confrontées dès leur mise en circulation. Devraient-elles privi-
légier la vie des passagers au détriment de celle des usagers de la route ou plutôt
l’inverse ? Devraient-elles épargner la vie des enfants au détriment de celle des
adultes ? Des femmes enceintes au détriment des hommes. Bref, une multiplicité
d’interrogations de nature éthique précède l’arrivée des voitures intelligentes.
Ces problématiques prégnantes ne sont en réalité pas nouvelles car elles sont
connues depuis 1967 sous le nom de « dilemme du chauffeur de Tramway ».
Expérience de pensée utilisée en éthique, en science cognitive et en neuro-éthique,
le dilemme du Tramway a été décrit pour la première fois par la philosophe
britannique Philippa Foot. Sa finalité est de mettre à l’épreuve nos valeurs morales
et notre côté utilitariste. L’expérience au cœur de ce dilemme est la suivante.
Un tramway hors de contrôle se dirige droit vers cinq personnes entravées car
attachées à un chemin de fer. Un individu à bord de ce tramway peut éviter cette
tragédie en activant simplement un levier. En l’accomplissant, il peut dévier le
tramway de sa trajectoire en l’orientant vers une direction où se trouve néanmoins
une personne entravée dans les mêmes conditions. En agissant ainsi, l’individu
peut épargner cinq vies pour en sacrifier une. Les individus sont invités à prendre
position sur le fait de savoir si oui ou non, ils sont disposés à faire ce choix. Cette
expérience a mis en lumière le caractère utilitariste des choix effectués par
les individus interrogés. Ceux-ci dans une large proportion, c’est-à-dire à 90 %
estiment qu’il vaut mieux sacrifier une vie pour en sauver cinq.
L’ampleur des réponses affirmatives faiblit dès lors qu’on modifie certains
paramètres de la scène. Le tramway reste hors de contrôle et se dirige droit
vers cinq personnes entravées. Un individu frêle est témoin de la scène depuis
une passerelle surplombant le chemin de fer. À ses côtés, il y a un homme

212

046092.indd 212 18/11/2020 09:10


II. Un champ d’applications infini

suffisamment corpulent qui en cas de chute peut stopper le train et éviter la


tragédie. À partir de ces éléments, il est demandé aux individus interrogés s’ils
sont disposés à sacrifier la vie de cette personne obèse en la poussant pour
en sauver cinq, en d’autres termes sont-ils prêts à commettre un meurtre pour
épargner cinq vies ?
L’utilitarisme précédemment évoqué disparaît au profit du principe de réalité.
La plupart des personnes interrogées rejettent l’idée de commettre un meurtre
pour sauver des vies.
Le dilemme du Tramway qui a nourri une littérature abondante illustre, s’il en
est besoin, les choix cruciaux de nature éthique auxquels seront confrontés les
constructeurs de véhicules autonomes. Pour la plupart des spécialistes, ces voitures
intelligentes devront toujours choisir la solution qui minimise les pertes humaines
même si cela doit avoir pour conséquence le sacrifice du ou des passagers du
véhicule. Acceptable au plan moral, cette option semble difficilement envisageable
pour les passagers. Peu d’individus accepteront d’acquérir une voiture qui en
cas d’accident pourrait faire le choix de sacrifier leur vie pour en sauver d’autres.
Pour décider des critères qui prévaudront dans la mise au point des algorithmes
prédictifs destinés à équiper les voitures autonomes, des chercheurs du MIT ont
développé un jeu mettant en scène une dizaine de situations permettant aux
participants de répondre aux interrogations suivantes : faut-il sacrifier un passant
parce qu’il traverse au rouge ? parce qu’il a de l’embonpoint ? un adulte au profit
d’un enfant ? et tant d’autres interrogations de nature éthique.
Les résultats de cette enquête menée à l’échelle mondiale, publiés dans la revue
scientifique Nature ont permis de mettre en avant les éléments suivants. Les
4 millions de personnes interrogées préfèrent sauver : les humains plutôt que
les animaux, le plus grand nombre de vies possible quitte à sacrifier la vie du
passager, les jeunes par rapport aux aînés, un chien au détriment d’un homme
ne respectant pas le Code de la route, les femmes cadres au détriment des
hommes du même statut…
Des préférences qui toutefois varient d’un pays à un autre, d’une culture à une
autre. Dans les pays asiatiques par exemple, sauver des jeunes au détriment des
seniors est un choix moins tranché.
Une expérience menée par l’Université catholique de Lille nuance toutefois
les conclusions précédentes1. Elle montre en effet que les jugements éthiques
sont largement influencés par le contexte dans lequel les décisions sont prises.
Les individus interrogés décident différemment selon qu’ils sont passagers ou
législateurs. Alors que le législateur privilégie la vie des usagers au détriment de
celle de l’occupant de la voiture, ce dernier renonce systématiquement à toute
forme d’altruisme pour préserver sa vie.
Pour résoudre ces dilemmes moraux, l’Université de Boulogne propose d’installer
dans les voitures autonomes un levier éthique disposant de deux options : d’un
côté le mode totalement altruiste et de l’autre, le mode égoïste. Cette fonction
permettrait au propriétaire de signifier à la voiture la valeur qu’il accorde à
la vie d’autrui, il deviendrait ainsi maître de l’algorithme avec les implications

1. Une expérience menée dans le cadre du colloque « Prospective et éthique aux frontières de
l’inconnu » organisé les 13 et 14 mars 2017.

213

046092.indd 213 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

pénales que cela engendre. Un choix altruiste signifierait dans ces conditions
que le passager est disposé à sacrifier sa vie au profit de celle d’autres usagers
de la route.
Quelles règles éthiques devraient contenir de tels algorithmes destinés à décider
du sort de nos vies ? Qui décidera du contenu ? Les fabricants ou les program-
mateurs ? Les propriétaires donneront-ils leur accord quant à la programmation
algorithmique de leur véhicule ? Les règles éthiques adoptées seront-elles
l’expression d’un consensus social ? Autant d’interrogations en suspens dont la
clarification relève de l’urgence.
L’Allemagne semble bien engagée dans la réflexion concernant l’éthique de la
voiture autonome. Une commission a rendu un rapport en 2017 recommandant le
primat de la vie humaine par rapport à celle des animaux. Toutefois elle proscrit
toute distinction liée aux caractéristiques de la personne comme l’âge, le sexe
ou l’état sanitaire.
En France, le Conseil d’État dans un arrêt rendu en 2014 a préconisé un meilleur
encadrement de l’utilisation d’algorithmes prédictifs à l’égard des individus en
insistant sur le principe de non-discrimination, la nécessité de la transparence
des algorithmes et le contrôle de leurs résultats.
Au-delà de ces questions éthiques, se posent aussi celles relatives à la protection
des données générées par ces voitures intelligentes. Elles collecteront en effet
non seulement les données relatives à l’environnement immédiat permettant
de fluidifier la circulation mais aussi celles concernant les trajets effectués par
les utilisateurs, les lieux fréquentés par ceux-ci, les différents passagers et leurs
habitudes. Des données strictement personnelles dont la protection s’avère
essentielle pour éviter des situations d’atteinte à la vie privée. Certains utilisa-
teurs redoutent que ces données ne facilitent la mise en place d’une surveillance
généralisée de la part des institutions publiques et qu’elles offrent aux entreprises
des moyens supplémentaires pour mener des politiques marketing agressives
en direction des consommateurs. D’autres craignent enfin que ces données
ne soient détournées à des fins malveillantes dont les risques de cyberattaque
pouvant déboucher sur des drames humains.
Les voitures autonomes sont appelées à réduire les risques d’accident, à rendre
plus agréable les déplacements des usagers mais elles n’en suscitent pas moins
des interrogations cruciales dont l’élucidation nécessitera inévitablement l’impli-
cation des usagers. ©

III. L’intelligence artificielle vecteur d’une croissance infinie ?

Source de bouleversements indénombrables, le développement de l’intelli-


gence artificielle est aussi considéré comme un formidable levier de croissance
économique. Les perspectives de croissance semblent en effet sans comparaison
avec les précédentes révolutions industrielles1 car elles annoncent ni plus ni moins
qu’un décuplement de la progression des richesses à l’horizon 2030.

1. Voir l’encadré 3, page 215, consacré aux statistiques sur l’intelligence artificielle.

214

046092.indd 214 18/11/2020 09:10


III. L’intelligence artificielle vecteur d’une croissance infinie

A. Choc d’offre et choc de demande positifs au cœur


du processus vertueux

C’est le rapport Mc Kinsey Global Institute qui en la matière fait figure de


référence1. Publié en septembre 2018, il gratifie l’intelligence artificielle d’un grand
potentiel en matière de création de richesse au niveau mondial. Celle-ci pourrait
en effet augmenter de 16 % pour atteindre 13 000 milliards de dollars d’ici 2030,
soit une progression annuelle moyenne de 1.2 % par an. Cela représenterait plus
que le PIB cumulé actuel de la Chine et de l’Inde.
Les effets d’entraînement de l’intelligence artificielle devraient se manifester via
différents mécanismes au cœur de l’activité productive. Chocs d’offre positifs et
chocs de demande positifs devraient se conjuguer pour nourrir ce cercle vertueux de
croissance. Tout d’abord au niveau de l’offre productive, l’adoption de l’intelligence
artificielle par les entreprises devrait se traduire par d’importants gains de produc-
tivité. L’automatisation et la robotisation des tâches routinières devraient en effet
permettre une augmentation des compétences des salariés et leur redéploiement
à des postes créant davantage de valeur ajoutée. Cette mutation devrait avoir pour
effet d’améliorer la capacité d’innovation des salariés et contribuer à dynamiser
le processus de croissance.
L’effet choc de demande positif de l’intelligence artificielle devrait se traduire
par la création de produits et services intelligents c’est-à-dire personnalisés donc
plus attractifs pour les consommateurs. Un cercle vertueux de consommation
devrait ainsi en résulter contribuant significativement à la croissance de l’économie
mondiale. Du fait de l’amélioration des produits, de l’évolution positive de la
demande, 58 % de la croissance du PIB mondial devrait provenir de la dynamique
de consommation des ménages.

Encadré 3 L’intelligence artificielle en chiffres.

La croissance de la productivité du travail par an fruit :


Des machines à vapeur dans les années 1800 0.3 %
Des robots dans les années 1900 0.4 %
De l’informatique dans les années 2000 0.6 %
De l’intelligence artificielle d’ici 2030 1.2 %

1. Ce qui suit s’inspire largement du rapport « Modeling the impact of IA on the world » publié
par le cabinet américain. Ces résultats sont le produit de simulations économétriques menées
par ce groupe d’études à partir de l’extrapolation de l’intégration de l’intelligence artificielle
par les entreprises et de ses conséquences. Cinq technologies génériques sont prises en
compte : vision par ordinateur, langage naturel, assistant virtuels, automatisation des process.
D’autres études débouchent sur les mêmes conclusions optimistes notamment celle du cabinet
Accenture. Elles tablent sur une hausse de la productivité de la main-d’œuvre redevable à
l’intelligence artificielle de l’ordre de 40 % ; le Forum économique mondial projette une
création de richesse liée à l’intelligence artificielle de 3.5 milliards de dollars d’ici 2025.

215

046092.indd 215 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Les principaux contributeurs


L’automatisation du travail :
11 % ou 9 000 milliards de dollars de PIB mondial d’ici 2030.
L’innovation dans les produits et les services :
7 % ou 6 000 milliards de dollars d’ici 2030. ©

Trois secteurs d’activité seront les fers de lance de ce regain de croissance : la


santé, l’automobile et la finance. L’application des technologies liées à l’intelligence
artificielle permettra en effet de stimuler le niveau de productivité, la valeur des
produits et la consommation afférente. Au niveau de la santé par exemple, grâce à
l’intelligence artificielle, les diagnostics seront plus précis et délivrés rapidement, les
prescriptions plus personnalisées et cela ouvrira la voie à des évolutions majeures
comme les implants intelligents. De nombreux patients bénéficieront d’une amélio-
ration de leur santé et d’une qualité de vie meilleure.
Concernant le secteur automobile, l’arrivée de la voiture autonome permettra
aux consommateurs de gagner du temps, ce temps libéré sera utilement utilisé et
pourra être un vecteur de consommation additionnelle de la part des ménages.
Pour avoir parfaitement anticipé mieux que d’autres pays concurrents les effets
bénéfiques de l’intelligence artificielle, les États-Unis et la Chine en seront les grands
récipiendaires. Le gain de PIB estimé à l’horizon 2030 pour ces deux pays leaders
est respectivement de 26 % et de 14.5 % soit au total 10 700 milliards de dollars,
le tout représentant 70 % des retombées économiques à l’échelle de la planète.
C’est en Amérique du Nord que les gains de productivité croîtront plus
rapidement du fait d’une plus grande maturité des technologies d’intelligence
artificielle. La mise en œuvre d’assistants digitaux, de robots conversationnels et
l’automatisation d’un nombre croissant d’emplois renforceront plus rapidement
le niveau de productivité américain et déboucheront sur un processus de crois-
sance accéléré. Cette avance prise par les États-Unis au détriment de l’Empire
du milieu devrait toutefois se réduire progressivement au fur et à mesure que ce
dernier comblera son retard en terme de déploiement technologique et d’expertise.
À l’horizon 2030, la chine devrait capter à elle seule 45 % du PIB mondial dû à
l’intelligence artificielle.

Encadré 4 L’intelligence artificielle, nouveau champ de bataille


sino-américaine

Selon de nombreuses projections, c’est dès 2025 que la Chine devrait affirmer
son leadership mondial dans les domaines et usages de l’intelligence artificielle.
Ses principaux atouts pour parvenir à cet objectif sont les données, des milliers
d’entrepreneurs, des ingénieurs dotés de compétences distinctives et le soutien
très actif du pouvoir politique.
Les données sont à la Chine ce que le pétrole est à l’Arabie Saoudite. L’Empire
du Milieu dispose à elle seule plus de données que les États-Unis et l’Europe
réunis. C’est une ressource d’une valeur inestimable en matière d’intelligence

216

046092.indd 216 18/11/2020 09:10


III. L’intelligence artificielle vecteur d’une croissance infinie

artificielle car c’est d’elle que dépend l’efficacité des méthodes d’apprentissage
automatique ou profond. En effet plus la base de données est importante, plus les
machines apprennent, se perfectionnent et améliorent leur pouvoir de prédiction
ou d’identification.
Second atout, la Chine dispose de géants numériques capables de rivaliser avec
les GAFAM (Google, Amazon, Facebook, Microsoft) américains. Ce sont les BATX
(Baidu, Alibaba, Tencent, Xiaomi) dont l’investissement en matière d’intelligence
artificielle ne cesse de croître. À cette considérable force de frappe s’ajoute une
armée d’entrepreneurs à l’esprit qualifié par certains de gladiateurs, généralement
prête à tout pour parvenir à leurs fins.
Troisième atout, un nombre considérable d’ingénieurs en croissance exponentielle
dont certains sortent des universités chinoises. Ceux-ci renforcent la qualité de
la recherche chinoise.
Il y a enfin un soutien sans faille de l’État chinois. Celui-ci a mis en place à partir
de 2017, un plan de développement de la prochaine génération d’intelligence
artificielle. Les moyens alloués à ce plan sont au diapason des ambitions affichées :
22 milliards de dollars par an pour un budget qui devrait atteindre progressi-
vement 59 milliards en 2025. Ce plan ambitionne de faire de la Chine à l’horizon
2030, le premier centre d’innovation au monde en, intelligence artificielle avec
une industrie dédiée à ces technologies d’une valeur de 150 milliards de dollars.
Cet ambitieux programme de l’Empire du Milieu se heurte néanmoins à deux
écueils. Il y a d’abord la dépendance technologique à l’égard des États-Unis en
matière de processeurs ultraperformants dont l’intelligence artificielle dépend
étroitement. La Chine tente d’y remédier en rachetant des entreprises américaines
ou européennes. D’autre part, malgré le nombre croissant des ingénieurs sortis
des universités chinoises, l’Empire du Milieu se doit d’attirer des talents afin de
renforcer sa compétitivité dans ce domaine. Pour s’offrir les compétences de
leurs ressortissants expatriés dans la Silicon Valley, des entreprises chinoises
proposent des niveaux de rémunération équivalents
Néanmoins, ce qui dans les années à venir sera source de différence, ce ne sont
pas les technologies afférentes à l’intelligence artificielle mais plutôt l’usage
généralisé de celles-ci dans différents domaines ou métiers. Or sur ce point la
Chine avec ses milliards de consommateurs disposera d’indéniables avantages
concurrentiels.
Une fois le marché intérieur conquis, les entreprises chinoises s’attaqueront
ensuite au marché mondial. L’intelligence artificielle apparaît en définitive comme
une des clés de voûte de la conquête du monde par l’Empire du Milieu. Un
exemple qui en dit long sur l’offensive chinoise. Son opérateur Alipay comptant
près de 700 millions de clients a récemment signé pour 200 millions de dollars
un accord avec l’UEFA pour qu’il devienne son partenaire financier. Une initiative
qui le positionne avantageusement par rapport aux banques occidentales qui
ne peuvent se prévaloir d’une clientèle aussi importante.
Forte en définitive de ses nombreux atouts, la Chine occupera le devant de la
scène en matière d‘intelligence artificielle à très brève échéance, reléguant ainsi
au second rang les États-Unis puis en arrière-plan l’Europe et le Reste du Monde.

217

046092.indd 217 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

« Celui qui deviendra le leader dans le domaine de l’intelligence artificielle


sera le maître du monde » avait prédit Vladimir Poutine en 2017. Redoutant la
perspective de voir la Chine dominer les relations internationales, le président
Trump a engagé un plan stratégique visant à assurer la suprématie américaine
dans ce domaine.
Les États-Unis peuvent dans le cadre de cette rivalité exacerbée compter, d’abord,
sur la puissance et la richesse des GAFAM qui depuis le début de la décennie
2000 ont engagé une politique d’accumulation massive de données, de matériel
de pointe et de capacité de recherche notamment en bénéficiant des meilleures
compétences et spécialistes du monde. Pour y parvenir, des budgets colossaux
sont mobilisés et affectés à la recherche et à l’innovation, 16 milliards de dollars
pour Amazon en 2017 par exemple. Des milliers de start-ups spécialisées dans
ce domaine fleurissent dans la Silicon Valley (entre 12 000 et 15 000) et le pays
demeure la première destination des investissements consacrés à l’intelligence
artificielle. Des atouts somme toute considérables mais qui ne garantissent en
rien la pérennité de l’hégémonie américaine, vouée à perdre du terrain avec
l’offensive tous azimuts de la Chine d’où l’urgence d’un plan visant à maintenir le
leadership américain. Celui-ci s’appuie sur cinq mesures phares. Il s’agit respec-
tivement de réallouer les fonds, de créer des ressources, d’établir des normes,
de former les salariés américains et de s’engager sur le plan international. Jugée
par certains spécialistes comme tardive et inadaptée, cette réaction défensive
des États-Unis suffira-t-elle pour conjurer l’inéluctable ? Rien n’est moins sûr.

Que peuvent faire la France et l’Europe face à ce risque de décrochage aux


conséquences incalculables ?
Le gouvernement français s’est engagé à investir 1.5 milliards d’euros dans ce
domaine jusqu’en 2022. Des sommes nettement inférieures à celles engagées
par les principaux leaders. Néanmoins, Il entend s’appuyer sur le rapport Villani1
pour impulser son plan de rattrapage. Présenté en mars 2018, ce plan préconise
une série de recommandations permettant de maintenir la compétitivité de
l’Hexagone dans ce domaine2. Il s’agit sans souci d’exhaustivité, d’encourager
les entreprises à mutualiser et à partager leurs données, de centrer les efforts
en matière d’intelligence artificielle sur quatre secteurs stratégiques (santé,
transport, défense et sécurité), d’investir dans des super ordinateurs, de créer
des instituts interdisciplinaires, d’accroître le nombre de personnes formées en
intelligence artificielle…
Grâce à sa forte tradition et à sa réputation incontestée en recherche mathéma-
tique et en informatique, la France dispose d’atouts lui permettant d’attirer les
meilleures compétences pour ainsi être à la pointe de la recherche en intelligence
artificielle. Plusieurs géants internationaux dans le domaine du numérique ont
annoncé l’implantation de leurs centres de recherche en France à l’instar de
Samsung, Figitsu, IBM ou DeepMind (Google). Malgré des faiblesses marquées

1. Cédric Villani est mathématicien et lauréat de la médaille Fields. Il occupe présentement une
fonction élective, celle de député affilié à la République en marche.
2. Pour une présentation du bilan de ce plan un an après, voir l’annexe de ce chapitre, page 246.

218

046092.indd 218 18/11/2020 09:10


III. L’intelligence artificielle vecteur d’une croissance infinie

en matière de données et un niveau relativement insuffisant de l’investissement


privé en la matière, ce plan est de nature à empêcher la France d’être spectatrice
et simple consommatrice des innovations provenant du duo sino-américain.
Pour rivaliser avec le duopole américano-chinois, l’Union européenne entend agir
de concert avec les pays membres pour faire d’elle un acteur de premier plan
en matière d’intelligence artificielle. Plusieurs actions multidimensionnelles sont
envisagées. Il s’agit de créer des espaces de données, d’accroître les investisse-
ments, de rendre les données disponibles, de favoriser les talents, les compé-
tences et l’apprentissage tout au long de la vie, de développer une intelligence
artificielle éthique et digne de confiance. Elle propose également de lancer un
nouveau fonds destiné au soutien des start-ups et des PME spécialisées dans le
domaine de l’intelligence artificielle. Pour ce faire la Commission européenne
souhaite porter le montant de ses investissements publics et privés à hauteur de
20 milliards par an d’ici 2020. Chiffre en augmentation significative au regard des
5 millions investis en 2017. Cette mobilisation de la Commission vise à conjurer les
risques de perte des opportunités offertes par l’intelligence artificielle, de limiter
la fuite des cerveaux vers les pays leaders au profit notamment des États-Unis
et d’éviter une situation de dépendance à l’égard du duo sino-américain. Ce
plan suffira-t-il à combler le retard pris par l’Europe dans ce domaine ? Son
désavantage concurrentiel par rapport aux États-Unis et la chine apparaît patent
tant en matière de données qu’en matière de ressources financières. Ces leaders
du numérique ont constitué des trésors de guerre via les GAFAM et les BATX
difficiles à rivaliser. La décennie à venir sera donc déterminante car elle mettra
en lumière la capacité de l’Union européenne à relever le défi qu’elle s’est fixée
pour pouvoir affirmer son indépendance en matière d’intelligence artificielle
vis-à-vis du duopole sino-américain. ©

L’Europe et certains pays d’Asie économiquement avancés devraient en tirer


aussi les dividendes. Ils devraient être respectivement de 9.9 % du PIB de l’Europe
du Nord, 11.5 % de celui de l’Europe du Sud et 10.4 % du PIB des pays d’Asie
développés en 2030.

B. Des bénéfices inégaux selon les pays

D’une manière générale, les pays développés capteront l’essentiel de cette manne
du fait d’un taux d’adoption plus élevé des technologies issues de l’intelligence
artificielle par rapport aux pays en développement. Les effets bénéfiques y seront
en effet plus marginaux en raison d’un niveau d’investissement en la matière peu
soutenu voire inexistant. Sans sursaut dans ce domaine, l’écart devrait se creuser
davantage entre pays pionniers ou leaders et pays retardataires.
Source d’écarts de croissance et de prospérité entre pays, l’intelligence artifi-
cielle devrait aussi impacter inégalement les entreprises ainsi que les salariés.

219

046092.indd 219 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Les entreprises bénéficiant d’une maîtrise de l’intelligence artificielle c’est-à-dire


pionnière dans ce domaine bénéficieront d’une croissance annuelle de 6 % d’ici
2030. À l’inverse celles qui ne feront pas le pari de ces nouvelles technologies
c’est-à-dire les retardataires verront leur situation se dégrader. Leur croissance
annuelle sera négativement impactée avec à terme un décrochage inéluctable.
L’intelligence artificielle fera aussi des heureux élus au niveau des salariés.
Ceux dotés de capacités digitales et effectuant des tâches non répétitives verront
leurs revenus augmenter considérablement tandis que les salariés confrontés à
des tâches répétitives appelées à être automatisées seront les grandes victimes
de cette mutation.

IV. Des technologies sources de multiples craintes

Une évidence s’impose, l’intelligence artificielle suscite des appréhensions


de nature diverse. Il y a d’abord la crainte de voir le processus de robotisation et
d’automatisation de certaines tâches déboucher sur le développement du chômage
de masse. En second lieu, le recours croissant à certaines technologies dont la
reconnaissance faciale ne conduise à l’avènement d’une société de surveillance
généralisée de type « Big brother » décrite au début des années 50 par George
Orwell1. Il y a enfin le risque de détournement de ces technologies à des fins
malveillantes notamment terroristes. Toutes ces craintes fondées sur l’idée que
l’intelligence artificielle peut échapper aux hommes et les desservir prennent racine
dans l’appréhension qu’à toujours suscité depuis la nuit des temps tout progrès
technologique. Elles placent néanmoins plus que jamais la problématique de
l’éthique au cœur de cette révolution.

A. Quelles conséquences sur l’emploi ?

Il est indéniable qu’en permettant aux machines de reproduire ou d’exécuter des


tâches jusqu’alors confiées aux humains, l’intelligence artificielle engendrera des
suppressions d’emplois dans de nombreux secteurs. Selon une étude du cabinet
Mc Kinsey, 60 % des métiers pourraient être concernés par l’automatisation d’ici
2030. Cinq métiers sont de manière récurrente cités par diverses études comme
ceux dont les emplois pourraient être impactés négativement du fait de l’adoption
de ces technologies2. Les manutentionnaires, les secrétaires de bureautique et de

1. De son vrai nom Eric Arthur Blair, cet écrivain, essayiste et journaliste britannique a marqué la
première partie du XXe siècle grâce à une œuvre littéraire prolifique. 1984 (Nineteen Eighty-Four),
La ferme aux animaux (Animal Farm), Dans la dèche à Paris et à Londres (Down and out in
Paris and London) sont quelques-unes de ses publications passées à la postérité.
2. Les évolutions des effectifs qui sont décrites dans ce passage concernent pour l’essentiel la
France.

220

046092.indd 220 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

direction, les employés de comptabilité, de banque et des assurances, les caissières


et les employés de libre-service sont les actifs qui ont le plus à craindre de cette
mutation technologique1.
Aux avants postes de la révolution numérique, l’activité bancaire est celle dont
les effectifs n’ont cessé de décroître depuis 30 ans. Avec le développement de
l’intelligence artificielle, la baisse des effectifs devrait s’accélérer, laissant ainsi
craindre la disparition progressive d’un métier qui au milieu des années 80 repré-
sentait 2 % de la population active française.
Le métier de comptable est aussi sur la sellette. L’adoption de logiciels intel-
ligents capables d’effectuer des tâches comptables sans intervention humaine va
déboucher sur des suppressions d’emplois obérant ainsi les perspectives d’avenir
de ce métier. Même sombre avenir pour les secrétaires bureautiques et de direction.
Avec l’apparition des assistants numériques personnels, les dirigeants et cadres
d’entreprises pourront à l’avenir réaliser eux-mêmes bon nombre d’actes adminis-
tratifs. Une évolution qui devrait compromettre l’avenir de ce métier déjà victime
de la diffusion et de la massification des technologies bureautiques accessibles à
tous. Ces dernières ont en effet favorisé une baisse sévère des effectifs de l’ordre
de 26 % depuis le milieu des années 80. De 765 000 en 1986, les secrétaires de
direction représentent aujourd’hui 560 000 actifs. Ce métier est aussi victime d’une
pratique contemporaine des entreprises concernant le recours à la plateformisation.
Cela consiste à externaliser les activités de bureautique vers des prestataires de
services.
Les caissiers et les employés de libre-service sont ceux qui semblent voués à
une disparition certaine. L’adoption de caisses automatiques par les supermarchés a
progressivement fait baisser les effectifs. Le choix récemment effectué par Amazon
apparaît de très mauvais présage pour ce métier. Le géant du commerce en ligne a
en effet ouvert à Seattle une supérette intelligente dont la singularité est qu’elle est
totalement dépourvue de caissiers. Pour les usagers, faire des emplettes ne rime
plus avec attente lors du passage à la caisse. Amazon ambitionne d’ouvrir plusieurs
magasins de ce type. Cette innovation qui va certainement faire de nombreux émules
risque de signer la fin progressive de ce métier. L’hypermarché Géant Casino a
récemment créé la polémique en décidant d’ouvrir le dimanche sans caissiers son
magasin situé à Angers. Une expérience très décriée tant par le personnel que les
syndicats en raison du risque de déshumanisation et de suppression des emplois.
L’expérience d’Amazon Go a toutefois mis en lumière le fait que l’automatisation
de sa chaîne de distribution a eu pour effet de créer de nouvelles fonctions et de
nouveaux métiers. Il en est ainsi de la fonction de clarificateur et celle de gardien.

1. Les effets inégaux de l’intelligence artificielle sur les métiers s’apparentent à ce que les
économistes qualifient de progrès technique biaisé. Ce phénomène amplifie en général les
inégalités entre d’un côté les travailleurs qualifiés et de l’autre les moins qualifiés. Les premiers
voient leur situation sur le marché du travail s’améliorer du fait de la hausse de la demande
de travail qualifiée. Les autres subissent une dégradation de leur situation marquée par la
précarité.

221

046092.indd 221 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Le premier a pour fonction d’expliquer aux décideurs, en interne, l’action d’un


dispositif d’IA, le second a pour rôle d’éviter au dispositif d’intelligence artificielle
de faire des erreurs au détriment des clients par exemple.
Les métiers relatifs à la manutention sont inexorablement voués au même destin.
Comptant 811 000 actifs au début des années 80, ses effectifs ont fondu de plus
de 17 % pour atteindre aujourd’hui 675 000 actifs. L’introduction de technologies
permettant de déplacer de lourdes charges à l’instar de robots manutention-
naires utilisés dans les entrepôts des géants du e-commerce devrait accélérer la
décrue des effectifs et signer la fin de ce métier figurant parmi les plus pénibles.
Une tendance récemment confirmée par le géant du e-commerce chinois Baidu.
Celui-ci emploie dans ses entrepôts 60 robots capables de porter 5 000 kilos de
marchandises chacun. Grâce à ces robots fonctionnant en continu, sa productivité
a bénéficié d’une progression spectaculaire de 300 %.
L’apparition du véhicule autonome ne sera pas sans conséquences sur le métier
de conducteurs de véhicules. En effet, les véhicules intelligents ne nécessitant
aucune intervention humaine pourront permettre aux individus de se déplacer
très facilement et rapidement sans avoir à payer un conducteur humain. Par souci
d’économie de la masse salariale, le secteur du transport de marchandises et de
personnes sera tenté d’adopter ce type de véhicules. Il en sera certainement de
même pour les usagers qui pour des raisons de coûts opteront pour le véhicule
sans chauffeur.
En réalité, cette menace sur l’emploi devrait progressivement peser sur de
nombreux métiers considérés pour l’instant à l’abri de cette mutation technolo-
gique. L’exemple suivant en fournit la parfaite illustration. Il s’agit en l’occurrence
du robot Ross embauché par le cabinet d’avocats américain BakerHostetler. Ce
robot est singulièrement doté de capacités dépassant l’entendement. Il possède
en effet une mémoire sans limite constituée d’une base de données comprenant
l’ensemble des codes, constitution et lois. Elle est instantanément mise à jour,
ce qui permet au robot Ross de prendre en compte les dernières évolutions de
la loi. Spécialisé dans le domaine des faillites d’entreprises, ce robot joue le rôle
d’assistant juridique. Il est ainsi chargé de fournir aux avocats des réponses précises
posées en langage courant. Ross a été conçu à partir du superordinateur d’IBM
Watson utilisé dans le domaine médical.
Ces sombres perspectives1 méritent toutefois d’être relativisées car au cœur de
toute innovation technologique, il y a un processus de destruction créatrice. C’est un
économiste autrichien Joseph Aloïs Schumpeter qui, au milieu du XXe siècle, a mis
en lumière cette réalité économique. Selon lui le progrès technique favorise l’appa-

1. Plusieurs études portant sur l’ampleur de destructions d’emplois liées à l’intelligence artificielle
ne débouchent pas sur les mêmes conclusions. L’étude du cabinet Mc Kinsey (2018) estime à
800 millions le nombre d’actifs qui seront victimes d’ici 2030 du processus d’automatisation.
L’Allemagne et les USA seront les pays les plus affectés. À l’inverse le cabinet Roland Berger
limite ce chiffre à 3 millions d’emplois supprimés. Enfin l’étude internationale de « Cap Gimini »
se montre plus optimiste en affirmant que les entreprises qui feront le pari de l’intelligence
artificielle créeront plus d’emplois qu’elles n’en détruiront.

222

046092.indd 222 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

rition de nouvelles innovations de produits et de procédés. Celles-ci engendrent


simultanément l’émergence de nouvelles activités et l’obsolescence d’anciennes
activités devenues moins rentables. Un nouveau monde se substitue en lieu et place
de l’ancien. De nombreux métiers et des qualifications deviennent obsolètes du
fait de l’arrivée de nouvelles technologies mais d’autres voient le jour dans d’autres
secteurs en expansion. Avec l’intelligence artificielle le volet création d’emplois
pourrait être puissant au point de contrebalancer les pertes d’emplois induites.
Certaines études plaident favorablement pour un bilan optimiste.
Selon l’institut Accenture (2018), l’intelligence artificielle aura un impact direct
et indirect sur l’emploi. L’étude menée par cet institut prédit un accroissement
des effectifs de l’ordre de 10 % des entreprises ayant fait le pari de l’intelligence
artificielle d’ici 2022. Plus généralement de nombreux métiers qui n’existent pas
aujourd’hui verront le jour dans les années à venir. Data scientist, data analyst,
data engineer, data steward, data designer, psydesigner, éthicien d’intelligence
artificielle, sont autant de dénominations non exhaustives de métiers appelés à
croître exponentiellement.
Trois métiers prendront une importance toute particulière. Il y a le métier de
psydesigner. Doté de connaissances en psychologie, en Science cognitive et en
design interface, le psydesigner aura pour mission de concevoir le profil de l’intel-
ligence artificielle, sa personnalité et ses principes d’interaction avec l’homme.
En somme il aura pour rôle de donner par exemple aux assistants personnels des
valeurs et des traits de personnalité compatibles avec ceux des hommes.
Le métier d’éthicien aura un rôle cardinal, celui d’être garant de la bonne morale
et de la bonne éthique de l’intelligence artificielle. L’éthicien aura donc en charge
la construction en amont des règles algorithmiques, permettant d’encadrer les
sources d’apprentissage, de maîtriser les capacités et finalités des technologies
dotées d’une autonomie afin qu’elles puissent être compatibles avec les principes
fondamentaux du droit humain.
Il y a enfin le métier de data scientist. Pourvu de compétences en mathématiques,
statistique et en informatique, le data scientist aura pour mission de concevoir
des modèles algorithmiques visant à créer de nouvelles sources de revenus pour
l’entreprise et d’assurer ainsi sa rentabilité.
Une étude de Burning Class Technologies (2018) conforte cette prédiction. Selon
les conclusions de cette étude, l’emploi concernant ces trois métiers connaîtra une
évolution exponentielle qui ne pourra pas être compensée malgré l’afflux d’actifs
tant les besoins iront croissants. Les besoins en chercheurs dans le domaine de
l’intelligence artificielle évolueront aussi crescendo. De l’ordre de 300 000 aujourd’hui,
ils devraient se chiffrer en millions dans les années à venir.
En bouleversant des pans entiers de l’économie, l’intelligence artificielle exigera
de nouvelles compétences individuelles et collectives tirées vers le haut. Une
contrainte s’imposera à tous les actifs victimes de l’intelligence artificielle, se former
tout au long de la vie afin d’améliorer leur niveau d’employabilité.

223

046092.indd 223 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

B. Vers une société de surveillance généralisée ?

Le développement de l’intelligence artificielle rime-t-il avec l’avènement d’une


société liberticide ? Telles sont les craintes exprimées par d’éminentes personnalités
à l’instar d’Elon Musk, de Bill Gates ou de Brad Smith1.
Pour Elon Musk, les prouesses réalisées par l’intelligence artificielle font peser
une menace existentielle sur la race humaine. Bill Gates quant à lui estime que
certaines applications de l’intelligence artificielle sont aussi dangereuses que les
armes nucléaires. Pour Brad Smith enfin certaines technologies dérivées de l’intel-
ligence artificielle soulèvent des questions au cœur des protections fondamentales
des droits de l’homme comme la vie privée et la liberté d’expression.
Au centre de ces prises de position controversées se trouve une technologie
pour le moins révolutionnaire, celle de la reconnaissance faciale2. Perçu par le grand
public comme une simple commodité technologique permettant par exemple
de déverrouiller un smartphone, le système de reconnaissance faciale peut en
réalité déboucher sur une société de surveillance généralisée lorsqu’il est utilisé
à des fins de sécurité et de sûreté. C’est le sombre quotidien auquel des millions
de chinois sont confrontés. Des caméras biométriques installées dans tous les
lieux publics surveillent les faits et gestes de tous les individus. Des piétons trop
pressés, osant traverser la rue au feu rouge, courent le risque de voir leurs identités
affichées sur un écran géant. Pour parvenir à un contrôle social total, la Chine a
ainsi équipé ses rues de 170 millions de caméras vidéo surveillance. Ce chiffre est
toutefois appelé à tripler dans les cinq années à venir. L’État chinois dispose pour
ce faire d’une base biométrique de tous ses citoyens. Il bénéficie par ailleurs du
concours actif de start-ups chinoises aux avants postes de l’intelligence artificielle.
Cette collaboration active facilite la mise en place de ce système de surveillance
généralisé fondamentalement liberticide. La liberté d’aller et de venir ne sera
dans quelques années qu’un très lointain souvenir pour des millions de citoyens
de l’Empire du Milieu.
Il entend en effet mettre en place un système de note sociale permettant de
distinguer les bons citoyens des mauvais. Ce système sera généralisé à partir de
2020. Ce choix des autorités chinoises rappelle à tous les cinéphiles la série dysto-
pique Black Mirror qui imagine le pire de la technologie dans le futur. Fumer dans
le train, mal garer un vélo, traverser la chaussée au feu rouge, oublier de payer
une amende place l’individu dans la catégorie des mauvais citoyens avec comme

1. Elon Musk est le cofondateur et le PDG de Tesla et Space X. Il est aux avants postes de
nombreux projets futuristes dont la construction de voitures autonomes, la création d’un
implant permettant à un être humain de communiquer directement avec des machines ou
des interfaces numériques. Une technologie qui permettrait par exemple à un individu de
contrôler son smartphone ou son ordinateur par la pensée.
Bill Gates est un des pionniers de la micro-informatique. Il est le fondateur de Microsoft.
Brad Smith est l’actuel directeur de Microsoft.
2. Les applications de reconnaissance faciale sont de nos jours légion. Face Net (Google),
Name Tag (Facial Network), Moment (Facebok), sont des exemples d’applications utilisant
des algorithmes de reconnaissance faciale.

224

046092.indd 224 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

sanction l’interdiction durant une période de prendre l’avion ou le train. À l’inverse


le citoyen qui fait l’éloge de l’économie chinoise ou qui possède une belle voiture
se trouve rangé du bon côté. Pour parvenir à ce contrôle social généralisé, les
autorités chinoises s’appuient naturellement sur le système de reconnaissance
faciale mais aussi sur la collecte des données provenant des smartphones, des
réseaux sociaux, des tribunaux, de la police et du fisc.
Ce risque n’est pas, loin s’en faut, spécifique à la Chine. Aux États-Unis le
système de reconnaissance faciale nourrit aussi controverses et débats. C’est le
système dénommé « Rekognition » commercialisé par Amazon depuis 2016 qui se
retrouve sur la sellette. Une association américaine militant pour les libertés civiles
l’a mis en cause en arguant que les polices de certains États utilisaient cet outil pour
identifier les visages de criminels à partir des vidéos de caméra de surveillance
placées dans l’espace public. Pour mettre au jour les risques inhérents à cette
technologie de reconnaissance faciale, cette association a utilisé ce logiciel pour
vérifier si l’un des 533 membres du congrès américain pouvait figurer sur cette
liste de criminels. Le bilan s’est en définitive avéré concluant et édifiant puisque
28 membres de cette auguste assemblée ont eu la désagréable surprise de voir
leurs noms apparaître sur cette liste1. Cette expérience a mis en lumière les biais
et risques pour les libertés individuelles liés à l’utilisation de cette technologie.
Une autre étude faite aux États-Unis par les chercheurs du MIT (Massachusets
University of Technology) a permis de révéler les limites de cette technologie.
Selon cette étude, la reconnaissance faciale déterminerait différemment l’identité
des personnes en fonction de la couleur de leur peau. De nombreuses erreurs ont
en effet été constatées. Lorsque le visage d’un individu est clair, l’ordinateur n’a
aucune difficulté à identifier son sexe. À l’inverse lorsqu’il est en présence d’un
visage foncé, il peine à distinguer un homme d’une femme. Cette étude met donc
en évidence l’absence de neutralité des systèmes automatiques qui généralement
sont le reflet des priorités, des préférences et des préjugés des concepteurs.
Les débats relatifs au caractère liberticide de cette technologie affectent aussi
l’Europe. Ces dispositifs sont en effet testés dans de nombreux pays de L’Union
européenne et suscitent les mêmes appréhensions. En Angleterre par exemple,
des milliers de personnes ont été identifiées par erreur comme de potentiels
délinquants. C’est le cas notamment lors de la finale de la ligue des champions
à Cardiff. Le dispositif utilisé par la police britannique a, selon The Guardian, fait
92 % d’erreurs. Plus de 2 000 personnes ont ainsi été identifiées à tort comme de
potentiels criminels.
Les exemples ainsi énoncés font craindre l’occurrence de dérives mettant en
cause le principe de l’anonymat qui une est des garanties des libertés individuelles.
En France, la reconnaissance faciale a fait son apparition avec la mise en œuvre
par le gouvernement depuis juin 2019 d’une application dénommée ALICEM

1. Ces élus dans leur immense majorité étaient noirs. Ce logiciel a reproduit la même erreur en
confondant les photos d’athlètes afro-américains avec celles d’identité judiciaire des personnes
noires prises par la police.

225

046092.indd 225 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

(Authentification en ligne certifiée sur mobile). En place à l’ANTS (Agence nationale


des Titres sécurisés), ce dispositif a vocation de permettre à chaque individu de
s’identifier en ligne après avoir scanné son visage à partir de son smartphone
(Android). Avec Alicem, la France est ainsi le premier pays européen à adopter la
reconnaissance faciale dans le cadre d’un service public. Il constitue de ce fait les
prémices d’une politique publique en matière d’identité numérique.
L’objectif du gouvernement est de permettre un accès dématérialisé à tous
les services publics en ligne d’ici 2022. Les individus n’auront plus l’obligation de
mémoriser plusieurs identifiants et plusieurs mots de passe, la simple reconnais-
sance faciale suffira pour accéder au site des impôts ou pour faire une demande
d’allocation logement. Des avantages qui toutefois ne font pas le poids face aux
réticences suscitées par cette technologie. Comme aux États-Unis, l’utilisation de la
reconnaissance faciale fait craindre des dérives. La CNIL et différentes associations
de défense des libertés individuelles ont de ce fait exprimé de vives critiques à
l’encontre d’Alicem.
Pour la CNIL, le gendarme numérique, Alicem contrevient au RGPD. La légis-
lation européenne régulant le traitement des données personnelles impose en
effet l’obligation de consentement explicite de la personne dont les données font
l’objet d’un traitement biométrique. Dans le cas d’Alicem, le consentement n’est
pas libre selon la CNIL car tout refus de se soumettre à la reconnaissance faciale
débouche sur la non activation du compte.
La CNIL s’inquiète aussi sur le stockage des données redoutant un risque de
piratage ou d’utilisation de celles-ci à d’autres fins que celles initialement prévues.
Elle plaide en faveur d’un stockage localisé afin de minimiser les risques précé-
demment évoqués.
Pour l’association Quadrature du Net, la reconnaissance faciale transforme le
visage des individus en outil d’identification, elle dénonce de ce fait un traitement
intrusif des données biométriques destiné à empêcher le droit à l’anonymat sur
internet ou dans l’espace public. L’association a ainsi déposé un recours devant le
Conseil d’État pour annuler le décret du 13 mai 2020 autorisant la mise en place
de ce dispositif.
Ces diverses critiques ont conduit le gouvernement à préciser ses intentions
concernant la reconnaissance faciale. Il se veut d’abord rassurant sur le stockage
des données, celles-ci seront en effet uniquement enregistrées sur le téléphone
portable de l’utilisateur donc placées sous son contrôle exclusif. Ensuite Alicem
n’est qu’au stade d’expérimentation, elle n’a pas vocation à contraindre les usagers
à créer un compte pour accéder aux services publics. Ceux ne souhaitant pas se
soumettre à la reconnaissance faciale disposeront toujours de la possibilité de
se connecter via le portail France Connect ou créer un compte sur le site d’un
service public.

226

046092.indd 226 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

Toutefois cette mise en expérimentation d’une technologie très controversée


répond à la volonté du gouvernement de permettre aux industriels français comme
Thales ou Idemia de se positionner internationalement sur un marché porteur de
sorte qu’à terme la France ne puisse pas dépendre de technologies étrangères
conçues sur la base d’une éthique différente.
En Allemagne, les critiques à l’encontre de cette technologie deviennent de plus
en plus vives avec l’annonce du projet gouvernemental d’installer la reconnaissance
faciale automatique dans 134 gares et 14 aéroports afin de contrôler l’identité des
passagers. Comme en France, les opposants redoutent des atteintes aux droits
individuels et les risques d’erreurs inhérents à ces technologies.
Aux États-Unis, la reconnaissance faciale se retrouve de nouveau sur la sellette.
La mort de l’afro-américain George Floyd étouffé par le genou d’un policier blanc
a suscité une forte vague de mobilisation de la part du mouvement « Black Lives
Matter » avec en ligne de mire les géants de la Tech que sont Amazon, IBM
et Microsoft. Accusées de mettre à disposition de la police un outil facteur de
discriminations raciales et d’encourager ce faisant les violences à l’encontre des
minorités ethniques, ces entreprises ont décidé de prendre leur distance à l’égard
de cette technologie controversée. C’est d’abord IBM qui a renoncé à vendre sa
technologie aux forces de police, suivi ensuite par Microsoft puis par Amazon.
Leader reconnu de cette industrie naissante, IBM a pris l’engagement de ne
plus développer et de ne plus y consacrer des investissements en matière de
recherche-développement. Big Blue estime désormais que cette technologie est
porteuse d’un risque, celui de contribuer à la surveillance de masse, au profilage
racial, à la violation des droits de l’homme et des libertés basiques. Une prise
de position pour le moins surprenante pour une entreprise qui faisait figure de
précurseur dans le développement de cette technologie.
Quant à Microsoft, sa décision a un caractère provisoire puisqu’il s’agit d’une
simple suspension de la vente aux forces de police de son système de reconnais-
sance faciale dénommé Face API via Azure. Cette suspension demeurera d’actualité
tant que perdurera l’absence d’une loi fédérale destinée à réguler l’utilisation des
technologies de reconnaissance faciale.
Après avoir essuyé de multiples critiques sur son système de reconnaissance
faciale Rekognition, Amazon a aussi fini par céder à la pression des associations
de lutte contre les inégalités raciales. Sa collaboration technique avec les forces
de police américaines, avec le FBI, avec les agents du département de la sécurité
nationale et avec les services d’immigration a longtemps fait de cette firme la
colonne vertébrale technologique de ces différentes institutions américaines. En
prenant parti pour un moratoire d’un an, la firme de Jeff Bezos entend ainsi encou-
rager le Congrès américain à légiférer en faveur d’une réglementation plus stricte
régissant l’utilisation éthique de la technologie de reconnaissance faciale. Cette
suspension de la vente limitée à une année ne concerne cependant que les forces
de police, elle n’affecte pas les associations ou organisations qui ont vocation à
lutter contre la traite des êtres humains.

227

046092.indd 227 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Ce moratoire est toutefois considéré par les associations des droits individuels
comme insuffisant pour apporter des réponses à toutes les problématiques inhérentes
à cette technologie source de biais raciaux. Rekognition n’est pas le seul outil mis
à disposition de la police par le géant du Cloud. Un autre outil controversé est
l’objet de dénonciation de la part des associations. Il s’agit de la sonnette vidéo
Ring. Installée sur les portes d’entrée d’une maison, elle est censée améliorer
la sécurité de l’habitation et apporter un sentiment de sécurité aux occupants.
Munie d’une caméra, elle détecte et enregistre tous les mouvements alentours
de l’habitation. La police encourage les habitants à lui faire parvenir des extraits
de vidéos d’activités considérées comme suspectes capturées par cette sonnette.
Pour de nombreuses associations, Ring n’est qu’un outil supplémentaire au service
de la surveillance de masse pouvant conduire à des dénonciations calomnieuses
porteuses notamment de lourdes conséquences pour les minorités raciales.
Ces multiples débats et controverses témoignent, s’il en est besoin, des vives
appréhensions suscitées par cette technologie probabiliste à la fiabilité totale non
garantie. Malgré les assurances des autorités, la crainte de voir la vision prophétique
de George Orwell1 se réaliser demeure très prégnante. Une réglementation de ces
nouvelles technologies se révèle urgente afin de garantir les libertés individuelles et
d’éviter les risques de discriminations porteurs de conséquences dommageables.

C. Des technologies susceptibles d’être détournées à des fins


malveillantes ?

Vingt-six spécialistes issus des plus grandes universités américaines et britan-


niques ont tiré la sonnette d’alarme sur de possibles utilisations des technologies
issues de l’intelligence artificielle à des fins de cyber-criminalité, de terrorisme et
de déstabilisation de la démocratie2. Ces experts spécialistes en cybersécurité et
robotique redoutent en effet que l’intelligence artificielle permette des attaques
particulièrement efficaces. Ils s’appuient pour ce faire sur différents scénarios
hypothétiques.
Le premier évoque la possibilité de voir des terroristes modifier des systèmes
d’intelligence artificielle. C’est le cas de drones, de robots ou de la voiture autonome,
des biens libres d’accès, qui modifiés peuvent provoquer des crashs, des collu-
sions ou des explosions. Ces experts évoquent à titre d’illustration le cas d’un
robot nettoyeur trafiqué et glissé subrepticement parmi d’autres robots chargés
de faire le ménage au domicile d’une haute personnalité politique ou dans un
ministère de premier plan. Ce robot modifié est susceptible de passer un jour à

1. 1984 est le titre du roman de science-fiction publié en 1949 par l’écrivain britannique George
Orwell. Pour certains, c’est l’un des plus importants romans d’anticipation. Il y décrit en effet
une Grande Bretagne confrontée à un régime dictatorial stalinien et nazi. Les conséquences
d’un tel régime s’avèrent incalculables ; la liberté d’expression est proscrite et toutes les
pensées sont soumises à une stricte surveillance. Pour éviter tout écart de conduite, des
affiches sont placardées dans les rues rappelant à chacun que « Big Brother » vous regarde.
2. Ces chercheurs sont issus des universités d’Oxford, du MITT, de Stanford…

228

046092.indd 228 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

l’attaque. En effet une fois sa cible clairement identifiée visuellement, il s’appro-


chera d’elle pour la tuer en explosant de manière autonome. Ce scénario digne
pour l’instant d’un film de science-fiction relèvera selon ces experts du domaine
du possible dans un proche avenir. La voiture autonome est aussi source de vives
appréhensions en matière de cyberattaque. Comme n’importe quel ordinateur ou
n’importe quel objet connecté, la voiture autonome peut être l’objet de piratage.
Une situation fortement dommageable pour la vie des passagers et des piétons.
Ces craintes prennent fondement dans le fait qu’en 2015, deux chercheurs améri-
cains en informatique avaient réussi à prendre le contrôle d’une Jeep Cherokee
en contraignant le conducteur à effectuer des manœuvres qu’il ne maîtrisait pas.
Cet incident a permis d’alerter les constructeurs sur le fait que l’autonomie accrue
des voitures autonomes est une des sources de leur vulnérabilité et qu’aucun
système informatique n’est capable de garantir totalement une protection contre
des intentions malveillantes.
Si le risque de cyberattaque dans le but de provoquer des accidents est le plus
redouté, il est néanmoins de l’avis de certains spécialistes le moins probant. Ces
derniers considèrent le vol de données assorti d’une demande de rançon comme
le risque le plus probable de la voiture autonome. Autant de raisons à l’origine
de la défiance des automobilistes à l’égard de cette innovation technologique.
La cybercriminalité devrait aussi y trouver son compte. Des attaques par
hameçonnage ou phising deviendront aussi plus aisées à entreprendre et ce à
plus grande échelle. Il s’agit de techniques d’escroqueries visant à envoyer à des
cibles déterminées un courriel ayant un caractère légitime puisque provenant d’un
proche, d’une entreprise ayant pignon sur rue ou d’une administration. Le but
inavoué de ces messages est d’obtenir de la part des destinataires des informa-
tions concernant leurs données bancaires ou leurs identifiants de connexion à des
services financiers afin de se substituer à eux pour les spolier. Avec l’intelligence
artificielle, ce type de pratiques pourrait prendre de l’ampleur grâce à l’exploitation
des données publiques mises en ligne par les internautes. Cela pourrait aussi
consister à générer automatiquement des sites, des emails, des liens malveillants
sur lesquels les internautes cliqueraient et se trouveraient pris au piège.
L’intelligence artificielle est aussi porteuse d’un risque, celui de déstabilisation des
régimes démocratiques. À partir des algorithmes basés sur le machine learning, il
est en effet possible d’influencer et de manipuler les choix électoraux des personnes
indécises, faussant ainsi le libre arbitre des citoyens, clé de voûte du système
démocratique. Le scandale qui incarne le mieux le risque de dévoiement de l’intelli-
gence artificielle à des fins de manipulations politiques est incontestablement celui
né des pratiques de l’entreprise britannique Cambridge Analytica. Lors de deux
rendez-vous électoraux majeurs, la présidentielle américaine de 2016, et le scrutin
sur le Brexit, cette société spécialisée dans l’analyse des données et le conseil en
communication, a utilisé opportunément les technologies issues de l’intelligence
artificielle pour porter au triomphe le candidat républicain Donald Trump et les
partisans du Brexit. Pour parvenir à ses buts, Cambridge Analytica s’était appropriée
indûment les données de plusieurs internautes, 30 à 90 millions d’utilisateurs de

229

046092.indd 229 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Facebook par le biais d’un quiz dénommé « Thisisyourdigitalife ». Présenté comme


un simple exercice académique, ce quiz comportait de nombreuses questions
politiques et ceux qui faisaient le choix d’y participer voyaient leurs données ainsi
que celles de leurs amis absorbées par cette société.
À partir de cette mine d’informations, Cambridge Analytica a ainsi pu concevoir
une campagne ciblée en direction des électeurs les plus indécis. Elle s’est notamment
appuyée sur une technique dénommée « microtargeting » permettant en effet de
prédire les choix, d’influencer les émotions et les pensées des individus, et par voie
de conséquence de concevoir des messages idoines aux électeurs. De nombreux
analystes considèrent en effet que sans cette implication décisive, les résultats des
scrutins électoraux précédents auraient été autres.
La manipulation de l’opinion et du vote des électeurs devrait aussi être possible
grâce aux algorithmes dénommés GAN (Generative Adversarial Networks). À
l’aide de ceux-ci, il est possible de reproduire la voix et les expressions faciales
d’une personnalité et de lui faire tenir des propos inappropriés. Communément
appelée Deepfakes, cette technique de synthèse d’images facilite ainsi la création
de fausses vidéos réalistes grâce à la superposition d’images et de vidéos existantes
sur d’autres images ou vidéos. Puissant outil de désinformation, cette technologie
constitue selon de nombreux experts une véritable menace démocratique car son
usage peut faire basculer le cours d’une élection du fait de sa propagation virale.
Nancy Pelosi, présidente de la Chambre des représentants du Congrès américain
en a fait l’amère expérience. Une vidéo a en effet été éditée lui faisant tenir des
propos à caractère injurieux. Conscient de ce risque de déstabilisation, le Congrès
américain s’est engagé à enquêter sur le deepfakes.
Le risque de déstabilisation de la démocratie pourrait aussi provenir des robots
politiques spécialement conçus pour répandre de fausses informations sur les réseaux
sociaux. Déguisés en comptes ordinaires, ceux-ci pourraient porter atteinte à la
crédibilité des adversaires politiques en diffusant des informations malveillantes
ou orientées politiquement. L’automatisation de ces pratiques pourrait à l’avenir
troubler le jeu politique et fausser la sincérité des scrutins
Ces multiples interférences font ainsi craindre le risque d’altération de la
capacité des électeurs à se faire une opinion fondée sur de profondes convictions
personnelles. Certains spécialistes préconisent que les États se dotent de garanties
juridiques permettant de se protéger contre ces interférences préjudiciables au
jeu démocratique.

Encadré 5 Algorithme, biais et discriminations

Le développement de l’intelligence artificielle a pour corollaire l’omniprésence


des algorithmes dans notre vie quotidienne. Qu’il s’agisse de la participation aux
réseaux sociaux, de la recherche d’emploi, du choix de notre lieu de vacances, de
l’orientation post-bac des étudiants, des soins de santé, ou de nos obligations
en matière fiscale, tous ces actes qui font le quotidien des individus sont régis
par des algorithmes. Mobilisés dans de nombreux secteurs de la vie économique

230

046092.indd 230 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

et sociale en raison de leur efficacité supposée, leurs résultats n’en suscitent pas
moins controverses et débats. Une accusation est de manière récurrente mise
en exergue pour mettre en lumière leurs limites : les algorithmes seraient des
boîtes noires sources de discriminations liées au genre ou à l’origine ethnique.
Les algorithmes et l’intelligence artificielle n’apparaissent pas en effet neutres ; ils
peuvent être affectés par de nombreux biais aux effets pervers. Ces biais peuvent
avoir diverses origines ; ils peuvent être cognitifs, statistiques ou économiques.
Les biais cognitifs sont le produit des croyances ou de la perception de la réalité
de celui qui conçoit les paramètres de l’algorithme c’est-à-dire le programmeur.
Ils traduisent une distorsion de la manière dont l’information est traitée par
rapport à un comportement rationnel ou à la réalité.
Les travaux polémiques de Kosinski et Wang servent souvent d’exemple pour
illustrer le risque de biais cognitifs. Ces deux chercheurs de Stanford ont, en
2018, suscité une vive réprobation de la communauté scientifique en prétendant
avoir développé une intelligence artificielle capable de détecter l’orientation
sexuelle d’un individu à partir de son seul faciès. Des travaux sans aucun doute
davantage révélateurs de leurs propres perceptions que d’une quelconque réalité.
Les biais statistiques sont liés aux données qui nourrissent l’algorithme c’est-
à-dire celles qui lui permettent de s’entraîner dans le cadre du machine ou du
deep learning. Si ces données sont erronées ou fausses, l’algorithme produira
inéluctablement des résultats inexacts et potentiellement biaisés.
Un autre exemple témoignant de cette réalité. Il s’inspire de la mésaventure
d’Amazon en matière de recrutement. En 2015, le géant du numérique américain
avait pris le parti de recruter de nouveaux talents via un algorithme dont l’entraî-
nement s’était nourri de centaines de milliers de curriculum vitae reçus durant dix
ans. L’expérience a rapidement tourné court car il est vite apparu que l’algorithme
construit à cet effet était simplement misogyne. Il sélectionnait en effet majori-
tairement des hommes au détriment des candidates. Cette discrimination était
somme toute le fruit des données utilisées par l’algorithme dans le cadre de son
entraînement. Celles-ci s’avéraient totalement déséquilibrées entre hommes et
femmes. Les recrutements passés étant essentiellement masculins, l’algorithme
attribuait automatiquement de mauvaises notes aux curriculum vitae des femmes.
Vivement décrié Amazon a dû renoncer à ce mode de recrutement discriminatoire.
Ces dérapages algorithmiques ne peuvent occulter les bienfaits de l’intelligence
artificielle. Ils suggèrent de fait la nécessité de corriger ces biais afin que les
algorithmes ne contreviennent pas au principe d’équité entre les individus. Pour
y parvenir une transparence s’impose concernant le mode de fonctionnement de
ces outils. Comprendre les tenants et les aboutissants des décisions algorithmiques
est un objectif cardinal. Cependant dans bien des cas, examiner un algorithme
revient à en percer les failles d’où les réticences exprimées par les concepteurs
dès lors qu’il s’agit de secret industriel.
Les algorithmes mobilisés par les pouvoirs publics n’échappent pas aux risques
de biais et donc de discriminations. L’exemple le plus emblématique est celui
d’APB (Admission Post-Bac), un algorithme adopté par l’Éducation nationale
à partir de 2009 dans le but de faciliter et de fluidifier l’appariement entre les
vœux formulés par les élèves de terminale et les places disponibles dans l’ensei-
gnement supérieur.

231

046092.indd 231 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Après des débuts relativement concluants, cet algorithme a progressivement


montré ses limites, suscitant en cela de vives critiques dont l’absence de trans-
parence au niveau du traitement des données et du mode de fonctionnement
de l’algorithme. Saisie d’une plainte à l’encontre d’APB, la Commission nationale
informatique et libertés (CNIL) a mis en cause cet algorithme en affirmant « qu’une
décision produisant des effets juridiques à l’égard d’une personne ne peut être
prise sur le seul fondement d’un traitement automatisé de données destiné à
définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité »
et qu’en outre « cet usage ne pouvait exclure toute intervention humaine et
devait s’accompagner d’une information transparente »
Son remplacement à partir de 2018 par Parcoursup a permis de lever les doutes
sur l’opacité des règles d’affectation des bacheliers ; celles-ci sont désormais
fixées par la loi et le code open source est désormais accessible au grand public.
Des progrès indéniables mais qui n’ont pas réussi à faire taire les critiques à
l’encontre de ce nouveau système d’orientation des bacheliers dans l’ensei-
gnement supérieur. Le défenseur des droits Jacques Toubon a ainsi demandé
à la nouvelle procédure de favoriser plus de mobilité et de mixité.
Le débat sur la transparence des algorithmes n’est donc qu’à ses débuts et
devrait prendre de l’ampleur au fur et à mesure que ceux-ci seront au cœur de
la régulation de la vie économique et sociale. Il permet toutefois de mettre en
lumière le fait que les algorithmes ne sont généralement que le reflet des choix
politiques et des choix de société d’où la nécessité d’en débattre démocrati-
quement. ©

D. La nécessité d’un cadre légal ou les indispensables


évolutions juridiques

Le développement de l’intelligence artificielle se fait sans véritable cadre légal


ou réglementaire tant à l’échelle nationale, européenne ou internationale. Ce vide
juridique suscite diverses interrogations. Quelle responsabilité pourrait par exemple
incomber à un système autonome face à un dommage ?
Juridiquement pour être tenu responsable c’est-à-dire répondre des dommages
causés à autrui, il faut être doté d’une personnalité juridique. Seules les personnes
physiques et morales en sont pourvues. Il en résulte donc qu’en cas de dommages
causés à des tiers, un système intelligent ne peut être tenu responsable.
Ces nouvelles technologies créent par ailleurs une asymétrie de responsabilités
entre le fabricant de l’objet ou d’un robot doté d’une intelligence artificielle et
l’éditeur ou développeur de la plateforme. En cas de dommages causés par le
robot la responsabilité du concepteur peut être engagée sans la moindre diffi-
culté mais il n’en est pas de même pour l’éditeur de la plateforme. Cependant, la
responsabilité de celui-ci peut être engagée s’il participe au processus décisionnel.
Un exemple illustre ce cas de figure, c’est la mise en cause de Microsoft en
2017 du fait des agissements d’une de ses applications intelligentes, un agent
conversationnel dénommé « Tay ». Créé pour interagir avec des internautes en
toute autonomie, Tay a au bout de quelques heures d’existence tenu sur Twitter

232

046092.indd 232 18/11/2020 09:10


IV. Des technologies sources de multiples craintes

des propos jugés racistes, antisémites, sexistes, complotistes et révisionnistes.


« Bush a fait le 11 septembre. Hitler aurait fait un meilleur travail que le singe que
nous avons actuellement (allusion à Barack Obama). Donald Trump est le seul
espoir que nous ayons. Je déteste les féministes, elles devraient toutes mourir en
enfer. Je hais les nègres, ils sont stupides, bêtes et pauvres ». Tels sont les propos
pour le moins nauséabonds tenus par Tay, peu après sa mise en ligne au cours de
l’année 2017. Conçu avec l’apparence d’une jeune adolescente naïve, ce robot
conversationnel répondait à des finalités éducatives. Il était capable d’apprendre
de ses interactions avec les internautes. Plus Tay était sollicité, plus ses capacités
d’apprentissage devaient s’améliorer. L’expérience a tourné court du fait de l’action
malveillante de certains internautes. En effet Tay a fait l’objet d’une opération de
détournement organisée par les sympathisants de Donald Trump alors candidat
à la maison blanche. Sous l’action de ces derniers Tay a intériorisé des propos
abjects la transformant en nazie. Pour Jean Paul Delahaye, spécialiste en intelli-
gence artificielle, Tay n’est pas devenue raciste, elle a simplement été confrontée
aux limites inhérentes au système d’agents conversationnels. Ceux-ci ont en effet
des facultés limitées puisqu’elles ne peuvent répondre qu’à des questions précises
et en nombre limité. Dès lors qu’on leur parle d’autre chose ou de politique, ils
se trouvent vite dépassés
À qui alors attribuer la responsabilité de tels propos pouvant juridiquement être
qualifiés pénalement d’injures raciales, d’incitation à la haine et à la discrimination ?
Vivement décriée l’application intelligente a aussitôt été retirée par Microsoft.
Plus généralement, les nouvelles technologies impliquant l’autonomie du robot
dans la prise de décisions rendent obsolètes les règles habituelles de droit en
matière de responsabilité. Face à ces lacunes juridiques, les producteurs de machines
intelligentes et les éditeurs de plateforme d’intelligence artificielle établissent
des contrats permettant de définir les responsabilités des parties contractantes.
Le droit de propriété intellectuelle n’échappe pas aux mêmes interrogations.
À qui revient la propriété d’une création générée par une intelligence artificielle
sans intervention humaine ? En vertu des dispositions de l’article L.112-1 du Code
de la propriété intellectuelle, le droit d’auteur accorde une protection à toutes les
œuvres de l’esprit à condition qu’elles soient marquées du sceau de la créativité
c’est-à-dire qu’elles portent l’empreinte de la personnalité de son créateur.
Les tribunaux ont été confrontés à différents litiges portant sur la protection
des œuvres réalisées par l’homme assisté par l’ordinateur. Ces œuvres portant
l’empreinte de la personnalité de l’auteur sont protégeables par le droit d’auteur
selon les tribunaux1, l’ordinateur étant considéré dans ce cas comme un simple outil
au service de la créativité humaine. Cette décision peut difficilement s’appliquer à
une œuvre générée de façon autonome par une intelligence artificielle.

1. Cour d’Appel de Paris, 3 mai 2006, RG05/03736.

233

046092.indd 233 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Celle-ci bénéficiant d’une capacité d’analyse de l’environnement et d’appren-


tissage peut générer une œuvre sans contribution humaine. Deux œuvres produites
par des intelligences artificielles sont au cœur de cette interrogation. Il s’agit d’une
part du robot peintre « E-David » et d’autre part du robot scénariste « Benjamin »
C’est un groupe de chercheurs de l’Université de Constance en Allemagne
qui a conçu E-David. Son objectif consistait à construire un automate capable
d’insuffler une certaine dimension artistique dans la reproduction d’une image.
Ces chercheurs ont doté E-David d’une fonction appelée « optimisation visuelle »
lui permettant de réfléchir à chaque coup de pinceau. À chaque fois qu’il effectue
une opération sur son dessin, le robot prend une photo et à partir de celle-ci, il
identifie les endroits où sa peinture a besoin d’être plus claire ou plus sombre. Il
procède ainsi jusqu’au terme de son œuvre. Bras robotisé équipé d’un algorithme
de calculs et d’une caméra, E-David est capable de peindre des toiles en s’inspirant
d’un modèle. Le robot a donc la capacité de se détacher de la programmation
humaine pour réaliser des créations picturales qui lui sont propres.
Quant à l’intelligence artificielle Benjamin elle est capable, après avoir analysé
plusieurs dizaines de films et de séries, de réaliser un scénario de films à partir
d’éléments imposés (un titre, une ligne de dialogue, un début d’action). « Sun
spring » c’est le script écrit par Benjamin, une intelligence artificielle créée par un
duo constitué d’un chercheur spécialiste en intelligence artificielle Ross Godwin et
d’un réalisateur nommé Oscar Sharp. Sun spring est un court-métrage de science-
fiction de 8 minutes réalisé dans le cadre d’un festival de films annuels (Sci-fi
London). Ce film a nécessité pour sa réalisation 2 jours seulement. À partir de
quelques bribes de dialogues à incorporer au récit, Benjamin a réussi à construire
une histoire crédible et haletante après avoir digéré les scénarios d’une bonne
dizaine de films ainsi que plusieurs épisodes de la série X-Files. Toutefois Benjamin
a été confronté à une limite, il s’est montré incapable de donner des noms aux
personnages de cette fiction. C’est donc le chercheur qui s’en est chargé.
Ces deux cas illustrent en définitive les limites du droit positif d’auteur. En effet,
le droit de la propriété intellectuelle ne peut s’appliquer à ces deux cas car seule
une personne physique peut revendiquer le statut d’auteur. Des évolutions du droit
s’avèrent donc indispensables pour mieux prendre en compte ces technologies
de transformation appelées à prendre de l’ampleur avec l’essor de l’intelligence
artificielle. La reconnaissance de la personnalité juridique du robot c’est-à-dire
la création d’une personnalité électronique est une des solutions préconisées1.
Cette évolution juridique permettrait de faire émerger un régime de responsabilité
objective conférant à l’utilisateur la possibilité de se retourner contre l’intelligence
artificielle en cas de dommages. Cette avancée permettrait par ailleurs de sauve-
garder la valeur de la création générée par une intelligence artificielle autonome.

1. Voir l’encadré 6, ci-après, consacré aux débats sur cette problématique essentielle.

234

046092.indd 234 18/11/2020 09:10


Encadré 6 Quelle responsabilité juridique pour les robots ?

L’arrivée dans les années à venir des voitures autonomes sur nos routes et l’impli-
cation croissante des algorithmes ou des robots dans les prises de décisions
dans de nombreux secteurs de la vie sociale posent avec acuité le problème de
la responsabilité civile des systèmes intelligents en cas de dommages causés
à un tiers.
Pourvus d’une perception, d’un raisonnement et de capacités d’action, ces
systèmes peuvent-ils pour autant avoir le bénéfice de la personnalité juridique
au même titre que les humains ?
Cette problématique plus que centrale suscite débats et controverses tant les avis
sur la question sont tranchés. Pour le Parlement européen, il n’y a pas de doute.
Donner aux robots un statut juridique constitue une indéniable avancée dans la
mesure où cela leur donnerait la possibilité d’être assurés individuellement et
d’être tenus responsables en cas de dommages faits à des personnes ou à des
biens. Cette volonté du législateur européen a été affirmée dans une résolution
du 16 février 2017 dans laquelle celui-ci demande aux États membres « la création
d’un statut juridique spécifique aux robots afin que les plus sophistiqués puissent
être considérés comme des personnes électroniques responsables tenues de
réparer tout dommage causé à un tiers ». Bénéficierait du statut de personne
électronique tout robot susceptible de prendre des décisions autonomes ou en
situation d’interaction indépendante avec des tiers.
Pour les partisans de cette évolution juridique parmi lesquels figurent les fabri-
cants de robots, l’adoption d’un tel statut a l’avantage de mettre à pied d’égalité
l’intelligence artificielle avec les sociétés lesquelles bénéficient du statut de
personnes morales devant les tribunaux du monde entier.
Cette initiative du parlement européen ne fait pas l’unanimité, loin s’en faut.
D’une part, le comité économique et social européen s’est insurgé contre la
reconnaissance de toute forme de personnalité juridique aux robots sous le
prétexte que cela constituerait une menace pour une démocratie directe, ouverte
et équitable. D’autre part, un groupe d’experts (spécialistes en intelligence artifi-
cielle, juristes, industriels) de plusieurs pays membres de l’Union européenne s’est
publiquement prononcé contre via la publication d’une lettre ouverte. Conférer
un statut juridique aux robots relève d’une simple hérésie selon eux. Un tel choix
ajoutent-ils traduit la volonté de déresponsabiliser les constructeurs de robots ;
ceux-ci pourraient alors se dédouaner de la responsabilité des actions de leurs
machines et des dommages qu’elles pourraient causer. Doter les robots d’une
personnalité juridique pose aussi des problèmes éthiques et juridiques. Ceux-ci
pourraient en effet prétendre à des droits humains comme le droit à la dignité,
à l’intégrité, à la rémunération ou enfin à la citoyenneté. Une perspective de fait
inenvisageable car en totale contradiction avec la Charte des droits fondamentaux
de l’Union européenne, la Convention de protection des droits humains et les
libertés fondamentales.
Cette évolution juridique est selon ce groupe d’experts trop hâtive car en l’état
actuel des avancées en matière d’intelligence artificielle, les robots dotés d’une
intelligence similaire à celle des humains et capables de prendre des décisions
de manière autonome sont encore loin d’exister. La volonté de doter les robots

046092.indd 235 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

d’un statut juridique découle selon eux de « la surestimation du pouvoir, de


la capacité d’apprendre et de l’imprévisibilité des robots qui viendrait d’une
perception des robots déformée par la science-fiction ». Ces experts estiment
en définitive qu’il n’y a pas lieu d’adopter un statut juridique spécifique pour
les robots car les lois actuelles de l’Union européenne s’avèrent suffisantes pour
trancher les questions de responsabilité.
L’Union européenne va-t-elle trop vite en besogne ? A-t-elle tort d’avancer dans
cette direction ? Il semble que non car dans de nombreux pays aux avant-postes
de l’intelligence artificielle des textes de réglementation concernant les robots
sont en cours d’élaboration. Aux États-Unis par exemple, la National Highway
Traffic Safety Administration (NHTSA) a proposé à l’entreprise Google d’accorder
le statut de conducteur à ses voitures autonomes qui seront responsables en lieu
et place des humains qu’elles transportent. Une décision qui va dans le sens de
la volonté du législateur européen. ©

Conclusion : quelle éthique pour une intelligence artificielle


responsable ?

L’intelligence artificielle ne doit pas en définitive être une fin en soi. Ses progrès
spectaculaires doivent d’abord être au service des Hommes et de la planète. Pour
garantir ses finalités bienfaitrices, il est nécessaire de définir quelques principes
éthiques susceptibles d’inspirer des cadres légaux et moraux dans lesquels l’intelli-
gence artificielle doit se développer. Il s’agit d’abord de l’importance de la transpa-
rence au niveau des systèmes intelligents. Cela implique la nécessité de comprendre
les raisons des choix opérés par ceux-ci.
La transparence est donc une condition cardinale à l’acceptabilité sociale des
systèmes d’intelligence artificielle et de la confiance nécessaire pour qu’ils se
développent et perdurent. La compréhension des algorithmes ne doit pas être le
privilège exclusif de leurs concepteurs. L’intelligence artificielle ne doit pas être
une boîte noire échappant à toute compréhension et à tout contrôle social et
politique. Son auditabilité est une nécessité démocratique dès lors qu’elle devient
omniprésente dans la vie économique et sociale. La constitution d’un groupe
d’experts, comme le préconise le rapport « Villani », est une voie envisageable
car il permettrait des audits d’algorithme, des bases de données et de procéder à
des tests par tous les moyens requis. En cas de contentieux judiciaires des experts
assermentés pourraient être saisis par les tribunaux ou par le défenseur des droits.
L’intelligence artificielle doit être aussi inclusive. Elle ne peut donc avoir pour
vocation d’exclure des Hommes. Ainsi, l’origine ethnique, le genre, l’âge et l’orien-
tation sexuelle ne doivent pas être des facteurs ou des critères discriminants. En
d’autres termes, l’intelligence artificielle ne doit pas être le refuge de tous les préjugés
négatifs sources de discriminations de certains êtres humains. La réalisation de cet
objectif implique la sensibilisation aux questions éthiques de tous les acteurs au
cœur de cette technologie. Il s’agit des chercheurs-ingénieurs qui conçoivent ces
technologies et des entrepreneurs qui se chargent de leur développement et de

236

046092.indd 236 18/11/2020 09:10


Conclusion : quelle éthique pour une intelligence artificielle responsable ?

leur commercialisation. Ceux-ci doivent donc intérioriser des normes et des valeurs
centrées sur l’équité et l’égalité. Cela implique l’inscription dans leurs parcours
scolaires et universitaires des enseignements en rapport avec ces problématiques.
Les systèmes d’intelligence artificielle doivent se conformer au droit existant c’est-
à-dire respecter les lois qui garantissent le respect de la vie privée des personnes.
Celles-ci doivent avoir la possibilité de préserver la maîtrise de leurs données
personnelles dont l’utilisation peut à rebours leur être dommageable.
Le développement de l’intelligence artificielle ne peut se faire au détriment de
l’environnement. Il doit plutôt renforcer la durabilité et la responsabilité écologiques.
Une intelligence artificielle bienfaitrice ne peut être au service de la course aux
armements. L’apparition d’armes létales autonomes, notamment de robots tueurs1,
doit être proscrite. Il en est de même de la cyberguerre. Ce sont des évolutions
nuisibles, susceptibles de fragiliser la paix dans le monde et de favoriser, selon
Elon Musk, la disparition de la civilisation humaine.
En conclusion, pour éviter certaines dérives, il convient de s’en remettre aux
« lois de la robotique » énoncées par l’écrivain Isaac Asimov2. La première loi
stipule qu’un robot ne peut porter atteinte à un être humain, ni en restant passif,
ni en permettant qu’un être humain soit exposé au danger. La seconde indique
qu’un robot doit obéir aux ordres qui lui sont donnés par un être humain sauf si de
tels ordres entrent en conflit avec la première loi. Enfin la troisième précise qu’un
robot doit protéger son existence tant que cette protection n’entre pas en conflit
avec la première ou la deuxième loi.

1. Des spécialistes de l’intelligence artificielle se sont récemment alarmés au sujet de la création


de robots tueurs dans une fac sud-coréenne. Ils ont annoncé le 4 avril 2018 leur volonté de
boycotter l’université de Kaist du fait que celle-ci aurait ouvert un laboratoire destiné à utiliser
l’intelligence artificielle à des fins de production d’armes autonomes.
2. Isaac Asimov est un écrivain américain d’origine russe à l’œuvre prolifique. Il a en effet écrit
et édité plus de 500 livres. Connu pour ses œuvres de science-fiction et de vulgarisation
scientifique, c’est dans son œuvre majeure, Les robots publiée en 1950, qu’il énonce les trois
lois de la robotique.

237

046092.indd 237 18/11/2020 09:10


046092.indd 238
Tableau : Les fonctions des algorithmes et de l’intelligence artificielle dans différents domaines

MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE

Meilleure Affectation des Le taux de Proposition


connaissance élèves dans les décrochage scolaire d’une orientation
des aptitudes différentes filières ainsi que les taux personnalisée aux
d’apprentissage des de l’enseignement d’échec scolaire apprenants.
apprenants supérieur peuvent être prédits Proposition des
Accès rapide aux (Principe d’APB ou de et anticipés. éléments de formation
connaissances de Parcoursup). aux élèves en fonction
ÉDUCATION
et à de multiples de leurs parcours
ressources de précédent, de leurs
qualité. réussites ou de leurs
difficultés.
Mise en œuvre
de pédagogies
différenciées.

Diffusion rapide Constitution d’un Prédiction ou Recommandation de Diagnostic de maladie


et massive des échantillon pertinent anticipation d’une traitement personnalisé. et suggestion au
publications pour des essais maladie, d’une Meilleur suivi des médecin des solutions
scientifiques cliniques. épidémie et/ou de patients à distance thérapeutiques
permettant des son évolution. à l’aide d’objets appropriées aux
SANTÉ
avancées en matière Identification connectés. patients.
de recherches et de de certaines
découvertes. prédispositions à
développer une
maladie.

18/11/2020 09:10
046092.indd 239
MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE

Mise en lumière Possibilité d’estimer L’anticipation du sens La solution


des singularités de les chances de des décisions de justice jurisprudentielle le plus
l’activité judiciaire succès d’une permet d’envisager des appropriée peut être
dont les décisions procédure ou règlements amiables en proposée aux juges.
peuvent varier d’un procès ou fonction du profil des
d’une région à les montants personnes.
JUSTICE l’autre. d’indemnités
en fonction des
décisions passées.
Prédiction du
comportement d’un
accusé ou d’un
repris de justice.

Mise en lumière de Détecter et isoler les Meilleure gestion des


liens insoupçonnés profils supposés à forces de police sur le
dans la résolution risque dans le cadre terrain en les affectant
SÉCURITÉ
d’enquêtes par les de la lutte contre prioritairement dans
services de police le terrorisme ou le les zones estimées plus
ou de gendarmerie. grand banditisme. exposées.

18/11/2020 09:10
046092.indd 240
MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE

Meilleure Identification de profils Possibilité de Politique en matière de Meilleure réactivité


compréhension idéaux correspondant prédire la future carrière professionnelle des entreprises et
des phénomènes aux attentes de performance plus adaptée aux profils diminution des marges
sociaux dans l’entreprise. Des d’un individu ou aux compétences d’erreur en matière de
le monde de entretiens d’embauche nouvellement des salariés. recrutement.
TRAVAIL ET
l’entreprise. de meilleure qualité. recruté et
RESSOURCES
Mais risque d’effet de ses capacités
HUMAINES
mimétisme conduisant d’intégration à la
à la réduction des structure.
profils recrutés. Les Prédiction possible
profils atypiques des accidents de
peuvent être lésés. travail.

Démocratisation de Meilleure orientation Les audiences Suggérer aux


la création d’œuvres des choix culturels de prédiction consommateurs des
culturelles. en se fondant sur les permettent de œuvres en parfaite
goûts et attentes des créer des œuvres correspondance avec
CULTURE
consommateurs. appelées à connaître leurs goûts et attentes
du succès (Netflix, (Amazon, Netflix).
OCS, Amazon Prime
Video).

18/11/2020 09:10
Lexique

Lexique

Alan Turing : Pour beaucoup, il est le père de l’informatique. Ce mathéma-


ticien et cryptologue britannique réalisa une prouesse passée à la postérité,
celle de percer le mystère de la machine de chiffrement allemande du nom
d’Enigma. Grâce à cet exploit historique, Alan Turing contribua à écourter la
Deuxième Guerre mondiale et à sauver des milliers de vies. Il est le créateur
d’un test d’évaluation de l’intelligence artificielle éponyme fondé sur la
conversation humaine.
Algorithme : Dérivé du nom d’un mathématicien perse du IXe siècle Al Khawarîzmî,
un algorithme désigne une suite finie et non ambiguë d’instructions concourant
à la résolution d’un problème.
Apprentissage automatique ou Machine Learning : Il s’agit de la branche de
l’intelligence artificielle qui s’appuie sur les mathématiques et les statistiques
afin de donner aux ordinateurs la capacité d’apprendre à partir des données
et d’améliorer les performances en matière de résolution des tâches.
Apprentissage profond ou Deep Learning : C’est une forme d’intelligence
artificielle dérivée de l’apprentissage automatique permettant à l’ordinateur
d’apprendre par lui-même à partir d’un réseau de neurones artificiels.
BATX : Acronyme désignant les géants du numérique chinois concurrents des
GAFAM américains. Il s’agit de Baidu, d’Alibaba, de Tencent et de Xiaomi.
Des entreprises créées à la fin des années 90 et le début des années 2000
présentement en situation hégémonique sur le marché asiatique et dont
la capitalisation boursière était estimée à 950 milliards de dollars contre
4 500 milliards pour les GAFAM fin 2018.
Baidu est le Google chinois. Doté d’une capitalisation boursière de 65 milliards
de dollars, il est le quatrième site le plus visité. Alibaba, l’équivalent chinois
d’Amazon prospère grâce au commerce en ligne. Tencent, c’est le Facebook
chinois, il est crédité d’une capitalisation boursière de 357 milliards de dollars
contre 404 milliards pour Facebook fin 2018. Xiaomi, l’équivalent d’Apple
bénéficie d’une dynamique de croissance grâce au marché porteur de smart-
phones haut de gamme.
Biais : Il s’agit d’erreurs dans la mise en œuvre d’un traitement issu des données
collectées et/ou des modalités de leur traitement. Elles peuvent provenir
de diverses causes, soit du caractère discriminatoire des variables étudiées,
soit de l’interaction de plusieurs variables qui a priori n’apparaissent pas
Lexique

discriminatoires, soit de la mauvaise qualité des données sélectionnées


du fait qu’elles sont obsolètes ou simplement redondantes. Ces biais sont
généralement difficiles à éliminer du fait de la subjectivité de l’intervention
humaine.

241

046092.indd 241 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Big Data : Cette expression apparue pour la première fois en 1997 vise à
désigner l’immensité des données générées par le développement du
numérique. Selon l’analyste Doug Laney trois principes sont au cœur du
big data. Il s’agit des 3 V : le Volume des données, la Variété des données,
la Vélocité du traitement. Le volume des données renvoie au caractère
Lexique

massif des données collectées. Selon certaines estimations, 95 % des


données générées sont de création récente, c’est-à-dire au cours des cinq
dernières années. La variété des données tient au fait qu’elles peuvent
être de diverses natures, brutes, structurées ou semi-structurées. Enfin la
vélocité renvoie à la vitesse avec laquelle les données sont produites et
traitées en temps réel. Certains analystes ajoutent un quatrième V, celui
qui a trait à la véracité des données. Celles-ci pour inspirer confiance
doivent faire l’objet d’une vérification de leurs sources afin de crédibiliser
l’exploitation des données.
Pour de nombreux analystes, le big data est le pétrole du XXIe siècle qui
fait la prospérité des géants du numérique résumés par l’acronyme GAFAM.
Biométrie : Elle regroupe l’ensemble des techniques informatiques qui permettent
d’identifier automatiquement une personne à partir de caractéristiques
physiques, biologiques ou comportementales. Les données biométriques
ont la singularité d’être uniques car rattachées à une personne unique.
Chatbot : Il s’agit d’un logiciel programmé, connu sous l’appellation d’agent
conversationnel, destiné à engager une conversation avec un ou plusieurs
humains par échange vocal ou textuel. Très présents sur les réseaux sociaux,
ils ont vocation à aider les internautes à résoudre un problème ou à passer
commande.
CNIL : C’est l’acronyme de la Commission nationale informatique et libertés,
une autorité administrative créée en 1978 et composée de personnalités
provenant de différents horizons. La CNIL remplit diverses missions. Elle
veille et contrôle les usages informatiques afin qu’ils ne contreviennent
pas à la foi française. Elle s’assure que le traitement des données ne porte
pas atteinte aux libertés individuelles et aux grands principes des droits
humains. Elle est ainsi chargée de prononcer des sanctions en cas de
manquements à ces obligations.
Code source : C’est un descriptif de toutes les instructions d’un programme
informatique dans un langage de programmation accessible au plus grand
nombre. C’est donc une traduction des instructions définies par le concepteur
lors de l‘élaboration de l’algorithme. Son accessibilité permet la transparence
de l’algorithme. Elle permet de mettre en lumière les différentes fonction-
nalités de l’algorithme dont celles volontairement cachées. Elle permet de
s’assurer que les résultats générés par l’algorithme tel qu’il est mis en œuvre
sont conformes à ceux attendus. L’accès au code source permet également
d’assurer la sécurité du programme informatique. Il est ainsi possible d’ana-

242

046092.indd 242 18/11/2020 09:10


Lexique

lyser celui-ci pour en détecter les failles en matière de sécurité afin de les
corriger. Un programme dont le code source est public est ainsi sécurisé
par une collectivité veillant à sa sécurité.
Data mining : Technique permettant d’analyser les données du big data afin
d’en déduire de possibles corrélations.
Données personnelles : Il s’agit de toute information permettant d’identifier
directement ou indirectement toute personne physique. Le nom, le prénom,
l’ADN, la photo d’un visage, le numéro de sécurité sociale, le numéro de
téléphone sont des données contribuant à l’identification directe d’un individu.
Le traitement de ces informations est soumis à la loi Informatique et Libertés
et au RGPD.
Corrélation et causalité : Sources de confusion ces deux notions sont en effet
distinctes. La notion de corrélation désigne un lien statistique entre deux
variables. Par exemple, le sentiment d’intégration sociale et le niveau de
diplôme. L’existence de ce lien peut être cependant le fruit d’un simple
hasard ou d’une coïncidence. Pour qu’une corrélation se transforme en
causalité, l’on doit d’abord savoir le sens de causalité c’est-à-dire laquelle
des deux variables détermine l’autre. On doit aussi s’assurer de l’inexis-
tence d’autres variables non observées de nature à expliquer la corrélation
observée.
Éthique : Elle renvoie à toutes les questions s’articulant autour de la place
de l’homme face aux évolutions technologiques liées au développement
du numérique. Ces technologies disruptives vont-elles dans le sens des
intérêts des hommes ou se déploient-elles au profit d’intérêts particuliers ?
Autant d’interrogations de nature éthique qu’accompagne l’évolution de ces
technologies. L’éthique pose aussi la question de la confiance à accorder
à ces technologies ainsi que la transparence qui doit les caractériser afin
qu’elles puissent bénéficier d’une meilleure acceptabilité.
Explicabilité : Processus visant à rendre compréhensible par les humains les
résultats tirés d’un système d’intelligence artificielle. L’objectif est de rendre
moins opaques les décisions découlant de l’utilisation des algorithmes afin
d’améliorer leur acceptabilité.
GAFAM : Acronyme désignant les principaux géants américains du numérique,
Google, Apple, Facebook Amazon et Microsoft. Ces entreprises se singu-
larisent par le fait qu’elles détiennent plus de la moitié des 10 plus grandes
capitalisations boursières. Apple est ainsi la première entreprise à voir sa
Lexique

capitalisation boursière dépasser le trillion de dollars. Leur domination


repose sur la logique des réseaux. Dans l’économie numérique, « la force
va à la force ». C’est le nombre critique de consommateurs qui fait le succès
des plateformes. Plus, un service est adoubé par les consommateurs, plus
celui-ci acquiert de la valeur ajoutée, plus il bénéficie de l’engouement
populaire. Les GAFAM sont de plus en plus comparés à un autre acronyme
naissant, il s’agit des NATU. Ce sont des entreprises championnes du

243

046092.indd 243 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

digital, il s’agit de Netflix, d’AirBnb, de Tesla et d’Uber. Des entreprises


spécialisées dans le domaine du streaming, de la location entre particuliers,
des voitures électriques et du transport de personnes. Évoluant dans des
secteurs préexistants, ces entreprises s’imposent en mobilisant les nouvelles
technologies pour comprimer les coûts et proposer aux consommateurs
Lexique

des services innovants.


Lois d’Asimov : Elles énoncent des principes éthiques qui doivent s’imposer
à toute intelligence artificielle. Le premier des principes est celui stipulant
qu’un robot ne peut pas faire du tort à un être humain, ni rester passif de
sorte qu’un être humain soit exposé à un danger. Le second indique la
subordination du robot aux humains. Celui-ci doit obéir aux ordres qui lui
sont donnés sauf naturellement si ces ordres contreviennent à la première
loi. La dernière loi donne la possibilité au robot de protéger son existence
tant que celle-ci ne remet pas en cause les précédents principes. Aux lois
précédentes, Isaac Asimov en rajoute une quatrième appelée « loi zéro ».
Elle stipule qu’un robot ne peut porter préjudice à l’humanité, ni laisser sans
assistance l’humanité en danger.
Intelligence artificielle (IA) : Terme apparu pour la première fois en 1956
désignant selon l’un de ses concepteurs Marvin Lee Minsky, la construction
de programmes informatiques visant à exécuter des tâches accomplies de
manière satisfaisante par des êtres humains. Il existe deux types d’intelligence
artificielle. L’intelligence artificielle faible d’un côté et l’intelligence artificielle
forte de l’autre. Dans le cas de l’IA faible, la machine se limite à simuler l’intel-
ligence en exécutant une tâche précise à partir d’un programme préétabli.
Elle est qualifiée de non sensible. Concernant l’IA forte, la machine est dans
ce cas de figure capable de multiples prouesses, elle est non seulement
capable de produire un comportement intelligent mais aussi d’éprouver
une impression d’une réelle conscience de soi, de vrais sentiments et une
compréhension de ses propres raisonnements.
Reconnaissance faciale : Il s’agit d’un logiciel permettant d’identifier ou d’authen-
tifier une personne à partir des traits de son visage.
Règlement général sur la protection des données (RGPD) : Entré en vigueur
le 25 mai 2018, le RGPD a pour objectif de responsabiliser les organismes
publics ou privés qui ont vocation à traiter des données personnelles
et de renforcer les droits dévolus aux personnes dont les données font
l’objet d’un traitement. Le RGPD est le fruit d’une volonté européenne,
celle de créer un cadre juridique unifié permettant de faire face à l’enjeu
majeur que constitue le traitement des données issues du Big data. En
France, c’est la CNIL (Commission nationale informatique et libertés) qui
est chargée de veiller à son strict respect. Cette institution indépendante
a le pouvoir de sanctionner les contrevenants en prononçant des sanctions
de diverses natures. Elle peut avertir, prononcer une mise en demeure,
formuler une injonction à cesser le traitement des données ou suspendre
des flux de données…

244

046092.indd 244 18/11/2020 09:10


Lexique

Réseaux de neurones : Ce sont des systèmes informatiques s’inspirant du cerveau


humain utilisés dans le cadre de la reconnaissance vocale ou d’images.
Trading algorithmique : Il s’agit de dispositifs de traitement automatisés de
données émettant instantanément des ordres de vente et/ou d’achats d’actifs
sur les marchés financiers. Une intervention humaine limitée est possible
dans le cadre de ce trading.
Trading haute fréquence : Il exclut toute forme d’intervention humaine car
il repose essentiellement sur des programmes informatiques capables de
déterminer l’instant le plus propice pour émettre en quelques fractions de
seconde des ordres d’achat ou de vente d’actifs. Selon l’AMF (Autorité des
marchés financiers), 30 % à 40 % des transactions financières ou boursières
sont réalisées en France en utilisant ces technologies, cette proportion est
plus importante aux USA où elle atteint 50 à 60 %. S’il est gratifié de favoriser
la liquidité des marchés financiers, le Trading de haute fréquence est toutefois
l’objet de critiques récurrentes, il est accusé de manipuler les cours en les
amplifiant à la hausse comme à la baisse favorisant de ce fait les risques
d’occurrence de krach financier.
Transparence des algorithmes : C’est une exigence imposée aux algorithmes,
celle d’expliquer dans un langage clair les règles de fonctionnement de ceux-ci.
La possibilité est ainsi offerte aux utilisateurs d’ouvrir cette « boîte noire »
et d’en comprendre les mécanismes de traitement des données. L’accès au
code source est une des conditions de cette transparence des algorithmes.
Ce dernier représente l’ensemble des instructions d’un programme informa-
tique. Cet accès permet de s’assurer que l’algorithme effectue effectivement
les tâches telles que décrites par le concepteur ou l’organisme qui en est
l’initiateur.

Lexique

245

046092.indd 245 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

Annexe

Les effets du rapport Villani, un an après


Annexe

Figure : Écosystème et bilan de l’intelligence artificielle en France.

Plus d’un an après l’annonce du plan Villani, plusieurs préconisations de ce


rapport ont depuis vu le jour. Il s’agit d’abord de la nomination d’un monsieur
IA comme le préconisait le rapport. C’est Bernard Pailhès qui a été nommé à
ce poste. Il a pour mission de veiller à la bonne marche de la stratégie française
annoncée par l’exécutif. Des instituts interdisciplinaires ont ainsi été créés. Sur
les 12 qui ont fait acte de candidature, quatre ont été présélectionnés. Il s’agit
de Grenoble, Nice, Paris (Praine) et Toulouse (Aniti). Ces instituts auront pour
vocation de développer la formation et la recherche en intelligence artificielle
dans les domaines de la santé, de l’environnement, des transports, des terri-
toires et de l’énergie. Une enveloppe de 100 millions leur est allouée sur 4 ans.
Une somme qui sera abondée par différentes entreprises via des bourses de
recherches ou des chaires. Le supercalculateur préconisé par le rapport est
aussi acquis. Dénommé Jean Zay, en hommage à l’ancien ministre de l’Édu-
cation nationale du Front populaire et fondateur du CNRS, il sera doté d’une

246

046092.indd 246 18/11/2020 09:10


Bibliographie

puissance dépassant l’entendement : 14 pétaflops c’est-à-dire il sera capable


d’effectuer des millions de milliards d’opérations par seconde. Sa puissance est
ainsi équivalente aux capacités cumulées de 15 000 ordinateurs de dernière
génération. Jean Zay sera ainsi l’un des ordinateurs les plus puissants d’Europe
et permettra à la France d’améliorer son rang au niveau mondial en matière de
puissance de calcul. Elle passera de la 16e place à la 13e place et occupera le
3e rang au plan européen après la Suisse et l’Allemagne. 25 millions c’est son
coût étalé sur quatre ans. En cours de construction, il sera opérationnel dès
2020. Jean Zay vient s’ajouter aux 18 supercalculateurs dont dispose la France.
Sa consommation en régime annuel (1 mégawatt) coûtera 800 000 euros par
an. Ce supercalculateur sera consacré au traitement des problèmes complexes
à l’instar de ceux portant sur l’extraction d’informations pertinentes dans une
conversation ou de l’apprentissage profond « deep learning » avec peu de
données. Un fonds pour l’innovation et l’industrie doté de 10 milliards est en
cours de création. Seront éligibles au financement, les projets qui relèveront
les défis concernant l’amélioration des diagnostics médicaux par l’intelligence
artificielle ou ceux permettant de sécuriser, certifier et fiabiliser les systèmes
qui ont recours à l’intelligence artificielle.

Bibliographie

ABITEBOUL Serge et DOWEK Gilles, Le temps des algorithmes, Le Pommier, 2017.


ALEXANDRE Frédéric et TISSERON Serge, « Où sont les vrais dangers de l’intelligence
artificielle ? » Pour la science, n° 87, 2015.
ADT, « “Big data”, un changement de paradigme peut en cacher un autre »,
Rapport Académie des technologies, décembre, 2015.
ADRIANO Mannino, ALTHAUS David, ERHARDT Jonathan, « Artificial Intelligence.
Opportunities and Riisks » in Policy Papers of the Effective alstruism
Foundation, 2015.
BOSTROM Nick, Superintelligence, Dunod, 2017.
Enjeux numériques, n° 1, mars 2018.
Cabinet Mc Kinsey Institute : « Modeling the economic impact of IA », 2018.
CAMBRAI Thomas, L’intelligence artificielle expliquée : comment les algorithmes
et le Deep Learning dominent le monde !, auto-édition, 2017.
Bibliographie

CARDON Dominique, À quoi rêvent les algorithmes : nos vies à l’heure du big
data, Seuil, 2015.
CNIL : « Rapport sur les enjeux éthiques des algorithmes et l’intelligence
artificielle », 2017.
Comité économique et social européen : « Intelligence artificielle et impact sur
le travail », 2018.
FRANCE IA : « France IA. Rapport de synthèse », 2017.

247

046092.indd 247 18/11/2020 09:10


Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence artificielle

France STRATÉGIE, « Anticiper les impacts économiques et sociaux de l’intelligence


artificielle », 2017.
GANASCIA Jean-Gabriel, Intelligence artificielle : vers une domination programmée ?,
collection « Idées reçues », Éditions Le Cavalier Bleu, 2017.
Bibliographie

— Jean-Gabriel, Faut-il craindre l’intelligence artificielle ?, Seuil, 2017.


GELIN Rodolphe, GUILHEM Olivier, Le robot est-il l’avenir de l’homme ?, La
documentation française, 2016.
Idées « Quelles sont les conséquences économiques et sociales de l’intelligence
artificielle ? », 2018.
LAFARGUE Jean-Noel, MONTAIGNE Marion, L’intelligence artificielle, fantasmes et
réalités, Le Lombard, 2017.
LAURENT Alexandre, La guerre des intelligences : comment l’intelligence artificielle
va révolutionner l’éducation, Lattès, 2017.
MALLARD Stéphane, Disruption : intelligence artificielle, fin du salariat, humanité
augmentée : préparez-vous à changer de monde, Dunod, 2018.
Les cahiers Lysias : « Pourquoi la France a besoin d’une culture numérique ? »,
2017.
Rapport d’information du Sénat : « L’urgence d’une ambition européenne », 2019.
Rapport Villani : « Donner un sens à l’intelligence artificielle : pour une stratégie
nationale et européenne », 2018.
SADIN Éric, La vie algorithmique. Critique de la raison numérique, Éditions
l’Échappée, 2015.
SOUDOPLATOFF Serge, « L’intelligence artificielle : l’expertise partout accessible »,
Fondation pour l’innovation politique, Fondapol.org, 2018.

248

046092.indd 248 18/11/2020 09:10


Chapitre 5.

Quelles perspectives
pour les crypto-monnaies ?

Expression de la remise en cause du monopole souverain de battre monnaie,


les crypto-monnaies sont le produit des progrès réalisés dans le domaine de la
cryptographie mathématique et de l’augmentation de la puissance de calcul des
ordinateurs. Portée aux nues par l’envolée exponentielle de sa monnaie emblé-
matique, le Bitcoin, la grande famille des crypto-monnaies pourrait compter dans
un proche avenir un nouveau membre, le Libra, la monnaie digitale initiée par
Facebook, un des géants du numérique.
Cette montée en puissance des monnaies sans États impliquant la disparition
d’un tiers de confiance constitue une rupture sans précédent dans le fonctionnement
du système monétaire et financier international. Nombre d’interrogations émergent
de cette évolution majeure dont les principales sont les suivantes :
À quoi servent ces monnaies virtuelles ? Sont-elles de vraies monnaies ou
de simples actifs obéissant à une logique purement spéculative ? La méfiance
voire l’hostilité croissante des autorités à l’égard de ces monnaies privées est-elle
justifiée ? En somme quel est l’avenir des crypto-monnaies ?

I. La Blockchain une innovation disruptive au cœur


des crypto-monnaies

L’émergence des crypto-monnaies tire sa source de multiples influences. Il y


a d’abord le mouvement pour le logiciel libre initié au début des années 80 par
Richard Stallman et par la communauté « Cypherpunk »1. Ceux-ci manifestent alors
le désir de mettre à profit les technologies de chiffrement pour mettre au jour une
monnaie électronique permettant à la fois de garantir des transactions anonymes
et de contourner différentes institutions publiques. Les cypherpunks sont en effet
les premiers à attirer l’attention sur le fait que les informations diffusées sur Internet
n’étant pas cryptées, tout gouvernement ou toute entreprise pourrait de ce fait

1. On doit à Jude Milhon, une des grandes figures de cette communauté, la création du mot
cypherpunk. Il voulait ainsi faire référence au cyberpunk, courant de science-fiction mettant
en scène une société technologiquement avancée dans les sciences de l’information. Les
racines de cette communauté sont finalement anarchistes car remettre en cause l’ordre établi
est un de leurs chevaux de bataille.

249

046092.indd 249 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

disposer de l’entier loisir de s’en approprier à des fins commerciales, électorales ou


de surveillance. Partant du fait que la vie privée est une dimension essentielle de
la vie sociale, ils militent alors pour la mobilisation des programmes de chiffrement
afin de se prémunir contre toutes les dérives du Net. Le maintien de l’anonymat
sur le Web apparaît à leurs yeux comme la seule garantie contre d’éventuelles
écoutes opérées illégalement par les pouvoirs publics. Alors qu’Internet n’est qu’à
ses balbutiements, ces mises en garde répétées de la communauté cypherpunk
suscitent un intérêt marginal du grand public.
La volonté manifeste de créer une monnaie non traçable permettant de préserver
les données et les libertés individuelles va toutefois se concrétiser dès le début
des années 80 par diverses tentatives. Après avoir jeté les bases théoriques d’une
monnaie électronique fondée sur le chiffrement, David Chaum effectue les premières
tentatives en 1983 avec d’abord le E-cash puis ensuite avec le digicash en 1990.
Ces deux tentatives initiatrices débouchent sur des échecs. Wei Dai reprend le
flambeau au milieu des années 90 en proposant le B-money, il est secondé par Nick
Szabo qui à son tour propose le Bitgold. La volonté de faire émerger une monnaie
décentralisée non soumise à une quelconque tutelle demeure ainsi infructueuse.

A. De multiples influences

Sur le plan intellectuel et idéologique, ce sont les idées libertariennes incarnées


par l’école autrichienne et sa figure emblématique Friedrich Hayek1 qui apparaissent
comme la source d’inspiration principale de ces monnaies privées. C’est en effet
au début des années 70 marqué par l’instabilité monétaire consécutve à la fin des
accords de Bretton Woods qu’apparaît l’idée de monnaies privées comme facteur
de stabilité monétaire. Cette idée en rupture avec les théories monétaires tradition-
nelles est défendue par Hayek. Selon lui les crises économiques tirent leur source
du contrôle par l’état de l’émission monétaire. Il suggère donc la fin du monopole
d’émission de billets détenu par les banques centrales au profit du développement
des monnaies privées concurrentes. Cette mutation salvatrice permettrait selon lui de
contenir l’inflation et de garantir le pouvoir d’achat des monnaies. Il déclare alors « la
création monétaire sape le bon fonctionnement du marché et nourrit la croissance
de l’état. L’avenir de la société libre est donc lié à celui du système monétaire »
La crise financière de 2007-2008 sera le facteur décisif à l’éclosion de ces
monnaies privées. S’appuyant sur la défiance et le discrédit frappant les institutions
monétaires notamment les banques centrales, Satoshi Nakamoto2 dans un article

1. En 1984, Hayek déclarait « Je ne crois pas au retour d’une monnaie saine tant que nous
n’aurons pas retiré la monnaie des mains de l’état ; nous ne pouvons pas le faire violemment ;
tout ce que nous pouvons faire, c’est par quelque moyen indirect et rusé, introduire quelque
chose qu’il ne peut stopper ». La création du Bitcoin répond à cette aspiration.
2. Il s’agit en réalité d’un collectif composé de spécialistes de haut vol en cryptographie, en
informatique et en mathématiques. L’article fondateur qui décrit le fonctionnement de la
Blockchain et de la crypto-monnaie Bitcoin s’intitule « Bitcoin : A Peer to Peer Electronic Cash
system »

250

046092.indd 250 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

fondateur propose alors un protocole appelé « Blockchain » servant de support


technologique à une nouvelle crypto-monnaie dénommée « Bitcoin ». Prenant la
forme d’un registre infalsifiable utilisant un réseau informatique pair à pair et gérée
de manière décentralisée, la Blockchain apporte des solutions durables aux obstacles
majeurs ayant jusqu’alors empêché le développement des crypto-monnaies. Connu
sous l’appellation de problème « des généraux byzantins »1, le problème posé par
le risque de la double dépense ou double paiement était en effet un grand écueil
dans la réalisation d’un échange d’actifs entre deux agents sans le passage par un
tiers de confiance. Avec la Blockchain la nécessité d’une autorité centrale chargée
de sécuriser et de valider les transactions n’apparaît plus de mise. Des individus
qui ne se connaissent pas peuvent alors effectuer des transactions sur des actifs
grâce à la confiance partagée que le système permet.

Encadré 1 La métaphore des généraux byzantins

Elle traduit le défi de taille que la Blockchain a permis de résoudre afin qu’émerge
enfin une monnaie numérique. Cette métaphore pose le problème de la fiabilité
des informations circulant dans un réseau décentralisé sans tiers de confiance.
Celles-ci peuvent s’avérer erronées, incohérentes ou simplement malveillantes.
Comment dans ce contexte s’assurer que deux nœuds du réseau peuvent commu-
niquer en toute sécurité ? La métaphore des généraux byzantins traduit cette
difficulté tout en apportant une solution. En voici le contexte.

Figure 1 : Illustration des généraux byzantins

1. Voir l’encadré 1, ci-dessous.

251

046092.indd 251 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Les généraux de l’armée byzantine font le siège d’une ville ennemie. Ils doivent
impérativement établir un plan de bataille en vue d’une attaque coordonnée afin
de s’emparer de la ville. La communication entre eux s’effectue par le biais de
messagers. Or parmi ceux-ci figurent des traites susceptibles de semer la confusion
en transmettant des messages erronés. Pour que le plan de bataille émerge, il
faut trouver un algorithme permettant aux généraux loyaux de s’accorder sur
celui-ci. Compte tenu du contexte, ce problème des généraux byzantins peut
être résolu à la condition expresse que plus des deux tiers des messagers ou
généraux soient loyaux. Un seul général traite ne peut dans ce cas corrompre
que deux généraux loyaux.
Appliqué au domaine de l’informatique, le problème des généraux byzantins
signifie qu’aucun ordinateur d’un réseau décentralisé ne peut garantir entiè-
rement et irréfutablement que les données qu’il affiche sont les mêmes que celles
affichées par les autres. Fiabiliser les données ou les informations circulant entre
les nœuds du réseau implique de parvenir à un consensus. Celui-ci est atteint dans
un réseau peer to peer si les nœuds fidèles ou non défaillants parviennent à un
accord unanime sur leur décision. Pour exclure des nœuds de type byzantins, il
faut que tout message entrant soit répété aux autres destinataires de ce message
entrant. La répétition des messages permet de fiabiliser le réseau et l’information
en circulation. Appliquée à la Blockchain, la solution à toute défaillance byzantine
réside dans la mise en œuvre d’un mécanisme d’incitation économique reposant
sur deux principes. Le premier consiste à rendre extrêmement coûteuse la fraude
ou la défaillance byzantine. Le second implique que le coût doit être consenti
avant chaque transaction en raison de l’impossibilité d’imposer des pénalités a
posteriori. La validation des transactions conduit donc les mineurs à consentir
un coût en amont et ce par le biais de la mobilisation de leur puissance de calcul
au service de la résolution d’un problème cryptographique. ©

252

046092.indd 252 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

B. Le fonctionnement de la Blockchain

La Blockchain conjugue plusieurs caractéristiques. C’est à la fois un livre de


comptes numériques, un réseau distribué, un système de Blocks sécurisés qui a
vocation à produire des Bitcoins et dont les applications sont diverses.

Figure 2 : L’emboîtement des blocs de la Blockchain

Source : Blockchain France

La Blockchain est une chaîne de Blocks horodatés regroupant l’ensemble des


transactions effectuées entre les utilisateurs du réseau. C’est en somme des Blocks
de transactions qui mis bout à bout forment une chaîne. Le schéma précédent
en est l’illustration. Chaque Block comprend un nombre variable de transactions,
par exemple le Block 46 comprend quatre transactions tandis que le Block 49 en
compte 4. Celles-ci sont validées au terme de 10 minutes avant leur intégration à
la chaîne et la mise à disposition pour enregistrement à l’ensemble des membres
du réseau.
Deux outils cryptographiques sont au cœur de la Blockchain ; il y a d’un côté la
signature électronique et de l’autre les algorithmes de hachage. Ces outils ont la
particularité d’être des fonctions à sens unique c’est-à-dire qu’il est possible de les
calculer mais impossible de les inverser. La signature électronique s’appuie sur la
cryptographie asymétrique. Celle-ci permet de sécuriser les échanges d’informa-
tions entre utilisateurs en s’assurant de l’origine des données tout en préservant
leur caractère confidentiel.
Chaque utilisateur ou membre du réseau dispose d’une paire de clé ; l’une privée
et l’autre publique. Ces deux clés qui ont des finalités différentes sont liées entre
elles par un algorithme à courbes elliptiques. La clé publique connue de tous les
membres du réseau permet d’envoyer à un tiers des données cryptées. Grâce à sa
clé privée ce dernier peut y accéder. La clé privée est donc la propriété exclusive de
l’utilisateur. C’est l’équivalent du code de la carte bancaire d’un individu. Elle doit
de ce fait être gardée secrète car c’est elle qui permet de signer ou d’utiliser les
transactions reçues. En cas de perte ou de vol le propriétaire ne dispose d’aucun
moyen pour récupérer sa crypto-monnaie.

253

046092.indd 253 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Figure 3 : Utilisation de la clé privée et de la clé publique

Le schéma précédent illustre l’utilisation de la clé publique et de la clé privée


par les détenteurs de crypto-monnaies. Dans le présent exemple, Louis écrit un
message à Cléa lui annonçant l’envoi de 30 Bitcoins. Ce message est ensuite crypté
puis envoyé à Louise qui grâce à sa clé privée découvre le contenu du message.
Les Blocks regroupant plusieurs transactions sont par ailleurs horodatés par
leurs auteurs afin de permettre une datation précise des Blocks et une chronologie
des diverses transactions.
Chaque Block validé est pourvu d’un identifiant qui est le résultat d’une opération
appelée « hachage »1. Cette opération permettant d’attribuer à un ensemble
de données numérique une identification claire et précise est assimilable à une
empreinte digitale chez l’humain. Le hachage des blocs rend ainsi toute modifi-
cation visible donc difficile à opérer.

1. Une fonction de hachage transforme n’importe quelle donnée numérique en une suite de
caractères appelée Hash représentant une empreinte cryptographique. Deux caractéristiques
sont spécifiques à cette fonction. Elle est d’une part non réversible c’est-à-dire qu’il est impos-
sible de retrouver la donnée initiale à partir du Hash final. À l’inverse, il est possible de vérifier
si une empreinte est effectivement le Hash d’une donnée spécifique. Pour ce faire, il suffit de
procéder à un nouveau Hash de la donnée et de procéder à la comparaison des deux Hashs
qui doivent être identiques. La moindre modification de la donnée initiale débouche sur une
modification radicale du Hash.

254

046092.indd 254 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

Figure 4 : Les différentes étapes de validation des transactions dans une Blockchain

255

046092.indd 255 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

La validation des blocs est une prérogative revenant aux mineurs (référence
faite aux chercheurs d’or) qui sont au demeurant des utilisateurs du réseau. Une
fois validés, les Blocks sont communiqués à l’ensemble des membres du réseau
qui les enregistrent sur un registre virtuel contenant l’historique de toutes les
transactions passées. L’actualisation du registre est permanente et se fait de manière
instantanée. Cela confère à la Blockchain un caractère indestructible. La validation
des blocs est une opération essentielle car elle permet de sécuriser le système en
se prémunissant des risques d’attaques malveillantes. La sécurité du système est
renforcée par la confiance mutuelle que se font les utilisateurs. Ces derniers se
contrôlent et se surveillent donc mutuellement.
C’est la méthode dite de consensus qui généralement permet la validation des
blocs. Dans le cas du Bitcoin, la validation d’une transaction intégrée à chaque
bloc implique la réussite d’une épreuve cryptographique appelée minage. Celle-ci
se répète toutes les 10 minutes.
En cas de validation de deux blocs en même temps, les mineurs peuvent opter
pour l’un ou l’autre des deux blocs. Deux chaînes se développent alors parallè-
lement mais le protocole prévoit alors que seule subsiste la Blockchain la plus
longue, c’est-à-dire celle adoptée par la majorité des utilisateurs.
Chaque bloc validé donne lieu à rémunération, donc à l’émission de nouveaux
Bitcoins. Au moment du lancement de cette crypto-monnaie, chaque bloc validé
était assorti d’une rétribution de l’ordre de 50 Bitcoins et ce jusqu’en 2012.
Depuis cette date, la rémunération est diminuée de moitié tous les 210 000 blocs
validés (tous les 4 ans en somme). Elle est de 6.5 Bitcoins depuis le début de
l’année 2020.

Encadré 2 En quoi consiste le minage ?

L’activité de minage consiste à exécuter un algorithme le SHA-256 autant de


fois qu’il est possible jusqu’à l’obtention d’un résultat attestant la validation
d’un bloc conformément au protocole de Bitcoin. Généralement cet exercice
est répété de milliers de fois par seconde avant qu’il n’aboutisse. La puissance
de calcul de l’ordinateur est de ce fait déterminante.
L’exécution du SHA-256 débouche sur une chaîne de caractères aléatoires appelée
Hash. Valider un bloc revient à trouver le Hash débutant par un certain nombre
de zéros. À chaque exécution non concluante, le mineur ajoute un incrément
jusqu’à l’obtention du Hash approprié.

256

046092.indd 256 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

Figure 5 : L’opération de hachage

Source : Blockchain France

La fonction ou l’algorithme de hachage SHA-256 est construite de sorte qu’il


existe 2256 combinaisons possibles. Cela correspond à l’ordre de grandeur,
selon certaines estimations, du nombre d’atomes dans l’univers. Le risque de
produire deux fois le même Hash pour des ensembles de données différentes
est de ce fait très infinitésimal. Ainsi le Hash généré par cet algorithme revêt un
caractère unique. Il est par nature difficile à prévoir même si on est en présence
de données très proches. La moindre modification d’une donnée débouche
sur un Hash radicalement différent. Il s’ensuit le fait que toute modification du
contenu d’un bloc devient immédiatement visible dans les blocs qui suivent. Le
schéma précédent en fait l’illustration. ©

Ce processus de baisse du niveau de la rétribution appelé « halving » vise


à limiter la création de Bitcoins afin de garantir sa rareté c’est-à-dire sa valeur1
marchande. La formule suivante permet d’éclairer la difficulté de minage des blocs
avec le temps :
Difficulté = Temps moyen (en seconde) x Taux de hachage/s divisé par (2)32
Le protocole de Satoshi Nakamoto prévoit une création maximale de 21 millions
de Bitcoins à l’horizon 2140 ; à ce jour près de 18 millions de Bitcoins ont été émis.

1. La difficulté de création des Bitcoins devrait aller croissant. Pour illustrer les difficultés auxquelles
l’activité de minage expose les mineurs on peut s’en tenir à l’exemple suivant. Pour une
difficulté de minage initialement fixée à 0 au moment du lancement de la cryto-monnaie, au
mois de juin 2016, elle était évaluée à 200 milliards ; l’ampleur des difficultés requiert des
machines dotées d’une puissance de calcul considérable. Des sociétés de cloud mining ont
ainsi vu le jour, elles sont destinées à vendre de la puissance de calcul aux mineurs.

257

046092.indd 257 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Figure 6 : Nombre de Bitcoins émis

Source : Blockchain France

En plus de la rémunération tirée de la réussite des épreuves cryptographiques,


les mineurs1 prélèvent des frais sur les transactions qu’ils intègrent à chaque nouveau
bloc. Ces frais varient en fonction du nombre de transactions en attente.
Pour optimiser leur niveau de rémunération, les mineurs se spécialisent et
s’organisent en groupements ou « pools »2. Ce processus comporte un risque, celui
qu’une majorité organisée oriente la validation des blocs. Ce risque est néanmoins
atténué par le fait que la confiance dans le système est un objectif partagé par
l’ensemble des acteurs y compris les mineurs.

C. La Blockchain, un potentiel d’applications porteur


mais d’indéniables conséquences environnementales
dommageables

Permettant des transactions instantanées à des coûts minimes et sans organe


central de contrôle, la Blockchain apparaît comme un outil sans équivalent doté
de multiples promesses. The Economist titrait en octobre 2015 à son sujet « The
trust machine » et affirmait que cette technologie était une machine à créer de la

1. En théorie, la possibilité est offerte à tout individu de devenir mineur. Il suffit pour cela de
mettre à disposition du réseau la puissance de calcul de son ordinateur. Simple activité de
loisirs à l’origine, le secteur du minage a rapidement évolué en devenant une véritable industrie
professionnelle et très capitalistique.
2. 67 % des pools de minages sont implantés en Chine suivis des USA qui en accueillent 15 %.
4 pools chinois concentrent à eux seuls 52 % de la puissance de minage du Bitcoin.

258

046092.indd 258 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

confiance, qu’elle pouvait transformer la façon dont fonctionne l’économie. Une


prédiction plus que certaine en raison d’un nombre d’applications infini qui lui
est crédité.
Les ICO (Initial Coin Offering) constituent par exemple une de ses applications
phares1. Elle bénéficie d’un succès croissant. C’est une méthode de levée des fonds
fonctionnant via l’émission d’actifs numériques appelés Tokens (jetons en français)
échangeables contre des crypto-monnaies. Cette procédure est comparable au
crowdfunding. Quiconque disposant de crypto-monnaies peut acquérir des Tockens.
Ceux-ci sont très liquides car échangeables sur des plateformes d’échange à un
cours qui est fonction de l’offre et de la demande.
Les ICO constituent un moyen de financement rapide des Start-ups évoluant
dans le secteur des technologies de l’information et de la communication (TIC).
Les moyens de financement traditionnels tels que le crédit bancaire et le capital-
risque correspondent peu à leurs besoins. Les ICO permettent d’atteindre un large
public de potentiels investisseurs plus disposés à parier sur l’avenir des projets
qu’à désirer un retour sur investissement rapide.
Les ICO bénéficient d’un franc succès. Les Tokens ont représenté plus de
3 milliards de dollars en 2017 et près de 8 milliards en mars 2018. Des sommes
considérables au regard de l’absence de garantie offerte aux investisseurs.

Figure 7 : Les ICO

Source : Coindesk

1. Une opération d’ICO se divise en trois phases. La première consiste à annoncer l’ICO sur
Internet, via la large publication des grandes lignes du projet. La seconde phase définit les
caractéristiques de l’offre, en précisant la nature du projet, le montant des fonds nécessaires
au financement de celui-ci et les droits associés aux investisseurs. La vente des jetons intervient
dans la dernière phase. En échange d’un virement en crypto-monnaie, l’investisseur reçoit
des jetons ou Tokens.

259

046092.indd 259 18/11/2020 09:10


Malgré le caractère novateur et le succès rencontré par les ICO, ces derniers
suscitent toutefois des réserves. Des problèmes de transparence et d’escroqueries
ont été mis au jour conduisant certains géants du numérique à s’en méfier. Google,
Facebook et Twitter ont renoncé en mars 2018 à accepter des publicités portant
sur les crypto-monnaies et les ICO.
Outre la finance, d’autres secteurs d’activité pourraient bénéficier des vertus
de cette technologie.
La Blockchain peut trouver un développement fertile dans le domaine des
assurances. Les « smarts contracts ou contrats intelligents » en sont la parfaite
illustration. Ce sont des contrats qui s’appuient sur la technologie Blockchain
pour rendre infalsifiables les termes et les conditions de leurs exécutions. C’est la
traduction informatique d’un contrat traditionnel mais son exécution n’exige pas
l’intervention d’un tiers de confiance, cela permet de réduire les coûts de transaction
associés à la passation des contrats classiques. C’est en somme un logiciel qui est
totalement dépourvu de tutelle juridique. Il a vocation d’exécuter automatiquement
les conditions définies au préalable et inscrites dans une Blockchain. L’indemni-
sation automatique des passagers d’un avion en cas de retard peut s’appuyer sur
ce type de contrat informatique.
L’administration peut aussi tirer parti de la Blockchain notamment dans les pays
en développement en matière de cadastre ou d’organisation des élections. En effet
dans de nombreux pays, certaines terres ne sont pas enregistrées dans une base de
données officielle1. Un nombre très élevé d’habitants ne disposent ainsi d’aucune
adresse, ni de titre de propriété. En répertoriant l’intégralité de son territoire sur
une Blockchain, cela permettrait à certains pays d’identifier avec précision les
propriétaires des terres et de mettre fin ainsi à toute forme de contestation en la
matière. Il peut en être de même en matière d’enregistrement des actes adminis-
tratifs (certificat de naissance, carte d’identité…). L’inscription de ceux-ci dans
une Blockchain apporte sécurité et garantie d’authenticité puisqu’une fois inscrits
ces actes ne peuvent faire l’objet de modifications. La mise en œuvre d’une telle
technologie est de nature à contester le monopole d’actes authentiques assuré
par les notaires et les huissiers.
Organiser des élections transparentes dépourvues de fraudes constitue aussi
une véritable gageure pour de nombreux pays en développement. L’utilisation
de la Blockchain dans le cadre des procédures électorales peut être une solution
permettant l’équité des candidats aux fonctions électives et la sincérité des résultats.
Son caractère inviolable assure en effet l’impossibilité de manipulation a poste-
riori des suffrages. Ses vertus font d’elle un instrument au service de l’avènement

1. Au Honduras, 60 % du territoire n’est pas répertorié par l’État. Pour mettre fin aux interven-
tions frauduleuses de la part de certaines autorités, Le Honduras a fait appel à des entreprises
spécialisées pour développer un registre de propriété sur une Blockchain permettant de mettre
fin aux atteintes frauduleuses au cadastre. D’autres pays comme le Ghana ont annoncé des
investissements dans des infrastructures Blockchain afin de sécuriser leur registre de propriété.

046092.indd 260 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

du vote digital et un facteur contributif à l’éclosion d’une véritable démocratie


participative. La Blockchain peut ainsi apparaître comme une réponse à la crise
de confiance que traversent les démocraties modernes.
Il y a néanmoins quelques écueils à l’utilisation de cette technologie. La sincérité
du scrutin et le secret du suffrage sont loin d’être acquis. Il est en effet difficile
de s’assurer de l’identité de l’électeur d’où l’indispensable médiation d’un tiers
de confiance. Il y a aussi le risque de piratage du système susceptible de fausser
l’issue du scrutin. D’indispensables progrès dans les systèmes de sécurité s’avèrent
nécessaires afin de préserver la confiance des électeurs.
Dans les pays en développement où la fracture numérique est très prononcée,
la mise en œuvre d’une telle technologie semble de fait difficile.
La Blockchain peut aussi être une réponse aux préoccupations des consom-
mateurs échaudés par de multiples scandales alimentaires. Appliquée à la
chaîne alimentaire, elle permet l’authentification, la sécurité et l’auditabilité
nécessaires pour rendre la chaîne d’approvisionnement plus transparente.
Plateforme ouverte, elle est accessible à tous les acteurs, clients, entreprises,
organismes et régulateurs.

Figure 8 : Les vertus de la Blockchain en terme de suivi des informations

Source : PWC, la révolution Blockchain

261

046092.indd 261 18/11/2020 09:10


046092.indd 262
Figure 9 : Les qualités intrinsèques
de la Blockchain

18/11/2020 09:10
I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

La Blockchain de par ses propriétés favorise en effet le suivi de façon très fiable
des informations portant sur la certification ou de toute information concernant
les produits tout au cours de la chaîne d’approvisionnement. Chaque produit se
voit ainsi doté d’un passeport digital permettant de l’authentifier et d’attester de
son origine. Les problèmes de contrefaçons, de fraudes aux certifications peuvent
être résolus par ce biais. Il peut aussi en résulter une baisse des coûts de suivi et
d’authentification.
La start-up ThingChain s’est inspirée de la Blockchain pour mettre en œuvre
son projet de traçabilité des produits alimentaires. Grâce à un QR-Codes appelé
Pop Codes (Proof-of-Provenance), elle garantit le parcours et la transformation d’un
bien tout au long de la chaîne logistique. C’est ainsi qu’à tout produit est affecté
un Pop Code servant d’identifiant digital unique. Celui-ci permet d’indiquer toutes
les caractéristiques d’un produit à savoir, l’unité de mesure, le poids, l’origine, la
date de fabrication, etc. Inscrites dans la Blockchain, ces informations deviennent
inviolables et infalsifiables. La mise à jour de celles-ci peut se faire grâce au jeu
de clés publiques/privées.
Au vu de ces exemples, il apparaît clairement que le champ des possibles
associé à cette technologie est illimité. En alliant sécurité, décentralisation et
transparence, la Blockchain redonne au client et au citoyen électeur du pouvoir
tout en permettant l’émergence de nouveaux acteurs.

D. La Blockchain Bitcoin, gouffre énergétique et péril


climatique ?

Dispositif répondant à des objectifs de sûreté, les Blockchains posent


néanmoins un certain nombre de questions de nature technique mais surtout
environnementale.
Sur le plan technique, la question de la montée en charge ou « scalabilité » est
récurrente. La capacité à faire face à une augmentation du nombre de transac-
tions est en effet l’un des défis qui se pose à cette technologie. Il en est ainsi de
celle du Bitcoin qui ne permet la validation que de 4 transactions par seconde en
moyenne. Le traitement des données à fréquence élevée demeure problématique
pour les Blockchains en raison des délais minimum de traitement des informations
par les processeurs.
Sur le plan environnemental, la Blockchain du Bitcoin est l’objet de critiques
acérées. Énergivore, elle porterait atteinte à l’équilibre environnemental.
Les besoins en électricité des Blockchains fondés sur la preuve de travail sont
en effet considérables. La dépense énergétique étant corrélée à l’intéressement
des mineurs, sa croissance est quasi-exponentielle. Les statistiques ne plaident
pas en faveur du Bitcoin de ce point de vue.

263

046092.indd 263 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

À lui seul, le Bitcoin a le même impact environnemental qu’environ 2.358 millions


de voitures en terme d’émission de CO2. D’après une étude menée par des
chercheurs de l’Université de Cambridge, cette monnaie digitale représenterait
0.25 % de la consommation mondiale d’électricité. La consommation annuelle
de cette crypto-monnaie s’élèverait à 64.65 TWH. Elle équivaudrait à celle de
l’Autriche, soit 10 à 20 fois celle de l’ensemble des datas Center de Google. Elle
est aussi 75 fois supérieure à celle de Visa qui traite 1 500 fois plus de transactions.
Ainsi si le réseau Bitcoin était un pays, il serait le 41e plus énergivore du monde.
Selon d’autres études la généralisation de cette monnaie virtuelle par ses seules
émissions conduirait la planète à dépasser le seuil fatidique des 2° C de réchauf-
fement en moins de deux décennies. Comparé à d’autres ressources pourvues
d’une grande valeur marchande, le Bitcoin consommerait plus d’énergie que la
production cumulée d’or, de cuivre, de platine ou des terres rares.
Cette croissance de la consommation est notamment liée à la complexité
grandissante des équations à résoudre. Cette dernière est une fonction croissante
de la valeur du Bitcoin. Plus celle-ci augmente, plus la production de Bitcoins
devient difficile. Pour les mineurs chargés de résoudre ces équations complexes,
l’intérêt financier demeure prégnant d’autant plus que pour un coût de l’énergie
donné, les revenus issus de leur activité de minage s’avèrent 10 fois supérieurs.
La tentation est ainsi grande pour les mineurs de s’adonner activement à cette
activité dès lors que la valeur de cette monnaie digitale s’envole. La rémunération
d’un mineur étant proportionnelle à sa puissance de calcul, Jean-Paul Delahaye
en tire une conclusion instructive « le Bitcoin est comme un château gonflable
pour les enfants : il ne tient que si vous dépensez sans cesse de l’électricité pour
le maintenir gonflé. L’or n’a pas besoin d’être maintenu. Il tient tout seul, du fait
des lois physiques ».

L’impact de la Blockchain Bitcoin en terme d’émission de gaz à effet de serre


est d’autant plus élevé que les groupements de mineurs sont surtout localisés
en Chine, pays doté de l’intensité carbone la plus élevée au monde. Selon les
estimations du GIEC, l’intensité carbone de la Chine s’élève à 1 050 grammes de
CO2 par kWh d’électricité produite. Cette concentration des fermes de minage
en Chine a une autre conséquence, celle de faire courir au réseau un risque en
matière de sécurité. Celui-ci s’avérerait réel si un mineur venait à détenir plus de
51 % des capacités de calcul. Avec le temps, il pourrait prendre le contrôle du
réseau et validerait ainsi des transactions frauduleuses à son seul profit.
Ce choix de localisation de pools de mineurs se justifie notamment par le fait
que l’Empire du milieu dispose d’un avantage concurrentiel en matière de coût
d’énergie ; le prix de l’électricité y est moins cher notamment dans les zones où
des barrages hydro-électriques ont été construits pour anticiper l’arrivée massive
de populations.

264

046092.indd 264 18/11/2020 09:10


I. La Blockchain une innovation disruptive au cœur des crypto-monnaies

Un pays, l’Islande, est devenu depuis une terre d’accueil des mineurs en raison
des conditions singulièrement attractives en matière de production de crypto-mon-
naies. En effet, son énergie géothermique bon marché et 100 % renouvelable
permet d’offrir le kWh (hors taxe) à un prix deux fois moins cher que celui en
vigueur dans le reste de l’Union européenne. La température moyenne annuelle
sur l’île est de 5 degrés, niveau de température permettant d’éviter la surchauffe
des ordinateurs, limitant ainsi mécaniquement la consommation énergétique et
les atteintes à l’environnement.
L’amélioration du bilan carbone de la Blockchain Bitcoin relève d’une impérieuse
nécessité écologique. Diverses propositions sont formulées pour ce faire. Celle
consistant par exemple à récupérer la chaleur dissipée par les ordinateurs des
mineurs pour l’utiliser à des fins de chauffage des ménages.
L’utilisation d’énergie plus verte est une piste largement préconisée ainsi que
des alternatives à la preuve de travail, source principale de cette consommation
énergivore1. La preuve d’enjeu, la preuve de capacité ou la preuve de destruction
sont autant d’alternatives envisagées mais tous ces systèmes ne sont pas assez
matures technologiquement pour se substituer comme méthode de consensus à
la preuve de travail2.

Au-delà des externalités négatives en terme d’atteintes à l’environnement,


les Blockchains reposant sur la preuve de travail comme méthode de consensus
sont accusées d’être à l’origine de problèmes d’approvisionnement au niveau
local. Certaines villes s’en prémunissent en interdisant l’installation d’usines de
minage sur leur territoire. C’est le cas de Plattsburg dans l’État de New York qui
en février 2018 a interdit pendant 18 mois, l’installation de nouvelles usines de
minage en raison de l’effet d’accroissement du prix d’électricité subi par diverses
unités de production. C’est aussi le cas en Corée du Sud où des unités de police
ont procédé à l’interpellation de mineurs utilisant illégalement de l’électricité à
prix bas destinée aux unités industrielles.
D’autres effets néfastes sont aussi relevés, il s’agit notamment de la difficulté
d’approvisionnement de certains matériels informatiques. La montée en puissance
du cours de la crypto-monnaie Ether a par exemple provoqué la raréfaction des
cartes graphiques. Celles-ci étant nécessaires à la validation de cette monnaie
digitale, leurs prix se sont envolés pénalisant en cela consommateurs et entre-
prises utilisatrices.

1. Une initiative française connue sous l’appellation BART (Blockchain Advanced Research and
Technology) tente de relever ce défi. Ce projet lancé en 2018 par Télécom Paris Sud, Télécom
ParisTech tente d’établir des méthodes de consensus de validation moins consommatrice
s’appuyant sur des supports cryptographiques robustes.
2. La preuve d’enjeu consiste à attribuer la validation de chaque bloc de manière aléatoire à un
utilisateur, selon une probabilité indépendante de la capacité de calcul des mineurs. Quant à
la preuve de capacité, elle consiste à mettre en gage de l’espace disque tandis que la preuve
de destruction revient à détruire des crypto-monnaies afin d’obtenir la confiance du réseau.
Ces méthodes de consensus sont néanmoins moins certaines et présentent notamment le
risque de centralisation contraire à l’esprit de Bitcoin.

265

046092.indd 265 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Les appareils utilisés dans le cadre des opérations de hachage sont rapidement
frappés d’obsolescence car soumis à un rythme de remplacement accéléré au profit
de versions plus performantes. Ainsi se retrouvent rapidement au rebut des millions
d’appareils non recyclés d’où un gaspillage de ressources difficilement soutenable.

II. Un univers concurrentiel marqué par la diversité


et la domination de Bitcoin

Porte-étendard des crypto-monnaies, le Bitcoin peut se prévaloir d’une descen-


dance prolifique. Un peu de plus de 2 800 crypto-monnaies existent en effet à ce
jour, elles présentent des similarités et des différences notoires.

Figure 10 : La circulation des crypto-monnaies

Source : Institut national de la consommation

266

046092.indd 266 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

Figure 11 : La capitalisation des crypto-monnaies

Source : Institut national de la consommation

Entre 2014 et 2019, le nombre de crypto-monnaies a été multiplié par 6 témoi-


gnant d’une croissance exponentielle. Leur capitalisation a aussi bénéficié d’une
ascension fulgurante. Relativement insignifiante en 2014, elle a connu au fur et à
mesure de leur croissance quantitative une valorisation marchande spectaculaire.
En 5 ans, celle-ci a augmenté de 1 633 % portée indiscutablement par la montée
aux nues du Bitcoin.

A. Une famille nombreuse fruit de trois générations de crypto-


monnaies

Les crypto-monnaies se singularisent par le fait que ce sont des monnaies


virtuelles utilisant la cryptographie et fonctionnant pour la plupart dans le cadre
d’un système décentralisé.
Leur caractère virtuel résulte du fait que ce sont des représentations numériques
de valeur purement fiduciaire qui ne sont émises ni garanties par aucune institution
financière. L’utilisation de la cryptographie leur assure une certaine sécurité dans le
cadre des échanges sur internet. Quant à la gestion décentralisée, elle est rendue
possible par le mode de validation par consensus adopté.
Le nombre élevé des crypto-monnaies n’est pas proportionnel à la place qu’elle
occupe dans l’univers des moyens de paiement. Celle-ci est plutôt marquée par
une forme de marginalité comme en atteste le schéma figurant à la page suivante.
Les monnaies virtuelles ne doivent pas être confondues aux monnaies électro-
niques. Si les premières évoluent parallèlement au système bancaire traditionnel
et circulent au sein d’une communauté, les secondes relèvent des institutions

267

046092.indd 267 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

financières officielles. Ce sont des substituts aux moyens de paiement classiques.


Elles sont en effet émises en contrepartie d’un dépôt d’argent et sont assorties
d’une garantie légale de remboursement à la valeur nominale.

Figure 12 : Les monnaies virtuelles, une composante mineure de la monnaie

Source : La Documentation française, 2018

Le Bitcoin incarne à lui seul la première génération des crypto-monnaies. Il a


au fil de son succès fulgurant fait de nombreux émules. L’Ethereum, le Ripple, le
Litecoin, le Bitcoin Cash, le Cordona, sont quelques-unes des monnaies virtuelles
nées dans le sillage de Bitcoin1.

Créé en 2014 par Vitalik Buterin, un programmeur russo-canadien, l’Ethereum


s’inspire largement de la crypto-monnaie de Satashi Nakamoto tout en ayant des
singularités. On peut à juste titre la considérer comme une crypto-monnaie de
la deuxième génération dont l’une des caractéristiques est d’être une monnaie
virtuelle polyvalente.

1. Les crypto-monnaies sont souvent soumises à un processus d’évolution qui les conduit à se
transformer ou à se multiplier. Ce phénomène est qualifié de « forks », il désigne la scission
d’une Blockchain donnant naissance à deux nouvelles chaînes partageant le même historique
mais opposées sur leur évolution future.

268

046092.indd 268 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

À l’instar du Bitcoin, l’Ethereum utilise la technologie Blockchain et les principes


de fonctionnement qui lui sont associés. C’est en effet la preuve de travail qui sert
de méthode de validation des transactions insérées dans les blocs. Capable de
traiter plusieurs opérations à la fois, la plateforme Ethereum se singularise de celle
du Bitcoin en plusieurs points. D’abord par la vitesse de validation des blocs ; alors
que celles du Bitcoin requièrent 10 minutes pour être validées, les transactions des
opérations en éther n’exigent que 14 secondes. Le système Ethereum est ainsi
plus rapide, il s’appuie en outre sur un écosystème permettant le développement
d’applications décentralisées et collaboratives. C’est en cela qu’il constitue une
évolution majeure par rapport au système Bitcoin.
Les « contrats intelligents ou smart contracts » en constituent l’exemple emblé-
matique. Ces contrats s’appuient sur un protocole informatique permettant la
vérification et le respect des conditions contractuelles préalablement établies. Il
en exécute automatiquement les clauses dès lors que les conditions d’application
sont remplies. Les contrats intelligents peuvent trouver des champs d’application
dans divers domaines comme celui des assurances ou du droit1.
Comme dans le cas du Bitcoin, l’entretien de la chaîne des blocs d’Ethereum
est assuré par des mineurs. Ils sont rétribués à raison de 5 nouveaux Ethers par bloc
validé. L’Ether est la monnaie numérique découlant d’Ethereum. Cette monnaie
virtuelle est aussi volatile que le Bitcoin. Différentes possibilités existent pour s’en
procurer : achat auprès d’un autre détenteur, s’adonner à l’activité de minage,
l’accepter comme moyen de paiement, etc.
À l’inverse du Bitcoin jugé déflationniste en raison du plafonnement de la
quantité en circulation, l’Ethereum suit une autre logique. L’émission de sa monnaie
numérique n’est pas limitée. Cinq Ether sont en effet émis toutes les 12 secondes,
et ce rythme est appelé à perdurer indéfiniment, assurant une croissance continue
de cette crypto-monnaie.
L’Ethereum est néanmoins confronté comme le Bitcoin à des difficultés techniques
et à des problèmes de gouvernance. La montée en charge ou scalabilité est tout
aussi problématique en dépit du fait que le système permet d’absorber plus de
transactions à la seconde que le Bitcoin. La taille de la Blockchain d’Ethereum a
augmenté plus vite que le rythme initialement prévu par les concepteurs. La sécurité
procurée par la Blockchain a un donc un revers matérialisé par la difficulté de traiter
des volumes importants de transactions à des coûts raisonnables. Afin de relever
le défi en matière de scalabilité, le fondateur de cette crypto-monnaie suggère
le recours à des réseaux de Blockchain dont les frais de transactions s’avèrent
moins élevés et qui ont la faculté de supporter davantage de transactions par
seconde. Pour résoudre ce problème majeur posé par la congestion, il est en effet
possible d’augmenter la taille des blocs, de modifier la structure du réseau ou de
changer le mode de consensus. Concernant la dernière alternative, il est préconisé
d’abandonner la preuve de travail au profit de la preuve par l’engagement. Cette

1. Des précisions sont apportées dans la partie réservée aux diverses applications de la Blockchain.

269

046092.indd 269 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

méthode de consensus accorde en effet la validation des blocs aux mineurs qui
acceptent de mettre en gage les avoirs en crypto-monnaies qu’ils détiennent. Ces
validateurs sont ainsi dotés de pouvoirs au diapason de leurs dépôts.
La gouvernance est aussi problématique. Le consensus nécessaire au sein de
la communauté des mineurs concernant les évolutions à réaliser par la plateforme
est difficile à établir. C’est en raison des divergences intervenues au niveau de leur
gouvernance respective que les communautés Bitcoin et Ethereum ont été victimes
de scission. Celle de Bitcoin a débouché sur l’avènement de Bitcoin Cash tandis
que celle d’Ethereum a donné naissance à Ethereum Classic.
Bitcoin Cash circule depuis 2017, sa naissance est donc la conséquence d’un
désaccord au niveau de la taille des blocs. Ceux favorables à l’augmentation de
la taille des blocs ont fait le choix de la dissension en créant Bitcoin Cash dont les
blocs de transaction peuvent contenir jusqu’à 8 mégaoctets (contre 1 mégaoctet
pour le Bitcoin). Cela confère au système Bitcoin Cash une capacité de traitement
des transactions plus élevée. En terme de capitalisation boursière, Bitcoin cash
occupe le 6e rang.
Concernant l’Ethereum Classic, son début de circulation remonte à 2016. Il est
la conséquence d’un piratage du réseau. Cet acte criminel a ainsi débouché sur
le détournement d’une somme équivalente à 50 millions d’euros soit 3.6 millions
d’Ether. Les acteurs du réseau hostiles à toute modification du protocole à des fins
de sécurisation ont préféré faire sécession en créant Ethereum Classic. À l’inverse
de Bitcoin Cash, Ethereum Classic bénéficie d’une moindre valorisation marchande.
Un Ethereum Classic vaut à peine une dizaine d’euros

Les crypto-monnaies de la troisième génération sont le produit des difficultés


précédentes. Cardano en est le symbole emblématique. Cette monnaie virtuelle
est donc le produit du retour d’expérience des crypto-monnaies de première et
de deuxième génération. Elle tente ainsi d’apporter des réponses viables aux
difficultés rencontrées par celles-ci. D’autres crypto-monnaies à l’instar de Cardano
sont en cours de développement. EOS, AION, ICON, RDN telle est la liste non
exhaustive des monnaies virtuelles au potentiel technologique élevé appelées à
concurrencer celles des générations précédentes.

Tableau : Valorisation boursière des dix principales monnaies cryptées


sur le marché mondial au 27 août 2020

Capitalisation totale
Prix unitaire
Nom Symbole au 27 août 2020
en euros
(en millions d’euros)

Bitcoin BTC 178 166 11 098,64

Ethereum ETH 36 569 322,59

Ripple XPR 10 470 0.23

270

046092.indd 270 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

Capitalisation totale
Prix unitaire
Nom Symbole au 27 août 2020
en euros
(en millions d’euros)

Tether USDT 8 469 0.85

Chain Link LINK 4 531 12.95

Bitcoin Cash BCH 4 289 231.83

Litecoin LTC 3 211 49.11

Bitcoin SV BSV 2 980 161.11

Crypto Chain CRO 2 805 0.14

B. Libra, la nouvelle crypto-monnaie en devenir ?

Annoncé au mois de juin 2019, le projet de création de Libra1 devrait déboucher


sur son lancement au premier semestre 2020. Porté par Facebook et d’autres insti-
tutions parmi lesquelles des groupes financiers à l’assise solide et des ONG, Libra
ambitionne de devenir une monnaie d’échange de référence pour des milliards2
de personnes notamment celles exclues du système bancaire. Cette monnaie
numérique souhaite ainsi, s’ériger comme la première alternative aux banques
commerciales et centrales. Pour cela elle entend révolutionner le système bancaire
en bâtissant tout un écosystème financier libéré de la barrière de différentes devises
et des frais bancaires.
Ainsi, à l’inverse du système actuel de transfert d’argent caractérisé par des
frais onéreux, les transactions en Libra se singulariseront par leur facilité d’usage,
leur caractère instantané et leur coût modique. En somme, transférer de l’argent
avec Libra sera aussi facile que l’envoi d’un message ou d’une photo. Cette facilité
sera rendue possible grâce à l’intégration de Libra aux plateformes de Facebook
c’est-à-dire WhatsApp et Messenger.
Concrétiser la promesse de « l’Internet de l’argent » à partir d’un système
financier mondial low-cost et inclusif telle est la volonté des initiateurs. Ceux-ci sont
en effet persuadés qu’une circulation monétaire mondiale, libre et instantanée créera
d’immenses opportunités économiques et commerciales dans le monde entier.
Libra se distinguera des autres crypto-monnaies par sa stabilité. Sa valeur sera
adossée à un panier de devises sûres et peu risquées comme le dollar ou l’euro. Ce
faisant, elle aura une valeur intrinsèque et sera moins l’objet de fluctuations ou de

1. Le choix de ce nom fait à la fois référence à la livre romaine, une unité de mesure du poids
sous l’empire Romain. C’est aussi le sigle de la livre sterling britannique et le signe astrologique
de la balance symbolisant à la fois l’équité et la justice.
2. 1,7 milliard de personnes soit 31 % de la population adulte sont exclus des services bancaires.
Ces personnes ne disposent d’aucun compte auprès des institutions financières et n’ont
aucune possibilité de transférer de l’argent. Elles résident pour la plupart dans les pays en
développement souvent peu bancarisés.

271

046092.indd 271 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

volatilité. L’objectif est d’éviter que cette nouvelle crypto-monnaie s’inscrive dans le
sillage de ses prédécesseurs devenus des instruments au service de la spéculation.
Les devises permettant d’acquérir Libra serviront de garantie et de réserve ainsi
que les dépôts bancaires et les titres gouvernementaux à court terme. La valeur
d’une Libra par rapport aux autres devises dépendra ainsi de la fluctuation de ses
actifs sous-jacents. À l’instar de ceux-ci, Libra devrait être une devise numérique
mondiale combinant de multiples attributs positifs : stable, moins inflationniste,
grande acceptabilité et fongible.
L’obtention de Libra se fera sur des plateformes spécialisées dans la vente de
crypto-monnaies comme Coinbase. Des points physiques de dépôts et de retraits
verront le jour sur la base de partenariats.
Conçue pour être accessible à tous les citoyens du monde quel que soit leur
lieu de résidence, Libra sera convertible en devise locale et utilisée comme moyen
de paiement. L’application Calibra, un portefeuille virtuel développé par Facebook
jouera le rôle de facilitateur de ces opérations de conversion ou de transfert.
Comme toute crypto-monnaie, la Libra s’appuiera sur la technologie Blockchain.
Celle de Libra se singularisera par sa flexibilité afin de faciliter l’intégration de
nouvelles innovations en matière de services financiers. Elle se différenciera aussi
par le fait qu’elle ne sera pas ouverte. Seuls les membres fondateurs auront le
pouvoir d’accès à celle-ci. Ce choix d’un cercle fermé se justifie par la nécessité
d’assurer davantage de transactions par seconde et de restreindre la consom-
mation énergétique.
Autre particularité de la Blockchain Libra, elle ne sera pas à l’image des autres
crypto-monnaies c’est-à-dire un ensemble de blocs de transactions mais une structure
de données unique enregistrant l’historique des transactions et états au fil du temps.
Une telle structure présente l’avantage de permettre une lecture instantanée de
toutes les données ainsi que la vérification de l’intégrité de celle-ci. La Blockchain
s’appuiera sur un nouveau langage de programmation, le Move. Conçu pour
éviter le clonage des actifs, ce programme vise à sécuriser les transactions de la
Blockchain. Une transaction liée à un paiement ne peut modifier que les soldes
des parties prenantes à la transaction. À chaque transaction est donc associé un
code unique fourni par Move.
Le protocole de consensus choisi pour la validation des transactions est l’approche
BFT. Celle-ci permet d’une part de renforcer la confiance envers le réseau et d’autre
part d’offrir un débit de transaction élevé, une faible latence et une méthode de
consensus plus économe en énergie comparativement à la preuve de travail choisie
par d’autres crypto-monnaies.

Pour mener à bien ce projet, une association Libra est créée c’est-à-dire une
organisation indépendante à but non lucratif basée à Genève. Elle est constituée
des membres fondateurs, d’organisations à but non lucratif et multilatérales et
d’autres adhérents venus d’ici son lancement.

272

046092.indd 272 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

Le choix de Genève est lié à la neutralité politique de la Suisse. Cette association


est appelée à remplir diverses missions. D’abord faciliter le fonctionnement de la
Blockchain Libra, coordonner ensuite l’entente entre les interlocuteurs c’est-à-dire
les nœuds de validation du réseau afin de promouvoir, développer et d’élargir le
réseau et enfin gérer la réserve constituée de devises chargée de soutenir la Libra
et de lui donner une assise financière. Cette réserve comprendra entre autres les
10 milliards de dollars placés par chaque membre fondateur. Elle sera abondée
ensuite par tous les utilisateurs de Libra. Des primes financées par un placement
privé seront versées aux membres afin qu’ils encouragent leurs partenaires ou
leurs clients à adopter le Libra.
Initiateur du projet, Facebook n’aura pas de rôle prépondérant par rapport aux
autres membres de l’association. Il ne sera qu’un membre parmi tant d’autres dans
la gouvernance de Libra. Les décisions majeures portant sur les politiques et les
choix techniques seront prises sur la base de deux tiers des voix soit la majorité
absolue du réseau.
Le projet de création de cette crypto-monnaie par l’un des géants du numérique
ne relève ni de l’altruisme, ni de la philanthropie. Le business modèle du groupe
de Mark Zuckerberg basé sur la vente de publicité personnalisée sur ses réseaux
sociaux semble à bout de souffle. En se lançant dans cette aventure porteuse, il
entend d’abord tirer des dividendes en terme financier de ses 2.7 milliards d’inter-
nautes usagers de Facebook. Avec Libra ce mastodonte du numérique devrait
voir le trafic croître sur ses réseaux sociaux. Ses ressources publicitaires devraient
ainsi augmenter et sa situation financière s’améliorer. Par le biais de ce projet,
Facebook ambitionne aussi de prendre le pas sur ses principaux concurrents en
développant divers services financiers à terme. Il entend ce faisant se positionner
avantageusement dans la compétition mondiale qui l’oppose aux géants chinois
des réseaux sociaux.
Quant à ses partenaires, ils y trouvent aussi leur compte. Ils pourront en effet
élargir leur clientèle notamment dans les pays peu bancarisés. Pour ceux évoluant
déjà dans l’univers du paiement comme Mastercard ou Paypal, cet engagement
devrait les permettre de ne pas se laisser dépasser par les nouvelles solutions
proposées par Facebook.
Reste une inconnue de taille, celle concernant les données générées par ce trafic
lors de l’utilisation de Libra. Le groupe s’engage à ne pas les mettre à contribution
dans le cadre des opérations de ciblage publicitaire. Cet engagement suscite
doutes et appréhensions du fait du lourd passif de Facebook en la matière1.

1. David Marcus, un des cadres de Facebook chargé du projet Libra a affirmé devant le sénat
américain au début du mois d’octobre 2019 que, « pour le moment, il n’y avait aucune
raison d’envisager le partage des données entre Libra et Facebook ». Est-ce à dire que cette
séparation pourrait être remise en cause en fonction des intérêts de Facebook ? Certains
observateurs pointent du doigt le risque de patrimonialisation des données par le leader des
réseaux sociaux. Le groupe pourrait être tenté d’octroyer des Libras en échange de données
personnelles.

273

046092.indd 273 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Figure 13 : L’association Libra composée de 27 membres

C. Un projet qui fait l’unanimité contre lui


et dont l’aboutissement est plus qu’incertain

À peine annoncée, la monnaie digitale de Facebook a réussi l’exploit de faire


l’unanimité contre elle augurant mal de son avenir. Politiques, régulateurs et banquiers
centraux se sont montrés d’abord circonspects puis foncièrement hostiles à cette
crypto-monnaie.
Plusieurs griefs sont en effet portés à son passif qui mis bout à bout rendent
rédhibitoire l’aboutissement de ce projet.
Tout d’abord, nombreux sont les régulateurs qui redoutent que Libra devienne
un instrument de blanchiment d’argent, de financement du terrorisme et d’évasion
fiscale. Une critique portée avec constance aux monnaies virtuelles en raison de
l’anonymat des transactions au cœur de leur fonctionnement.
Ensuite pour certains politiques à l’instar de Bruno Lemaire, le ministre français de
l’économie et des finances, la naissance de Libra risque de porter atteinte à une des
prérogatives historiques dévolue à la puissance publique, celle de battre monnaie et
ce avec des conséquences incalculables en termes de risques systématiques. Pour

274

046092.indd 274 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

le ministre français de l’économie, le projet Libra soulève de nombreux problèmes


dont le risque d’abus de position dominante et de souveraineté dommageable
tant pour les consommateurs que pour les entreprises d’où son propos on ne peut
plus tranchant à l’encontre de cette monnaie digitale « Toutes ces préoccupations
sont sérieuses, je veux dire donc avec beaucoup de clarté que dans ces conditions
nous ne pouvons pas autoriser le développement de Libra sur le sol européen ».
L’avis Bruno Lemaire contraste avec celui de Xavier Niel, dont la société Iliad fait
partie des partenaires de l’association Libra. Pour le patron de Free « Libra existera
comme les 1 600 autres monnaies virtuelles d’ores et déjà disponibles en France.
C’est inéluctable avec ou sans nous, que les États le souhaitent ou pas ». Pour lui
« Libra est une proxi-monnaie c’est-à-dire une monnaie qui repose sur des devises
déjà existantes au prorata de leur usage dans le commerce mondial. Ce système
structurellement plus stable constitue une valeur refuge dans de nombreux pays
en cas d’instabilité monétaire ». Il souhaite donc que la France puisse être au cœur
de cette révolution. Il conclut que l’interdiction de Libra n’a aucun sens car « c’est
un projet fiable, constructif exigeant et conforme aux intérêts de la France ». Libra
n’est pas à ses yeux la monnaie de Facebook mais la monnaie d’acteurs qui se
sont réunis autour d’une grande idée.

Libra serait par ailleurs en cas d’adoption une monnaie globale détenue par
un seul acteur ayant à son actif plus de 2 milliards d’utilisateurs. Toute défaillance
dans le fonctionnement de cette monnaie, notamment dans la gestion de ses
réserves, pourrait créer des désordres financiers considérables. On ne peut écarter
le risque d’une panique bancaire en cas de chute du prix des actifs du portefeuille
Calibra à la suite d’une remontée des taux d’intérêt par exemple. L’émetteur de
la monnaie ne pourrait être en mesure de racheter toute la Libra en circulation
d’autant plus que le système ne bénéficie d’aucune garantie et d’aucun prêteur
en dernier ressort.
Les marchés financiers pourraient aussi souffrir de cette crypto-monnaie via
la création d’un réseau financier parallèle. Il en est de même des États dotés de
monnaie faible qui pourraient voir la Libra se substituer à leurs monnaies mettant
ainsi en cause la souveraineté de ceux-ci. C’est le cas notamment de certains pays
en développement notamment ceux d’Afrique subsaharienne dotés d’un faible
taux de bancarisation où l’avènement de Libra pourrait conduire les populations
locales à abandonner les monnaies qui ont cours légal au profit de paiements
dématérialisés via les téléphones portables1. La perte du contrôle de la monnaie

1. Certains détracteurs récusent l’originalité et le caractère indispensable de Libra en matière de


transfert de fonds ou de services financiers mobiles. Des avancées majeures ont été en effet
accomplies dans ce domaine notamment dans certains pays en développement. M-Pesa né
au Kenya et utilisé dans un nombre croissant de pays dont l’Afghanistan permet aux popula-
tions de pays peu bancarisés d’utiliser ce moyen pour transférer de l’argent. Les utilisateurs
ont besoin d’un téléphone portable et d’un simple contrat auprès de leurs opérateurs pour
accéder à ce service. Ils peuvent recharger leur solde à la boutique du coin et l’utiliser pour
acquérir des biens et services. D’instruments de transferts monétaires entre proches, M-Pesa

275

046092.indd 275 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

amplifierait les difficultés en cas de crise grave. La crise argentine du début des
années 2000 a mis en lumière les risques liés au processus de dollarisation et
préfigure de ce qui pourrait advenir en cas de crise de la Libra.
Cette monnaie privée pourrait selon les banquiers centraux rendre moins lisibles
et moins efficaces les politiques monétaires. En effet si la plupart des usagers de
Facebook adoptent la Libra pour une partie de leurs transactions en ligne, les États
risquent de perdre le contrôle sur une partie non négligeable des flux financiers.
La perte d’informations sur ces flux risque de rendre difficile la détermination de
la politique monétaire à mettre en œuvre.
Obstacle à la lisibilité des politiques monétaires, Libra pourrait aussi porter
atteinte aux libertés individuelles. Sa large adoption ferait en effet du portefeuille
Calibra un véritable panoptique financier à l’intérieur duquel seraient observables
toutes les actions de la vie économique et sociale d’un individu sans qu’il puisse avoir
la possibilité de s’en extraire. Facebook se transformerait ainsi en « Big brother ».
Concernant les autorités européennes, elles ne font pas mystère de leurs désap-
probations. Elles redoutent en effet que Libra contrevienne aux règles anticoncur-
rentielles en vigueur en Europe. Ces craintes résultent du fait que Libra est portée
par une association de 28 opérateurs de renom, les échanges entre ses membres
peuvent porter atteinte aux marchés respectifs de ces acteurs en les dotant d’un
fort avantage concurrentiel. Les mêmes appréhensions existent aux États-Unis où
Facebook fait face à de nombreuses enquêtes menées par le ministère de la Justice
américaine. Le réseau social de Mark Zuckerberg est au cœur d’une enquête pour
abus de position dominante menée dans 45 États américains. Celle-ci vise à déter-
miner si la position dominante de ce mastodonte du numérique a respectivement
étouffé la concurrence, mis en danger les données des consommateurs, limité le
choix de ceux-ci et incité les annonceurs à payer davantage.
Impliqué dans différents scandales et en proie à des démêlées judiciaires, le
réseau social nourrit des doutes sur sa capacité à protéger les données de ses
utilisateurs et par conséquent à se poser en tiers de confiance capable d’assurer en
toute sécurité et confiance les transactions de ses utilisateurs1. L’un des scandales qui
a entaché la réputation de Facebook est celui impliquant une entreprise britannique
du nom de Cambridge Analytica. Spécialisée dans la communication stratégique,
elle est accusée d’avoir utilisé indûment les données personnelles de 50 millions
d’utilisateurs pour élaborer un logiciel permettant de prédire et d’influencer le vote
des électeurs lors de la campagne présidentielle américaine et celle concernant
le Brexit. L’intervention de cette société s’est révélée décisive dans l’issue de ces
différents scrutins. Ce scandale a conduit les eurodéputés à réclamer l’interdiction

s’est mué en moyens de paiement d’une multitude de services dont les impôts. 70 % de la
population adulte au Kenya a accès à ce service dont la démocratisation a contribué à faire
baisser le taux d’exclusion financière.
1. L’idée d’un démantèlement des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et
singulièrement de Facebook semble faire son chemin. C’est la sénatrice Elisabeth Warren,
ancienne candidate à l’investiture démocrate à l’élection présidentielle américaine de 2020
qui en a fait son cheval de bataille. Il existe des précédents en la matière. La Standard Oil en
1911 et ATT furent démantelés. Microsoft y a échappé au début des années 2000.

276

046092.indd 276 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

du profilage à des fins publicitaires. Ces différentes tribulations ont provoqué des
défections de quelques membres de l’association Libra. Sept des 28 membres ont
en effet quitté l’aventure. Paypal a été le premier à l’annoncer puis d’autres se sont
rapidement engouffrés dans la brèche, Visa, MasterCard, eBay, Strip, Mercado Pago
et enfin Booking. Aucune raison officielle n’a été évoquée pour justifier ces départs
précoces mais il semblerait que ces différentes sociétés ont subi des pressions de
nature politique de la part de parlementaires américains. Dans une lettre servant
de mise en garde envoyée à certains d’entre eux, il est fait mention de ce qui suit
« Vous deviez être inquiets que toute faiblesse dans le système de gestion des
risques de Facebook devienne une faiblesse dans vos propres systèmes et que
vous ne puissiez peut-être pas l’atténuer efficacement ».

S’exprimant devant les membres d’une commission parlementaire américaine


courant octobre 2019, le fondateur de Facebook a tenté de jouer sur la fibre
patriotique pour atténuer l’hostilité manifeste de ses interlocuteurs. Il a notamment
argué le fait que Libra serait au service de la perpétuation de l’hégémonie finan-
cière américaine dans un contexte marqué par de vives tensions avec la Chine.
Ces déclarations opportunément rassurantes suffiront-elles pour tempérer le
scepticisme et l’hostilité croissante du régulateur américain à l’encontre de ce
projet1 ? Rien n’est moins sûr. Une seule certitude s’impose présentement, le
lancement de Libra ne sera effectif qu’une fois les régulateurs européens et améri-
cains assurés que la naissance de cette monnaie digitale ne fera pas ombrage, ni
à l’euro, ni au dollar et non plus aux acteurs de la finance internationale. Réunis à
la mi-octobre 2019, les ministres de l’économie du G7 ont en effet convenu d’une
opposition commune au lancement de monnaies virtuelles stables adossées à des
devises tant qu’un cadre réglementaire strict ne sera pas établi. Autant de réserves
qui témoignent d’un avènement très incertain de Libra.

D. La crypto-monnaie chinoise, une réponse accélérée


à l’arrivée de Libra

Les tribulations de la monnaie virtuelle de Facebook font un heureux, il s’agit


incontestablement de l’Empire du milieu. Après avoir mis à l’index les crypto-mon-
naies2, la Chine s’est ravisée en accélérant les préparatifs du lancement de sa
propre monnaie virtuelle. En toile de fond, la crainte des autorités chinoises de voir
Libra porter atteindre à la stabilité du yuan, la monnaie chinoise. Au-delà de cet
objectif macro-économique, il y a aussi la volonté des autorités chinoises d’avoir
un meilleur aperçu des transactions en Chine dans un contexte marqué par le recul

1. La réserve fédérale américaine a présenté une liste pléthorique de défis réglementaires


auxquels Facebook devra se conformer.
2. En 2017, l’Empire Céleste avait affiché une grande fermeté à l’égard des crypto-monnaies en
fermant des plateformes d’échanges de celles-ci. Les trois plateformes chinoises représentaient
98 % des échanges mondiaux.

277

046092.indd 277 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

de l’usage de la monnaie papier. Savoir comment les citoyens chinois dépensent


leur argent est une de leurs préoccupations. Avec cette crypto-monnaie, la Banque
centrale chinoise et les autorités de Pékin seront mieux outillées pour disposer de
toutes les informations relatives aux habitudes de consommation et en matière de
placements des utilisateurs. Ce faisant les faits et gestes de la population seront
mieux contrôlés renforçant ainsi l’efficacité du contrôle social à l’œuvre.
Des entreprises partenaires auront la mission de l’intégrer dans leurs services
afin d’assurer sa large diffusion. Alibaba, Tencent, Huawai,… font partie des entre-
prises engagées dans cette aventure.
À l’inverse des autres crypto-monnaies, la monnaie virtuelle chinoise sera gérée
de manière centralisée. Elle aura aussi pour objectif de réduire la dépendance de
l’économie chinoise à l’égard du dollar ainsi que la neutralisation des sanctions
commerciales décidées par l’administration américaine. La rapidité d’exécution
et les frais dérisoires associés à ce type de monnaie devraient contribuer à son
succès. Ce choix des autorités chinoises en faveur de la technologie numérique est
aussi motivé par la volonté de s’affranchir d’un autre acteur américain spécialisé
en matière de paiements internationaux, domaine dans lequel son hégémonie est
incontestée ; il s’agit de Swift dont le coût des opérations est jugé onéreux par
les autorités chinoises.
Déployé d’abord à l’intérieur de la Chine, l’usage de la crypto-monnaie chinoise
pourrait rapidement s’étendre au-delà des frontières de l’Empire du milieu. Elle
pourrait servir de moyens de paiement dans les pays impliqués dans l’ambitieux
projet des routes de la soie. Celui-ci vise à établir des connexions maritimes et
routières entre l’Asie et le reste du monde. Lors du XIXe congrès du parti commu-
niste chinois, le 19 octobre 2017, le président chinois Xi Jinping n’a pas fait mystère
du caractère stratégique de ce projet en déclarant « d’ici 2050, la Chine devra se
hisser au premier rang du monde en termes de puissance globale et de rayon-
nement international ».
Avec les routes de la soie, ce sont des dizaines de pays impliqués dans ce
projet titanesque qui pourraient voir cette monnaie digitale circuler en leur sein
et contribuer conséquemment à son succès.
La naissance de la crypto-monnaie chinoise va-t-elle laisser indifférentes les autres
États-nations concurrents ? Il y a fort à parier que d’autres monnaies numériques
publiques verront le jour à très brève échéance. Le caractère stratégique des
systèmes de paiement que d’aucuns considèrent comme relevant des communs
suscite en effet des prises de position favorables à cette évolution. En France,
c’est le ministre de l’économie Bruno Lemaire qui plus d’une fois s’est prononcé
en faveur de la naissance d’une monnaie virtuelle émise par la Banque centrale
européenne. Dans un entretien accordé à la Tribune, le 6 septembre 2019, il a
estimé nécessaire « d’engager une réflexion sur une monnaie numérique publique,
émise par les banques centrales, qui garantirait la sécurité totale des transactions,
leur rapidité, leur simplicité et leur gratuité ».

278

046092.indd 278 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

Christine Lagarde, la nouvelle gouverneure de la BCE apparaît aussi favorable


à ce type d’initiative. Elle juge intéressante l’idée d’une stablecoin1 de banques
centrales. Les diverses prises de position des autorités monétaires à travers le
monde ont encouragé de multiples initiatives en matière d’expérimentation d’une
monnaie numérique de banque centrale. C’est le cas de l’institution de Bretton
Woods depuis le début de l’année 2020. Le FMI en collaboration avec la Banque
mondiale a en effet mis au point une monnaie digitale d’expérimentation baptisée
« Learning Coin ». Uniquement accessible aux personnels des deux institutions,
cette monnaie numérique a pour but de permettre aux deux organismes de mieux
comprendre les enjeux autour de ces monnaies virtuelles et de la Blockchain. En
s’engageant dans cette expérimentation, le FMI entend montrer les avantages
qu’une telle monnaie peut générer notamment en matière d’inclusion financière
des personnes exclues du système bancaire actuel. Cela est d’autant plus vrai dans
les pays en développement faiblement bancarisés.
En Europe, c’est le gouverneur de la Banque de France, François Villeroy de
Galhau qui a annoncé à la fin de l’année 2019, l’expérimentation d’une monnaie
digitale de banque centrale (MDBC). Développé en collaboration avec l’ACPR
(Autorité de Contrôle Prudentiel et de Résolution), ce projet qui est une première
dans la zone euro devrait voir le jour d’ici fin 2020. Pour le gouverneur de la Banque
de France, cette MDBC est une réponse aux initiatives de type Libra et un moyen
d’affirmation de la souveraineté des États face au développement des monnaies
privées. Cette expérimentation est toutefois perçue comme un laboratoire en vue
de l’avènement à venir d’un euro digital.
La Suède s’est aussi engagée dans un processus d’expérimentation. La Banque
centrale suédoise Riksbank ambitionne en effet de créer à terme une E-couronne, une
monnaie digitale s’appuyant sur une technologie de registre distribué. Confrontée
comme c’est le cas dans de nombreux pays à une baisse irréversible de l’utilisation
des espèces2, la Banque centrale suédoise veut offrir une monnaie digitale comme
alternative aux Suédois. Deux modèles de monnaie digitale de banque centrale sont
en général possibles, l’une dite de détail est réservée aux citoyens, l’autre dite de
gros accessible essentiellement aux intermédiaires financiers. C’est la première qui
servirait dans le cas de la Suède de substitut à la monnaie fiduciaire. Son stockage
pourrait se faire à partir d’une application pour smartphone ou sur une carte.
Les États-Unis ne sont pas en reste par rapport à cette perspective, la Réserve
fédérale américaine a annoncé qu’elle travaillait au déploiement d’un système de
paiement en temps réel d’ici 2024. Ses dirigeants ont aussi affirmé leur volonté de
répondre aux initiatives d’entreprises privées en matière de monnaie numérique.

1. Le stablecoin désigne un type de crypto-monnaie dont la valeur est stable. Cette stabilité
résulte de l’adossement de la monnaie numérique à des devises qui ont cours légal à l’instar
de l’euro, du yen ou du dollar. Certains stable coins sont adossés à des matières premières
comme l’or ou le pétrole. Ils ont pour vocation de réduire la volatilité, les frais de conversion
et la taxation.
2 La circulation de la monnaie fiduciaire est particulièrement en recul en Suède. Entre 2008
et 2018, l’utilisation des espèces a baissé de 50 %. Une baisse qui s’explique notamment par
le fait que de nombreux commerçants refusent les paiements en espèces.

279

046092.indd 279 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Ces expérimentations sont assurément appelées à prendre de l’ampleur comme


en témoigne cette étude de la Banque des règlements internationaux (BRI). Selon
celle-ci, 80 % des banques centrales dans le monde mènent des réflexions sur
la création d’une monnaie digitale. Différents avantages sont attendus de cette
perspective. Outre le fait qu’elle pourrait permettre de résoudre certaines difficultés
en matière de transactions financières, la mise en œuvre d’une monnaie numérique
de banque centrale est de nature à générer des conséquences macro-économiques
positives. Il y a d’abord la baisse des coûts de transactions liée à l’utilisation de
la technologie Blockchain et à l’intensification de la concurrence sur le marché
des paiements. Ensuite, une hausse de la productivité et de l’innovation pourrait
résulter des précédentes évolutions dans le secteur des services financiers. Dans
le cas de la zone euro, l’émission de l’euro digital pourrait avoir pour effet de
renforcer l’attractivité de la monnaie unique européenne et de renforcer son rôle
international. Cependant des réserves accompagnent cette perspective de voir
se développer des monnaies numériques de banque centrale. La Banque des
règlements internationaux n’y est pas favorable car elle redoute une déstabilisation
de l’économie mondiale. En période d’incertitude économique notamment, les
citoyens pourraient être tentés de convertir massivement leur monnaie fiduciaire en
monnaie numérique du pays, engendrant par ce fait un préjudice considérable aux
banques commerciales qui pourraient être menacées de faillite face à cette situation
de panique. En entrant par ailleurs en concurrence avec la monnaie fiduciaire, la
monnaie digitale de banque centrale pourrait provoquer une flambée des taux
d’intérêt et pénaliser ainsi l’investissement et la croissance économique. Des craintes
qui cependant ne semblent pas affecter l’optimisme des banques centrales quant
à leur volonté de renforcer leur présence sur le marché des crypto-actifs.

E. Les crypto-monnaies sont-elles des monnaies


comme d’autres ?

Le succès fulgurant rencontré par les crypto-monnaies leur confère-t-il le statut


de monnaie à part entière au même titre que les monnaies officielles comme l’euro
ou le dollar ? Pour ses usagers et ses promoteurs cette interrogation est dénuée
de sens puisque nombre de crypto-monnaies singulièrement le Bitcoin permettent
d’acquérir des biens et des services. De ce fait le statut de monnaie ne peut leur
être refusé. En outre, les crypto-monnaies réunissent un certain nombre de carac-
téristiques physiques confortant leur statut de monnaie. Elles sont inaltérables,
fongibles, divisibles, faciles à stocker et à transporter. Aux yeux de leurs partisans,
les crypto-monnaies sont l’équivalent numérique de l’argent liquide, il est ainsi
fondé de les considérer comme des monnaies.
Ces affirmations ne font pas l’unanimité au sein de la famille des économistes.
Nombre d’entre eux en prennent le contre-pied en affirmant qu’un moyen de
paiement ne suffit pas à définir une monnaie.

280

046092.indd 280 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

Depuis Aristote, on considère en effet qu’une monnaie doit remplir trois fonctions
principales. Elle doit servir simultanément d’intermédiaire des échanges, d’unité
de compte et de réserve de valeurs1. Pour nombre d’économistes, les crypto-mon-
naies, dont le Bitcoin, remplissent imparfaitement ces fonctions.
Concernant la première fonction, elle est effective lorsque la monnaie sert
d’intermédiaire et de facilitateur des échanges, en somme lorsqu’elle peut être
échangée contre des biens ou des services. C’est la plus importante des fonctions
car elle conditionne les deux autres. Certaines crypto-monnaies à l’instar du Bitcoin
semblent l’assumer. En effet, un nombre croissant de commerces en ligne affiche
leurs prix en crypto-monnaie et est de ce fait disposé à l’accepter comme moyen
de paiement. Ce constat mérite toutefois d’être relativisé car l’utilisation du Bitcoin
comme moyen de paiement reste marginale. Peu de consommateurs mobilisent
cette crypto-monnaie dans leurs achats quotidiens. Son usage s’avère plus courant
lors d’achat de logiciels et de matériels informatiques en rapport avec cette crypto-
monnaie. Son poids dans les transactions se révèle ainsi très anecdotique. Au sein
de la zone euro, l’utilisation du Bitcoin apparaît infinitésimale, seuls 20 % du volume
des transactions sont concernés. Au niveau mondial, les paiements en Bitcoin
s’élèvent à 100 millions par jour, c’est à peine 1 % des paiements réalisés par Visa et
Mastercard aux États-Unis s’élevant respectivement à 16.5 et 9.8 milliards par jour.
La détention de crypto-monnaie est par ailleurs très concentrée et le nombre
des points de vente en monnaie virtuelle reste très limité. Dans le premier cas,
2.5 % possèdent plus de 95 % des sommes en circulation et dans le second cas,
le nombre d’enseignes acceptant les règlements en monnaie virtuelle dépend des
pays, des cultures et des stratégies commerciales. En Corée du Sud ou au Japon
par exemple, le recours aux crypto-monnaies comme moyen de paiement est plus
répandu que dans certains pays du Vieux Continent. En France notamment aucun
grand groupe n’accepte les crypto-monnaies comme moyen de paiement2. Le
périmètre d’accessibilité des crypto-monnaies demeure encore très faible.
Qu’en est-il alors de la seconde fonction ? Une monnaie joue le rôle d’unité de
compte dès lors qu’elle sert de numéraire de référence pour exprimer les prix et
permet de ce fait aux agents économiques d’effectuer des comparaisons. La monnaie
permet ainsi d’établir une échelle des valeurs et facilite le calcul économique.

1. Les fonctions de la monnaie ne peuvent se limiter à cette dimension fonctionnelle. La monnaie


remplit aussi des fonctions sociales et politiques. C’est en effet une institution sociale et
politique qui joue le rôle de régulateur social puisqu’elle crée des hiérarchies au sein des
sociétés humaines. C’est aussi un des attributs de l’identité des nations et l’expression de
leur souveraineté.
2. La situation est appelée à évoluer dès le début 2020. En effet grâce à l’application Easy
Wallet et à la solution Easy2 PlayPayment développée en partenariat avec Global POS, une
trentaine d’enseignes c’est-à-dire 25 000 points de vente pourront accepter les crypto-mon-
naies comme moyen de paiement. Il s’agit de Décathlon, Intermarché, Foot Locker, Cultura,
Sephora, Conforama, Maison du Monde,… Des enseignes grand public qui en tentant cette
expérimentation vont contribuer au processus de démocratisation des monnaies digitales
dont le niveau de détention reste encore faible car à peine 6 % des Français déclarent en
posséder.

281

046092.indd 281 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

L’exercice d’une telle fonction implique un attribut essentiel, celui ayant trait
à la stabilité monétaire. Or une des caractéristiques des crypto-monnaies est leur
extrême volatilité comme en témoigne l’évolution du Bitcoin décrite par le graphique
suivant. On peut en effet constater une extrême fulgurance de la valeur du Bitcoin
durant l’année 2017. Son cours a été multiplié par 14 avant de revenir à son niveau
initial à la fin de l’année 2018 après une importante phase de correction.

Figure 14 : Le cours du Bitcoin

Source : highcharts.com

La volatilité du Bitcoin est en effet 25 fois plus élevée que celle du marché des
actions, 5 fois plus forte que celle des matières premières et 12 fois supérieure à
celle de la monnaie japonaise le yen. Cette grande volatilité constitue un obstacle
dans l’accomplissement de la fonction d’unité de compte. Les prix affichés en Bitcoin
ou en crypto-monnaie sont de ce fait très fluctuants. Il peut en résulter confusion
et difficulté des consommateurs à apprécier l’évolution des prix dans le temps.
Les vendeurs de biens et services sont de leur côté exposés au risque de
change. De trop fortes variations peuvent déboucher sur de grosses pertes. Dans
le cas du Bitcoin, l’extrême volatilité de cette monnaie virtuelle engendre une
grande différence des prix sur les différentes plates-formes de marché au point
de contrevenir à la loi de l’unicité des prix.
Ces fluctuations perturbent donc la qualité de l’information à disposition des
acteurs économiques. Ils ne peuvent tirer avantage de ces mouvements erratiques
pour acheter au plus bas et vendre au prix élevé. L’absence de lisibilité de ces infor-
mations les empêchant en définitive de faire des arbitrages sur différents marchés.
La difficulté pour les crypto-monnaies de servir d’unité de compte résulte aussi
du fait que leur valeur unitaire est généralement très élevée par rapport à celle
de la plupart des produits et services ordinaires. Cette singularité conduit à fixer

282

046092.indd 282 18/11/2020 09:10


II. Un univers concurrentiel marqué par la diversité et la domination de Bitcoin

des prix en quatre décimales ou plus. La limite de la division des Bitcoins étant
de huit décimales1, il en résulte alors une grande difficulté des consommateurs
à comprendre ces prix, de les interpréter d’autant plus sont coutumiers des prix
composés de deux décimales exprimées en monnaie officielle.
De valeur fragile et inconstante, les crypto-monnaies peuvent-elles remplir la
fonction de réserve ?
Une monnaie remplit cette prérogative lorsqu’elle permet à tout détenteur
d’effectuer un report de consommation ou un placement sans avoir à pâtir de la
dépréciation monétaire, en d’autres termes la monnaie permet l’épargne afin de
faire face aux aléas ou à des besoins différés dans le temps. C’est selon Keynes, un
des éminents économistes passés à la postérité, le lien entre le présent et le futur.
Dans le cas des monnaies officielles, le risque de dépréciation monétaire est
très limité du fait de l’action volontariste des banques centrales dont l’une des
missions est de veiller à la stabilité des prix et donc à la préservation intertempo-
relle du pouvoir d’achat de la monnaie. La Banque centrale européenne définit
la norme en matière d’inflation en dessous du seuil de 2 %. Au-delà, elle agit en
mettant en œuvre une politique monétaire restrictive afin de garantir la stabilité
du pouvoir d’achat de l’euro.
En raison de leur très forte instabilité, les crypto-monnaies en général et le
Bitcoin en particulier peuvent difficilement exercer la fonction de réserve de valeur.
Cette fonction implique par ailleurs que la monnaie doit être facile à conserver en
toute sécurité à l’abri de vols ou de perte. Dans le cas des monnaies qui ont cours
légal, ce risque est infinitésimal du fait que la gestion est assumée par les banques
de second rang bénéficiant des garanties des pouvoirs publics ainsi que celles
des banques centrales. Concernant les crypto-monnaies, cette sécurité est dans
certains cas très anecdotique. Conservées dans des comptes informatiques ou des
disques durs, les crypto-monnaies ne bénéficient pas d’une sécurité absolue à toute
épreuve. Nombre d’incidents ou de vols ont émaillé l’actualité de ces dernières
années. Des attaques informatiques et des vols ont en effet eu lieu témoignant de
fait des faiblesses du système de conservation des monnaies virtuelles.
Ne pouvant assumer les fonctions dites traditionnelles de la monnaie2, les
crypto-monnaies ne peuvent pas non plus être des instruments au service de la
stabilité macro-économique comme le sont les devises officielles. Le processus de
création déflationniste préconisé par le protocole Bitcoin confère à cette monnaie

1. La plus petite unité du Bitcoin est le Satoshi, il vaut 0.00000001 Bitcoin c’est-à-dire 1 Bitcoin est
égal à 100 millions de Satoshis ; Il y a aussi le milli-Bitcoin et le micro-Bitcoin. Le premier vaut
0.001 Bitcoin, le second est égal à 0.000001 Bitcoin. Ainsi si un objet vaut 5 euros et que le
cours du Bitcoin est de 8 670 euros alors son prix exprimé en Bitcoin est de 0.00005767012687
Bitcoins.
2. Certains économistes considèrent que les crypto-monnaies au vu du théorème de régression
peuvent objectivement être considérées comme des monnaies. Défini par Ludwig Von Mises,
le théorème de régression stipule qu’une monnaie avant d’avoir une valeur d’échange a néces-
sairement une valeur d’usage. En d’autres termes ce théorème affirme que toute monnaie tire
sa valeur de son utilisation non monétaire. Le Bitcoin au regard de cette définition satisfait au
théorème de régression.

283

046092.indd 283 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

numérique un pouvoir d’attraction justifiant sa montée aux nues mais il rend inefficace
ou inopérant la mise en œuvre d’une politique monétaire accommodante permettant
de juguler la déflation.
Les crypto-monnaies ne sont en définitive que des actifs numériques au service
de la spéculation. L’évolution de leurs cours apparaît davantage dictée par une
logique spéculative plutôt que par des considérations macro-économiques.

III. Quelle régulation pour les crypto-monnaies ?

Le nombre on ne peut plus croissant de monnaies virtuelles témoigne indis-


cutablement de leur succès. Nombre d’économistes, d’hommes politiques et de
banquiers centraux appellent de leurs vœux à la mise en œuvre d’une régulation
en raison des risques qui sont associés aux crypto-monnaies. Une régulation qui
s’avère nécessaire afin de sécuriser les utilisateurs et les acteurs qui prennent le
risque d’innover. D’autres à l’inverse considèrent que la régulation des crypto-mon-
naies est loin d’être une nécessité prégnante, elle doit cependant être circonscrite
à la lutte contre le blanchiment afin de ne pas porter atteinte à la technologie de
la Blockchain et à ses multiples promesses.
Le débat prend aujourd’hui une résonance particulière avec l’avènement laborieux
de Libra et la mise en circulation imminente de la crypto-monnaie chinoise. Quels
peuvent être alors les contours d’une régulation protectrice et efficace ?

A. Des risques identifiés mais des bénéfices certains

Différentes critiques sont formulées à l’encontre des crypto-monnaies, elles


sont à la base des craintes suscitées par celles-ci.
La première découle du principe d’anonymat des transactions au cœur de
leur fonctionnement. Il s’agit du fait que de nombreuses activités illicites et des
organisations mafieuses et terroristes ont recours à ces monnaies digitales pour
transférer de l’argent. Les transactions en crypto-monnaie sont en effet difficiles à
tracer comparativement aux opérations interbancaires traditionnelles, elles peuvent
donc favoriser ces dérives aux graves conséquences.
Les contribuables souhaitant se soustraire aux contributions collectives ou
animés par la tentation de minorer leur quote-part aux charges collectives peuvent
aussi y recourir. L’anonymat, une fois de plus, rend difficile l’identification par les
autorités fiscales des personnes ou des entreprises propriétaires d’un compte en
crypto-monnaie. Même en cas de levée de l’anonymat, la procédure d’identification
est longue et reste difficile.
Les crypto-monnaies peuvent aussi être utilisées pour contourner le contrôle
des capitaux et des changes. Ils contribuent ce faisant à l’évasion des capitaux et
des bases fiscales. L’exemple du Venezuela, de Chypre ou de la Grèce en porte

284

046092.indd 284 18/11/2020 09:10


III. Quelle régulation pour les crypto-monnaies ?

témoignage. Toutes ces raisons cumulées font apparaître les crypto-monnaies


comme un moyen par excellence de blanchiment d’argent des activités illégales,
de financement du terrorisme, de fraude et d’évasion fiscale.
De nombreuses études et rapports y apportent crédit. Selon Europol (European
Policy Office), ce sont 3 à 4 milliards d’euros d’origine criminelle qui feraient l’objet
de blanchiment tous les ans. Pour Tracfin, la cellule du ministère de l’économie
et des finances, chargée de la lutte contre le blanchiment de capitaux et le finan-
cement du terrorisme, les ICO offrent de nombreuses possibilités de blanchiment
de capitaux et d’escroqueries. Des fonds à l’origine douteuse peuvent d’abord être
investis en jetons ou tokens, revendus ensuite à des investisseurs puis convertis en
monnaie ayant cours légal. Il a aussi été constaté des collectes de fonds à la suite
d’ICO non suivies de distribution de Tokens, ni de développement de projet. Plus
généralement, diverses arnaques ont été mises au jour pouvant prendre la forme
de pyramide de Ponzi ou de cessation frauduleuse d’activité.
Par ailleurs Tracfin a reçu ces dernières années, un nombre croissant de déclara-
tions de soupçons liés à l’utilisation des crypto-monnaies (28 déclarations en 2014
contre 351 en 2017) Des chiffres en nette croissance mais à relativiser comparati-
vement à l’usage de monnaies cash à des fins malveillantes et criminelles.
Le GAFI (Groupe d’action financière) a aussi souligné l’utilisation croissante des
monnaies numériques à des fins criminelles. Outre le trafic de drogue et la fraude,
le lien entre monnaies virtuelles et d’autres crimes tend à prendre une ampleur
croissante selon cette institution.
La seconde critique concerne les failles du système de sécurité relatif au stockage
des crypto-monnaies. Si le protocole de validation des transactions peut se targuer
d’être inviolable, il n’en est pas de même du système de conservation des monnaies
digitales. Les utilisateurs de crypto-monnaies ont recours à des comptes ouverts
auprès de plateformes d’échange pour la conservation de leurs avoirs. Ceux-ci
ne sont pas hélas à l’abri d’actes malveillants. Plusieurs incidents liés à des actes
de piratage ont ruiné nombre d’investisseurs ces dernières années. Le plus reten-
tissant d’entre eux fut le piratage puis la faillite de Mt Gox en 2014, la plus grande
plateforme au monde. 487 millions de dollars furent dérobés et 127 000 inves-
tisseurs lésés par cet acte criminel. Plus généralement 649 millions de dollars de
pertes de crypto-monnaies ont été enregistrées de 2011 au 31 décembre 2017.
L’essentiel de ces pertes, soit 73 % impliquaient des plateformes d’échange. Les
piratages successifs de Coincheck, de Congrail et de Bithumb ont porté ces pertes
à 1.2 milliards de dollars en 20181.
Ces chiffres astronomiques attestent de la fragilité de ces « coffres-forts virtuels ».
Le stockage des monnaies digitales est aussi possible sur un support personnel
tel qu’un disque dur, une tablette ou un smartphone. En cas d’adoption de ce
moyen de conservation, le propriétaire court le risque potentiel de tout perdre en

1. Le piratage de Coinchek en janvier 2018 s’est traduit par 530 millions de pertes, 0.530 millions
en juin 2018 pour celui concernant Coingrail et 1 million de pertes en juillet 2017 à l’issue du
piratage de Bithumb.

285

046092.indd 285 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

cas de perte ou de destruction accidentelle du support. C’est la mésaventure qui


est arrivée à un Britannique, James Howell détenteur de 7 500 Bitcoins acquis en
2009 en échange d’une modique somme en livre sterling. En se débarrassant de
son matériel informatique devenu obsolète, il a jeté par erreur son disque dur dans
lequel étaient stockés ses Bitcoins. Cette erreur fatale lui a ainsi causé un préjudice
se chiffrant en millions de livres sterling. En effet échangés au cours d’aujourd’hui
ses 7 500 Bitcoins lui auraient rapportés une monumentale plus-value.
Autre critique au passif des crypto-monnaies, c’est leur extrême volatilité. N’étant
adossé à aucun actif réel et reposant essentiellement sur un mécanisme de rareté
fondateur de sa valeur, le système des monnaies virtuelles semble voué à demeurer
intrinsèquement spéculatif. Ne bénéficiant d’aucune garantie de convertibilité en
monnaies réelle par les pouvoirs publics, il expose ses détenteurs à d’importantes
désillusions financières en cas de crise de défiance.
Ces différentes imperfections non exhaustives ne doivent pas occulter les poten-
tiels bénéfices dont elles sont porteuses.
Outre la faiblesse des coûts de transaction qu’elles permettent, les monnaies
numériques sont porteuses d’une innovation majeure, celle de la digitalisation de
la valeur et des actifs. Il s’agit de la représentation numérique de la valeur, fongible
et divisible circulant sur internet et pouvant faire l’objet d’échange de pair à pair
en toute sécurité. Tout actif peut avec ce processus être inscrit sur une Blockchain.
On parle alors de « tokenisation des actifs ». Certains actifs se prêtent davantage à
la tokenisation que d’autres. Les actifs incorporels (brevets, droit d’auteur, crédits
carbone, etc.) et les actifs fongibles (or, argent, blé,…) y sont éligibles. Dans
le premier cas, leur caractère immatériel permet ce processus de tokenisation.
Dans le second cas, leur divisibilité en plusieurs unités facilite cette conversion en
Tokens. Les actifs non fongibles ne sont pas à l’inverse tokenisables. C’est le cas
des prêts hypothécaires qui généralement sont associés à d’autres prêts. Titrisés,
ils se prêtent moins facilement à cette opération.
Divers avantages découlent de ce processus. Tout d’abord, la tokenisation
améliore la liquidité des marchés car elle permet une plus grande ouverture
géographique et temporelle de ceux-ci. En effet ces actifs étant accessibles à tout
investisseur quel que soit son lieu de résidence, il en résulte un flux d’échanges
plus conséquent améliorant la profondeur des marchés. La tokenisation permet
d’autre part de démocratiser l’accès à certains actifs en créant des fractions de
propriété. C’est le cas des tableaux de maître dont la tokenisation de la valeur
pourrait permettre à des particuliers d’en être propriétaire collectivement c’est-
à-dire d’en posséder chacun une fraction de la valeur globale.
Avec la tokenisation des actifs, internet devrait devenir le plus grand marché
d’actifs au monde à l’instar de sa vocation d’être la plus grande bibliothèque du
monde. Ce processus ne va pas sans risques dont celui de la gouvernance et de
la sécurité juridique. L’harmonisation juridique des droits attachés à des actifs
immatériels circulant sur internet est un vrai défi.

286

046092.indd 286 18/11/2020 09:10


III. Quelle régulation pour les crypto-monnaies ?

B. Réguler sans entraver l’innovation : le chemin de crête


des pouvoirs publics

Sécuriser les utilisateurs et les acteurs qui prennent le parti de l’innovation,


s’attaquer aux dérives pouvant déboucher sur le discrédit généralisé de l’écosystème
des crypto-monnaies telle est la vocation de la régulation. Elle passe par voie de
conséquence en premier lieu par la clarification du statut et du régime fiscal des
monnaies virtuelles. Elle implique en second lieu, une limitation de l’anonymat qui
est la source principale des pratiques malveillantes. Elle consiste en troisième lieu,
à limiter l’exposition du secteur financier afin d’éviter tout risque systémique. Elle
nécessite enfin un renforcement de la coopération internationale dans ce domaine.
Il n’existe pas de consensus concernant la nature juridique des monnaies
virtuelles. Leur statut varie d’un pays à un autre. Si en Grande Bretagne, les
monnaies numériques sont considérées comme de l’argent liquide, en Corée du
Sud, elles sont assimilées à des biens ou à des marchandises. Ces différences de
statut débouchent sur des régimes fiscaux différents. En Chine, les Bitcoins sont
assimilés aux gains aux jeux en ligne et imposés au titre de l’impôt sur le revenu.
En Allemagne, ils sont imposés comme des biens immobiliers et aux États-Unis ils
sont assimilés à des revenus du capital et taxés comme tels. Certains pays restent
muets sur le statut des crypto-monnaies et ne proposent aucune règle de taxation
des monnaies virtuelles.
La France avec la loi PACTE1 a fait d’énormes progrès en matière de classification
du statut des crypto-monnaies. L’article 41 de la loi de finance n° 2018-137 du
28 décembre 2019 défini les crypto-actifs comme « toute représentation numérique
d’une valeur qui n’est pas garantie par une banque centrale ou par une autorité
publique qui n’est pas nécessairement attachée à une monnaie ayant cours légal
et qui ne possède pas le statut juridique d’une monnaie mais qui est acceptée par
des personnes physiques ou morales comme un moyen d’échange et qui peut être
transférée, stockée ou échangée électroniquement ». La définition juridique des
crypto-monnaies précisées, il est donc plus aisé d’édifier une réglementation. Les
caractéristiques d’un crypto-actif étant proches d’un titre financier, la régulation
applicable est la même que celle d’un titre financier. Ainsi le régime fiscal appli-
cable pour les crypto-monnaies est comparable au prélèvement forfaitaire unique
appliqué aux revenus de capitaux mobiliers et aux gains et profits assimilés. Les
plus-values réalisées par les particuliers sur le Bitcoin et autres crypto-monnaies
sont désormais imposées à 30 %, un taux identique à celui des valeurs mobilières.
Ces dispositions fiscales ont ainsi le mérite d’éviter le flou juridique qui prévalait
jusqu’alors. Lisibles, elles apparaissent cohérentes avec les règles qui sont appli-
quées aux revenus générés par les capitaux mobiliers. Un progrès susceptible
de contribuer à l’attractivité de la France en matière de nouvelles technologies.

1. La loi PACTE (Plan d’action pour la croissance et la transformation des entreprises) est un
texte législatif visant à assouplir ou à supprimer un certain nombre de formalités auxquelles
les entreprises sont soumises.

287

046092.indd 287 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Dans le cadre de la loi Pacte, la France a aussi fait le choix de réguler les ICO
(Initial Coin Offerings), alors que d’autres pays se sont engagés dans une chasse
contre cette nouvelle source de financement des entreprises spécialisées dans les
nouvelles technologies. L’Hexagone tient à en tirer le meilleur en faisant le choix
d’un visa optionnel délivré par l’Autorité des marchés financiers (AMF).
L’article 26 de la loi Pacte donne la possibilité aux acteurs qui souhaitent recourir
à un financement par le biais de l’émission des crypto-monnaies de solliciter un
visa de l’AMF permettant d’attester du sérieux et de la qualité de leur offre via la
publication de plusieurs documents informatifs. Ce visa de l’AMF a vocation d’agir
comme un sésame destiné à convaincre les banques qui souvent se montrent
réticentes à ouvrir des comptes bancaires au profit de ces entreprises faute de
certitude sur l’origine des fonds.
Les levées de fonds sans visa de l’AMF resteront légales mais les émetteurs qui
ne bénéficieront pas de ce visa ne pourront solliciter la contribution du grand public.
Ce cadre juridique souple devrait rassurer et sécuriser tous les acteurs à la
pointe des nouvelles technologies et en quête de financement.
Ce nouveau dispositif législatif donne aussi la possibilité aux assureurs de
proposer des contrats d’assurance-vie exposés aux crypto-monnaies. L’arrivée sur
ce marché d’un des placements les plus prisés par les ménages français devrait
accroître la légitimité et la crédibilité du marché des monnaies numériques.
Les prestataires en services crypto-monnaies (plateformes d’échange) ont vu
leur statut précisé par la loi Pacte. Celle-ci instaure un enregistrement systématique
et un agrément facultatif de ces acteurs auprès de l’AMF. Le gendarme financier
s’assurera de l’honorabilité et des compétences des dirigeants et actionnaires. Il
vérifiera l’existence et la mise en place de procédures de lutte contre le blanchis-
sement et le financement du terrorisme.
Le but recherché par cette disposition est d’instaurer un environnement favorisant
l’intégrité, la transparence et la sécurité des services concernés, ceci afin de protéger
investisseurs et utilisateurs. Ces prestataires exerçant une activité par nature trans-
nationale, une régulation internationale apparaît la plus appropriée.
Ces avancées en matière de cadre législatif faites par l’Hexagone dans le but
d’être leader en matière des technologies financières contrastent avec l’état de
la législation dans d’autres pays.
Concernant la régulation des transactions et des plateformes d’échange des
monnaies virtuelles, le choix fait par de nombreux pays consiste simplement à
multiplier les avertissements inhérents à l’utilisation des crypto-monnaies notamment
ceux de blanchiment et de financement du terrorisme. Le Japon fait partie des
pays qui ont pris ce parti. Pour les autorités de régulation de l’Empire du soleil
levant, réguler c’est prendre le risque de légitimer, c’est-à-dire d’inciter les agents
économiques à s’y intéresser1.

1. Dans un rapport au premier ministre publié en 2018, Jean pierre Landau se montre peu
favorable à une réglementation directe des crypto-monnaies car selon cet ancien vice-gou-
verneur de la Banque de France, cela oblige à « définir, à classer et à donc à rigidifier des
objets essentiellement mouvants et encore non identifiés. Le danger est triple, celui de

288

046092.indd 288 18/11/2020 09:10


III. Quelle régulation pour les crypto-monnaies ?

La Chine, la Corée du Sud et la Russie ont jusqu’alors fait preuve d’une régle-
mentation à tout le moins sévère à l’égard des crypto-monnaies. L’Empire du Milieu
interdit les établissements financiers d’utiliser les monnaies virtuelles notamment
l’échange contre des devises. En Corée du Sud, les autorités interdisent aux institu-
tions financières qui y sont implantées de réaliser des transactions en crypto-mon-
naies c’est-à-dire d’acheter, de vendre ou même de détenir une crypto-monnaie. La
volonté d’éviter la moindre exposition du secteur financier aux monnaies virtuelles
semble motiver ce choix. La Russie quant à elle, a une vision très singulière des
crypto-monnaies. Elle considère en effet leur usage à une présomption de partici-
pation à des opérations illégales notamment de blanchissement et de financement
du terrorisme. D’autres pays moins en vue ont aussi pris le parti d’en interdire
l’usage. C’est le cas du Maroc, du Vietnam et de la Bolivie où les crypto-monnaies
n’ont pas droit de cité.
Ces législations disparates ne peuvent contribuer à une régulation efficace
de ce secteur financier au poids relativement croissant représentant aujourd’hui
autour de 265 milliards d’euros. La coopération internationale en matière de lutte
contre le blanchiment et le financement du terrorisme est plus que cardinale. Des
progrès se font néanmoins jour. Le GAFI (Groupe d’action financière)1, organisme
intergouvernemental créé en 1989 exige aux États membres d’enregistrer et de
surveiller les plateformes d’échange de crypto-monnaies. Les clients feront l’objet
de contrôles et de signalement en cas de transactions suspectes. Ceci afin d’éviter
que les monnaies cryptographiques ne soient utilisées à des fins criminelles. Les
normes du GAFI sont résumées en 40 recommandations. Elles sont la source d’ins-
piration des directives de l’Union européenne. Le Conseil et le parlement européens
ont adopté en 2018 une directive qui a vocation d’assujettir à la réglementation
les plateformes de change et les fournisseurs de services de portefeuille. Ces
acteurs sont désormais soumis à l’obligation d’adopter des mesures préventives
et de porter à la connaissance des autorités compétentes les transactions perçues
comme suspectes.
Cette réglementation vise in fine à bannir l’anonymat car elle permet d’une
part aux cellules de renseignement financier nationales d’associer les adresses
correspond aux crypto-monnaies à l’identité du propriétaire de ces actifs.
Malgré la frilosité de certains États à l’égard des crypto-monnaies, force est
de constater que la régulation progresse dans certains États désireux d’en tirer le
meilleur. La Suisse, Malte et l’Estonie apparaissent volontaristes en la matière. Ces
pays ont engagé des stratégies visant à renforcer leur attractivité afin de devenir
des terres d’accueil des start-ups.

rigidifier dans les textes une évolution rapide de la technologie, celui de se tromper sur la
nature véritable de l’objet que l’on réglemente, celui d’orienter l’innovation vers l’évasion
réglementaire. Au contraire la réglementation doit être technologiquement neutre et pour
ce faire s’adresser aux acteurs et non aux produits eux-mêmes ».
1. Le GAFI est un organisme intergouvernemental chargé d’établir des normes, de développer
et d’assurer la promotion des politiques de lutte contre le blanchiment de capitaux et le
financement du terrorisme. Il se compose de 30 membres soit 34 pays et 2 organisations
internationales.

289

046092.indd 289 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Encadré 3 Libra, une nouvelle mouture plus conforme à la volonté


des régulateurs

Échaudés par les vives critiques formulées à l’encontre dans leur projet par les
autorités monétaires et ministres de différents pays, les membres de l’association
Libra se sont ravisés en proposant une nouvelle mouture du projet Libra, plus en
phase avec la volonté des régulateurs. Cette nouvelle version prend le contre-pied
de la précédente en consacrant l’abandon de l’ambition initiale de Libra, celle
d’être une crypto-monnaie universelle défiant les circuits financiers traditionnels.
Le nouveau projet annoncé depuis peu par ses promoteurs consiste à faire de
Libra, une monnaie à devises multiples englobant des Libras à devise unique.
Concrètement, cela revient à faire de Libra, une Stablecoin c’est-à-dire une
crypto-monnaie adossée à des devises existantes. Ainsi, il y aura une Libra Euro
utilisable en zone euro, une Libra USD pour le dollar américain, une Libra Livre
Sterling etc. La valeur de la Libra dans sa globalité découlera donc de l’ensemble
de ces Stablecoins.
Ce changement de cap a de multiples implications. Tout d’abord, Libra ne sera
pas une nouvelle monnaie créée et indexée sur une réserve de devises comme
initialement prévu. Ainsi, l’association Libra n’entend pas remettre en cause le
monopole du pouvoir souverain de battre monnaie. Secundo, les Stablecoins
ainsi proposés ne déboucheront pas sur de la création monétaire puisqu’ils seront
intégralement garantis par une réserve en devises constituées de liquidités et
de titres d’État à très court terme libellés dans cette devise. Les ménages et les
acteurs économiques auront ainsi la possibilité de convertir les Libras reçues
en devise locale en passant par les fournisseurs de services financiers. Tertio,
la gouvernance de chaque réserve devra répondre aux critères définis par le
régulateur de sorte qu’en cas de crise économique, les détenteurs de Libra auront
la possibilité de les échanger instantanément contre n’importe quelle devise.
Appelée à devenir une simple monnaie numérique, Libra sera entourée d’une
sécurité renforcée afin de répondre aux préoccupations des régulateurs concernant
le risque de blanchiment d’argent ou de financement du terrorisme. L’association
propose la création d’une unité d’intelligence financière chargée des enjeux de
sécurité. Pour ce faire, elle sera dotée de spécialistes et d’outils technologiques
permettant de bloquer de manière automatique toute transaction supposée
frauduleuse.
La reconfiguration du projet Libra a permis de redonner du crédit à celui-ci. De
nouvelles adhésions ont été enregistrées après la vague de départs qui avait
suivi le lancement du projet. Trois acteurs ont donc rejoint le consortium, il s’agit
de la société de paiement en ligne Checkout.com, de l’organisation caritative
Heifer puis de la holding singapourienne Temasek. Cette dernière bénéficie
d’une bonne assise financière puisqu’elle gère un portefeuille d’actifs estimé à
375 milliards de dollars et couvre un large éventail d’activités qui vont des services
financiers aux télécommunications en passant par les médias et la Blockchain.
La mouture revisitée du projet Libra semble en définitive, au vu de ses caracté-
ristiques, se conformer aux normes du GAFI. Pour autant, est-ce suffisant pour
que le projet Libra puisse bénéficier de l’aval des régulateurs des différents
pays ? La réaction des autorités à cette évolution du projet semble pour l’heure

290

046092.indd 290 18/11/2020 09:10


Conclusion

teintée de prudence. L’année 2021 sera de ce point de vue décisive pour l’avenir
de Libra. Verra-t-elle ce projet porté par un des géants du numérique aboutir ?
Consacrera-t-elle plutôt l’abandon d’un projet originellement trop ambitieux ? ©

Conclusion

Autant louées que décriées, les crypto-monnaies suscitent de multiples inter-


rogations concernant leur bien-fondé, leur nature juridique et la régulation qu’il
convient de mettre en œuvre pour créer un environnement favorable à l’éclosion
de cette technologie disruptive.
S’il est convenu d’affirmer que les crypto-monnaies et la Blockchain sont porteuses
de mutations majeures appelées à révolutionner nombre d’activités, il est tout à
fait fondé de relativiser la portée de leur ambition initiale, celle d’être une alter-
native aux monnaies officielles sur fond de discrédit des institutions financières. Les
crypto-monnaies remplissent en effet imparfaitement les fonctions traditionnelles
de la monnaie. Elles ne représentent qu’une infime proportion des moyens de
paiement utilisés et leur poids comparé à la masse monétaire totale en circulation
est infinitésimal. Déflationnistes, elles ne peuvent servir d’instruments de stabilisation
macro-économique. La moindre exposition du secteur financier aux crypto-mon-
naies minore cependant le risque systémique qu’elles sont censées représenter.
L’utilisation croissante des crypto-monnaies à des fins de blanchiment et de
financement du terrorisme requiert une régulation à l’échelle internationale afin
de circonscrire tout risque de défiance susceptible de ruiner toute crédibilité de
ce secteur en croissance continue et porteur d’avenir.
L’engouement actuel suscité par les monnaies virtuelles est-il appelé à se
poursuivre ? En d’autres termes l’avenir de ces monnaies digitales est-il garanti
indéfiniment ? L’expérience des siècles passés a mis en lumière les fragilités inhérentes
aux monnaies privées. Décentralisées et d’essence libertaire, les crypto-monnaies
ne bénéficient d’aucune garantie publique, leur valeur reste largement tributaire
des effets-réseau et de la confiance émanant des utilisateurs. Ces atouts qui contri-
buent à leur croissance exponentielle deviennent rapidement des faiblesses en
cas de défiance généralisée. La naissance probable de crypto-monnaies publiques
constitue une évolution de nature à modifier profondément la vision des monnaies
virtuelles et de leur panorama. En apportant de la garantie publique, elles contri-
bueront à modifier la perception des monnaies virtuelles censées être de simples
instruments au service de la spéculation. Restent des interrogations sur le caractère
énergivore de la Blockchain. Source d’avantages plus que certains, cette techno-
logie ne résistera pas aux préoccupations environnementales plus que jamais à
l’œuvre aujourd’hui. Des évolutions technologiques sont nécessaires afin que
cette technologie disruptive puisse conjuguer efficacité et neutralité écologique.

291

046092.indd 291 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Lexique

Algorithme de consensus : C’est un mécanisme permettant à un réseau Blockchain


de parvenir à un consensus de validation des transactions inscrites dans les
chaînes de blocs. Deux méthodes de validation existent, la preuve de travail
Lexique

(Proof of Work) établi par Satoshi Nakamoto, le concepteur du Bitcoin, ensuite


la preuve par participation (Proof of Stake) développée en 2011 comme
alternative à la preuve de travail.
Bitcoin : C’est la première crypto-monnaie décentralisée inventée par Satoshi
Nakamoto. Elle reste la plus connue des crypto-monnaies et la première en
termes de capitalisation boursière. Elle est à l’origine d’autres crypto-mon-
naies appelées altcoins.
Bloc : Composante essentielle de la Blockchain, un bloc est un ensemble ordonné
de transactions réalisées par les utilisateurs du réseau. Il contient un horodateur
et une preuve c’est-à-dire une indication de l’énergie consommée. La validation
de blocs dans le cas du Bitcoin est une activité dévolue aux mineurs. Ceux-ci
doivent résoudre auparavant un problème mathématique complexe.
Blockchain : Développée à partir de 2008, la Blockchain est une technologie
permettant de stocker des données et de les transmettre aux différents
utilisateurs du réseau sans intermédiaire. C’est donc un registre public décen-
tralisé regroupant l’ensemble des transactions effectuées. Il est de ce fait
transparent, horodaté, sécurisé car infalsifiable. Utilisée à l’origine par le
réseau Bitcoin, la Blockchain est l’objet de multiples applications de nos jours.
Blockchain publique : Elle a la particularité d’être accessible à tous. Aucune
restriction à l’accès existe et les acteurs qui y interviennent sont anonymes
et ont les mêmes droits. Il n’existe pas d’intermédiaire de confiance, ni de
régulateurs. C’est le cas de la Blockchain Bitcoin.
Blockchain privée : Elle implique l’existence d’un réseau privé. Le propriétaire
du réseau qui en est le gérant dispose de plusieurs droits dont celui d’écrire
dans le registre, de modifier le protocole de validation des blocs, d’autoriser
des tiers d’y participer. Les banques et les sociétés d’assurance ont recours
aux Blockchains privées.
Capitalisation boursière : Elle représente la valeur marchande des titres repré-
sentatifs d’une entreprise. Celle-ci est obtenue en multipliant le nombre de
titres écoulés par la valeur unitaire des actions. La capitalisation boursière
des cryptomonnaies n’a cessé d’être portée aux nues en raison des phéno-
mènes spéculatifs suscités par ces monnaies virtuelles.
Clé privée et clé publique : Une clé privée est constituée d’une série de chiffres
et de lettres à disposition d’un utilisateur permettant à celui-ci de signer les
transactions. Elle est strictement confidentielle. À l’inverse, la clé publique
est semblable à un numéro de compte, elle est de ce fait diffusable. Elle
permet ainsi au propriétaire de recevoir ou d’envoyer des transactions.

292

046092.indd 292 18/11/2020 09:10


Lexique

Crypto-monnaies : Ce sont des monnaies virtuelles n’ayant donc aucun support


physique pouvant s’échanger de pair à pair sans la présence d’un tiers de
confiance comme les banques. Elles prennent la forme d’une succession
de chiffes et peuvent via la technologie Blockchain être transférées d’une
personne à une autre. Elles ne sont indexées à aucune devise. Le Bitcoin
est la première des crypto-monnaies créée au tournant des années 2010.
Décentralisation : C’est l’une des principales caractéristiques des monnaies
numériques. Aucune institution, qu’il s’agisse d’un état, d’une entreprise ou
d’une banque, ne peut contrôler le réseau, ni le marché des crypto-monnaies.
L’essentiel du pouvoir est dévolu aux nœuds du réseau qui en assurent le
fonctionnement en enregistrant et en validant les transactions à intégrer
dans les blocs.
Déflation : Il s’agit d’un phénomène économique qui se traduit par la baisse des
prix. C’est donc l’inverse de l’inflation. Le Bitcoin s’inscrit dans un processus
déflationniste car le nombre de Bitcoins créé décroît avec le temps et au fur
et à mesure qu’on se rapproche du plafond de 21 000 000 d’unités prévues.
Double dépense : Il s’agit d’un problème informatique dont la résolution a
permis de garantir la crédibilité des crypto-monnaies. Il s’agit d’éviter que
les mêmes unités d’une crypto-monnaie soient dupliquées au point d’être
dépensées deux fois. L’utilisation de la Blockchain permet d’éviter le risque
lié à la double dépense.
Ethereum : Il conjugue à la fois les caractéristiques d’être un projet, une plate-
forme et une crypto-monnaie. Ethereum fonctionne comme un ordinateur
mondial faisant fonctionner différentes applications sans la nécessité d’un
serveur centralisé. Les applications s’exécutent automatiquement sans
l’intervention d’un intermédiaire. L’éther est la crypto-monnaie associée à
la Blockchain Ethereum.
Hachage : Il s’agit d’une suite d’opération mathématique et cryptographique
permettant de valider les transactions d’un bloc en leur attribuant une signature
ou une empreinte unique. Le but du hachage est de sécuriser les transactions
afin de les rendre infalsifiables.
Halving : C’est une opération qui consiste à diviser par deux la rémunération
versée aux mineurs afin de limiter le nombre de Bitcoins en circulation.
Celui est en effet plafonné à 21 000 000 d’unités. Cette diminution de la
rétribution versée a pour effet de limiter l’offre de Bitcoins et d’engendrer
la valorisation de son cours sur le marché des crypto-monnaies.
Lexique

Initial Coin Offering (ICO) : C’est une levée de fonds en monnaie numérique
permettant le financement de nouveaux projets dans le domaine des
crypto-monnaies.
Minage de blocs : Processus mathématique et informatique consistant à utiliser
la puissance d’un processeur dans le but de valider les transactions en
crypto-monnaies à enregistrer sur la Blockchain.

293

046092.indd 293 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Mineurs : Il s’agit des personnes dont l’activité consiste à faire du minage à partir
d’un ordinateur, d’un téléphone ou d’une ferme de serveurs. Les mineurs se
regroupent généralement pour constituer un « pool de mineurs ». Ils sont
rétribués en unités de la crypto-monnaie minée.
Monnaie fiduciaire : Elle est composée des billets de banque et des pièces
Lexique

de monnaie en circulation. Ce sont des moyens de paiement dont la valeur


faciale est totalement déconnectée de leur valeur intrinsèque. La valeur de
la monnaie est étroitement dépendante de la confiance qu’elle bénéficie
de la part des usagers.
Nœuds : Dans le langage informatique, un nœud désigne un composant faisant
partie d’un réseau. Sur Internet, chaque serveur est considéré comme un
nœud. Il en est de même des ordinateurs.
Pair-à-pair (peer-to-peer) : Il s’agit d’un réseau informatique où les utilisateurs
sont au même niveau, leurs échanges se font directement sans l’intermédiaire
d’un serveur central. Le partage des fichiers est une des utilisations les plus
courantes du pair à pair.
Plateforme d’échanges : Ce sont généralement des sites d’internet sur lesquels
s’échangent des crypto-monnaies entre elles ou contre des monnaies
fiduciaires ou des devises qui ont cours. Il existe deux types de plateformes
d’échange. D’un côté, les plateformes centralisées, de l’autre, les plate-
formes décentralisées. Les premières impliquent l’existence d’un organe
central chargé de contrôler les échanges entre utilisateurs. La plupart des
échanges de crypto-monnaies ont recours à ce type de plateformes. Cela
permet un volume d’échanges de crypto-monnaies plus élevé et une liquidité
plus importante des marchés. Les plateformes d’échange centralisées sont
régulées et bénéficient de ce fait d’une plus grande légitimité. Binance,
Coinbase, Mercatox sont des exemples de plateformes centralisées.
Les plateformes décentralisées impliquent à l’inverse l’inexistence d’un
organe de contrôle, les échanges entre utilisateurs se font de portefeuille à
portefeuille. Les volumes d’échange sont ainsi moins importants ainsi que la
liquidité des marchés. L’anonymat des utilisateurs est élevé et la régulation
impossible. Wavesdex, Ether delta ou Network sont des exemples de plate-
formes relevant de ce cas.
Preuve d’enjeu ou preuve d’intérêt (Proof of Strake) : C’est la méthode alter-
native à la preuve de travail dans le cadre du processus de validation des
blocs. Dans le cadre de la preuve d’enjeu, c’est à l’utilisateur de prouver qu’il
est détenteur d’une certaine quantité de crypto-monnaie afin d’acquérir le
droit de valider de nouveaux blocs et bénéficier de la rétribution. L’algorithme
choisit ensuite aléatoirement un validateur parmi les personnes éligibles
Preuve de travail (Proof of Work) : C’est une des méthodes de validation des
blocs. Elle nécessite une puissance de calcul assez conséquente. Les mineurs
doivent pour y parvenir exécuter et résoudre des équations mathématiques
de grande complexité pour valider les transactions électroniques à intégrer

294

046092.indd 294 18/11/2020 09:10


Lexique

dans la Blockchain. Lorsque la solution est trouvée, la transaction est validée


et cela est porté immédiatement à la connaissance du réseau. Le mineur est
ainsi récipiendaire d’une contrepartie en crypto-monnaie.
Réserve de valeur : La monnaie joue le rôle de réserve de valeur parce qu’elle
permet l’épargne. Elle permet ainsi de différer les actes d’achat dans le
temps. La préservation de cette fonction implique la stabilité des prix.
Token (ou jeton numérique) : C’est la représentation digitale de la valeur d’un
actif quel qu’il soit. Ces actifs numériques peuvent faire l’objet d’échanges
via Internet sans l’aval de tiers. Il existe trois formes de Tokens. Les Tokens
de paiement qui font office de paiement mais aussi de stockage de valeur.
Les Tokens d’utilisation utilisés comme moyen de paiement sur des plate-
formes et applications spécifiques. C’est le cas d’Ethereum. Enfin les Tokens
d’actifs qui servent de certificats de propriété.
Satoshi : C’est la petite unité du Bitcoin (BTC). Il est équivalent à 0.00000001 BTC.
Cette appellation est un hommage rendu au créateur de cette crypto-monnaie,
Satoshi Nakamoto. Divisible 8 chiffres après la virgule, cette unité de compte
permet à n’importe qui d’acquérir une infime fraction de Bitcoin.
Satoshi Nakamoto : C’est le pseudonyme choisi par la personne ou le groupe
de personnes à l’origine du concept de Bitcoin en 2009. Depuis la presse
et les passionnés s’évertuent à identifier son créateur mais en vain. Une
seule certitude, le créateur de la reine des crypto-monnaies est à la tête de
plus d’un million de Bitcoins non dépensés valant au cours actuel plus de
10 millions d’euros.
Scalabilité : Désigne l’aptitude d’un réseau informatique à s’adapter à la hausse
de la demande des utilisateurs. La scalabilité dans le cas des crypto-monnaies
est mise à l’épreuve au niveau du nombre de transactions qu’une Blockchain
peut traiter sur une période donnée.
Smart contract : Ce sont des programmes informatiques autonomes chargés
d’exécuter sur une Blockchain un ensemble de conditions ou d’instructions
prédéfinies rendant de ce fait une clause contractuelle inutile. Le smart
contract est en d’autres termes l’équivalent informatique du contrat. Son but
est de garantir la force obligatoire des contrats par le code informatique au
détriment du droit consacrant ainsi la célèbre formule de Lawrence Lessig
« Code is law ».
Spéculation : Il s’agit d’une opération financière consistant à anticiper l’évo-
lution future des prix dans le but d’engranger une plus-value. Lorsque les
Lexique

investisseurs en Bitcoin anticipent par exemple une hausse du cours de


cette crypto-monnaie, ils se portent acquéreurs aujourd’hui pour revendre
demain. Lorsqu’à l’inverse les anticipations sont à la baisse, les investisseurs
vendent aujourd’hui pour acheter demain. Les crypto-monnaies en général
et le Bitcoin en particulier sont parfois l’objet d’une spéculation effrénée.
Stablecoin : C’est un attribut des crypto-monnaies dont la valeur n’est pas
volatile. C’est généralement le cas lorsqu’elles sont adossées à d’autres actifs.

295

046092.indd 295 18/11/2020 09:10


Chapitre 5. Quelles perspectives pour les crypto-monnaies ?

Unité de compte : C’est une des fonctions traditionnelles de la monnaie. Elle


permet en effet de mesurer la valeur des objets en leur attribuant un prix.
La monnaie permet donc le calcul économique en établissant une échelle
des valeurs.
Bibliographie

Volatilité : Une monnaie est volatile lorsque son cours est marqué par l’insta-
bilité. C’est le propre du cours du Bitcoin, il peut descendre aussi vite qu’il
augmente.
Wallet (ou portefeuille) : Il s’agit d’un moyen de stockage sécurisé des
crypto-monnaies qui peut prendre la forme d’un fichier crypté, d’un logiciel
ou d’une application. Deux éléments incontournables font partie d’un Wallet,
il s’agit de la clé privée d’une part, et d’autre part de la clé publique. La
première est connue du seul propriétaire tandis que la seconde est connue
de tous puisqu’elle peut servir d’adresse.

Bibliographie

ANTONOPOULOUS Andreas, L’internet de l’argent, Dicoland, 2018.


Banque de France :
– « L’émergence du Bitcoin et autres crypto-actifs : enjeux, risques et
perspectives », n° 16, 5 mars 2018.
– « Les enjeux de la Blockchain pour la France et l’autorité de contrôle
prudentiel et de résolution », 2017.
– « Les dangers liés au développement des monnaies virtuelles : l’exemple
du Bitcoin », Focus, n° 10, décembre 2013.
BERBAIN Côme, La Blockchain : concept, technologie, acteurs et usages, Annales
des Mines, 2017.
CASEAU Yves, SONDOPLATOFF Serge, « La Blockchain ou la confiance distribuée »,
Fondation pour l’innovation, 2016.
CHOULI Billal, GOUJON Frédéric, LEPORCHER Yves-Michel, Les Blockchains, de la
théorie à la pratique, de l’idée à l’implémentation, Éditions ENI, 2017.
Conseil économique, social et environnemental : « Nouvelles monnaies : les
enjeux macro-économiques, financiers et sociétaux », 2015.
DE FILIPPI Primavera, Blockchain et cryptomonnaies, PUF, 2018.
—, JEAN Benjamin, « Les Smarts Contracts, les nouveaux contrats augmentés »,
Revue de l’ACE, n° 137, septembre 2016.
DUMAS Jean-Guillaume, LAFOURCADE Pascal, VANETTE Sébastien, Les Blockchains
en 50 questions, Dunod, 2018.
FAVIER Jacques, Bitcoin, la monnaie acéphale, CNRS éditions, 2017.
—, HUGUET Benoît, Bitcoin métamorphoses : de l’or des fous à l’or numérique ?,
Dunod, 2018

296

046092.indd 296 18/11/2020 09:10


Bibliographie

FIGUET Jean Marc, « Bitcoin et Blockchain : quelles opportunités ? », Revue


d’économie financière, 2016.
France stratégie : « Les enjeux de la Blockchain », juin 2018.
HAYEK Friedrich, Pour une vraie concurrence des monnaies, PUF, 2015.
HERLIN Philippe, Aplle, Bitcoin, Paypal, Google, la fin des banques ?, Eyrolles, 2015.
LELOUP Laurent, Blockchain : la révolution de la confiance, Eyrolles, 2017.
LANDAU Jean-Pierre, « Les crypto-monnaies », Rapport au Ministre de l’Économie
et des Finances, 2018.
PFISTER Christian, « Monnaies digitales et politique monétaire : beaucoup de
bruit pour rien », Revue d’économie française, 2017.
—, « Le temps réel c’est de l’argent », Revue française d’économie, 2018.
—, « Monnaie digitale de banque centrale : une, deux ou aucune », Revue
d’économie financière, 2019.
Rapport d’information relatif aux monnaies virtuelles, Assemblée nationale, 2019.
Rapport du Sénat :
– « Monnaies virtuelles : usages, risques et enjeux de régulation », 2018.
– « Comprendre la Blockchain : fonctionnement et enjeux de ces nouvelles
technologies », 2017.
– « Les enjeux technologiques des Blockchains », 2018.
Rapport Institut Sapiens : « Que présage l’avenir des crypto-monnaies ? », 2018.
RODRIGUEZ Philippe, La révolution Blockchain. Algorithmes ou institutions ; À qui
donnerez-vous confiance ?, Dunod, 2017.

Bibliographie

297

046092.indd 297 18/11/2020 09:10


Table des encadrés

Chapitre 1. Quelles solutions face au péril climatique ?


1 Qu’est-ce que l’effet de serre ? ................................................................ 12
2 Le climat, victime potentielle de la tragédie des biens communs ........... 22
3 Taxe pigouvienne versus théorème de Coase ......................................... 30
4 Le nucléaire, une énergie décarbonée, non renouvelable et controversée .. 51
5 La géo-ingénierie peut-elle sauver la planète ? ....................................... 54
6 Le numérique, une croissance insoutenable pour l’environnement......... 63
7 La croissance démographique mondiale est-elle responsable du péril
climatique ? ............................................................................................... 67

Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 : quelles perspectives ?


1 Faut-il instituer un revenu universel pour atténuer les effets sociaux
de la crise ? ............................................................................................. 104
2 Keynes de nouveau ressuscité par la crise de la Covid-19..................... 109
3 La hiérarchie des métiers à l’épreuve de la Covid-19 ............................ 114
4 Le confinement ou le prix de la vie......................................................... 119
5 La mondialisation de l’économie : un phénomène controversé ............ 124
6 Le second confinement, un obstacle majeur à la reprise
de l’économie française .......................................................................... 130

Chapitre 3. L’Afrique noire face au défi de l’émergence


1 Les fondements théoriques et les objectifs macro-économiques
des politiques d’ajustement structurels du FMI ................................................147
2 L’Éthiopie se rêve en tigre africain et en atelier du monde....................... 152
3 L’envers de la coopération sino-africaine : un risque d’emballement
de la dette publique. .............................................................................. 156
4 La malédiction des ressources naturelles, un mal endémique en Afrique .. 165
5 La « Françafrique », une survivance coloniale controversée .................. 177

Chapitre 4. Les enjeux économiques, juridiques et sociaux liés à l’intelligence


artificielle ................................................................................................................ 201
1 « Machine learning » versus « Deap learning » ...................................... 204
2 Les voitures autonomes à l’épreuve de dilemmes moraux .................... 212
3 L’intelligence artificielle en chiffres. ........................................................ 215
4 L’intelligence artificielle, nouveau champ de bataille sino-américaine... 216
5 Algorithme, biais et discriminations ....................................................... 230
6 Quelle responsabilité juridique pour les robots ? .................................. 235

Chapitre 5. Quelles perspectives pour les crypto-monnaies ? ........................... 249


1 La métaphore des généraux byzantins................................................... 251
2 En quoi consiste le minage ? .................................................................. 256
3 Libra, une nouvelle mouture plus conforme à la volonté
des régulateurs ....................................................................................... 290

298

046092.indd 298 18/11/2020 09:10


Tables des matières

Préface ............................................................................................................3
Introduction ....................................................................................................7

Chapitre 1. Quelles solutions face au péril climatique ? .......... 11

I. Chronique d’une catastrophe annoncée ...........................................12


A. Une prise de conscience lente mais progressive...................................... 12
B. Le temps de l’engagement : du sommet de Rio à l’accord de Paris........ 17
C. Des engagements qui n’écartent pas le péril climatique ......................... 19

II. Une multiplicité de solutions salvatrices ............................................27


A. Les instruments économiques au service de l’environnement :
quelle efficacité ?...................................................................................... 28
B. Les nudges ou la mise à contribution des résultats de l’économie
expérimentale........................................................................................... 36
C. La décarbonation de l’économie, une nécessité impérieuse ................... 41
D. La protection des puits carbone, une nécessité cardinale ....................... 53
E. Pour une agriculture moins intensive et durable ...................................... 58

Conclusion...............................................................................................70
Lexique ................................................................................................................ 72
Liste des acronymes............................................................................................. 75
Bibliographie ....................................................................................................... 75
Annexe ................................................................................................................. 77

299

046092.indd 299 18/11/2020 09:10


Tables des matières

Chapitre 2. L’économie mondiale a l’épreuve de la Covid-19 :


quelles perspectives ? ........................................... 87

I. Une crise amplement annoncée mais découlant d’une origine


inattendue ..........................................................................................88
De nombreux facteurs de fragilité source de préoccupations ....................... 88

II. La Covid-19, le détonateur d’une crise aux conséquences


macro-économiques et sociales sans équivalent ..............................97
A. De Wuhan au Reste du monde, la propagation fulgurante
d’une pandémie mondiale ....................................................................... 97
B. Choc d’offre et choc de demande négatifs se conjuguent
pour déboucher sur une crise économique sans comparaison ................ 99
C. L’action immédiate des États et des banques centrales
pour atténuer les effets de la crise ......................................................... 106
D. Quelles solutions à l’accroissement exponentiel de l’endettement
des États ? .............................................................................................. 111
E. Les éléments de comparaison avec les précédentes grandes crises ..... 116

III. Quelles perspectives pour la mondialisation ?................................122


A. La Covid-19, un révélateur des failles de la mondialisation
des économies ....................................................................................... 122
B. Faut-il démondialiser l’économie ? ........................................................ 127

Conclusion.............................................................................................133
Lexique .............................................................................................................. 134
Bibliographie ..................................................................................................... 139

Chapitre 3. L’Afrique noire face au défi de l’émergence ........ 141

I. De l’échec des stratégies de développement au renouveau


de l’espoir ........................................................................................142
A. Des stratégies de développement comme solutions clés en mains ...... 142
B. Des résultats sources d’espoirs mais contrariés par le retournement
conjoncturel des années 70.................................................................... 143
C. L’ajustement structurel ou le temps de l’effort et des larmes................. 145
D. Le tournant des années 2000, source d’espoir ...................................... 150

300

046092.indd 300 18/11/2020 09:10


Tables des matières

II. De multiples facteurs rhédibitoires qui sont autant de défis


à relever ...........................................................................................164
A. Le défi de la diversification économique et de l’industrialisation .......... 165
B. Le défi de la souveraineté monétaire : le franc CFA, atout
ou obstacle au développement de l’Afrique francophone ?.................. 169
C. Le défi de l’intégration régionale, un vaste chantier indispensable
pour défragmenter le continent ............................................................. 180
D. Le défi de la maîtrise démographique, un impératif pour bénéficier
du dividende démographique et réduire la pauvreté ............................ 182
E. Le défi de la démocratisation et de la stabilité politique ....................... 188

Conclusion.............................................................................................189
Lexique .............................................................................................................. 190
Bibliographie ..................................................................................................... 197

Chapitre 4. Les enjeux économiques, juridiques


et sociaux liés à l’intelligence artificielle ............. 201

I. Une émergence marquée par des débuts très poussifs .................202


A. Un processus marqué par des aléas ....................................................... 202
B. Le Big data ou la consécration de la donnée ......................................... 205

II. Un champ d’applications infini.........................................................206


A. Du journaliste virtuel à la voiture autonome .......................................... 206
B. Problèmes éthiques et conditions d’acceptabilité ................................. 210

III. L’intelligence artificielle vecteur d’une croissance infinie ? .............214


A. Choc d’offre et choc de demande positifs au cœur du processus
vertueux .................................................................................................. 215
B. Des bénéfices inégaux selon les pays .................................................... 219

IV. Des technologies sources de multiples craintes .............................220


A. Quelles conséquences sur l’emploi ? ..................................................... 220
B. Vers une société de surveillance généralisée ? ...................................... 224
C. Des technologies susceptibles d’être détournées
à des fins malveillantes ? ........................................................................ 228
D. La nécessité d’un cadre légal ou les indispensables
évolutions juridiques .............................................................................. 232

301

046092.indd 301 18/11/2020 09:10


Tables des matières

Conclusion : quelle éthique pour une intelligence artificielle


responsable ? ...................................................................................236
Lexique .............................................................................................................. 241
Annexe ............................................................................................................... 246
Bibliographie ..................................................................................................... 247

Chapitre 5. Quelles perspectives


pour les crypto-monnaies ? ................................. 249

I. La Blockchain une innovation disruptive au cœur


des crypto-monnaies .......................................................................249
A. De multiples influences .......................................................................... 250
B. Le fonctionnement de la Blockchain ...................................................... 253
C. La Blockchain, un potentiel d’applications porteur mais
d’indéniables conséquences environnementales dommageables ......... 258
D. La Blockchain Bitcoin, gouffre énergétique et péril climatique ? ........... 263

II. Un univers concurrentiel marqué par la diversité


et la domination de Bitcoin .............................................................266
A. Une famille nombreuse fruit de trois générations
de crypto-monnaies................................................................................ 267
B. Libra, la nouvelle crypto-monnaie en devenir ? ..................................... 271
C. Un projet qui fait l’unanimité contre lui et dont l’aboutissement
est plus qu’incertain ............................................................................... 274
D. La crypto-monnaie chinoise, une réponse accélérée à l’arrivée
de Libra .................................................................................................. 277
E. Les crypto-monnaies sont-elles des monnaies comme d’autres ? ......... 280

III. Quelle régulation pour les crypto-monnaies ? ................................284


A. Des risques identifiés mais des bénéfices certains................................. 284
B. Réguler sans entraver l’innovation : le chemin de crête
des pouvoirs publics............................................................................... 287

Conclusion.............................................................................................291
Lexique .............................................................................................................. 292
Bibliographie ..................................................................................................... 296

Table des encadrés .....................................................................................298

302

046092.indd 302 18/11/2020 09:10

Vous aimerez peut-être aussi