Académique Documents
Professionnel Documents
Culture Documents
Georges N’Zambi
Docteur ès Sciences économiques
Qu’il me soit permis d’entamer cette préface au livre de mon collègue Georges
N’Zambi par un petit retour en arrière de près de 40 ans qui nous ramènera vite
au cœur de son ouvrage et de son ambitieuse entreprise.
1. Yann Moulier Boutang est professeur émérite de sciences économiques et membre du Labora-
toire COSTECH de l’Université de technologie de Compiègne Alliance Sorbonne Université.
Il est aussi professeur associé à l’Université sino-européenne de technologie de l’Université
de la Ville de Shanghai (SHU).
Hegel disait déjà au XIXe siècle que la lecture des journaux est la prière laïque
du matin de l’homme moderne. Marx, que la religion est l’opium du Peuple. Sans
doute devons-nous ajouter que l’économie aujourd’hui est à la fois la religion et
l’opium de la société moderne. En ces temps d’incertitudes, Robert Boyer dans
un entretien au journal Le Monde n’hésitait pas à rappeler les mots très durs de
J.M. Keynes en pleine Grande Dépression des Années 1930 dans son plus grand
ouvrage, La Théorie générale de l’emploi et de la monnaie : « Les économistes
sont présentement au volant de notre société, ils devraient être sur la banquette
arrière ! » L’enseignement dès le départ doit apprendre l’art de la critique intelligente
et cette critique ne doit pas tourner sur du vide ni ressasser des pseudo-évidences
qui se confortent dans une bulle. Tous les jours la lecture des journaux nous apporte
son lot de « faits » qui sont autant de défis pour le dogmatisme et de stimuli pour
nos neurones. Partir de faits étayés (c’est évidemment la condition première), en
sélectionner (avec toujours une idée socratique derrière la tête, comme dans le
choix de l’exemple) et chercher ce qui peut en rendre compte dans la théorie,
comme dans l’analyse des politiques publiques, telle est la méthode que les
économistes doivent pratiquer eux aussi. Nul amour du formalisme en soi (élevé
au rang de péché mignon en France), nul penchant (très nouveau en raison de
l’informatique) pour les données massives qui ferait l’économie c’est le cas de le
dire, de la solidité du raisonnement, ou carrément de la science, ne peuvent servir
d’échappatoire. Ni escamoteur, ni prestidigitateur, l’économiste doit faire face au
plus complexe. S’y coltiner disait-on familièrement.
Georges N’Zambi a ainsi choisi quelques faits majeurs qui caractérisent notre
époque et attisent la curiosité de tout esprit jeune qui ne s’enkyste ni dans l’igno-
rance satisfaite, ni dans le gâtisme paresseux : le réchauffement climatique, la
Covid-19 accélérateur d’une crise profonde de la « mondialisation heureuse », le
devenir de l’Afrique (une dimension originale de son livre), l’intelligence artificielle
et l’avenir de l’emploi, les crypto-monnaies.
Il ne cherche pas à tout dire sur tout. Méthodiquement il présente une synthèse
de ce que tout honnête homme et heureusement aujourd’hui honnête femme et
surtout tout citoyen ou citoyenne doit ne pas ignorer. Non pas le « je sais que je
ne sais rien », mais plus subtilement le « je sais qu’il y a des choses que je n’ai pas
le droit d’ignorer si je veux me regarder dans un miroir sans avoir honte ».
Et sur ces faits intelligemment choisis (quel étudiant de bac, quel collégien, quel
élève des collèges et lycées, quel enseignant ou chercheur de toute discipline peut
passer devant ces faits sans les voir ?) il déroule cette leçon de compréhension.
Compréhension (embrasser l’ensemble, le complexe d’une situation dont le fait
choisi n’est que le symptôme, ou l’affleurement) ne veut pas dire conclure de
façon péremptoire.
Georges N’Zambi n’a pas rédigé de conclusion à son ouvrage. On peut ne pas
être d’accord sur toutes ses pistes ou ses doutes (par exemple je ne le suis pas sur
son interrogation sur le revenu universel) mais nous ne sommes pas au catéchisme.
Il a, de façon plus pédagogique rassemblé à la fin de chaque chapitre un glossaire
et des références de lecture. On n’est pas dans l’érudition mais dans la conduite
de la pensée avant la prise de décision (pas dans la conduite de la société).
Des encadrés, des schémas, parfois même les graphiques de la microéconomie
font de cet ouvrage, quelque chose d’efficace, d’édifiant.
Face à la situation actuelle, c’est ce qu’il nous faut. Remercions-le. Souhaitons
longue vie aux nouveaux vrais hussards de la République en économie. Les profes-
seurs des Universités et particulièrement en sciences économiques devraient prêter
davantage attention à leur collègue de l’enseignement secondaire et travailler avec
eux. On aurait à y gagner des deux côtés du bac ! Et finalement à l’avant comme
à l’arrière de la voiture !
Yann Moulier Boutang
Plus que jamais, une évidence semble s’imposer à tout contemporain, c’est
le caractère complexe, imprévisible et incertain du monde qui nous environne.
En connaître les tenants et les aboutissants est une aspiration communément
partagée par tous les citoyens désireux de mieux comprendre la marche du monde.
Ce livre ambitionne donc d’apporter les clés de compréhension de cinq défis et
mutations majeurs que les sociétés contemporaines sont appelés à affronter et
qui déterminent leur devenir.
La richesse et la technicité de chacun des thèmes abordés dans cet ouvrage
auraient sans aucun doute nécessité par souci d’exhaustivité que l’on consacre
à chacun d’eux un ouvrage entier. Le choix a cependant été fait de les aborder
simultanément de manière synthétique avec l’espoir constant que les développe-
ments privilégiés sont de nature à éclairer et à sensibiliser les lecteurs notamment
ceux peu rompus au raisonnement et au vocabulaire économiques. La mobilisation
d’encadrés mettant le focus sur des problématiques considérées comme cardinales
et la mise à disposition d’un lexique à la fin de chaque chapitre relèvent d’une
démarche pédagogique.
Le réchauffement climatique est indiscutablement le premier des défis qui
s’impose avec acuité et empressement à l’humanité. Des décennies ont été néces-
saires pour qu’émerge enfin une prise de conscience sur le péril climatique. Les
expertises établies par le GIEC largement partagées par la communauté scienti-
fique y ont grandement contribué. La lutte contre ce péril se heurte toutefois à
l’égoïsme des nations davantage soucieuses de préserver les intérêts économiques au
détriment de l’urgence écologique. La course à la lenteur qui en résulte compromet
chaque année davantage l’objectif de limiter le réchauffement climatique à 2 ° par
rapport au niveau préindustriel. Les réformes permettant d’atteindre cet objectif
salvateur sont connues. Elles doivent d’une part permettre la décarbonation de
l’économie afin de baisser significativement les émissions de gaz à effet de serre,
principale cause de l’effet de serre et d’autre part, promouvoir des changements
au niveau des modes de vie.
Des avancées significatives s’avèrent ainsi indispensables au cours des prochaines
décennies afin que l’objectif de neutralité carbone fixé dans le cadre des accords
de Paris sur le climat devienne réalité dès 2050. Au delà, tout retard risque de
transformer progressivement la planète Terre en étuve impropre à la vie. L’enga-
gement récent de la Chine, un des plus grands émetteurs de gaz à effet de serre en
faveur de la neutralité carbone est un tournant louable. Celui-ci prendrait d’autant
plus d’ampleur dans le cadre de la lutte contre le réchauffement climatique si son
alter-ego américain venait à lui emboîter le pas. Un espoir très incertain sous la
présidence Trump mais qui pourrait voir le jour en cas de changement de locataire
à la Maison Blanche.
L’incertitude qui pèse sur l’humanité s’est encore épaissie avec la pandémie de
la Covid-19. Parti de Chine, le coronavirus s’est propagé de manière fulgurante
à travers le monde, créant ce faisant un choc économique d’une violence inédite
depuis la Grande Dépression des années 30. L’engagement sans limite des États et
des banques centrales a permis d’en limiter l’ampleur mais il a contribué à accroître
vertigineusement l’endettement des États. Face à un risque accru d’une nouvelle
crise des dettes souveraines et d’un possible retour des politiques d’austérité, la
nécessité de trouver des solutions au financement de ces montages de dette se fait
pressante. La crise économique liée à la Covid-19 a par ailleurs mis en lumière la
place nodale de la Chine à travers la très grande dépendance des pays occidentaux
à l’égard de son économie. Le choix de délocaliser une partie des industries
productrices de produits vitaux en matière sanitaire vers l’Empire du milieu a mis
au jour la fragilité des grandes puissances face à une crise sanitaire inopinée. Ces
failles résultant de l’intensification de la mondialisation et de la fragmentation des
chaînes de valeur suscitent une volonté de la part de nombreux gouvernements
d’engager un processus de relocalisation de certaines activités considérées comme
stratégiques et garantissant la souveraineté nationale. Ce mouvement de repli sur
soi peut-il être interprété comme un début de démondialisation de l’économie ?
Quels en sont les avantages et les limites ?
L’Afrique est indéniablement le continent qui sortira considérablement affaibli
et fragilisé par cette crise économique et sanitaire inopinées. Ses perspectives de
développement longtemps minorées avaient pourtant retrouvé une dynamique
positive au début des années 2000 au point d’accréditer l’espoir d’une Afrique
émergente. Ce continent peine depuis à retrouver une trajectoire de croissance
permettant de confirmer ce présage. Des obstacles de nature économique, financière,
monétaire et démographique contribuent à rendre rédhibitoire cette perspective.
La pérennisation d’économies essentiellement fondées sur la rente et le maintien
dans de nombreux pays africains francophones d’une monnaie forte en l’occurrence
le franc CFA sont quelques-uns des obstacles dans la quête de développement
des pays africains. Un éclairage est ainsi apporté sur les multiples controverses
autour la Zone franc que certains détracteurs considèrent comme l’instrument
de la domination française en Afrique francophone. De la même façon un regard
focal est porté sur les relations sino-africaines. Perçue à l’origine comme facteur
d’émancipation des pays africains à l’égard des anciennes puissances coloniales,
cette coopération apparaît de plus en plus controversée tant elle tend à cantonner
les pays africains en pourvoyeurs de Pékin en matières premières et à contribuer
au surendettement de nombreux pays africains.
La révolution numérique est l’un des faits marquants de ce début de millénaire.
Produit des avancées intervenues dans plusieurs disciplines, le numérique est au
cœur de nombreux bouleversements affectant les sociétés contemporaines. Facilitant
les interactions sociales, il a contribué à l’apparition et au développement de ce
qu’il est aujourd’hui convenu de qualifier « d’or noir » à savoir le big data. Cette
gigantesque base des données qui fait la puissance des multinationales américaines
réunies sous l’acronyme GAFAM permet le développement d’applications contro-
versées en matière d’intelligence artificielle. Ainsi le recours aux technologies de
reconnaissance faciale dans un nombre croissant de pays fait craindre l’avènement
de sociétés liberticides tel que prévu dans l’œuvre prophétique de Georg Orwell.
De même, le développement de la voiture autonome pose d’épineux problèmes
éthiques et moraux. Plus généralement, le développement de l’intelligence artifi-
cielle consacre le règne des algorithmes dans la vie des individus et des sociétés
contemporaines. De nombreux actes qui font le quotidien des individus et de
nombreuses décisions émanant des entreprises comme des pouvoirs publics sont
en effet soumis à l’influence grandissante des algorithmes. Or ceux-ci peuvent
être l’objet de biais source de discrimination à l’encontre d’individus. Ils peuvent
aussi être l’objet de manipulations à des fins notamment politiques. Faut-il alors
s’inquiéter de cette algorithmisation des sociétés ? Comment se prémunir d’éven-
tuelles dérives en découlant ?
Au-delà de ces dérives, l’intelligence artificielle est cependant porteuse de
transformations économiques majeures de nature à induire un potentiel de crois-
sance conséquent. Un éclairage est ainsi apporté sur les mécanismes de destruction
créatrice à l’œuvre notamment en matière d’emploi.
Le numérique est aussi à l’origine de l’apparition de monnaies privées fondées
sur la cryptographie. Des difficultés de nature technique ont longtemps repoussé
leur apparition. C’est donc à la faveur des progrès intervenus en matière de
cryptographie qu’elles ont vu le jour. Le Bitcoin monnaie emblématique de cette
révolution numérique s’appuie sur la Blockchain, une technologie disruptive aux
applications multiples. Monnaies non soumises à un tiers de confiance, les crypto-
monnaies suscitent diverses interrogations sur leur utilité réelle. L’accroissement
exponentiel de la valeur du Bitcoin et celle d’autres monnaies numériques conduit
certaines analyses à les considérer comme de simples instruments au service de
la spéculation. L’avènement plausible de Libra, la monnaie digitale de Facebook
a alimenté la controverse autour de ces monnaies notamment sur leur capacité à
remettre en cause le pouvoir souverain de battre monnaie et sur les risques systé-
miques qu’elles sont porteuses. Autant de points qu’éclaire le dernier chapitre
qui à bien des égards apparaît le plus technique. Le caractère indépendant des
différents chapitres donne toute latitude au lecteur d’adopter un ordre de lecture
qui correspond à ses attentes.
10
11
Plus d’un siècle a été nécessaire pour que la thèse du réchauffement climatique
s’impose scientifiquement et qu’il s’ensuive une mobilisation des États dans la lutte
contre ce phénomène aux conséquences dommageables.
Source : GIEC
12
Le mécanisme d’effet de serre naturel ainsi décrit apparaît donc vital. Ce qui pose
problème dans le cadre du réchauffement climatique, c’est l’effet de serre additionnel
généré par les activités humaines. Depuis la révolution industrielle, l’homme a émis
des quantités importantes de gaz dans l’atmosphère à la suite de combustion des
énergies fossiles. Leur accumulation dans l’atmosphère accroît l’épaisseur de la
couverture atmosphérique et génère de ce fait un effet de serre additionnel débou-
chant sur une modification du système climatique et une élévation du niveau moyen
des températures terrestres. C’est le phénomène de changement climatique.
Le dioxyde de carbone (CO2) est le gaz à effet de serre le plus connu. Il est à
l’origine de l’essentiel de l’effet de serre additionnel. D’autres gaz y contribuent
aussi. Il s’agit du méthane (CH4), du protoxyde d’azote (N20) et de l’azote tropos-
phérique (03). La longévité de ces gaz dans l’atmosphère est variable et tous ne
contribuent pas uniformément à l’effet de serre. Si le CO2 subsiste pendant au
moins 100 ans, le méthane quant à lui ne dure que 12 ans tandis que le protoxyde
d’azote perdure jusqu’à 114 ans.
Pour mettre en lumière l’impact des différents gaz à effet de serre pour une
durée de temps donné, les scientifiques ont établi un indice dénommé PRG ou
« Pouvoir de réchauffement global ». Le PRG se définit comme le forçage radioactif
cumulé sur 100 ans. Il permet en d’autres termes de mesurer la puissance radiative
que les gaz à effet de serre renvoient vers le sol sur une période de 100 ans. Il
a donc pour vocation de mesurer la contribution marginale de chaque gaz au
réchauffement climatique comparativement à celle du dioxyde de carbone. Le
PRG du CO2 est ainsi égal à 1, il sert d‘étalon de base.
Le PRG d’un gaz est fonction de la durée prise en compte dans le calcul et de
la vitesse de son élimination progressive au cours du temps.
Émissions
Pouvoir de mondiales de
Gaz à effet de Durée
réchauffement GES (en % Source d’émissions
serre de vie
(à 100 ans) des émissions
totales 2010)
Combustion de
Gaz carbonique fossiles, procédés
100 1 74
(CO2) industriels
déforestation
Déchets, agriculture
Méthane (CH4) 12 25 17 et élevage, procédés
industriels
13
Dans les années 50, l’américain Gilbert Plass à partir d’un modèle climatique
rendu possible grâce à la naissance de l’ordinateur démontre que la quantité de
CO2 dans l’atmosphère peut influencer le climat et son évolution. Il se fait prophète
en prévoyant une augmentation moyenne de la température terrestre de 1,1 °C
d’ici l’an 2000 du fait de la combustion des ressources fossiles par l’homme. En
1958, un autre scientifique Keeling va faire le constat que les gaz à effet de serre
ne restent pas confinés aux seuls espaces où ils sont émis c’est-à-dire dans les
continents industrialisés mais ils se répartissent uniformément dans tous les endroits
de la Terre. Il constate alors que le taux de dioxyde de carbone ne cesse de croître
dans l’atmosphère.
Ces différents travaux conduisent la communauté scientifique à porter un intérêt
croissant à la fin des années 60 à cette problématique. Certains scientifiques
signalent alors que les modifications climatiques liées à l’effet de serre additionnel
pourraient poser problème dans le futur.
La fin des années 60 est aussi marquée par un vent de contestation sociale
portant sur les dérives du capitalisme. Sa propension à promouvoir un modèle
économique fondé sur la recherche effrénée d’un niveau de croissance toujours
élevé afin d’asseoir les bases d’une société consumériste est dénoncée. Le « Club
de Rome » réunissant universitaires, chercheurs, économistes et industriels voit le
jour et se définit comme le fer de lance de ce combat. Ses réflexions débouchent
sur une publication connue sous le nom de « Rapport Meadows ». Fondement
de la pensée écologiste, ce rapport au titre évocateur « Halte à la croissance » ou
« Limits to growth » condamne sans équivoque la perspective d’une croissance
infinie dans un monde caractérisé par la finitude des ressources. Les auteurs de ce
rapport émettent l’idée que la croissance infinie se fait au détriment de l’environ-
nement puisqu’elle épuise les ressources naturelles et met de ce fait la planète en
danger. La conclusion de ce groupe d’experts est sans ambiguïté. Pour conjurer le
risque d’épuisement des ressources naturelles dommageable à l’environnement,
un seul horizon s’impose c’est la croissance zéro.
Cette prise de position non conformiste va contribuer à une prise de conscience
de la responsabilité des actions nuisibles de l’homme sur la nature. Des confé-
rences sur l’environnement se multiplient au cours de la décennie 70. En 1971, la
conférence de Stockholm jette les bases d’un véritable tournant. Ayant pour objet
d’étude et de débat, les impacts des modifications possibles du climat sous l’effet
14
15
16
tricité en 2050 tandis que les énergies renouvelables doivent suivre le processus
inverse en voyant leur part augmenter considérablement pour représenter 70 %
à 80 % de la production d’énergie.
Pour rester en dessous de 2 °C de réchauffement, des réductions drastiques
d’émissions s’imposent aussi. Les émissions de gaz à effet de serre doivent s’inscrire
dans des trajectoires vertueuses. Les émissions totales cumulées ne devraient pas
dépasser une fourchette de 1 000 à 1 500 gigatonnes d’ici 2100. Pour atteindre
ces objectifs, le GIEC a établi un budget carbone. Celui-ci définit la quantité totale
de carbone qui peut être émise pour une hausse maximale des températures
17
18
initiale de cet accord, les émissions de gaz à effet de serre doivent baisser de
7.6 % dès 2020 jusqu’à 2030. Pour ce qui est de la limitation à 2 °C, les émissions
doivent diminuer de 2.7 % par an de 2020 à 2030. L’accord prévoit en outre des
financements à destination des pays en développement. Ces moyens alloués
ont vocation à les aider dans leurs efforts d’adaptation climatique. L’enveloppe
consacrée à cette fin est de 100 milliards par an à partir de 2020, un niveau plancher
qui devrait croître avec le temps.
Véritable succès diplomatique, l’accord de Paris va ainsi bénéficier de l’appro-
bation des 196 délégations présentes, il sera aussi ratifié par les plus grands
pollueurs dont la Chine qui à elle seule représente 20 % des émissions mondiales
de gaz à effet de serre.
19
Tableau 2 : budget carbone restant pour atteindre les différents objectifs cibles
en matière de réchauffement climatique
Cible du
réchauffement < 1,5 °C < 2 °C < 3 °C
climatique
Probabilité de
respect des
objectifs de 66 % 50 % 33 % 66 50 33 66 50 33
hausse des
températures
Budget carbone
2250 2250 2250 2900 3000 3300 4200 4500 4800
de référence
Budget carbone
400 550 850 1000 1300 1500 2400 2800 3250
restant en 2011
Budget carbone
153 303 603 753 1053 1253 2153 2553 3003
restant en 2018
Années
restantes avant
dépassement
du budget au
4 8 16 20 28 34 58 69 81
rythme actuel
des émissions
(hypothèse de
367 GtCO2/an)
Source : GIEC
20
Source : Pnud
Face à une menace de plus en plus présente les États peinent à faire preuve
de solidarité. Le retrait des États-Unis, une des plus grandes puissances émettrices
de CO2, de l’accord de Paris et l’échec de la COP25 de Madrid témoignent de la
21
22
23
24
1. En 2015, un virus vieux de 30 000 ans, le Mollivirus sibericum, a été découvert par une équipe
de chercheurs français dans le permafrost sibérien. Dans la même région, on a constaté une
résurgence de certaines maladies comme l’anthrax ou la variole qui n’ont plus sévi depuis
des décennies.
25
26
27
La prise de conscience des dommages causés par les activités anthropiques sur
l’environnement a contribué à la mise au jour par la théorie économique d’instru-
ments permettant d’en internaliser le coût. Considéré du point de vue de l’analyse
économique comme un bien collectif, le climat est l’objet d’externalités négatives
de la part des agents économiques du fait des émissions de gaz à effet de serre.
Ces atteintes à l’environnement en l’absence de régulation ne sont pas prises en
compte par les agents économiques qui de ce fait sont conduits à offrir un niveau de
production supérieur à celui socialement optimal. Comment contraindre les agents
économiques privés à prendre en compte les coûts externes sur l’environnement
découlant de leurs décisions individuelles ? L’analyse économique propose des
politiques reposant sur une logique d’incitation à modifier les comportements. Ces
politiques consistent à émettre un signal-prix afin de pousser les agents privés à
modifier leur comportement en matière de consommation et de production. L’aug-
mentation du prix des carburants par exemple vise à encourager les automobilistes
et les entreprises à la sobriété énergétique et au développement des nouvelles
technologies.
C’est le prix Nobel d’économie Ronald Coase qui est à l’origine de ces politiques
dites de signal-prix. Selon cet économiste, l’émission d’un signal prix pour modifier
les comportements des agents privés se justifie par le fait que le coût privé de
la production d’un bien est inférieur à son coût social du fait que ce dernier ne
prend pas en compte les dommages environnementaux engendrés. Le coût privé
correspond en effet au prix du marché du produit, celui-ci est fonction des coûts de
production et dépend de la rareté du produit. Il n’intègre donc pas les coûts induits
pour la société notamment ceux liés à la pollution et au réchauffement climatique.
L’écart entre le coût privé de la production et le coût social est équivalent à la
valeur de l’externalité négative générée par les émissions de gaz à effet de serre.
28
Elle a vocation à faire porter l’essentiel du coût social sur les agents à l’origine
des émissions de gaz à effet de serre ou de la pollution. L’application de la taxe
implique d’abord l’évaluation des dommages créés par la pollution et la mise en
œuvre ensuite du principe pollueur-payeur. La finalité de la taxe est de mettre en
correspondance les coûts sociaux et les coûts privés. On doit ce principe à l’écono-
miste britannique Arthur Cecil Pigou. C’est la raison pour laquelle les prélèvements
29
Pour internaliser les externalités Arthur Cecil Pigou et Ronald Coase adoptent
des démarches différentes. Partant du constat qu’en présence d’externalités,
le marché ne débouche pas sur une allocation optimale des ressources et ne
contribue donc pas à l’optimum social, l’économiste anglais propose une taxe
proportionnelle aux quantités produites afin de contraindre les producteurs de
prendre en compte les dommages sociaux générés par leur activité. Ce faisant le
coût marginal privé, c’est-à-dire celui supporté par les entreprises devient égal au
coût marginal social qui intègre l’ensemble des coûts générés par cette activité.
La représentation graphique suivante illustre les implications de l’instauration
d’une taxe pigouvienne.
30
Lorsque les effets externes ne sont pas pris en compte par les agents privés c’est-
à-dire en l’absence de taxation, l’optimum économique est atteint au point A
correspondant au niveau de production Q*. Cet optimum privé est différent de
l’optimum social. La prise en compte des conséquences sociales liées à l’activité
de pollution conduit à un déplacement vers la gauche du coût marginal privé.
Celui-ci devient égal au coût marginal social qui intègre le coût marginal privé
et la taxe instaurée équivalente aux dommages sociaux générés. Le nouveau
point d’équilibre obtenu B correspond à l’optimum social. Il est atteint au niveau
de production Q** inférieur à Q*.
Ainsi grâce à la mise en œuvre de la taxe, les entreprises polluantes réduisent
leur niveau d’émission de CO2 et permettent ainsi d’atteindre l’optimum social
en réalisant un niveau de production correspondant à celui qui est socialement
nécessaire. La partie hachurée correspond au montant total de la recette perçue
par les pouvoirs publics.
La solution de Coase
Pour remédier aux défaillances de marché que constituent les externalités
négatives, Ronald Coase propose d’instaurer des droits de propriété transfé-
rables sur les ressources environnementales en lieu et place d’une taxe prélevée
par l’état. Partant d’une situation où un agent exerce un effet externe sur un
autre, il en tire le théorème selon lequel l’internalisation des effets externes
peut être réalisée sans intervention des pouvoirs publics sur la seule base de
31
32
33
Interprétation du graphique :
On est en présence de deux entreprises dont les coûts marginaux d’abat-
tement sont ici représentés. CmR1 désigne le coût marginal de réduction
de l’entreprise 1 tandis que CmR2, celui de l’entreprise 2.
On suppose que le législateur établit une norme en matière de pollution
c’est-à-dire un seuil de pollution à ne pas dépasser. On le suppose égal
à 4 ici. Pour cette norme de pollution, les entreprises 1 et 2 supportent
un coût marginal d’abattement respectivement égal à 1 et 3.5 ; soit un
coût cumulé pour la collectivité égal à 4.5.
On suppose à présent que l’état met en place une taxe visant à réduire le
niveau de pollution des entreprises. Face à une taxe d’une valeur égale à
2, les entreprises réagissent différemment. L’entreprise 1 qui a des coûts
marginaux de dépollution élevés va fixer son niveau de pollution à 5.5
qui correspond au point où son coût marginal d’abattement est égal à
la taxe tandis que l’entreprise 2 va réduire son niveau de pollution en le
fixant à 2 pour les mêmes raisons.
Le niveau de pollution global atteint avec la taxe apparaît ici inférieur à
celui obtenu avec la mise en œuvre d’une norme indistincte pour tous. Il
en est de même du coût marginal d’abattement global.
34
1. La redistribution consisterait à opérer des transferts décroissants avec les revenus en tenant
compte des disparités géographiques. Ainsi 30 % des Français les plus vulnérables écono-
miquement recevraient environ 310 euros par an, les 10 % suivants 300 euros ainsi de suite
jusqu’au 8e décile qui percevrait 60 euros par an.
2. Instaurée en France en 2014, la taxe carbone était vouée à une augmentation annuelle continue.
En 2019, il était prévu qu’elle passe de 44,6 à 55 euros pour atteindre 86 euros en 2020. Le
mouvement des gilets jaunes a eu raison de cette programmation en obligeant le gouvernement
35
Le marché des droits à polluer est quant à lui doté des mêmes avantages que
la fiscalité écologique. En permettant de borner le niveau des gaz à effet de serre
à émettre, il contribue à concilier efficacité écologique et efficacité économique. Il
permet en outre d’atteindre l’objectif de réduction des émissions à moindre coût
pour la collectivité. Cependant, le prix auquel les agents s’échangent les droits
d’émission peut souffrir de volatilité et faire l’objet de spéculation. Sa mise en
œuvre comme celle de la taxe sur les énergies fossiles peut altérer la compétitivité
des entreprises nationales et les conduire à voter avec leurs pieds en délocalisant
leurs activités dans les pays dépourvus de politique volontariste en matière de lutte
contre le réchauffement climatique. On parle à ce propos de « fuite de carbone ».
De fortes importations de produits intensifs en gaz à effet de serre en provenance
des pays moins disant en fiscalité environnementale peuvent en résulter. La théorie
économique propose aux pays qui en sont victimes de taxer ces produits via une
« taxe Cambridge » afin d’annuler l’avantage-prix de ces produits sur le marché
intérieur.
Taxe ou marché des droits, lequel des instruments faut-il préférer ? Le choix de
l’un ou l’autre des deux instruments dépend étroitement de la sensibilité des acteurs
privés au coût marginal d’abattement et de l’ampleur des dommages marginaux
causés à l’environnement. Si ces derniers sont élevés et que les acteurs sont peu
sensibles au coût de dépollution alors, il est préférable de recourir au marché des
droits. À l’inverse, lorsque les agents sont peu sensibles aux dommages causés
sur l’environnement mais qu’ils sont davantage sensibles au coût marginal de
dépollution, une préférence pour le signal-prix s’impose.
La réglementation, la fiscalité environnementale et le marché des droits
concourent en définitive à la modification des comportements et à la promotion
de comportements vertueux en matière de préservation de l’environnement. Leur
efficacité s’avère somme toute relative comme en témoigne la montée continue
des gaz à effet de serre malgré une décennie de mise en œuvre des politiques
environnementales. L’adoption de « nudges » peut-elle contribuer à renforcer
l’efficacité des politiques de lutte contre le réchauffement climatique ?
La prise de conscience des torts causés par les activités humaines sur l’envi-
ronnement ne date pas d’aujourd’hui. Le marquis de Condorcet en 1776 dans ses
réflexions sur le commerce développait l’idée que les activités agricoles sources
de pollution étaient à l’origine des maladies dans les fermes avoisinantes. L’idée
d’externalité négative au cœur de son raisonnement le conduisit à en appeler aux
pouvoirs publics afin d’interdire ce type d’activité.
36
Suggérer sans contraindre telle est la vocation des nudges. Ils vont ainsi à
l’encontre des instruments économiques et réglementaires de la politique climatique
reposant sur l’incitation financière ou la contrainte. Ce terme n’est pas récent en
réalité. Il apparaît dès 1675 chez Thomas Hobbes. En anglais, le nudge désigne
une action visant à alerter un autre individu en utilisant en particulier le coude d’où
la traduction « coup de coude ». C’est un instrument non coercitif qui consiste à
pousser quelqu’un à faire quelque chose de son plein gré. C’est généralement une
action simple, peu coûteuse qui vise à orienter les comportements des individus
afin qu’ils fassent des choix susceptibles d’améliorer leur bien-être mais aussi celui
de la collectivité dans son ensemble. La vulgarisation de ce terme est cependant
récente. Elle date de 2009 à la faveur de l’ouvrage publié par deux auteurs,
l’économiste Richard Thaler et le juriste Cass Sunstein. Pour ces deux auteurs, les
nudges véhiculent une culture de l’incitation de nature à améliorer une prise de
conscience des citoyens à l’égard des enjeux environnementaux. La résurgence
de ce concept tire sa source dans la critique de la théorie dominante formulée par
certains économistes à l’instar de Daniel Kahneman ou de Robert Shiller. La théorie
dominante formule en effet que les agents économiques agissent rationnellement en
recherchant la maximisation de leurs intérêts personnels et qu’en agissant ainsi leurs
interactions contribuent de manière non-intentionnelle à l’optimum économique.
Cette rationalité théorique au cœur du concept d’homo economicus a fait l’objet
de multiples critiques. C’est à la faveur de ces remises en cause qu’est apparue
une nouvelle discipline appelée économie comportementale consistant à observer
en laboratoire les décisions prises par des citoyens cobayes. Les travaux de cette
nouvelle branche de l’économie ont permis de mettre en lumière l’existence de
biais cognitifs dans la prise de décision des individus. Les travaux de psychologues
ont permis de les mettre en exergue. Il en est ainsi du biais d’optimisme. En se
comparant aux autres, de nombreux individus considèrent généralement que le
meilleur va leur arriver. Cet excès d’optimisme peut induire des choix inappropriés
notamment en matière de préservation de l’environnement. Les conséquences
du réchauffement climatique n’apparaissant que dans un horizon temporel très
éloigné, certains individus peuvent être tentés par l’inaction en renvoyant à plus
37
tard les efforts qu’ils peuvent entreprendre aujourd’hui. On parle alors de biais de
procrastination ou biais de statu quo. La préférence du court terme prend alors le
dessus sur les considérations relevant du long terme.
Pour Richard Thaler et Cass Sunstein, les seules considérations économiques
et financières ne permettent pas d’expliquer les choix des individus. D’autres
paramètres jouent un rôle déterminant. L’environnement socioculturel, l’interpré-
tation des informations disponibles sont autant de facteurs qui priment dans la
prise de décision. Partant de ce constat, ces deux auteurs ont ainsi montré à partir
de leurs travaux qu’en modifiant certains paramètres, il est possible d’inciter les
individus à agir de manière différente. Le recours à la sanction ou à l’incitation
financière n’apparaît pas indispensable dans ce contexte.
Quelques exemples emblématiques servent à illustrer la notion de nudge. L’un
des plus cités est celui de l’aéroport de Schiphol d’Amsterdam un des hubs aériens
doté d’un trafic très élevé. Le responsable de la propreté eut l’idée originale de
coller au centre de chaque urinoir des toilettes réservées aux hommes la photo
d’une mouche. L’apparition de cette cible a modifié considérablement le compor-
tement des hommes. Ceux-ci ont été massivement incités à viser juste. Ce faisant
les éclaboussures ont été réduites, contribuant à baisser significativement les
dépenses d’entretien des toilettes de 20 %. Une initiative bienfaitrice qui depuis
a fait des émules à travers le monde.
L’irruption de ce concept dans le monde politique intervient à partir du début
de la décennie 2010. C’est d’abord en Grande Bretagne et aux États-Unis que
la reconnaissance des nudges comme instrument au service de l’environnement
trouve une traduction positive via la création d’institutions chargées de proposer
aux gouvernements des mesures ayant un fort pouvoir d’incitation des ménages
à changer leur comportement en matière d’environnement.
38
39
40
41
42
43
44
45
46
47
La biomasse est en effet une énergie de stock car elle prélève dans un stock
de matières vivantes. Elle ne peut donc garder son statut d’énergie renouvelable
que si l’exploitation de ses ressources ne porte pas atteinte au renouvellement
de celles-ci. L’utilisation du bois comme ressource ne doit pas avoir pour effet
l’accélération de la déforestation sans aucune perspective de renouvellement des
forêts. Autre réserve concernant la biomasse, elle concerne les émissions de CO2.
La biomasse est source d’émission de gaz à effet de serre même si comparati-
vement aux énergies fossiles, ses taux d’émission se révèlent largement inférieurs.
C’est aussi une énergie dont l’exploitation implique des coûts élevés. Les critiques
les plus fortes portent enfin sur les biocarburants. Produits à base de plantes, les
biocarburants nécessitent l’exploitation de terres et de surfaces agricoles de plus
en plus importantes. Leur développement peut déboucher sur la réduction des
surfaces agricoles affectées à la production alimentaire et contribuer ainsi à la
flambée des prix et à la paupérisation des populations notamment dans les pays
en développement. Avec les biocarburants de seconde génération, ce risque est
limité car ce sont les résidus agricoles qui sont utilisés comme matière première.
Ils ne peuvent donc induire une réduction des surfaces consacrées à la production
alimentaire.
Les biocarburants de troisième génération en phase de recherche et de dévelop-
pement suscitent le plus grand espoir. Fabriqué à partir de micro-algues, ce type de
biocarburant présente un excellent rendement. Il absorbe mieux le gaz carbonique
et peut de ce fait être plus rentable en produisant davantage d‘huile par hectare
comparativement à d’autres plantes. Poussant en milieu marin, les micro-algues
nécessitent aucune consommation d’eau pour leur culture, ni une mobilisation des
surfaces terrestres consacrées à la production alimentaire.
Le développement des énergies renouvelables requiert en définitive une mobili-
sation de moyens financiers considérables. Afin de se conformer aux accords de
Paris, les investissements cumulés totaux dans les énergies renouvelables devraient,
selon le GIEC, être compris entre 1 490 et 7 180 milliards de dollars constants
pour les décennies 2012-2030. Les données actuelles montrent qu’elles bénéfi-
cient somme toute d’une bonne dynamique de croissance. En 2008, les énergies
renouvelables représentaient 12.8 % des diverses sources d’énergie mais en une
décennie, elles ont vu leur part augmenter de quatre points de pourcentage dans
la consommation finale d’énergie. Une augmentation particulièrement bénéfique
pour les énergies éoliennes et solaires. L’Europe aux avant-postes du dévelop-
pement des énergies renouvelables entend couvrir ses besoins de consommation
énergétiques à hauteur de 20.5 % en 2023 et envisage d’atteindre 32 % d’énergies
renouvelables dans le mix énergétique d’ici 2030.
48
Source : GIEC
Source : GIEC
49
renforcé par le Green Deal européen ou pacte vert présenté par Ursula Von Derleyen,
la nouvelle présidente de la Commission européenne. Qualifié d’ambitieux, ce projet
vise à transformer profondément l’économie européenne grâce au verdissement
des politiques macro-économiques, ceci afin d’atteindre la neutralité carbone en
2050. Doté d’un budget de 1 100 milliards d’euros, ce plan vise à relever plusieurs
défis. Il s’agit en premier lieu de financer la transition énergétique du continent
afin de réduire les émissions de gaz à effet de serre tout en améliorant l’efficacité
énergétique, d’inciter ensuite les entreprises privées à investir dans la transition
verte et enfin d’identifier, de structurer et d’exécuter les projets durables.
Le Green Deal européen repose sur un outil appelé Fonds d’aide à la transition
juste c’est-à-dire un mécanisme d’inclusion carbone aux frontières permettant de
mettre à l’abri de la concurrence étrangère les entreprises européennes vertueuses
en matière environnementale et vise un objectif ambitieux, celui de réduire les
émissions de gaz à effet de serre de 50 à 55 % d’ici 2030. Prenant la forme
d’une taxe carbone, ce mécanisme d’inclusion consiste à soumettre à un tarif
douanier les importations en provenance de pays tiers ne respectant pas les normes
environnementales concernant par exemple, l’intensité énergétique des procédés
de fabrication. Les pays n’ayant pas pris des mesures en faveur de la réduction
des émissions de gaz à effet de serre sont ainsi particulièrement visés. Plusieurs
secteurs fortement émetteurs de CO2 se retrouvent ainsi dans le collimateur de
la Commission européenne. Il s’agit de l’acier, du ciment, du papier-carton, du
verre, de la chimie. Outre la lutte contre le dumping écologique, ce mécanisme
d’ajustement carbone aux frontières vise à dissuader toute tentation de la part
de certaines entreprises à délocaliser leur production hors de l’UE. Cette mesure
visant à éviter les distorsions de concurrence suscite néanmoins quelques critiques
et réserves de la part des partisans du libre-échange. Ils redoutent en effet que
ce signal prix en direction des pays pratiquant le moins disant écologique ne soit
qu’un simple acte de protectionnisme aveugle dont l’immédiate conséquente serait
l’adoption par les pays tiers de mesures de rétorsion conduisant à l’aggravation
de la guerre commerciale. Ils redoutent par ailleurs une augmentation du prix des
produits importés qui aurait pour effet d’affaiblir le pouvoir d’achat des ménages.
Enfin, la faisabilité d’une telle taxe est aussi source d’interrogations. Elle implique
en effet une parfaite connaissance du contenu carboné des produits importés, une
tâche que certains experts considèrent comme titanesque.
Présenté néanmoins comme une stratégie de croissance, le Green Deal s’inscrit
dans le sillage des politiques de relance des années 30 engagées par le président
Roosevelt connues sous l’appellation de New Deal. Grâce à ce plan d’investissement
massif, la commission espère bénéficier d’un double dividende économique et
environnemental.
Ce pacte est toutefois loin de faire l’unanimité. Il suscite en effet des réticences
de la part des députés européens membres du Parti populaire européen. Ceux-ci
redoutent que ce projet désavantage l’industrie européenne et pénalise l’emploi.
Au-delà des divergences politiques, un obstacle inattendu de taille risque de
contrarier l’ambition de ce pacte vert, il s’agit de la crise économique liée au
50
51
52
C’est par différents processus que le milieu marin contribue à jouer ce rôle de
puit de carbone de premier plan. Un processus biologique d’une part, et physique
de l’autre. Au cœur du processus biologique, il y a les algues microscopiques
appelées phytoplancton ou plancton végétal. Ces organismes végétaux micros-
copiques ont la faculté d’absorber une quantité considérable de CO2. Grace à la
lumière le phytoplancton conserve le carbone et expire l’oxygène dans l’air. Ce
procédé permet de créer de la matière organique à la base de la chaîne alimen-
taire aquatique.
L’absorption du CO2 par les océans mobilise deux procédés physiques qui sont
la dissolution naturelle des gaz et la répartition dans les profondeurs du CO2. Le
gaz carbonique a en effet la singularité d’être plus soluble dans une eau froide.
Les eaux froides des océans favorisent ainsi ce processus de dissolution, ce qui
contribue à en faire des puits de carbone. Quant à la répartition verticale du CO2
dans les océans, elle est la conséquence des courants d’eau. Ceux-ci ont en effet
tendance à emporter vers le fond de l’océan les molécules de CO2 dissoutes en
surface.
Au final en absorbant une proportion considérable du CO2 présente dans
l’atmosphère, les océans sont un facteur de régulation du climat. C’est environ un
quart du CO2 émis par les activités anthropiques qui est absorbé par les océans d’où
l’impérieuse nécessité de préserver ce puit essentiel ou de renforcer ses capacités
d’absorption. Certaines techniques de fertilisation des océans sont évoquées1. Une
d’elles consiste à accroître le nombre de phytoplanctons grâce à la production de
biochar. Il s’agit d’un charbon de bois produit à partir de matière végétale dont
la particularité est d’avoir un bilan carbone négatif.
1. Voir l’encadré 5, page 54, consacré à la géo-ingénierie comme possible solution au réchauf-
fement climatique.
53
54
Concernant la capture du CO2, l’imagination à ce sujet est aussi sans limite. Outre
la création d’arbres synthétiques ayant la faculté de capter le CO2, une idée
connaît un succès croissant, celle consistant à créer des aspirateurs à carbone.
Des chercheurs suisses y travaillent intensément. Le principe est le suivant. De
très gros ventilateurs propulsant l’air ambiant à travers des filtres constitués
de granulés poreux avec lesquels le carbone se lie chimiquement, pourraient
permettre ce faisant de diminuer la quantité de CO2 présente dans l’atmos-
phère. Les initiateurs de ce projet espèrent capter grâce à ce procédé 1 % des
émissions mondiales d’ici à 2025. Un bémol à cette ambition, la nécessité d’un
investissement colossal permettant d’installer 250 000 usines capables de générer
une quantité astronomique de CO2.
Aux États-Unis ce projet de capture de carbone suscite des espoirs fondés en
raison de ses résultats prometteurs. Une usine fabricant de l’éthanol a en effet mis
au point un système permettant de capturer le CO2 qu’elle émet et à le stocker
sous terre. Ce projet en place depuis 2017, a permis à l’entreprise d’enfouir
1 million de tonnes de dioxyde de carbone par an. Ce succès manifeste permet
à ses concepteurs d’affirmer qu’il pourrait permettre de réduire significativement
les émissions industrielles de carbone à travers le monde.
Une autre idée relevant de la même finalité, consisterait à travailler sur l’altération
forcée. Il s’agit d’augmenter la capacité de certains minéraux, comme l’olivine
et le basalte, à fixer le CO2. En broyant ces minéraux, on accroît leur capacité à
réagir avec le CO2 présent dans l’atmosphère.
Quant à la fertilisation des océans, les recherches visent à accroître l’expansion du
phytoplancton, une microscopique plante océanique qui a la faculté d’attraper le
CO2 et de l’entraîner au fond de la mer. Le manque de fer constitue un obstacle
à sa prolifération, aussi pour y parvenir, des scientifiques préconisent l’épandage
à large échelle du sulfate de fer sur la mer.
En somme la géo-ingénierie se singularise par son inventivité et par sa capacité à
susciter des solutions controversées mettant à mal l’unité des scientifiques dans
l’élaboration de solutions permettant de limiter l’ampleur du réchauffement
climatique.
Si ses partisans considèrent qu’il est peu envisageable d’atteindre les objectifs
de limitation du réchauffement climatique sans recourir aux technologies recom-
mandées par la géo-ingénierie, pour d’autres scientifiques, ces projets pèchent
au contraire par leur absence d’humilité face à des phénomènes climatiques
complexes. Nicolas Hulot, ancien ministre de l’environnement a à ce sujet mis en
garde à ce que l’homme ne joue pas aux apprentis sorciers car une manipulation
de la nature peut avoir des conséquences irréversibles fortement dommageables.
Un avis partagé par nombre de scientifiques dont ceux du GIEC pour qui nombre
de projets de la géo-ingénierie relève largement de la spéculation et comporte
un risque d’effets collatéraux inconnus.
En définitive, loin de constituer une panacée face au réchauffement climatique,
les technologies relevant de la géo-ingénierie risquent plutôt de multiplier les
impacts nuisibles du dérèglement climatique sur les populations les plus vulné-
rables accroissant de ce fait les injustices climatiques. Au lieu d’axer ses projets
sur la réduction des émissions mondiales de gaz à effet de serre, la géo-ingénierie
s’attaque aux effets du réchauffement climatique avec en toile de fond l’idée
55
que la science peut à elle seule sauver l’humanité du désastre climatique. Une
illusion qui contribue à accroître son pouvoir de séduction et qui repose sur
l’idée pernicieuse que la nature doit être soumise à la volonté de l’homme. Des
errements qui non seulement soulèvent des problèmes de nature éthique mais
qui laissent entier le problème du réchauffement climatique. ©
Les arbres et plus généralement les forêts via la photosynthèse des plantes
assurent la fonction de puit de carbone. Durant leur croissance les végétaux captent
du gaz carbonique atmosphérique et une partie de celui-ci est stockée dans les
sols. Ces derniers jouent aussi ce faisant le rôle de puit de carbone. Cependant la
capacité d’absorption du CO2 de ces deux puits est étroitement liée au maintien
de la diversité. Ainsi lorsque la déforestation progresse, elle porte atteinte direc-
tement aux puits de carbone que sont les sols et les forêts. En croissance continue
dans certaines régions du monde, la déforestation est le résultat conjugué de
l’extension de l’usage des sols pour l’agriculture, l’élevage et l’habitat. La forêt
amazonienne constitue l’exemple le plus emblématique de cette situation. D’une
superficie d’environ 6 millions de kilomètres carrés, l’Amazonie est de loin la plus
grande forêt tropicale. Véritable trésor de biodiversité, elle cumule à elle seule de
nombreux records. L’Amazonie comptabilise en effet 40 000 espèces de plantes,
3 000 espèces de poissons d’eau douce et plus de 370 types de reptiles, soit une
espèce sur dix connues sur terre. Étendue sur six pays, l’Amazonie abrite 10 %
des espèces vivantes sur la planète Terre alors qu’elle ne représente que 1 % de
la superficie de la planète.
L’Amazonie, c’est aussi 550 millions d’hectares de forêts et 6 600 kilomètres
de rivières. C’est l’un des plus grands bassins. Son fleuve Amazone est l’un des
mieux dotés en débit au monde. Ses caractéristiques sans équivalent justifient son
appellation de « poumon vert » du monde. Cependant ce grand réservoir de la
biodiversité est l’objet de multiples outrages qui menacent sa fonction d’infrastructure
naturelle contre l’effet de serre.
Soumise à de nombreuses pressions liées aux activités humaines, l’Amazonie
a perdu près de 20 % de sa superficie depuis 1970. En cause le processus de
déforestation engagé depuis de nombreuses années dans le but d’accroître les
superficies consacrées aux activités agricoles. L’élevage de bovins, la culture de
soja, de maïs, de canne à sucre nécessitent des surfaces de plus en plus grandes
du fait de la croissance de la demande mondiale. Il en découle donc une pression
accrue sur l’Amazonie. La volonté des autorités locales notamment brésiliennes de
baser leur développement sur l’exportation des matières premières primaires fait
de l’Amazonie la victime expiatoire des intérêts économiques et financiers locaux.
En témoigne, l’accélération de la déforestation depuis l’accession au pouvoir de
Jair Bolsonaro. En 2019, ce sont 9 166 kilomètres carrés qui ont été fauchés, soit
une augmentation de 85 % par rapport à 2018.
56
57
La conjugaison de l’ensemble de ces facteurs fait peser un risque sur les forêts
tropicales d’Afrique. Or comme l’Amazonie, ce sont des réservoirs de carbone
nécessaires pour la régulation climatique. Les forêts tropicales africaines retiennent
en effet un quart du stock mondial de carbone terrestre présent dans la végétation
et les sols. La préservation de leur intégrité se révèle essentielle dans l’atténuation
de l’ampleur des conséquences du réchauffement climatique.
La préservation des puits de carbone que sont les forêts et les sols passe aussi
par la remise en cause du productivisme agricole. La convoitise et les pressions
qui s’exercent sur l’Amazonie tirent leur source de cet objectif dommageable pour
la préservation de la biodiversité. D’une manière générale, l’agriculture intensive
n’est pas écologiquement durable. C’est l’une des premières sources d’émission
mondiale de gaz à effet de serre. L’agriculture est responsable de plus de 70 %
des émissions mondiales de protoxyde d’azote (N20) et de 50 % des émissions de
méthane. C’est le processus de fertilisation des sols à l’aide d’engrais azotés qui
est la source d’émission du protoxyde d’azote. Ce gaz à effet de serre a un pouvoir
réchauffant trente fois supérieur à celui du gaz carbonique. Quant au méthane, il
est pour l’essentiel dû aux animaux d’élevage appelés ruminants (bovins, ovins).
Ce gaz à effet de serre doté d’un pouvoir réchauffant 28 fois plus élevé que le
dioxyde de carbone provient des flatulences des bovins et des déjections animales.
La réduction de ces émissions passe par voie de conséquence par une agriculture
transformée c’est-à-dire moins utilisatrice d’intrants chimiques et moins centrée
sur un élevage intensif. Comment y parvenir ?
Pour de nombreux experts, chercheurs, organisations non gouvernementales et
associations, la solution réside dans la modification de nos habitudes alimentaires
puis dans le développement de l’agriculture biologique et dans la promotion de
l’agroforesterie.
58
La viande bovine est celle qui de loin affecte le plus l’environnement. Représentant
22 % de la consommation totale de viande dans le monde, la viande bovine se
singularise par un taux d’émission de gaz à effet de serre très élevé comparativement
à d’autres viandes. Elle représente 41 % des émissions dues à l’élevage de bétail ou
74 % des émissions si l’on tient compte de la production de lait. Le porc qui est la
viande la plus consommée au monde n’en représente que 9 % tandis que le poulet,
bien que produit de consommation de masse, n’est responsable que de 8 % des
émissions. Le poids prégnant de la production de viande et de lait dans les émissions
de gaz à effet de serre n’est pas proportionnel au pourcentage de calories que ces
alimentations permettent d’ingérer, il n’est en effet que de 20 % au niveau mondial.
Source : FAO.
Source : FAO.
59
L’eau, denrée rare, est aussi mise à contribution pour produire de la viande
bovine. Il faut en effet 13 500 litres d’eau pour produire 1 kilo de bœuf. Le porc en
requiert 4 600 litres tandis que le poulet n’en nécessite que 4 100. Des quantités
sans rapport avec celles nécessaires à la production de céréales telles que le riz
(1 400 litres), le blé (1 200 litres), ou le maïs (700 litres).
L’élevage de bétail mobilise aussi une grande partie de la production céréa-
lière. 40 % des céréales produites et récoltées dans le monde sont affectées à
l’alimentation de bétail.
Destiné à la production de masse, l’élevage intensif requiert de plus en plus de
terres. 70 % de la surface agricole mondiale selon le FAO est affectée à l’élevage
de bétail soit pour le pâturage du bétail ou pour la production de céréales. L’accé-
lération du processus de déforestation de l’Amazonie et des forêts tropicales tire sa
source de cette volonté d’accroître indéfiniment les surfaces agricoles consacrées
à l’élevage intensif et notamment à la production de soja, céréale nécessaire à
l’alimentation du bétail.
Mettre fin au règne de la viande dans nos assiettes aurait de multiples vertus.
Celle d’abord de réduire les gaz à effet de serre liés à l’élevage qui à eux seuls
représentent selon la FAO 18 % des émissions de gaz à effet de serre soit davantage
que les transports. Celle de préserver l’eau, une ressource vitale appelée à se
raréfier avec la croissance exponentielle de la population mondiale ; l’élevage
intensif représente en effet à lui seul 8 % de la consommation mondiale d’eau.
Celle d’affecter une partie de la production céréalière à d’autres fins notamment à
la consommation humaine. Celle de préserver l’intégrité des forêts tropicales, des
pompes de carbone essentielles à la régulation climatique et enfin celle de prévenir
de certaines maladies cardiovasculaires à l’origine d’un taux de mortalité élevé.
Si la consommation de viande reste très poussée dans les pays en dévelop-
pement, force est toutefois de constater qu’elle baisse régulièrement dans les
pays riches et notamment en France. En 1960, elle représentait en effet 23.7 %
du panier alimentaire moyen des Français, cette part n’est plus aujourd’hui que de
20 % selon l’Insee. Des études menées par le CREDOC vont dans le même sens.
Elles attestent de la baisse de la consommation de viande de 12 % en 10 ans. De
2007 à 2016, la part des produits carnés consommés par jour par les Français est
passée de 153 grammes à 135 grammes soit 18 grammes de moins en 10 ans. Cette
légère baisse du poids des produits carnés dans l’alimentation des Français est à
mettre au crédit des campagnes de communication visant à alerter les ménages sur
les risques sanitaires associés à une alimentation trop riche en protéines animales
mais aussi sur les souffrances endurées par les animaux1.
1 La souffrance animale, cause défendue par plusieurs associations bénéficie d’un soutien
croissant de la part des Français comme en témoigne le nombre croissant de végétariens, de
végétaliens, de végans et de flexitariens. Tous ont un point commun, celui d’être sensibles à
la souffrance animale et d’exclure plus ou moins les produits carnés de leur alimentation.
60
61
62
1 En 2019, à peine 40 % des Français déclaraient avoir entendu parler de la pollution numérique.
2. Le numérique émet 1 400 millions de tonnes de CO2, c’est 2 à 3 fois l’empreinte carbone de la
France. Sa consommation d’électricité est évaluée à 1 420 TWH soit 2.6 fois la consommation
électrique annuelle de la France. Quant à sa consommation d’eau, elle s’élève à 7.8 millions
de m3 d’eau douce, soit 2.1 fois la consommation d’eau annuelle de la France.
63
64
stockage du Big data nécessitent pour leur fonctionnement continu une quantité
considérable d’énergie et émettent de ce fait un volume de CO2 conséquent.
Près de 4 500 Data Centers existent dans le monde dont 1 650 sont situés
aux États-Unis. Ils ont pour particularité de produire énormément de chaleur,
nécessitant de ce fait le recours à la climatisation afin d’éviter tout risque de
surchauffe. L’alimentation électrique moyenne d’un centre de stockage de données
est d’environ 30 MW, les plus gros centres mobilisent plus de 100 MW, ce qui
correspond à la consommation d’une ville de 25 000 à 50 000 habitants. Au total,
les Datas Centers consomment à eux seuls 3 % de l’électricité mondiale, une
part appelée à croître avec la montée exponentielle du Big data.
65
C’est une des pistes proposées par certains experts pour améliorer la durabilité
de l’agriculture. Il s’agit d’associer les arbres aux productions agricoles. Cette
association confère de nombreux avantages car elle permet de préserver des
nappes phréatiques, de fertiliser les sols, de contrôler des maladies, de développer
un microclimat favorable à la biodiversité.
Les arbres ainsi plantés assurent en effet une double fonction, celle d’absorber
du carbone mais aussi d’enrichir les sols grâce à l’azote fixé. Ce faisant, ils contri-
buent, d’une part, à réduire les besoins des sols en engrais azotés chimiques, facteur
de réchauffement climatique et d’autre part, à recharger les nappes phréatiques
et à réguler le cycle de l’eau. Les rendements agricoles s’en trouvent améliorés.
Dans le droit fil de l’agroforesterie, une idée s’impose de plus en plus, celle
consistant à créer des fermes verticales. Cela consiste à intégrer l’agriculture en
milieu urbain grâce à la construction de grandes tours verticales abritant des serres
empilées les unes sur les autres.
Théorisé en 1991 par le microbiologiste Dickson Despommier, ce concept a
vu le jour pour la première fois à Singapour. La société Sky Green y a construit
120 tours de 91 mètres de haut comprenant 38 étages remplis de bacs de légumes
poussant hors sol alimentés artificiellement et irrigués à l’eau de pluie. Depuis
ce concept a fait florès dans de nombreux pays. Au Japon où l’entreprise Marai
revendique la production de 10 000 laitues par jour, aux États-Unis où l’Aero
Farms, la plus grande ferme verticale au monde de 6 500 mètres carrés, affirme
produire 10 000 tonnes de choux et de salades par an, soit un rendement 350 fois
supérieur à celui d’une ferme conventionnelle. En Europe, le concept gagne aussi
du terrain avec la mise en œuvre de nombreux projets. C’est aux Pays bas que
ce concept s’est d’abord matérialisé par la mise en exploitation de 3 000 mètres
carrés consacrés à la production de laitues. D’autres villes ont depuis emboîté le
pas. En France, des villes comme Paris, Angers, Lyon ou Albi ont pris le parti de
cette agriculture facteur de résilience.
Le succès croissant de ce concept est lié aux multiples avantages qu’il génère.
Contrairement à l’agriculture horizontale très dommageable pour la faune sauvage
et la biodiversité, l’agriculture horizontale se veut protectrice de celle-ci. Permettant
en effet un meilleur contrôle de l’environnement des plantes, elle ne requiert pas
l’utilisation des pesticides, ni d’herbicides. L’eau utilisée par les cultures est recyclée
via la vapeur produite par l’évapotranspiration des plantes.
Avec l’agriculture verticale, les lieux de production et les lieux de consommation
se confondent, ce qui réduit les coûts du transport et le volume d’émission de
CO2 dû à l’acheminement des aliments.
C’est aussi un système de production qui permet de décentraliser le système
alimentaire et de démocratiser l’approvisionnement grâce à la proximité de l’offre
productive. Ce faisant la baisse des prix consécutive à la production de masse
permet au plus grand nombre d’accéder à une offre qualitative permettant de
garantir une alimentation saine. À cet avantage s’ajoute, celui de s’affranchir des
66
1 Dans Les Six livres de la République publié en 1576, Jean Bodin affirme : « il ne faut jamais craindre
qu’il y ait trop de sujets, trop de citoyens vu qu’il n’y a de richesse, ni force que d’hommes ».
67
68
1. Voir l’annexe 4, page 85, le tableau consacré à l’empreinte carbone des pays (et du nombre
de planètes nécessaires).
69
Conclusion
70
71
Lexique
72
Eco-taxe : Ce sont des taxes qui s’appliquent aux produits supposés nuire à
l’environnement. Ils visent à inciter les consommateurs à modifier leurs choix
de consommation au profit de produits moins polluants.
Effet rebond : Encore appelé paradoxe de Jevons du nom de l’économiste anglais
qui l’a mis en lumière, il désigne l’augmentation de consommation résultant
de la réduction des limites à l’utilisation d’une technologie. Concrètement,
ce phénomène se produit lorsque les gains environnementaux découlant de
l’efficacité énergétique sont annulés du fait de l’augmentation des usages. Le
rendement énergétique des moteurs automobiles s’est traduit par exemple
par une réduction du coût par kilomètre parcouru, ce qui a eu pour effet
pervers d’encourager les automobiles à utiliser davantage leurs voitures et
parcourir ainsi plus de kilomètres.
Émissions anthropiques : Ce sont les émissions de gaz à effet de serre résultant
de l’activité humaine
Empreinte écologique : C’est un indicateur permettant de mesurer la pression
exercée par les hommes sur la nature ou l’environnement. Elle permet d’évaluer
la surface terrestre nécessaire à la satisfaction des besoins des sociétés
humaines. Il est souvent affirmé que si l’on venait à généraliser le mode
de vie des Américains, il faudrait 5 planètes pour satisfaire les besoins de
la population mondiale. Cet indicateur permet aussi d’évaluer le jour du
dépassement, c’est-à-dire la date à partir de laquelle l’humanité se voit
contrainte de puiser dans ses réserves c’est-à-dire de vivre à crédit du fait
d’avoir consommé toutes les ressources annuelles renouvelables mises à sa
disposition par la Terre. En 2018 et en 2019 le jour du dépassement était
respectivement évalué au 1er août et au 29 juillet. Un cumul des jours de
dépassement montrerait que présentement l’humanité vit largement à crédit
en consommant les ressources correspondantes à l’année 2030. En 2020, le
jour du dépassement devrait tomber le 22 août, un recul de trois semaines
à mettre au crédit des mesures de confinement décidées dans le cadre de
la pandémie de la Covid-19.
Empreinte carbone : C’est un indicateur permettant d‘évaluer la quantité
d’émission de dioxyde de carbone imputée à une entité.
Externalité : Désigne l’impact sur des tiers des choix de consommation ou de
production d’un agent économique. Les externalités peuvent être positives
(la vaccination) ou négatives (la pollution). Les externalités relèvent des
défaillances de marché car elles débouchent sur une mauvaise allocation
des ressources.
Lexique
73
74
Bibliographie
ANGUS Ian et BUTLER Simon, Une planète trop peuplée ? Le mythe populationniste,
l’immigration et la crise écologique, Ecosociété, 2011.
AUDIER Serge, L’âge productiviste. Hégémonie prométhéenne, brèches et
alternatives écologiques, La découverte, 2019.
BAYON Denis, FLIPO Fabrice, SCHNEIDER François, La décroissance : 10 questions
Liste des acronymes
75
—, HENRIET Fanny et SCHUBERT Katheline, « Pour le climat : une taxe juste, pas juste
une taxe », Notes du Conseil d’analyse économique, n° 50, La documentation
française, 2019.
BROWN Lester Russel, FLAVIN Christopher, POSTEL Sandra, Le défi planétaire : pour
Bibliographie
76
Rapport du GIEC :
– « Climate change, Synthesis report summary for policymakers », 2014.
– « Spécial Report on Global Warming of 1.5 °C », 2008.
Rapport Quinet :« La valeur de l’action pour le climat », France stratégie, 2019.
ROCHFELD Judith, Justice pour le climat, Odile Jacob, 2019.
SERRA Daniel, Économie comportementale, Economica, 2017.
SERVET Jean-Michel, L’économie comportementale en question, Charles Leopold
Mayer édition, 2018.
THELER Richard, Misbehaving : les découvertes de l’économie expérimentale,
Éditions du Seuil, 2018.
—, SUNSTEIN Cass, Nudge comment inspirer la bonne décision, Pocket, 2012.
TIROLE Jean, « Politique climatique : une nouvelle architecture internationale »,
Les rapports du Conseil d’analyse économique, n° 87, La Documentation
française, 2009.
—, Économie du bien commun, PUF, 2016.
VIDALENC Éric, Pour une écologie numérique, Les Petits matins-Institut Veblen, 2019.
ZACCAÏ Edwin, Deux degrés, Les Presses de Sciences Po, 2019.
Annexe
Figure 1
Annexe
Source : OMM
77
Figure 2
Annexe
Source : OMM
Figure 3
Source : OMM
78
Figure 4
Figure 1
Annexe
79
Figure 2
Annexe
Figure 1
Source : ONU
80
Figure 2
Figure 3
Annexe
81
Figure 4
Annexe
Figure 5
82
Figure 6
Figure 7
Annexe
83
Figure 8
Annexe
Figure 9
Source : ONU
84
ANNEXE 4 : Le poids des pays dans les émissions de GES et les indica-
teurs d’atteinte à l’environnement.
Figure 1
Figure 2
Annexe
85
Figure 3
Annexe
Figure 4
86
87
2020 restera indéfiniment dans la mémoire collective comme l’année qui a fait
basculer l’humanité dans un univers dominé par l’incertitude des lendemains. Avant
d’être déstabilisée par un virus aux conséquences on ne peut plus dévastatrices,
de nombreux économistes1 considéraient l’année 2020 comme le point d’orgue
d’une crise économique et financière foudroyante.
Source : FMI
88
89
90
n’avait jamais été dépassé excepté lors de la bulle Internet de 2000 ou lors de la
crise des subprimes. Une situation préoccupante qui avait conduit Robert Shiller à
lancer l’alerte en affirmant qu’il y avait des similitudes entre Wall Street aujourd’hui
et Wall Street à la veille du krach de 1929. Le graphique suivant met en lumière la
corrélation entre l’évolution de cet indice et la survenue de crises économiques
et financières.
91
92
dès 2018 d’augmenter de 10 % les droits de douane sur les importations chinoises
d’une valeur de 200 milliards de dollars. Niant toute forme de déloyauté dans ses
rapports commerciaux avec les États-Unis, la Chine n’est pas demeurée inerte en
décidant en guise de représailles la surtaxation des produits américains importés
et la sous-évaluation de sa monnaie.
Différentes mesures de rétorsion ont par la suite marqué cette escalade commer-
ciale dont l’un des principaux enjeux est celui de la conquête de la suprématie
technologique afin de conserver le leadership économique mondial.
93
94
95
Source : BusinessBourse
96
Si ces craintes sont pour partie fondées, elles méritent toutefois d’être relati-
visées. En effet depuis 2010, l’administration Obama a mis en œuvre des réformes
permettant au gouvernement fédéral d’avoir le quasi-monopole de l’émission
des prêts étudiants au détriment du secteur bancaire. Dans son rapport de 2016,
le département du Trésor américain affirmait que la dette étudiante représentait
31 % des actifs du gouvernement des États-Unis qui en est le principal garant. En
cas de défaut massif, c’est donc principalement l’État fédéral qui en subirait les
conséquences. Le secteur privé en serait épargné.
Aux différentes fragilités précédemment énumérées pourraient s’ajouter d’autres,
celle découlant du Brexit porteur d’un risque, celui d’affaiblissement de l’Union
européenne, ou celle concernant les pays émergents à l’instar du Brésil ou de
l’Argentine, confrontés récurremment à des crises de change susceptibles de
déboucher sur des crises économiques.
Toutes ces défaillances mises bout à bout étaient assimilables à des barils de
poudre dont l’explosion pouvait intervenir au contact de la moindre étincelle.
Nombreuses sont les pandémies meurtrières qui ont frappé l’humanité mais aucune
d’entres elles n’a eu un impact économique calamiteux comparable à celui généré
par la Covid-19. Qu’il s’agisse de la pandémie de la peste noire du XIVe siècle, de
celle du choléra du début du XIXe siècle, de la grippe espagnole de 1918, ou celle
plus contemporaine du Sida, tous ces fléaux ont pour dénominateur commun d’être
de véritables catastrophes sanitaires mais aux implications économiques limitées.
97
1. Covid-19 vient de Corona (Co), virus (vi), « disease » (d) maladie en anglais et 19 pour désigner
l’année de détection de la pathologie.
98
L
f (x) =
1 + e – k (x – x0)
99
revenus comme c’est généralement le cas lorsque survient une crise économique
classique mais plutôt le résultat de la fermeture des lieux de consommation ou de
dépense. Pour limiter les incidences de la crise sur les revenus des ménages, le
gouvernement français a décidé opportunément des mesures de chômage partiel
en faveur des actifs victimes de la baisse d’activité. Ainsi les salariés confrontés à
cette situation ont vu leurs salaires garantis à hauteur de 84 % du salaire net payé.
Cette garantie a été portée à 100 % pour ceux payés au Smic et plafonnée au-delà
de 4.5 Smic. Toutefois, les incertitudes générées par cette situation économique et
sanitaire anxiogène conduisent un nombre croissant de ménages à se constituer
une épargne de précaution et les entreprises à différer leurs décisions d’investis-
sement. Dans le premier cas, les statistiques révélées par certains instituts dont
l’Insee témoignent de l’ampleur du phénomène. À la fin avril, le montant du surplus
d’épargne financière constitué par les ménages français s’élevait à 55 milliards
d’euros. L’estimation réalisée par l’OFCE est nettement plus élevée car il l’évalue
autour de 75 milliards d’euros et pourrait atteindre selon cet institut l’astronomique
somme de 100 milliards à la fin 2020. Quant aux entreprises, confrontées à des
perspectives économiques très incertaines, elles se voient contraintes de renoncer
à certains investissements contrariant d’autant l’offre productive.
La globalisation économique produit de l’interconnexion des économies tend
aussi à renforcer l’effet choc d’offre négatif. Le confinement de plus de la moitié
de la population mondiale réduit la demande émanant de pays tiers. La baisse
des exportations, une des composantes essentielles de la demande globale, qui
en résulte renforce les effets récessifs de l’activité économique précédemment
mentionnés.
Cette crise a aussi entraîné des effets de richesse négatifs via l’effondrement
des cours boursiers assimilable à un krach boursier. Le mois de mars a en effet
été marqué par une chute des indices boursiers observée sur toutes les places
financières. Certains records ont été battus. C’est le cas de la Bourse de Paris
dont l’indice phare, le CAC 40, a perdu en quelques semaines 2 000 points, soit
100 milliards d’euros de capitalisation boursière évaporés. Le marché pétrolier
a au cours de la même période été en proie à de graves difficultés débouchant
sur un mini-choc pétrolier. La baisse de la demande de pétrole liée au recul de
l’activité économique n’a pas en effet été suivie par une baisse de la production
de pétrole. Cette situation découlant d’une mésentente entre les pays de l’OPEP
et la Russie a eu pour conséquence de tirer les cours de l’or noir vers le bas au
point d’atteindre des prix négatifs. Situation paradoxale qui se traduit par la vente
à perte des barils de pétrole et qui constitue un énorme manque à gagner pour
les pays tributaires de cette ressource.
Au final, la conjugaison de toutes ces différentes situations défavorables à
l’activité économique a eu pour conséquence la mise dans un état récessif de
l’économie inégalé depuis la grande dépression des années 30. Le graphique
suivant permet d’illustrer l’effet récessif découlant de la conjugaison des effets
des chocs d’offre et de demande négatifs.
100
Pour le FMI, la crise économique née de la crise sanitaire est l’un des plus
violents que l’économie mondiale ait enduré en temps de paix depuis la Grande
dépression des années 30. Selon ses estimations, le taux de récession de l’économie
mondiale devrait être de 4.6 % en 2020. Sans exception, toutes les économies
subissent de plein fouet les affres de cette déflagration. Les performances de la
France comme celles des autres pays membres de l’Union européenne connaissent
un sévère plongeon témoignant de la virulence de la crise. La baisse du PIB au
cours de l’année 2020 sera en moyenne de 8 %. Dans le cas de la France, la crise
101
affecte inégalement les secteurs d’activité. Les plus impactés sont la construction
avec 75 % de baisse, ensuite les transports, l’hébergement, le commerce et la
restauration avec une chute de l’activité de l’ordre de 65 %. Les moins affectés
sont l’agriculture et les services avec une baisse respectivement égale à 6 % et 9 %.
Ces baisses sévères d’activité s’accompagnent d’une croissance du taux de
défaillance d’entreprises et de la montée du chômage. Selon les prévisions de
l’assurance-crédit Coface, le nombre de défaillances d’entreprises en France devrait
augmenter de 21 % d’ici 2021. Une tendance observée dans la plupart des pays
membres de l’Union européenne notamment en Italie où celui-ci devrait atteindre
37 %. La conséquence sociale de cette dégradation de l’activité économique est
la montée inexorable du chômage. La Banque de France prévoit une hausse du
chômage qui pourrait atteindre en France un taux de 11.5 % en 2021.
102
Les pays d’Europe méridionale apparaissent les plus affectés par cette crise.
Malgré de louables progrès économiques réalisés depuis la précédente crise
financière, la Grèce devrait subir la plus grande baisse du PIB de l’Europe. Touchés
sévèrement par la Covid-19 en terme de nombre de morts, l’Italie et l’Espagne
devraient aussi sortir très affaiblies de cette épreuve.
Pour les États-Unis, cette crise sanitaire vire au cauchemar. Outre le fait que
le bilan humain risque d’être le plus élevé de la planète en termes de mortalité,
cette pandémie met fin brutalement à plus de dix ans de croissance ininterrompue.
Les prévisions de la Banque centrale américaine tablent en effet sur une chute du
PIB de 6.5 % en 2020. Des millions d’Américains se retrouvent sans emploi. Du
20 au 25 juillet, 1.43 millions d’Américains se sont inscrits au chômage, ils étaient
26 millions à le faire au moment du confinement. Une dégradation de l’économie
américaine qui n’est pas de bon présage pour l’actuel locataire de la Maison
blanche qui pensait faire de la bonne tenue des performances économiques de la
première puissance mondiale un argument de campagne favorable à sa réélection.
L’avenir n’incite guère à l’optimisme d’autant plus le nombre de contaminés ne
cesse de croître sur le sol américain et qu’en outre l’activité économique dans de
nombreuses villes est handicapée par les mesures de distanciation sociale.
Concernant l’Empire du milieu, cette crise sanitaire est l’occasion d’un précédent.
C’est en effet, la première fois depuis 1970 que sa production connaît un recul.
Selon la Banque centrale chinoise, le PIB de la Chine a baissé de 6.8 % au premier
trimestre 2020 par rapport au premier trimestre 2019. Les exportations, une des
locomotives de l’économie chinoise, ont aussi reculé de 17.2 % au cours de la
même période. Toutefois ce recul a été rapidement compensé par un rebond
de 3.2 % de son PIB intervenu dès le second trimestre. Un rebond que certains
analystes attribuent à la bonne gestion du virus par le gouvernement chinois et des
mesures de soutien engagées pour relancer l’économie. Des millions de chinois
se retrouvent néanmoins au chômage. En juin 2020, le taux de chômage était de
5.7 %. Un chiffre estimé insuffisant car il ne tient pas compte de la situation des
centaines de millions de chinois habitant dans les campagnes et durement frappés
par cette crise.
Après avoir bien résisté aux conséquences de la crise de 2008, l’Afrique subsaha-
rienne subit aussi les conséquences négatives de cette pandémie. Les prévisions
de la Banque mondiale tablent sur une baisse de l’activité économique de 2.8 %
en 2020. L’effondrement des prix des produits de base comme le pétrole ou les
métaux précieux, le fléchissement de la demande extérieure notamment de produits
agricoles, les perturbations des chaînes d’approvisionnement, le recul des voyages
internationaux ont des conséquences pénalisantes sur les économies africaines. Les
mêmes tendances sont observées en Amérique latine, au Moyen orient, en Afrique
du Nord, en Asie du Sud où l’activité économique devrait reculer respectivement
selon les prévisions de la Banque mondiale de 7.2 %, 2.7 % et de 2.7 % en 2020.
103
104
105
Dès les premières manifestations de cette crise, les banques centrales et les États
se sont mobilisés pour en contrecarrer les effets pernicieux. Tirant les leçons de la
crise des subprimes, les banques centrales n’ont pas tardé à mobiliser l’ensemble
de leurs instruments pour éviter la contagion à la sphère financière. La Réserve
106
D’autres banques centrales ont aussi pris des mesures destinées à soutenir les
flux de crédit à l’économie. La banque d’Angleterre, après avoir abaissé son taux
directeur à 0.1 %, un plancher historique, a procédé à une augmentation de son
programme de rachat d’actifs de 100 milliards de livres sterling, le portant à un
total de 745 milliards de livres sterling (830 milliards d’euros) d’ici la fin de l’année
2020. La Banque d’Angleterre s’est aussi engagée à financer certaines dépenses
107
de l’état britannique. Une mesure inhabituelle mais qui compte tenu du contexte
permet au gouvernement britannique d’avoir les moyens de financer les mesures
urgentes nécessitées par la pandémie.
La Banque centrale de Chine n’a pas eu recours aux mesures relevant du
quantitative easing. Elle a simplement procédé à une modification du niveau des
réserves obligatoires des banques afin de permettre aux banques commerciales
de financer l’économie à hauteur de 550 milliards de yuans.
Les politiques de quantitative easing engagées ont contribué à calmer les
marchés financiers en influençant positivement les anticipations des investisseurs.
Toutefois, elles sont l’objet de critiques de la part de certains économistes pour
qui ces politiques comportent des risques inflationnistes et peuvent favoriser des
bulles spéculatives. L’impact sur la consommation et l’investissement est aussi
incertain car il n’existe aucune garantie que le surplus de liquidités mis à dispo-
sition des banques débouche sur une distribution supplémentaire de crédits. Les
banques peuvent en effet affecter ces dites liquidités à leur désendettement ou
à l’augmentation de leurs réserves.
La BCE a essuyé nombre de critiques au plus fort de la crise de la Covid-19
émanant de la part de la cour constitutionnelle de Karlsruhe. Saisis par des activistes
judiciaires, les juges constitutionnels allemands ont dans leur arrêt remis en cause la
légitimité de la BCE à acheter des obligations d’état et donc à financer indirectement
les pays membres de la zone euro. Une politique estimée contraire au principe de
proportionnalité par les juges allemands d’autant plus qu’elle se révèle défavorable
aux épargnants allemands en raison des taux d’intérêt négatifs qu’elle promeut.
En s’attaquant à la BCE, la cour constitutionnelle allemande entend remettre en
cause l’indépendance de la BCE ainsi que la primauté du droit européen sur les
droits nationaux.
Cette attaque d’une violence inouïe n’a pas laissé inertes les dirigeants des
principales institutions européennes. La présidente de la Commission européenne,
Ursula Van der Leyen, n’a guère apprécié cette remise en cause, évoquant de ce
fait en guise de riposte la menace d’une procédure en infraction contre l’Alle-
magne. Quant à la Cour de justice de l’Union européenne, elle a fait le choix de
ne pas commenter l’arrêt d’une chambre qui lui est inférieure du point de vue de
la hiérarchie des juridictions. Elle a relevé toutefois que cette prise de position des
juges allemands allait à l’encontre des traités européens et qu’elle était de nature
à mettre en péril les principes de droit fondant l’Union européenne.
Comme en 2008, c’est-à-dire lors de la crise des subprimes, les gouvernements
ont opté pour l’accroissement de la dépense publique comme instrument de
stabilisation conjoncturelle. Les pays membres de la zone euro ont bénéficié de ce
fait de la suspension des règles de discipline budgétaire limitant les déficits à 3 %
du PIB et le niveau de l’endettement public à 60 % de la richesse nationale. Ces
dispositions ont ainsi facilité l’engagement sans limite des États consacrant ainsi
la politique du « quoi qu’il en coûte ». En France, le gouvernement a pris dès le
début de la crise diverses mesures permettant d’absorber le choc économique lié
au confinement. Des mesures destinées aux ménages avec la mise en place d’un
108
109
110
L’effet d’éviction par les taux d’intérêt est le produit de la pression exercée sur
le marché des fonds prêtables par les besoins de financement croissants des
pouvoirs publics du fait des déficits récurrents. Il en résulte une augmentation
des taux d’intérêt dommageables pour l’investissement privé et pour l’activité
économique.
L’effet d’éviction par l’extérieur se manifeste notamment lorsque la relance budgé-
taire est isolée. Celle-ci se traduit mécaniquement dans un contexte d’ouverture
des économies par une hausse des importations au détriment de la production
intérieure. L’échec de la relance française engagée au début des années 80 par
le gouvernement Mauroy trouve ses explications dans cet état de fait. Enfin la
relance budgétaire alourdit automatiquement le poids de la dette publique.
Selon les libéraux, cette situation peut inciter les agents économiques à se
constituer une épargne de précaution destinée à faire face à une hausse des
impôts nécessaire au financement de la dette. Un tel comportement réduit de
fait l’efficacité attendue d’une politique de relance.
Ces différentes critiques ont contribué à une longue mise entre parenthèses des
politiques de relance d’inspiration keynésienne au profit des politiques de rigueur
visant à restaurer les équilibres financiers. C’est donc à la faveur de la crise des
subprimes qu’elles seront réhabilitées mais cette réhabilitation ne sera que de
courte durée. En effet, dès 2010, face au déficit croissant des finances publiques,
les politiques de rigueur s’imposeront de nouveau comme une nécessité face
aux exigences des marchés financiers. L’histoire risque-t-elle de bégayer avec la
crise de la Covid-19 ? Keynes risque-t-il une nouvelle fois d’être rangé au rang
des oubliettes de l’Histoire dès lors que la question de l’insoutenabilité de la
dette redeviendra pressante ? La réponse à cette interrogation cruciale dépend
largement de l’ampleur de la reprise économique et de la durée de la pandémie.
En cas de persistance de celle-ci et d’éventuelles décisions de reconfinement
des populations, la situation économique risque de devenir très critique au point
de plomber davantage les finances publiques. La poursuite de la politique du
« quoi qu’il en coûte » deviendra alors aléatoire et le retour des politiques de
rigueur plus que probable. ©
111
Face au risque d’une nouvelle crise des dettes souveraines à l’instar de celle
consécutive à la crise des subprimes, nombreux sont les politiques et les écono-
mistes qui militent pour une annulation de la dette Covid ou de la voir transformer
en dette perpétuelle. Ces options sont-elles envisageables ? Quels en sont les
avantages et les limites ?
L’annulation de la dette imputable à la crise de la Covid-19 ne constituera
pas un précédent tant l’histoire dénombre de nombreux exemples de pays ayant
bénéficié de cette mesure. L’Allemagne affaiblie par la Deuxième Guerre mondiale
a dans les années 50 vu sa dette diminuer de moitié du fait de l’abandon par ses
créanciers d’une partie de leurs créances. Les pays en développement ont aussi à
plusieurs reprises bénéficié de cette mesure qui est toutefois à double tranchant.
D’un côté, elle contribue à réduire la dette et participe à une meilleure soutena-
bilité de l’endettement public. Ce faisant, elle évite de recourir à une augmen-
tation du poids des prélèvements obligatoires et/ou à une baisse de la dépense
publique préjudiciable au financement des services publics. De l’autre, elle est
source de multiples inconvénients. Tout d’abord, elle envoie de mauvais signaux
en direction des marchés financiers et des investisseurs. L’annulation de la dette
équivaut à la disparition d’une créance donc à une perte sèche pour les créanciers.
Ces derniers pourraient être tentés à l’avenir d’exiger des primes de risque plus
élevées et contribuer ce faisant à l’envolée des taux d’intérêt de la dette publique.
Les pouvoirs publics seraient ainsi soumis à des conditions de financement plus
onéreuses. Redoutant qu’une telle décision se reproduise, certains investisseurs
deviendraient plus réticents à prêter à l’état. Ce dernier pourrait être confronté à
de grosses difficultés à assurer le financement continuel de sa dette. Il serait de ce
112
1. 2 200 milliards d’euros représentent le stock de dettes publiques détenu par la Banque centrale
européenne.
2. Les risques liés aux fonds propres négatifs font débat parmi les économistes. Pour certains,
une telle situation expose la banque centrale à un risque de faillite. Pour d’autres, les banques
centrales sont en général protégées de ce risque du fait qu’elles disposent d’un pouvoir de
création monétaire illimité.
113
reprises des obligations de cette nature. En 2015, elle a remboursé des dettes
perpétuelles remontant aux guerres napoléoniennes. Les créanciers peuvent en
tirer avantage aussi. En effet, au terme d’un certain nombre d’années, le montant
des intérêts perçus peut se révéler supérieur à la créance. Certains investisseurs
peuvent y trouver leur compte. Ceux désireux avoir des titres sûrs procurant des
revenus fixes et réguliers. C’est le cas des fonds de pension. Toutefois, la dette
perpétuelle nécessite de la part des créanciers de la patience notamment lorsque
les intérêts portant sur la dette sont très faibles. Ce type de dette expose donc le
débiteur à un risque d’augmentation du taux d’intérêt du fait des exigences des
créanciers. Par ailleurs recourir à ce type de dette pose un problème en terme de
message envoyé en direction des citoyens. Cela suppose en effet que s’endetter
n’a aucune incidence sur l’avenir.
L’annulation de la dette Covid et/ou le recours à une dette perpétuelle sont
loin d’être des solutions dénuées d’inconvénients. Doit-on alors se résoudre à
accroître la pression fiscale ? En France, le gouvernement a par la voix du ministre
de l’économie, Bruno Lemaire écarté d’emblée cette possibilité en raison de ses
effets contreproductifs sur l’activité économique. Il n’entend donc pas donner
suite à une revendication exprimée par le mouvement des gilets jaunes, reprise
par une partie de la classe politique et certains économistes, celle de voir rétabli
l’Impôt de solidarité sur la fortune (ISF) ; un impôt sur le capital créé au début des
années 90 par le gouvernement Rocard, sous la présidence de François Mitterrand,
abrogé en 2017 par le gouvernement Philippe et remplacé par un impôt sur la
fortune immobilière (IFI). Le gouvernement entend toutefois atténuer le poids de
cette dette sur le niveau d’endettement général en la cantonnant. Ce subterfuge
comptable permet d’isoler cette dette du reste et facilite son amortissement sur le
long terme. Pour ce faire, la structure créée pour financer la dette sociale, la CADES
(Caisse d’amortissement de la dette sociale), verra sa durée prolongée au-delà
de 2024. Les prélèvements destinés à financer la dette sociale, en l’occurrence
la CRDS (contribution pour le remboursement de la dette sociale), seront ainsi
prolongés jusqu’en 2042 afin de permettre le financement de la dette Covid-19.
Pour les détracteurs de ce choix à l’instar de l’économiste Thomas Piketty, le
gouvernement a préféré faire peser la dette Covid sur l’ensemble des ménages,
y compris les plus vulnérables économiquement au lieu de mettre davantage à
contribution les plus fortunés, en réinstaurant l’ISF. Un choix qui devrait se traduire
à partir de 2024 par un manque à gagner en termes de salaires et de pension de
0.5 %1 pour chaque ménage.
1. C’est le taux prélevé chaque mois sur tous les revenus au titre de la CRDS.
114
115
rémunérations et celle de l’utilité sociale ? Rien n’est moins sûr dans une société
élitiste dominée par des pesanteurs sociales et où une bonne partie de ceux qui
détiennent le pouvoir font partie des bullshit jobs. ©
116
Son industrie des biens de consommation est dynamique, elle tire vers le haut la
croissance américaine grâce aux nombreuses innovations favorables à la consom-
mation de masse (Fordisme). Ce contexte de prospérité contribue à l’essor des
marchés financiers. Ceux-ci voient arriver de nombreux petits épargnants soucieux
de tirer parti de la bonne tenue du marché boursier notamment. Ces nouveaux
investisseurs bénéficient de la possibilité d’acquérir à crédit les actions en avançant
10 % de la valeur des titres, le reste est emprunté auprès des banques. Ces dispo-
sitions suscitent un engouement généralisé, il en découle une forte spéculation
boursière. Le cours des actions est porté à son paroxysme. La valeur des actions
double mais ce processus crée progressivement les conditions d’un retournement
des anticipations. Celui-ci se produit le 24 octobre 1929 avec l’éclatement de la
bulle spéculative. Le Krach boursier qui en résulte favorise des effets de richesse
négatifs. Les actions se déprécient conséquemment en perdant plus de la moitié
de leur valeur. Épargnants, spéculateurs et investisseurs sont ruinés. Croulant sous
le poids de leurs dettes, ils ne peuvent faire face à leurs engagements vis-à-vis des
banques. La crise boursière se transforme en crise bancaire. Nombreux sont les
établissements qui font faillite. Le crédit est asséché, la crise se propage à la sphère
réelle aux États-Unis puis progressivement au reste du monde avec notamment le
rapatriement des capitaux américains et les politiques protectionnistes adoptées
par les États.
La Grande Récession de 2009 ou crise des subprimes est une crise de l’inno-
vation ou de l’ingénierie financière. Elle trouve ses origines dans le développement
aux États-Unis du crédit hypothécaire appelé Subprime. Des crédits immobiliers
accordés aux ménages à faible pouvoir d’achat ne présentant de ce fait que de
très faibles garanties en matière de solvabilité. Ils s’opposent ainsi aux crédits
primes réservés aux emprunteurs offrant de bonnes garanties. Une hypothèque
sur le logement est associée aux crédits subprimes dont le développement à la
fin des années 90 trouve justification dans la volonté des autorités américaines de
favoriser l’accès à l’habitat des ménages les plus vulnérables socialement. Proposés
à des taux d’intérêt très faibles au départ, ces crédits étaient ainsi associés à des
charges financières allégées supportables pour de nombreux ménages. Toutefois
les taux d’intérêt étaient variables car indexés sur le taux d’intérêt directeur de
la Banque centrale américaine (FED). Le relèvement de ceux-ci face à la menace
inflationniste marque le début de la crise financière. De 1 % en 2004, les taux
d’intérêt passent à 5 % en 2006, alourdissant de ce fait les charges financières des
emprunts. De nombreux ménages se retrouvent dans l’incapacité d’honorer leurs
échéances de crédit. Le taux de défaut augmente considérablement pour atteindre
15 % mettant ainsi en difficulté les créanciers. Les ventes massives des maisons
hypothéquées par les banques accélèrent l’effondrement du marché immobilier.
Les pertes enregistrées sont colossales. La dépréciation des habitations est telle
que leur valeur devient inférieure à la valeur des crédits qu’elles sont censées
garantir. De nombreux établissements se retrouvent alors en situation d’insolva-
bilité entraînant une crise de confiance, celle-ci va se généraliser à l’ensemble de
117
118
119
120
121
Portée en triomphe par les uns, décriée par d’autres, la mondialisation est de
nouveau sur la sellette du fait des faiblesses mises en lumière par la crise de la
Covid-19. Accusée de privilégier la logique de rentabilité et de saper les fondements
de la souveraineté des États, la mondialisation est l’objet de critiques conduisant
certains hommes politiques et certains économistes à préconiser la démondiali-
sation comme alternative. Cette perspective est-elle réaliste ?
122
123
Fonctionnant sur la base des flux tendus, l’organisation productive basée sur le
morcellement de la production a rapidement été ébranlée par la crise de la Covid-19.
Les mesures sanitaires décidées par les autorités chinoises dès le mois de février
ont mis au jour la grande dépendance des pays occidentaux à l’égard de l’Empire
du milieu. Le confinement de la population chinoise a immédiatement eu pour
conséquence la désorganisation des chaînes logistiques internationales, entraînant
des retards ou des arrêts de production dans de nombreuses entreprises à travers le
monde dépendantes des intrants en provenance de Chine. De nombreux produits
vitaux en matière de lutte contre la pandémie ont aussi fait cruellement défaut
témoignant de la place nodale de la Chine dans de nombreuses filières stratégiques
(pharmacie, composants, équipements,…). En France comme dans de nombreux
pays européens, le manque de masques et la pénurie de certains médicaments
ont été les révélateurs des faiblesses de cette organisation productive fondée sur
l’éclatement des sites de production. Il a été ainsi mis au jour le fait que les grandes
multinationales pharmaceutiques se procuraient 60 % à 80 % des principes actifs
entrant dans la composition de leurs médicaments en Asie et pour l’essentiel en
Chine et en Inde. Une très grande dépendance qui les rend vulnérables au moindre
aléa. Le constat de cette dépendance accrue à l’égard de sous-traitants situés à des
milliers de kilomètres a contribué à sensibiliser l’opinion publique et à redonner
tonus et consistance au discours antimondialisation. Rapatrier les usines délocalisées
dans les pays à bas coûts afin de restaurer la souveraineté nationale, bref produire
localement certains équipements considérés comme vitaux tel est le grand appel
lancé dans de nombreux pays par des hommes politiques de premier plan.
124
1. L’EVP est une unité de mesure approximative des terminaux ou navire portes-conteneurs.
À titre d’exemple, un conteneur d’1 EVP mesure 6.058 m (20 pieds) de long, 2.438 m (8 pieds)
de large et 2.591 m (9.5 pieds) de haut.
125
126
127
ainsi des visées écologiques car produire localement revient à réduire le temps de
transport des marchandises et donc les émissions des gaz à effet de serre source
de dégradation de l’environnement. La démondialisation du point de vue de
Walden Bello ne revient pas à remettre en cause l’ouverture aux échanges mais à
rendre plus juste, davantage sociale et plus écologique l’organisation économique
mondiale. La mise en place d’une nouvelle régulation permettant de corriger les
effets pervers du libre-échange s’avère indispensable.
Cette conception de la démondialisation du sociologue philippin n’a pas survécu
aux effets de la crise financière de 2008. La démondialisation est devenue un
concept utilisé pour justifier le recours à des mesures protectionnistes. En France,
deux personnalités se sont faites les chantres de la démondialisation à partir des
années 2010. Il s’agit de Jacques Sapir et de l’ancien ministre du Redressement
productif Arnaud Montebourg. Dans un livre publié en 2011 intitulé La démon-
dialisation, le premier soutient l’idée que la démondialisation est un des moyens
permettant à la France de retrouver sa souveraineté. Pour cela il est nécessaire de
rompre avec la logique de flux et le mode de gouvernance de la mondialisation
qui se caractérise par la domination de l’économique au détriment du politique
et de l’État. Le second, candidat à la primaire socialiste pour la présidentielle de
2012, dans un essai intitulé Votez la démondialisation défend l’idée d’un protec-
tionnisme européen s’appuyant sur des critères sociaux et environnementaux. C’est
avec l’élection de Donald Trump à la présidence des États-Unis d’Amérique que la
démondialisation va acquérir ses lettres de noblesse. En faisant le choix du natio-
nalisme économique et en optant ouvertement pour le protectionnisme comme
moyen permettant d’y parvenir, le président américain tourne le dos dès son entrée
en fonction au multilatéralisme. Les mesures protectionnistes progressivement
prises par son administration à l’encontre de l’Union européenne, du Canada et
notamment de la Chine créent les conditions d’une confrontation commerciale
marquée par une succession de mesures de représailles.
La crise de la Covid-19 a donc contribué à remettre en selle et à exacerber des
craintes et aspirations relativement anciennes qui font de la relocalisation d’activités
jugées essentielles la bouée de sauvetage face aux dérives de la mondialisation.
Faut-il n’y voir que des avantages ?
Rapatrier sur le territoire national des activités jugées stratégiques ou essen-
tielles au maintien de la souveraineté nationale présente des avantages. Cette
opération permet de créer des emplois et de réduire les importations de pays tiers.
La modernisation de l’appareil productif qui accompagne ce processus se traduit
par l’amélioration de la qualité des produits. En produisant localement, on réduit
les coûts de transport ainsi que l’empreinte écologique. C’est donc un choix qui
s’avère favorable à la lutte contre le réchauffement climatique.
La relocalisation d’activités permet aussi de valoriser le savoir-faire local et
d’accorder la primauté au marché intérieur. De nombreuses entreprises françaises
ont ces dernières années fait le choix de relocaliser avec succès leurs activités en
France. C’est le cas des Skis Rossignol, du Coq français, des lunettes Atol et des
chaussettes Kindy.
128
129
services de réanimation, ceux-ci sont synthétisés à partir du curare issu des lianes
amazoniennes ou africaines. Ces deux exemples témoignent, s’il en est besoin
d’une réalité propre aux économies contemporaines : plus aucun produit n’est
entièrement fabriqué dans un pays. Vouloir rompre la dépendance à l’égard de
pays tiers est tout simplement illusoire. Dans le cas de la France, les exportations
françaises sont composées pour plus du quart de produits auparavant importés.
En d’autres termes, cela veut dire que freiner les importations revient à pénaliser
les exportations de l’Hexagone à destination du reste du monde.
La relocalisation qui souvent est associée à la démondialisation revient généra-
lement à céder à la tentation protectionniste. La guerre commerciale entre la Chine
et les États-Unis précédemment évoquée témoigne des risques d’embrasement
général si cette tentation venait à gagner de nombreux pays. Les mesures de
représailles qui devraient s’en suivre risquent de transformer la crise économique
liée à la Covid-19 en dépression durable.
La remise en cause des chaînes de valeur globale risque aussi de faire des
victimes. De nombreux pays en développement qui ont basé leur stratégie de
développement sur la participation à celles-ci risquent d’en pâtir. Les études faites
par la Banque mondiale montrent en effet qu’une augmentation de 1 % de la
participation d’un pays aux chaînes de valeur contribue à accroître d’1 % le revenu
par habitant de celui-ci. L’intégration aux chaînes de valeur globales est un facteur
de réduction de la pauvreté dans les pays en développement. Elle permet aux
entreprises locales d’améliorer leur niveau de technologie, de gagner ainsi en
productivité et de faire évoluer leur spécialisation en passant de l’exportation de
produits primaires à l’exportation de produits manufacturés simples.
Au final démondialiser l’économie ou relocaliser des activités sur le territoire
national peut être tentant. C’est indiscutablement l’une des voies permettant aux
entreprises nationales de sécuriser leurs approvisionnements en produits intermé-
diaires et garantissant la souveraineté nationale dans certains domaines d’activités
stratégiques. Cette aspiration n’est cependant que pure illusion. La globalisation
des économies est si profonde qu’aucune d’elle ne peut s’affranchir des autres
sans dommages collatéraux. La diversification des sources d’approvisionnement
apparaît dans ce contexte comme la solution la moins risquée. Elle permet de
réduire l’exposition à des risques spécifiques à certains pays et de garantir le
maintien du libre-échange qui malgré certaines dérives reste un facteur d’accrois-
sement du niveau de vie.
130
une mise à mort de nombreux pans de l’économie française ? Quel en est le coût
social et humain ? Le plan de relance initié au lendemain du premier déconfi-
nement est-il encore à la hauteur des enjeux économiques et financiers ?
131
132
Conclusion
133
Lexique
134
135
transparents, ils sont souvent implantés dans les paradis fiscaux et sont en
croissance continue. Il en existe aujourd’hui près de 10 000 dans le monde.
Investissement direct à l’étranger (IDE) : Il s’agit d’investissements par lesquels
des entités résidentes d’une économie acquièrent un intérêt durable dans
une entité d’une autre économie. La notion d’intérêt durable implique l’exis-
Lexique
136
échange.
Quantitative easing : Ou assouplissement quantitatif désigne la politique
monétaire menée par les banques centrales dans le but d’influencer le
coût du crédit afin d’agir sur l’inflation et la croissance économique. C’est
un instrument qui relève de la politique monétaire non conventionnelle,
consistant en effet à acheter massivement des actifs financiers aux banques
afin de les inciter à prêter aux agents économiques.
137
138
Bibliographie
139
Découverte, 2012.
HERLIN Philippe, Finance : le nouveau paradigme, Eyrolles, 2010.
KEYNES John Maynard, Théorie de l’emploi, de l’intérêt et de la monnaie, Le
seuil, 1988.
KRUGMAN Paul, Pourquoi les crises reviennent toujours, Le seuil, 2009.
MAILLARD Denis, L’impossible reconnaissance du back-office de la société, Fondation
Jean Jaurès, 2020.
MÉDA Dominique, « La crise du Covid-19 nous oblige à réévaluer l’utilité sociale
des métiers », Pour l’éco, 18 mars, 2020.
MINC Alain, La mondialisation heureuse, Plon, 2006.
MOULIER BOUTANG Yann, « Sidération Covid-19 : l’économie suspendue et le tournant
2020 », Revue Multitudes, 2020.
MUCHIELLI Jean Louis, Relations économiques internationales, Hachette supérieur,
2005.
ORLÉANS André, De l’euphorie à la panique : penser la crise financière, collection
« CEPREMAP », Éditions de la rue d’Ulm, 2009.
PIKETTY Thomas, Landais Camille, Saez Emmanuel, Pour une révolution fiscale.
Un impôt sur le revenu pour le XXIe siècle, Le seuil, 2011.
Rapport du Sénat : « Le revenu de base en France : de l’Utopie à l’expérience »,
2017.
RAINELLI Michel, L’organisation mondiale du commerce, collection « Repères »,
La Découverte, 2011.
SAPIR Jacques, La démondialisation, Seuil, 2011.
SCIALOM Laurence, Économie bancaire, collection « Repères », La Découverte, 2013.
SMITH Adam, Recherche sur la nature et les causes de la richesse des nations,
Economica, 2002.
STIGLITZ Joseph, La Grande désillusion, Livre de Poche, 2002.
—, Un autre monde. Contre le fanatisme du marché, Fayard, 2016.
STRAUSS KHAN Dominique, « L’être, L’avoir et le pouvoir dans la crise », Slate.fr, 2020.
WALLERSTEIN Immanuel, Comprendre le monde, introduction à l’analyse des
systèmes-monde, La découverte, 2016.
140
S’il est un continent qui depuis des lustres souffre d’une image dépréciée et
d’une vision stéréotypée de ses perspectives de développement, c’est l’Afrique.
Pour le commun des mortels, l’Afrique est de loin le continent de la pauvreté, des
inégalités, des pandémies, de la corruption, bref de la mauvaise gouvernance et
sans aucun espoir d’émergence2.
Ce regard misérabiliste qui nourrit de manière récurrente l’afro-pessimisme résiste
de moins en moins à l’analyse objective des faits. Il fait en effet fi des évolutions et
des transformations structurelles en cours dans de nombreux pays du continent.
Depuis deux décennies, un nombre croissant de pays africains bénéficie d’une
embellie économique témoignant d’un certain éveil. Celui-ci se matérialise par des
taux de croissance économique élevés favorisant des effets d’entraînement positifs
et des mutations structurelles dont l’émergence d’une classe moyenne africaine
appelée à croître et à jeter les bases d’un processus de croissance endogène.
Ces mutations porteuses d’avenir ont ainsi contribué à un afflux des investisse-
ments en provenance de pays émergents particulièrement de la Chine. Investisseur
et banquier de premier plan des pays africains depuis le début des années 2000,
l’Empire du milieu incarne aujourd’hui un acteur incontournable du processus
d’émergence du continent. Son rôle actif est néanmoins l’objet de controverses
portant sur ses réelles finalités.
L’optimisme suscité par ces mutations mérite néanmoins d’être tempéré car
l’Afrique reste en proie à de nombreux obstacles rédhibitoires. Aux problèmes
liés à la croissance exponentielle de sa population et aux inégalités galopantes
s’ajoute une spécialisation primaire de ses économies, exposées de ce fait aux
fluctuations des termes de l’échange. L’intégration économique et financière du
1. Ce chapitre a été écrit plusieurs mois avant la crise à l’œuvre actuellement. Il s’appuie donc
essentiellement sur la situation des pays africains avant l’avènement de la crise économique
liée à la Covid-19.
2. À la fin des années 90, le Time faisait sensation en titrant un de ses numéros « The hopeless
Continent ». D’autres titres à la même tonalité, celui de Stephen Smith notamment « Négro-
logie, pourquoi l’Afrique se meurt » ont contribué à nourrir ce sentiment afro-pessimiste.
141
142
Après une décennie de mise en œuvre, des résultats concluants couronnent les
choix de nombreux pays africains. Ceux-ci bénéficient en effet d’une amélioration
substantielle de nombreux indicateurs socio-économiques. La croissance du PIB
augmente en moyenne de 3.46 % par an. Une évolution favorable à l’accroissement
du niveau de vie d’autant plus que la croissance économique s’avère supérieure
à la croissance démographique. Les exportations bénéficient d’une percée avec
une croissance annuelle moyenne de 6 %. La valorisation du cours des produits
de base et le développement des terres cultivables stimulent ce dynamisme.
Cette embellie génère des conséquences positives, elle se traduit en effet par une
amélioration des conditions de vie et de l’espérance de vie à la naissance. Cette
croissance des richesses permet aussi le financement de nombreuses infrastruc-
tures favorables au développement humain : routes, écoles, télécommunication,
électricité, etc. Bref, l’amélioration générale de la situation de nombreux pays
africains accrédite progressivement l’idée que leur développement est possible
malgré des réserves très appuyées de René Dumont à travers la publication d’un
livre au titre très évocateur L’Afrique noire est mal partie.
Le tournant des années 70 lui donne raison. Les stratégies engagées montrent
progressivement leurs faiblesses. Des facteurs tant conjoncturels que structurels
se conjuguent pour en montrer les limites.
143
144
1. Voir l’encadré 1, page 147, rappelant les fondements théoriques et les objectifs des politiques
d’ajustement structurels.
145
1. Les fondements théoriques de ces politiques sont exposés plus longuement dans l’encadré 1,
page 147.
2. Le fonctionnement de cette zone monétaire singulière hérité de la période coloniale et qui
nourrit de manière récurrente des controverses sur ses finalités est abordé dans le II.
146
producteurs ont ainsi été corrigées. Néanmoins, ces politiques d’ajustement ont eu
pour effet d’encourager le développement de l’économie informelle au détriment
des marchés formels. Par ailleurs les opérations de privatisation des entreprises
publiques engagées dans de nombreux pays se sont traduites par des transferts
de propriété au profit d’amis ou de proches parents des responsables politiques.
Quant à la dévaluation, elle a eu des effets mitigés. Bénéfique pour les pays
exportateurs de matières premières, elle a permis une reprise sensible de l’activité,
économique permettant aux pouvoirs publics de bénéficier d’une bouffée d’oxygène
en termes d’accroissement des recettes fiscales et d’assainissement des finances
publiques. Elle n’a néanmoins pas permis la restauration de l’équilibre extérieur
comme envisagé. Dotée en effet dans leur immense majorité d’un appareil productif
peu diversifié et largement importateurs de produits manufacturés, la plupart des
pays africains de la Zone franc ont vu l’effet renchérissement des importations
l’emporter sur l’hypothétique effet de substitution.
Le bilan peu reluisant des politiques d’ajustement a au final conduit à une
profonde remise en cause de celles-ci. Des inflexions majeures ont ainsi vu le jour
avec l’apparition, au début du nouveau millénaire, des programmes stratégiques
de réduction de la pauvreté. Ceux-ci ont contribué à la mise en place de l’initiative
de remise de dettes dans les pays les plus endettés. Lourdement affectés par les
politiques d’ajustement structurel, les pays les moins avancés d’Afrique ont été
les principaux bénéficiaires de ces dispositifs. Les programmes stratégiques de
réduction de la pauvreté (PSRP) se singularisent des programmes d’ajustement
classiques sur plusieurs points. Ils privilégient d’abord le long terme au détriment
du court terme. Ils ambitionnent ensuite la réalisation d’une croissance forte, stable
et permettant de réduire significativement la pauvreté. Ils visent enfin à promouvoir
la bonne gouvernance au plan national et mondial d’où l’apparition du concept
de biens publics mondiaux.
Créé en juillet 1944 à l’issue d’une conférence rassemblant les délégués de 45 pays
dans la petite ville de Bretton-Woods dans le New Hampshire, le Fonds monétaire
international a vu ses missions évoluer en plus d’un demi-siècle d’existence.
Chargée à l’origine de veiller au bon fonctionnement du système monétaire
international issu de ces accords, cette institution est depuis la fin des années
70 missionnée d’aider les pays en développement confrontés à des crises de
balance de paiement. Elle dispose pour ce faire de ressources provenant des
États membres appelés quote-part. Celles-ci sont fonction de la taille et du poids
dans les échanges internationaux de chaque économie. Les quotes-parts font
l’objet de révision tous les cinq ans et leur calcul tient compte notamment de
divers critères économiques comme le PIB, le solde des transactions courantes
et les réserves de change en devises. Exprimées en droits de tirages spéciaux
(DTS), les quotes-parts fixent les droits de vote et la capacité de chaque pays à
147
tirer sur les ressources du FMI en cas de nécessité. Ces ressources auxquelles
s’ajoutent d’autres sont destinées à financer entre autres les programmes d’ajus-
tement structurels.
Deux approches servent de base d’inspiration à ces politiques. D’un côté,
l’approche monétaire de la balance des paiements et de l’autre l’absorption.
L’approche monétaire appelée modèle de Polak établi en 1957 privilégie le court
terme. Il a pour objectif le rétablissement de la balance des paiements. La théorie
quantitative de la monnaie est sa principale source d’inspiration. Celle-ci stipule
que l’accroissement de la masse monétaire laisse invariante la production et
l’emploi mais impacte significativement le niveau général des prix. Différentes
hypothèses sont au cœur de ce modèle.
On suppose d’abord qu’on est en présence d’une petite économie ouverte. Du
fait de sa petite taille, le niveau des prix extérieurs lui est imposé. L’absence de
marchés financiers découlant de l’état de sous-développement de l’économie
locale transforme tout excès de monnaie en surcroît de demande.
L’équilibre macro-économique est déterminé par trois équations indépendantes.
La première fait dépendre la demande de monnaie Md d’une proportion fixe k
du revenu PY avec Y et P désignant respectivement le revenu réel et le niveau
général des prix soit :
Md = k PY.
La seconde équation fait apparaître l’offre de monnaie Mo comme dépendante
de deux paramètres, d’une part du volume du crédit C accordé par le système
bancaire au secteur privé et à l’État et de l’autre, de la variation des réserves de
change R avec l’extérieur, soit :
Mo = C + R.
La troisième équation met en relation le niveau général des prix domestiques P
et celui en vigueur à l’étranger Pe auquel on applique le taux de change t soit :
P = t Pe.
L’égalité entre offre et demande de monnaie est la condition d’équilibre de ce
modèle en situation de change fixe soit :
Mo = Md.
En remplaçant ces deux agrégats monétaires par leurs valeurs respectives, on
obtient l’égalité suivante :
kPY = C + R
c’est-à-dire :
ktPeY = C + R
d’où :
R = ktPeY – C
Les implications suivantes découlent de cette relation mathématique. Tout d’abord
les réserves de change sont d’un côté, tributaires du niveau de production et
des prix domestiques et de l’autre du crédit intérieur. Le rétablissement de
l’équilibre extérieur au regard de cette équation passe donc par l’accroissement
du différentiel entre la production nationale et le crédit intérieur. Pour ce faire,
il est nécessaire de contracter le crédit d’une part et de stimuler d’autre part la
production intérieure via la dévaluation de la monnaie nationale. La contraction
du crédit implique le recours notamment à des taux d’intérêt prohibitifs afin de
dissuader la demande de monnaie des agents économiques. Quant à l’effet
148
149
À partir de l’an 2000 de nombreux pays africains entre dans un long processus
d’embellie économique se matérialisant par des niveaux de croissance relati-
vement élevés. Les statistiques de la banque mondiale mettent en lumière le fait
qu’entre 1995 et 2017, le PIB des pays africains a augmenté en moyenne de 4.5 %
par an soit trois points de pourcentage de plus qu’au cours des deux décennies
précédentes. La croissance africaine va se singulariser d’autres zones de dévelop-
pement à l’instar de l’Asie de l’Est en augmentant plus vite. Par ailleurs, différents
pays africains apparaissent en meilleure position dans différents classements de pays
150
1. La stratégie adoptée par ce pays aux grandes ambitions et les mutations en cours sont décrites
dans l’encadré 2, page 152.
151
152
et 2014. Ces résultats à faire pâlir de jalousie plus d’un pays en développement
n’est pas le fruit du hasard mais le produit d’une stratégie de développement
s’inspirant des tigres asiatiques. À l’instar de ceux-ci, l’État éthiopien est pleinement
engagé dans le développement économique du pays. Il affiche un volontarisme
à la hauteur de ses espoirs, transformer d’ici 2025 l’Éthiopie en un pays à revenus
intermédiaires.
Pour ce faire, un code des investissements favorables aux entreprises a été adopté
dès 2002 ainsi que des mesures d’incitation fiscales à l’avantage des entreprises
désireuses de s’installer dans les 13 parcs industriels dont 6 sont le produit de
la coopération avec la Chine. Des dispositions avantageuses accueillies favora-
blement par les investisseurs. 4.2 milliards de dollars d’investissement direct à
l’étranger (IDE) ont été enregistrés entre 2016 et 2017 dont 75 % dans le secteur
manufacturier. L’Éthiopie ambitionne de porter à 25 % la part du secteur secondaire
dans le PIB dans les 10 années à venir contre 5 % actuellement. Il souhaite ainsi
faire de l’industrie le fer de lance de ses exportations à destination des marchés
mondiaux d’ici 2025. Il espère aussi en faire un grand pourvoyeur d’emplois afin
de diminuer le chômage qui demeure à des niveaux encore trop élevés.
Des ambitions qui semblent bien engagées car l’Éthiopie apparaît depuis quelques
années comme l’une des destinations des grandes marques internationales.
Zara, Calvin Klein, HM, Guess, sont quelques-unes des multinationales de la
mode qui y ont élu domicile. Le pays connaît aussi quelques succès dans ses
choix stratégiques d’investissement qui apportent du crédit à ses ambitions.
Certaines entreprises éthiopiennes ont en effet réalisé des percées remarquables
dans différents secteurs d’activité. Dans la filière café, la marque Roberta PLC
affiche un niveau d’exportation qui le place en tête des exportateurs africains.
Elle vend ses arabicas dans le monde entier et affiche des résultats reluisants.
Il en est de même de sa filière de production de roses pour laquelle l’Éthiopie
occupe le rang de deuxième exportateur au monde. Autre secteur vitrine de la
réussite économique de ce pays, c’est « Ethiopian Airlines », une compagnie
aérienne qui prospère sous l’aide protectrice de l’État éthiopien et de la Chine.
D’autres atouts confortent les ambitions de ce pays en matière de développement
accéléré, il s’agit notamment de sa population, de ses terres arables et de ses
ressources hydrauliques.
Peuplé de 100 millions d’habitants, l’Éthiopie dispose d’une main-d’œuvre
abondante, peu coûteuse et jeune. La Chine, son premier partenaire écono-
mique entend au demeurant tirer profit de cette main-d’œuvre en y délocalisant
progressivement de nombreux emplois industriels. Avec d’abondantes ressources
en matière de terres arables, 4.5 millions d’hectares, celles-ci sont mises au
service de la production de coton destinée à l’approvisionnement des industries
du textile. Son potentiel hydraulique impressionnant, environ 40 000 mégawatts
nourrit ses ambitions de devenir le premier exportateur d’électricité en Afrique.
Un objectif légitimé par le fait que c’est l’une des énergies les moins chères au
monde. Enfin sa position géographique n’en constitue pas moins un atout. Elle
lui permet en effet de signer des accords ouvrant la voie à plusieurs marchés,
ceux du Moyen-Orient, de l’Europe et de l’Asie.
153
L’Éthiopie mise aussi sur le développement de son capital humain pour améliorer
son potentiel de croissance. La multiplication du nombre des universités, une
quarantaine aujourd’hui contre 2 il y a une vingtaine d’années témoigne de ce
volontarisme des pouvoirs publics éthiopiens de tirer vers le haut le niveau de
formation de sa jeunesse et plus globalement de sa population active.
Ces nombreux avantages énumérés doivent cependant être mis en regard des
handicaps structurels rencontrés par ce pays et des effets pervers générés par
cette course obsessionnelle vers la croissance à deux chiffres.
L’Éthiopie est tout d’abord en effet en proie à des épisodes de sécheresse
dommageables économiquement. L’agriculture reste pour l’heure le secteur
dominant de l’économie de ce pays. Elle représente 40 % du PIB, occupe 80 % de
la population active et réalise 85 % des exportations. La récurrence des périodes
de sécheresse rend très vulnérable ce secteur d’activité aux aléas climatiques.
Son niveau de productivité s’en trouve donc affecté.
Au plan politique, le pouvoir central est confronté à des mouvements de contes-
tation de la part de certains groupes ethniques. Ceux-ci ont le sentiment d’être
marginalisés par le régime en place. Il s’agit des Afars, des Monos et des Samalis.
Des tensions inter-ethniques sont ainsi courantes et le pays est en proie à un
risque d’instabilité interne. Les relations avec L’Érythrée, pays voisin, se sont
apaisées mais restent marquées par une forme de méfiance.
Au plan économique, le programme de modernisation engagé et porté par
l’investissement public a une contrepartie, celle d’un endettement croissant.
L’Éthiopie apparaît très dépendante de ses créanciers internationaux dont la Chine.
Autre obstacle, c’est celui émanant de sa forte pression démographique. Ce pays
de la corne de l’Afrique verra sa population doubler d’ici 2050. Une croissance
démographique dont les effets se matérialisent aujourd’hui par un exode rural
massif. Ces migrations massives vers les villes se traduisent par la multiplication
de bidonvilles et par des conditions de vie déplorables. Le défi qui se présente
à ce pays est donc de taille, absorber ce surplus d’habitants de 100 millions. Les
autorités entendent le relever en ambitionnant de créer 14 millions d’emplois
au cours des six prochaines années et 20 millions d’ici 2030.
Enfin la course obsessionnelle de ce pays enclavé vers la croissance à deux
chiffres a un revers, celui d’un prix social et écologique élevé. L’installation des
firmes multinationales est certes créatrice d’emplois mais au prix d’une très
faible rémunération de la main-d’œuvre locale. 26 dollars soit 23 euros, tel est le
salaire mensuel moyen d’un ouvrier du textile éthiopien. Ce sont les travailleurs
les moins payés de l’industrie mondiale du textile loin derrière le Bangladesh.
Quant à l’impact écologique de certaines activités dont la production de roses,
il est indéniablement avéré. Cette industrie qui fait la fierté de ce pays est à
l’origine de l’assèchement de certains lacs. Excessivement consommatrice d’eau,
l’activité horticole favorise le pompage sans limite et incontrôlé des eaux. À cela
s’ajoute, l’utilisation des produits chimiques qui ont des conséquences nuisibles
sur la fertilité des sols et sur la santé des ouvriers de la chaîne de production. Le
gouvernement éthiopien tente d’atténuer ce bilan peu reluisant en prenant des
initiatives en faveur de l’environnement. Une vaste campagne de reboisement
« Green legacy » est engagée. L’ancienne Abyssinie a récemment annoncé avoir
planté 353 millions d’arbres en l’espace de 12 h et affiche l’ambition d’en planter
154
D’à peine 400 milliards de dollars au début des années 2000, les investissements
de la Chine en Afrique vont littéralement s’envoler pour atteindre la somme astro-
nomique de 43 296 milliards de dollars en 2017, soit 8 fois plus que leur niveau
initial au début du millénaire.
155
1. Dans ses relations avec l’Afrique la Chine entend faire valoir la pratique des cinq non : ne pas
s’ingérer dans la recherche par les pays africains d’une voie de développement adaptée à
leurs conditions nationales, ne pas s’immiscer dans les affaires intérieures africaines, ne pas
imposer sa volonté à l’Afrique, ne pas assortir son aide à l’Afrique de conditions politiques
quelconques, ne pas poursuivre des intérêts politiques égoistes en matière d’investissement
et de financement avec l’Afrique.
156
de possibles effets bénéfiques sur le tissu productif local. L’Éthiopie est un des
pays récipiendaires de cette pratique. La chine y a construit 6 zones économiques
spéciales sur lesquelles sont implantées de nombreuses firmes multinationales.
Source : Cari
157
158
Source : Cari
Les prêts accordés par Pékin sont considérés par certains critiques comme un
instrument de domination politique. La relation de dépendance économique
et financière qui en résulte permet à l’Empire du milieu d’étendre son influence
politique sur le continent africain. Comptant 55 pays et représentant à elle seule
un tiers des voix à l’assemblée générale de l’ONU, l’Afrique représente un atout
important pour Pékin en cas de crise du fait du soutien qu’elle peut lui apporter.
159
1. On raconte volontiers en Afrique cette anecdote qui en dit long sur la volonté de captation
de la rente par les élites locales. Un responsable des travaux d’une société chinoise se voyant
reprocher la piètre qualité d’une route bitumée cinq mois seulement après sa mise en fonction-
nement, rétorqua « Gros travaux, petits budgets mais grosses commissions ». Cette courte
réponse résume à elle seule la réalité de bon nombre de travaux menés tambour battant
en Afrique. Ils donnent lieu à des versements de confortables commissions à des dirigeants
locaux au détriment de la qualité des travaux.
2. C’est en 2011 que la Banque africaine de développement a dévoilé les résultats de ses travaux
reposant essentiellement sur une classification en fonction des revenus.
160
Source : BAD
Les travaux de la BAD ont bénéficié d’emblée d’un écho favorable. Des formules
chocs telles que « l’Afrique est notre avenir » ou « Le grand boom » ont accompagné
l’idée optimiste de l’apparition d’une classe moyenne africaine formée de ménages
relativement jeunes, éduqués vivant dans des centres urbains et disposant de
métiers stables et relativement bien rémunérés1. Cependant cette idée de classe
moyenne africaine ne fait pas l’unanimité, de profondes divergences existent au
1. L’idée d’une classe moyenne africaine ne date pas d’aujourd’hui. Au moment des indépen-
dances, il était utilisé pour désigner les catégories lettrées ou « évoluées » destinées à assumer
les rênes du pouvoir.
161
162
163
lancement, M-Pesa n’a cessé de gagner des clients. De 8 millions à ses débuts,
il compte de nos jours plus de 19 millions d’utilisateurs au Kenya soit 70 % de
la population adulte et 30 millions d’abonnés dans le monde. Chaque seconde,
environ 900 transactions sont réalisées par ce biais. M-Pesa voit transiter 68 % des
transactions monétaires du Kenya.
Les services offerts par cette plateforme ont le mérite d’être simples mais
permettent de rendre service aux populations. Il est possible à partir d’un SMS
d’envoyer du crédit téléphonique à un autre utilisateur, de transférer de l’argent à
moindre frais vers des zones isolées et pauvres. De nombreux ménages non banca-
risés ont aussi recours à M-Pesa comme moyen d’épargne. Depuis son lancement,
M-Pesa a créé au total près de 180 000 emplois soit 8 % de l’emploi formel au
Kenya et contribué à hauteur de 6.5 % au PIB de ce pays. Son succès grandissant
a fait des émules dans de nombreux pays mais ses principaux concurrents peinent
à remettre en cause sa position dominante dans le domaine de transfert d’argent
par téléphone mobile.
Le développement du téléphone mobile en Afrique constitue par ailleurs un
puissant outil d’amélioration de la gouvernance locale. Ce moyen de communication
est mis à profit dans le cadre de la mobilisation électorale pour réduire l’abstention.
C’est aussi un moyen dans certaines communautés pour renforcer la démocratie
locale. C’est le cas en Tanzanie, où les populations locales sont sollicitées pour se
prononcer par SMS sur les priorités budgétaires locales. Une initiative qui permet
de renforcer l’engagement des populations locales et d’instaurer un climat de
confiance entre élus et administrés. Grâce au téléphone portable, certains scrutins
électoraux ont eu des résultats inattendus. La mobilisation des citoyens a permis
de faire échec aux tentatives de falsification des résultats par les pouvoirs sortants.
La libéralisation du marché de la téléphonie n’a pas totalement résorbé la fracture
numérique entre villes et campagnes. Le téléphone portable reste un phénomène
très urbain. Pour de nombreuses populations pauvres, analphabètes vivant à la
campagne, il représente encore un coût inaccessible. Reste que cette révolution
dispose d’un énorme potentiel de croissance dont l’ampleur dépend largement
de la baisse des coûts de télécommunications et de la croissance économique
africaine à venir.
164
L’une des principales caractéristiques des économies africaines c’est leur extrême
dépendance à l’égard de la production et l’exportation des ressources naturelles
ou de produits primaires. Les économies africaines restent donc très marquées par
la gestion de la rente. Elles subissent de ce fait plus que d’autres économies les
fluctuations des termes de l’échange qui sont une des sources d’appauvrissement
de ce continent.
L’absence de diversification des économies africaines s’explique notamment par
la grande convoitise suscitée par ses ressources en hydrocarbures et en minerais. Le
besoin croissant en matières premières des pays industrialisés et des pays émergents
conduit de nombreux pays à privilégier les industries extractives de ressources
naturelles au détriment d’autres secteurs notamment de l’agriculture, réduisant ainsi
à une portion congrue sa contribution aux grands équilibres macro-économiques.
Pourvoyeuse d’une grosse rente, ces industries minérales créent à l’inverse peu
d’emplois et se révèlent peu complémentaires avec d’autres activités locales. Elles
ne sont donc pas inclusives en dépit du fait qu’elles créent de la croissance en valeur.
La préférence accordée aux activités rentières provoque d’une part l’abandon
des campagnes au profit des cités urbaines et favorise d’autre part, le dévelop-
pement de modèles alimentaires à base de produits importés. Ce qui a pour effet
d’accroître la dépendance extérieure et le déficit commercial de nombreux pays
africains. Ces évolutions dommageables aux structures économiques africaines ont
ainsi contribué à accréditer la thèse de la malédiction des ressources naturelles.
Nombreux sont les pays africains qui regorgent d’abondantes ressources naturelles
à faire pâlir de jalousie plus d’un pays mais il y a un invariant qui les caractérise,
c’est leur incapacité à satisfaire les besoins les plus vitaux de leurs populations
parce que victimes d’un phénomène qualifié de « malédiction des ressources
naturelles ». Le Congo démocratique est sans aucun doute le cas le plus emblé-
matique de cette situation. Situé en Afrique centrale, ce pays grand 4 fois comme
la France dispose à lui seul de 80 % des réserves de cobalt, de 10 % des réserves
mondiales de cuivre et de tant d’autres ressources minérales. Malgré la richesse
extravagante de son sous-sol, le Congo-démocratique figure paradoxalement
parmi les pays les plus pauvres au monde avec 73 % de sa population vivant
165
sous le seuil de la pauvreté (c’est-à-dire avec moins d’1,90 dollars par jour selon
la banque mondiale) et fait partie des pays les corrompus selon le classement
établi par Transparency international.
D’autres pays d’Afrique, l’Angola, le Gabon, le Tchad, etc., n’échappent pas à
ce qui semble relever de la fatalité.
Comment expliquer que le pétrole, les diamants, le gaz ou le cuivre, symboles
s’il en est de la richesse, puissent rendre pauvres ? Comment expliquer que
l’abondance des ressources naturelles puisse maintenir l’immense majorité d’une
population dans le dénuement ? Bref, comment expliquer que l’absence de
développement puisse provenir de la richesse des ressources ?
Ce paradoxe qui dépasse l’entendement a été mis en lumière pour la première
fois par un économiste britannique Richard Audit au début des années 90. Selon
lui, « les économies reposant sur les matières premières, le pétrole notamment
tendent à se développer plus lentement et que celles-ci génèrent de la corruption
et des violences internes au sein des pays en question ». Une thèse parfaitement
confortée par les pratiques en cours dans de nombreux pays africains.
166
Le défaut de transparence dans la gestion des deniers tirés des industries extrac-
tives est le propre de plusieurs pays africains tributaires de cette rente. Cette
situation génère de la corruption généralisée dans un contexte marqué par
l’inexistence d’institutions inclusives véritablement animées par la volonté d’y
lutter. Le détournement de fonds qui en découle au profit d’une petite élite
maintient l’immense majorité de la population dans la pauvreté. Cette captation
des revenus rentiers renforce les inégalités existantes et crée des tensions sources
d’instabilité politique et de conflits armés. Nombre de situations de guerres
civiles constatées ces dernières années en Afrique tire leurs origines de cette
frustration résultant de l’inégale répartition de la rente.
La captation par une petite élite de la rente a des conséquences en matière de
choix d’orientation universitaire et professionnelle des jeunes générations. Des
études ont mis en lumière l’effet de détournement des talents en faveur des
métiers menant à des carrières permettant un meilleur accès à la rente. Ainsi les
carrières de militaire sont valorisées dans certains pays africains au détriment des
métiers de l’agriculture ou de l’artisanat. En effet le culte du galon, de l’uniforme
et l’impunité associée au statut de militaire gradé font de celui-ci le privilégié
du système et le symbole de la réussite sociale. Le caractère hypertrophié de
certaines armées africaines et les budgets pour le moins conséquent consacré
à leur fonctionnement tirent leur source de cet état de fait.
Ces ressources minérales suscitent également la convoitise d’autres pays ou des
firmes multinationales qui pour mieux s’approprier leur part du gâteau alimentent
l’instabilité en armant les pouvoirs en place ou en encourageant des mouvements
de rébellion contre le pouvoir central. Une étude du Royal Institute of Foreign
Affairs a en effet montré que les pays producteurs entre 5.5 et 24 barils de pétrole
par jour par habitant sont les plus en proie à l’instabilité politique, à une faible
capacité de gouvernance et à des conflits armés. Au-delà de 24 barils, les revenus
générés sont assez suffisants pour assurer une meilleure répartition de la rente.
Le Nigéria, l’Angola relèvent du premier cas et les pays du Golfe relèvent de la
seconde situation. Les premiers sont confrontés invariablement à des turbulences
politiques sur fond de pauvreté endémique tandis que les seconds prospèrent
en dépit d’une forte dépendance à la rente pétrolière.
167
long terme. Quant à la Norvège, elle incarne de très loin le pays qui arrive à
conjurer cette malédiction des ressources naturelles en conjuguant abondance
des richesses extractives et développement économique et social harmonieux.
Avec ses ressources pétrolières, ce pays nordique a fait le choix d’investir dans
l’éducation et les programmes sociaux. Des fonds souverains gouvernementaux
de l’ordre de 1 000 milliards de dollars ont été créés dans le but d’assurer le
fonctionnement de l’état providence dans le futur notamment en cas de taris-
sement de la rente pétrolière.
Ces différents exemples illustrent la nature des institutions indispensables à la
bonne gouvernance dans un pays richement doté en ressources naturelles. Des
politiques budgétaires et fiscales prudentes, des choix d’investissement permettant
la diversification économique et la mise en œuvre d’institutions visant à assurer
un partage équitable des richesses sont en définitive les éléments constitutifs
de l’antidote permettant aux pays africains de tirer parti de l’abondance des
ressources naturelles. C’est à cette condition que sera démentie l’assertion du
vénézuélien Juan Pablo Perez Alfonso, l’un des premiers fondateurs de l’OPEP
qui affirmait « le pétrole n’est pas de l’or noir, c’est l’excrément du diable ». ©
168
1. En janvier 2019, le vice-président du conseil italien avait créé une vive tension diplomatique
entre Paris et Rome en affirmant que la France par le biais du franc CFA appauvrissait l’Afrique
et portait de ce fait une responsabilité dans les migrations africaines vers l’Europe.
2. Deux sous-ensembles composent la Zone franc. D’un côté, l’UEMOA (Union économique
et monétaire ouest-africaine) composé de 8 pays (Bénin, Burkina Faso, Côte d’Ivoire, Mali,
Niger, Sénégal, Togo, Guinée Bissau) et de l’autre la CEMAC (Communauté économique
et monétaire de l’Afrique centrale) regroupant 6 pays (Congo, Gabon, Tchad, Cameroun,
Centrafrique, Guinée équatoriale). Ces deux zones disposent d’un institut d’émission
169
170
rabilité des capitaux, ces élites dirigeantes peuvent valoriser leur fortune en euro
en toute aisance sans avoir à subir le risque de change. Ce parti pris du franc CFA
s’avère in fine défavorable pour l’immense majorité de la population pour l’essentiel
rurale qui dotée de faibles revenus peine à assouvir ses besoins du fait du coût
onéreux des produits importés. Cet état de fait contribue à accroître les inégalités
sociales entre d’un côté les élites dirigeantes bénéficiant d’un accès privilégié à la
rente et de l’autre les populations en proie aux difficultés quotidiennes.
À ces critiques non exhaustives, les thuriféraires de la Zone franc, pour l’essentiel
membres de la classe politique africaine et hommes d’affaires, font valoir plus d’un
bénéfice à l’actif de cette zone monétaire. Le premier bénéfice porte sur les vertus
de la stabilité permises par le franc CFA. La fixité des parités permet aux pays de
la Zone franc d’être moins inflationnistes par rapport à d’autres pays d’Afrique
subsaharienne. Le niveau d’inflation reste limité autour de 3 % contre 14 à 15 % dans
certains pays anglophones comme le Nigéria ou le Ghana. La création monétaire
étant sous contrôle extérieur, le recours à la planche à billets est de ce fait proscrit.
Les États africains membres de la Zone franc sont ainsi contraints de mener des
politiques vertueuses permettant de limiter l’endettement et les déficits publics.
Le second bénéfice concerne la crédibilité monétaire dont bénéficient les
pays membres de la Zone franc. La garantie apportée par le Trésor français via le
mécanisme des comptes d’opérations contribue à rassurer les investisseurs inter-
nationaux et permet de ce fait d’éviter les mouvements spéculatifs et les fuites
massives de capitaux. Cette crédibilité internationale apparaît ainsi comme un
gage de sécurité auprès des marchés financiers.
Le dernier avantage porte sur l’atout en matière d’intégration régionale. Du fait
de l’inexistence du risque de change, le franc CFA facilite les échanges entre pays
de la zone. L’institution d’un ensemble de règles communes dont la centralisation
des avoirs extérieurs permet la solidarité financière entre pays membres.
Pour les partisans de la Zone franc certaines critiques formulées à l’encontre
de cette zone monétaire paraissent infondées et témoignent surtout de la mécon-
naissance des règles de fonctionnement de cette institution. Il s’agit notamment
de la controverse concernant l’affectation des réserves de change détenues par le
Trésor français. Celles-ci ne constituent pas un manque à gagner pour les économies
africaines en terme de ressources de financement puisqu’elles sont de fait déjà
en circulation dans la Zone franc en équivalent franc CFA. En effet lorsqu’une
société africaine exporte et reçoit des devises, elle les cède à sa banque et reçoit
en échange des francs CFA. La banque commerciale désormais détentrice de
ces devises les transfère à la BCEAO (Banque centrale des États de l’Afrique de
l’Ouest) ou à la BEAC (Banque des États d’Afrique centrale) qui en dernier ressort
les place dans les comptes d’opération.
Ces polémiques à répétition, aussi vieilles que cette zone, ont contribué
néanmoins à faire émerger progressivement un consensus sur la nécessité de
réformer la Zone franc.
171
1. De multiples pressions ont contribué à cette évolution. Outre celle exercée par une partie des
intellectuels africains, la volonté du FMI de voir cette institution évoluer a plus d’une fois été
exprimée par ses dirigeants. La Russie et l’Italie en prenant fait et cause pour les anti-CFA ont
incontestablement conduit Paris à faire évoluer sa position sur les règles de fonctionnement
de cette zone monétaire.
2. L’existence de ce compte a souvent nourri nombre de fantasmes et de « théories complotistes ».
Pour certains détracteurs, ces comptes d’opérations correspondent à un impôt colonial prélevé
par la France pour financer sa dette. En réalité, ces réserves de change pèsent très peu dans
l’économie française, à peine 0.25 % de sa dette publique et font l’objet d’une rémunération
à un taux supérieur à celui marché.
172
1. Auteur en 2018 d’un rapport sur la Zone franc et le franc CFA intitulé « Zone franc, pour une
émancipation bénéfique pour tous », Dominique Strauss Khan, ancien ministre de l’Économie
et Directeur général du FMI qualifiait ce régime de change de « mécanisme désuet et de frein
au développement » et plaidait pour une évolution du mécanisme de change vers davantage
de flexibilité.
173
174
Le régime de change qui apparaît le plus approprié pour les pays africains de
la Zone franc est celui qui lie flexibilité et rattachement à un panier de devises.
L’intérêt d’un tel choix réside dans le fait que toute variation du cours d’une devise
du panier par rapport à d’autres devises atténue mécaniquement la dépréciation
ou l’appréciation de l’éco. Le choix du panier de devises doit tenir compte de la
composition des échanges des pays africains. L’euro, le dollar et le yuan pourraient
de ce fait être privilégiés.
175
dérable marché de près de 350 millions d’habitants, une opportunité dont les
entreprises pourraient tirer avantages. L’adoption de l’éco par l’ensemble des
15 pays de la sous-région Afrique de l’Ouest, devrait permettre de réduire les
coûts de transaction, de stimuler l’investissement et de favoriser la création d’un
marché intérieur dynamique. Restent néanmoins des incertitudes sur la mise en
circulation effective de cette monnaie. Les critères de convergence économique
et financier nécessaires à son adoption ne sont pas respectés par de nombreux
pays candidats. Ils sont au nombre de quatre, premièrement le niveau d’inflation
doit être inférieur à 10 %, ensuite les réserves de change doivent couvrir trois mois
d’importations, troisièmement le déficit public doit être inférieur à 3 %, quatriè-
mement la dette publique doit être inférieure ou égale 70 % du PIB et enfin le
financement du déficit budgétaire par les banques centrales ne doit pas dépasser
10 % des recettes fiscales de l’année précédente.
Face à la difficulté rencontrée par les États dans le respect des critères d’éli-
gibilité à l’éco, le Nigéria a demandé le report du lancement de cette monnaie
initialement prévu courant 2020. En déstabilisant davantage les économies africaines,
la crise économique née de la Covid-19 risque de retarder d’autant l’avènement
de cette monnaie.
Des doutes accompagnent aussi le processus de création de cette monnaie
laissant craindre un risque d’échec. Ils s’appuient sur l’expérience européenne
en matière d’intégration économique, monétaire et financière. L’avènement de
la monnaie unique, l’euro, a été précédé de plusieurs étapes constitutives d’un
processus d’intégration économique. Zone de libre-échange au départ, le projet
d’intégration européen est passé par différentes phases allant de l’union douanière,
en passant par le marché commun, l’union économique et monétaire apparaissant
en phase ultime. Dans le cas des pays africains éligibles à l’éco, le processus
d’intégration économique n’est en fait qu’à ses balbutiements, ce qui suscite le
sentiment d’une naissance précipitée de la nouvelle monnaie africaine. Par ailleurs
en calquant les critères de convergence économique et financière sur ceux de la
zone euro1, la zone éco risque d’en reproduire les lacunes structurelles qui ne font
pas de la zone euro une zone monétaire optimale. Tout d’abord en corsetant leurs
budgets et en limitant le niveau de leur endettement, les pays membres de la
future zone éco se privent d’emblée de la relance budgétaire comme instrument
de stabilisation conjoncturelle. En cas de choc asymétrique notamment et en
l’absence de mécanisme de solidarité budgétaire entre États, ils n’auront pas
d’autres choix que de procéder par un ajustement par le bas c’est-à-dire de mettre
en œuvre des politiques budgétaires restrictives pour espérer sortir de l’ornière. Un
choix qui généralement a pour effet d’amplifier les effets de la crise. L’expérience
de la crise de la dette souveraine grecque est depuis devenue un cas d’école
permettant d’illustrer ce cas de figure. Les dirigeants africains n’ont manifestement
1. Les critères de convergence de la zone euro sont ceux définis par le pacte de stabilité et de
croissance à savoir des déficits publics inférieurs à 3 % du PIB et le niveau de la dette publique
inférieur à 60 % du PIB.
176
Elle a 60 ans d’existence et pourtant nombre de chefs d’État français ont exprimé
au moment de leur accession à l’Élysée l’ardent souhait d’y mettre fin mais à
l’épreuve du pouvoir, ils ont dû se raviser pour laisser se perpétuer des pratiques
qualifiées de néo-colonialistes par les pourfendeurs de ce système dont la
principale singularité est d’être très opaque.
177
178
179
180
181
ainsi associés à cet accord de grande ampleur des pays dont la taille et le potentiel
économique peuvent avoir des effets d’entraînement en matière d’intégration
économique continentale avec au Nord l’Égypte, à l’Est le Kenya et au Sud l’Afrique
du Sud. Grand absent de ce processus, le Nigéria qui est des pays les plus riches
d’Afrique subsaharienne.
La création de ce grand marché ne débouchera sur des progrès concrets que
s’il s’accompagne de colossaux investissements en matière d’infrastructures (trans-
ports, énergie) à vocation régionale et de la mise en œuvre de règles communes
en matière de concurrence et de trafic.
Il n’est de richesse que d’hommes affirmait Jean Bodin au XVe siècle. Cette
affirmation validée depuis dans de nombreux pays peine à se concrétiser en Afrique
et pour cause, ce continent peine à achever sa transition démographique afin d’en
tirer un dividende démographique favorable à l’augmentation de la productivité
et donc à la croissance économique.
Les chiffres concernant ses perspectives démographiques laissent en effet
craindre le maintien du continent dans la pauvreté. De l’ordre de 9 % en 1950,
la part de l’Afrique dans la population mondiale devrait être de l’ordre 25 % en
2050 soit 2.4 milliards d’habitants. La population africaine sera supérieure à celle
de la Chine ou de l’Inde. Un humain sur six habite aujourd’hui en Afrique, en 2050
ce sera un humain sur 4 et plus d’un sur trois en 2100 selon les projections des
Nations unies.
Le Nigéria est le pays africain qui illustre de très loin cette réalité d’une croissance
démographique explosive, soit la plus rapide du monde. En 1960, au moment de
son accession à l’indépendance, ce pays, situé en Afrique de l’Ouest, comptait
45 millions d’habitants. Depuis sa population a quadruplé pour atteindre 190 millions
d’habitants. D’ici 2050, les projections les plus optimistes tablent sur un doublement
de sa population. Le Nigéria deviendra ainsi le troisième pays le plus peuplé au
monde après les États-Unis.
182
Source : ONU
183
[1 ; 2[ [2 ; 3[ [3 ; 4[ [4 ; 5[ [5 ; 6[ [6 ; 7[ 7 et +
Sénégal Zambie
Cameroun Nigéria
Côte d’Ivoire
4e
Mauritanie
Ghana
Soudan Congo
Le faible taux de scolarisation des filles ainsi que les mariages précoces qui en
découlent sont autant de freins à cette baisse de la natalité. L’éducation apparaît de
ce fait comme un levier sur lequel il est possible d’agir pour inverser la tendance.
De nombreuses études ont permis en effet d’établir un lien étroit entre scolarisation
des filles et baisse de la fertilité. L’allongement de la durée de scolarité des filles
permet en effet de retarder leur date d’entrée dans la conjugalité, puis celle des
premières naissances et de renforcer leur indépendance économique et financière
en leur permettant d’accéder à un emploi plus qualifié et mieux rétribué. Une étude
menée au Nigéria par l’UNICEF en 2010 a permis de mettre en exergue le fait
que 80 % des femmes nigérianes dont l’âge se situait entre 20 et 24 ans n’ayant
bénéficié d’aucune éducation scolaire entraient précocement dans la conjugalité
avant d’atteindre 18 ans. Ce pourcentage n’était que de 16 % pour celles pourvues
d’un niveau d’éducation scolaire secondaire ou supérieure.
184
185
Les dépenses nécessaires pour satisfaire les besoins des personnes dépendantes
diminuent au profit d’investissements porteurs de croissance économique. C’est
le chemin antérieurement choisi par les Tigres asiatiques puis par l’Amérique
latine dans leur processus d’émergence. Avant que ces pays n’occupent la tête
d’affiche en matière de performances économiques, bon nombre d’entre eux avait
des profils et des caractéristiques socio-économiques comparables à ceux des
pays d’Afrique subsaharienne. La baisse de la mortalité conjuguée avec la baisse
des naissances a contribué à modifier radicalement la pyramide des âges. Il en
a résulté une croissance de la population active en âge de travailler supérieur au
nombre de personnes dépendantes, jeunes ou âgées. Ce bonus démographique
s’est ainsi mué en dividende démographique car pourvue d’une éducation, la
jeune population active en âge de travailler a pu être intégrée sur le marché du
travail et elle a contribué ce faisant au dynamisme de la croissance économique
de ces pays. Pour tirer profit de ce bonus démographique, les Tigres asiatiques
ont pris le parti d’investir dans le capital humain c’est-à-dire dans l’éducation et
dans la planification familiale. Des initiatives ont été aussi prises en matière d’inté-
gration des femmes sur le marché du travail. En définitive, pour que le dividende
démographique puisse exercer pleinement ses effets, il faut, outre une baisse de
la natalité, des politiques sociales et économiques volontaristes.
Avec 2.4 milliards d’habitants prévus en 2050, l’Afrique peut-elle aussi bénéficier
de ce phénomène vertueux ?
À la lumière des expériences des pays asiatiques ou d’Amérique Latine, les
pays d’Afrique subsaharienne peuvent aussi profiter de cette fenêtre d’opportunité
en menant des politiques actives en matière d’éducation, de santé, de création
d’emplois tout en s’employant à baisser la natalité.
Dans une de ses études en 2015, le FMI précisait néanmoins que « pour obtenir le
dividende le plus élevé possible les pays d’Afrique subsaharienne devront rapidement
réduire la mortalité infantile et la fécondité et créer de nombreux emplois, soit
18 millions par an en moyenne entre 2010 et 2035 ». S’ils ne saisissent pas cette
opportunité offerte par la transition démographique, le chômage pourrait atteindre
des niveaux culminants et provoquerait de ce fait des conséquences sociales d’une
extrême gravité. La structure par âge de la population africaine actuelle et à venir
transforme cet enjeu en course contre la montre.
L’Afrique subsaharienne dispose de la population la plus jeune population au
monde. Les moins de 25 ans représentent 67 % de la population et les 15 à 24 ans
pèsent près d’un cinquième de la population mondiale de jeunes. Sans création
massive d’emplois, ces millions de jeunes totalement désœuvrés, sans perspective
d’avenir risquent de représenter une grande source de troubles sociaux et d’insta-
bilité politique. Pour nombre d’entre eux, la tentation de l’émigration risque d’être
la seule perspective viable pour un hypothétique mieux-être ailleurs.
186
187
Longtemps dirigée par des autocrates, l’Afrique subsaharienne n’a pris le tournant
de la démocratie qu’au lendemain de la chute du mur de Berlin et précisément après
le sommet de la Baule au cours duquel le président François Mitterrand invita, dans
un discours devenu historique, les chefs d’État africains à accepter les principes
de la démocratie impliquant le pluralisme politique et l’organisation d’élections
libres et transparentes. Ce processus engagé au début des années 90 a ouvert des
perspectives porteuses de larges espérances en matière de liberté d’expression
après des décennies d’unanimisme contraint. Le bilan à tirer de ce processus apparaît
à bien des égards très mitigé. L’Afrique subsaharienne a vu émerger à la faveur
de ce processus des démocraties véritables. Le Bénin, le Burkina Faso, le Nigéria,
le Ghana, le Mali et le Sénégal font figure d’exemples de démocratie aboutie. La
libéralisation du champ politique a contribué dans ces pays à la diversification de
l’offre politique ainsi qu’à la consolidation des institutions démocratiques de sorte
que l’alternance politique, longtemps inespérée voire impensable, est devenue
une réalité tangible. Le renouvellement du personnel politique et l’éclosion de
personnalités issues de la société civile ont contribué à apporter un nouveau souffle
au processus démocratique en les dynamisant. Cependant dans de nombreux
pays, les processus démocratiques ont connu diverses infortunes. Ils ont été inter-
rompus par des coups d’état sur fond de restauration autoritaire ou simplement
instrumentalisés par les pouvoirs sortants dans l’unique but de s’auto-accorder
une légitimité populaire. Dans certains cas, des « réformes constitutionnelles sur
mesure » ont été opportunément décidées à dessein, contre vent et marrées, pour
contourner la limitation du renouvellement du mandat présidentiel.
De nombreux troubles sociaux ou conflits politiques armés en Afrique trouvent
leur source dans l’incapacité de certains dirigeants de penser la démocratie en
terme d’alternance politique. « Moi ou le chaos » telle est la justification de la
longévité de certaines magistratures érigées en présidence à vie. Ces dérives sources
d’immobilisme risquent de perdurer tant que l’exercice du pouvoir demeurera pour
les gouvernants ainsi qu’à leurs proches le plus sûr moyen d’accéder avantageu-
sement à la rente et de bénéficier ce faisant d’un accroissement exponentiel de
leur situation patrimoniale.
Se servir et non servir l’intérêt général tel est en résumé le comportement
déplorable d’une partie de la classe politique africaine. Certains de ses membres
ont été impliqués dans des scandales financiers mis au jour dans le cadre des
révélations des « Panama papers ». Des fortunes colossales sont ainsi placées à
l’abri dans des paradis fiscaux alors que les infrastructures de base font cruellement
défaut aux populations.
La responsabilité de l’Occident dans la perpétuation de ces régimes a souvent
été mise en cause. Le réalisme politique a souvent servi de justification pour soutenir
ou contribuer au maintien au pouvoir de certains dirigeants africains totalement
abhorrés par leurs peuples. Cette duplicité a contribué à renforcer le sentiment
188
Conclusion
« L’Afrique est un continent riche habité par des pauvres » tel est le paradoxe
de cette région du monde convoitée pour la richesse de son sous-sol mais dont
les populations peinent à sortir des trappes à pauvreté dans lesquelles elles sont
enfermées.
La croissance du XXIe siècle sera-t-elle africaine en d’autres termes le XXIe siècle
verra-t-il l’émergence de l’Afrique ? Les prévisions les plus optimistes laissent
augurer la perspective d’un dividende démographique appelé à faire de ce
continent un pôle dynamique de croissance et de développement. La réalisation
de cette prévision est néanmoins sujette à caution tant de profondes mutations
économiques et culturelles s’avèrent impérieuses. La réduction de la taille des
familles condition sine qua none de la baisse de la pauvreté, le pari de l’inté-
gration régionale afin de remédier au déficit d’infrastructures et d’améliorer les
flux commerciaux intra-africains, l’appropriation de l’outil monétaire afin, dans le
cas des pays africains membres de la Zone franc, de faciliter la mise en œuvre
des politiques expansionnistes en matière de croissance et de création d’emplois,
l’adhésion aux valeurs démocratiques afin de promouvoir la bonne gouvernance
et de faciliter la stabilité politique, telle est la liste non exhaustive des orientations
nécessaires et impératives pour que l’émergence du continent africain ne demeure
pas un objectif vain mais une réalité bénéfique à sa population appelée à brève
échéance à représenter le quart de l’humanité.
189
Lexique
Balance des paiements : Il s’agit d’un compte recensant l’ensemble des relations
économiques, monétaires et financières entre un pays et le Reste du Monde
(RDM). Différentes balances la composent, la balance commerciale, la balance
des transactions courantes et la balance des capitaux. Les différents soldes
de flux réels, monétaires et financiers qui en découlent permettent d’établir
si un pays est créditeur ou débiteur à l’égard du RDM.
Banque mondiale : C’est une des institutions nées des accords de Bretton Woods
de 1944. 189 pays en sont membres et son siège est situé à Washington.
Fonctionnant comme une coopérative, la Banque mondiale a pour mission
de contribuer au développement des pays en développement via l’octroi
de prêts à taux d’intérêt faible permettant la construction d’infrastructures
et la mise en œuvre de réformes économiques et sociales.
Banques centrales : Généralement appelée banque des banques, les banques
centrales remplissent de multiples fonctions. Ce sont des instituts d’émission
chargées d’assurer les opérations de compensation interbancaires. Elles
assurent le financement des banques de second rang via leur intervention
sur le marché monétaire. Elles veillent à la stabilité du système financier
en jouant le rôle de prêteur en dernier ressort (PDR). Elles sont chargées
de déterminer et de conduire la politique monétaire. Dans le cas de la
Zone franc, les banques centrales ne jouissent pas d’une indépendance. Les
décisions de politique monétaire qu’elles mettent en œuvre sont étroitement
dépendantes de celles décidées par la Banque centrale européenne (BCE).
Chaîne de valeur globale : Il s’agit des différentes activités réalisées par les entre-
prises en différents lieux géographiques à travers le monde. Elles vont de la
conception du produit en passant par la production de celui-ci jusqu’à sa mise
à disposition aux consommateurs. Les choix de localisation de ces activités
géographiquement dispersées répondent à un objectif visant à tirer parti des
avantages comparatifs de chaque pays participant à la chaîne de production.
L’intensification de la mondialisation des chaînes de valeur a pour conséquence
l’exacerbation de l’interdépendance entre pays en matière d’approvisionnement.
Une faiblesse mise en lumière par la crise de la Covid-19.
Choc asymétrique : Il s’agit d’un choc d’offre ou de demande qui affecte avec
une intensité inégale différents pays ou différentes régions. Dans le cadre
d’une union monétaire, la résorption d’un choc asymétrique est difficile car
l’ajustement par les taux de change n’est pas possible.
190
191
192
Fédéralisme budgétaire : C’est une des caractéristiques des États fédéraux qui
se traduit par un contrôle des politiques budgétaires des États membres par
le gouvernement central. Le fédéralisme budgétaire joue un rôle particulier
lorsqu’intervient une crise. Il favorise des transferts importants entre États
ou régions en cas de choc asymétrique et permet d’accroître le niveau
d’endettement de la fédération pour relancer l’économie.
Gouvernance : Elle désigne la manière avec laquelle un gouvernement gère
les ressources d’un pays en vue d’assurer son développement. À partir des
années 90, la bonne gouvernance a été érigée par la Banque mondiale
comme une des conditions nécessaires à la réussite des politiques de
développement.
Indicateur de développement humain (IDH) : Créé en 1990 par le Programme
des Nations unies pour le développement (PNUD), l’IDH est un indicateur
composite visant à rendre compte des inégalités mondiales en terme de
bien-être. Il tente de remédier aux lacunes du PIB en prenant en compte dans
son calcul des indicateurs socio-économiques comme le PIB par habitant,
l’espérance de vie, le taux d’alphabétisation des adultes et le taux de scola-
risation. Compris entre 0 et 1, il vise à rendre compte de l’amélioration du
développement humain résultant de la croissance économique. Plus son niveau
se rapproche de 1, meilleur est le développement humain. Néanmoins il est
l’objet de critiques car il ne permet pas de rendre compte de la dynamique
de développement des structures économiques et sociales.
Intégration économique : Processus visant à créer un espace économique
commun nécessitant une unification des politiques économiques des États
impliqués. Selon l’économiste Bela Balassa, cinq stades d’intégration écono-
mique sont possibles. Il y a d’abord la constitution d’une zone de libre-échange,
l’union douanière ensuite, le marché commun, l’union économique et enfin
l’union économique et monétaire.
Investissement direct étranger (IDH) : Il s’agit d’investissement réalisé à l’étranger
par une entité résidente d’une économie dans le but d’y acquérir un intérêt
durable. Il y a IDE pour la Banque de France dès lors que l’entité investisseuse
acquiert au moins 10 % du capital ou des droits de l’entreprise bénéficiaire
de l’investissement. Les IDE sont les principaux vecteurs de l’internationali-
sation des entreprises et de la mondialisation de l’économie.
Malédiction des ressources naturelles : Mis en lumière dans les années 90
par Richard Audit, ce phénomène traduit les difficultés rencontrées par de
nombreux pays en développement qui en dépit d’abondantes ressources
Lexique
193
194
195
196
Bibliographie
mars 2013.
FOCCARD Jacques, « Foccard parle, entretien avec Philippe Gaillard » Fayard –
Jeune Afrique, 1951.
FOIRRY Jean Pierre, L’Afrique : continent d’avenir ?, Ellipses, 2006.
Fonds monétaire international : « Perspectives économiques régionales : Afrique
subsaharienne », avril 2017.
197
198
TURPIN Frédéric, Jacques Foccard dans l’ombre du pouvoir, CNRS éditions, 2018.
VERSCHAVE François-Xavier, La françafrique, le plus grand scandale de la république,
Stock, 1988.
—, Noir silence. Qui arrêtera la Françafrique ?, Les arènes, 2000.
ZIEGLER Jean, Main basse sur l’Afrique : la recolonisation, Seuil, 1978.
Bibliographie
199
201
1. Alan Turing est un mathématicien britannique dont les travaux permirent le décryptage des
codes secrets allemands au cours de la Deuxième Guerre mondiale. Il contribua de ce fait
de manière décisive à la victoire contre les nazis. Héros de la bataille contre le nazisme, il fut
néanmoins victime de la loi sur la protection des bonnes mœurs dans une Grande Bretagne
conservatrice. Condamné pour son homosexualité en 1952, le mathématicien britannique a
récemment été réhabilité par la reine Elisabeth II en raison « de son apport scientifique pour
briser les codes Enigma contribuant ainsi à sauver des milliers de vies ». Le film Imitation
Game (2014) retrace le brillant parcours de ce précurseur de la machine universelle qu’est
l’ordinateur.
2. Ce test est de nos jours l’objet de critiques parce qu’il s’appuie sur un nombre limité de
questions relevant d’un domaine restreint. Dès lors qu’on élargit le champ des connaissances,
les chances de succès de l’ordinateur se réduisent significativement par rapport à celles de
l’homme.
202
Les années 60 sont ainsi marquées par un vent d’optimisme mais celui-ci va
progressivement être confronté à l’épreuve de la réalité. De nombreux projets
porteurs d’espérance n’aboutissent pas car les difficultés rencontrées se révèlent
plus nombreuses que prévues. Les années 70 se singularisent alors par le recul
de la recherche en intelligence artificielle. Les financements jadis conséquents
se tarissent. En effet, faute de succès tangibles les gouvernements américains et
britanniques notamment réduisent leurs financements. La sélectivité des projets
devient la règle, seuls ceux ayant une chance d’aboutir sont encouragés. Cette
période de vache maigre est alors qualifiée de « AI winter ».
Le renouveau de l’intelligence artificielle intervient à partir de la décennie 90.
Plusieurs facteurs vont y contribuer. Il y a d’abord le développement de l’infor-
matique dans les entreprises, ensuite l’apparition puis l’utilisation des premières
machines intelligentes capables par exemple dans le cadre de l’activité bancaire
de lire automatiquement des chèques ou des enveloppes. Il y a enfin le succès des
systèmes experts c’est-à-dire des ordinateurs capables de se comporter comme
un expert humain dans un domaine précis.
La conjonction de ces facteurs relance de nombreux projets dans le domaine
de l’intelligence artificielle. Son marché est ainsi porté à 1 milliard de dollars. Les
gouvernements américains et britanniques se remettent à soutenir différents projets.
Le développement exponentiel des performances informatiques en suivant la loi
de Moore, permet à la fin des années 90 d’exploiter l’intelligence artificielle dans
des domaines jusqu’alors peu concernés. C’est le début du data mining et des
diagnostics médicaux. 1997 va alors constituer un tournant décisif. Un évènement
ultra-médiatisé va porter aux nues l’intelligence artificielle. L’ordinateur « Deep Blue »
créé par IBM prend le dessus sur le champion du monde d’échecs Garry Kasparov.
Au cours des années 2000, c’est le cinéma qui consacre l’intelligence artificielle
via différentes productions cinématographiques à gros budgets. Des « Block-
busters » à l’instar de Terminator, Blade Runner ou le premier volet de la saga Matrix
connaissent un succès retentissant auprès du grand public. Ces films s’appuient
sur des scénarios plus ou moins réalistes permettant de mettre en exergue les
bienfondés de l’intelligence artificielle ou ses potentiels dangers.
Le début des années 2010 voit l’apparition de « l’homo numéricus ». Son
éclosion est en effet favorisée par la démocratisation de l’ordinateur, de l’internet
et des smartphones. La connectivité devient alors un fait social favorisant en cela
la fulgurance de l’intelligence artificielle tant sur le plan académique qu’industriel.
203
Le passage du machine learning au deep learning est une des clés des progrès
fulgurants réalisés par l’intelligence artificielle. Ces deux méthodes présentent
des similarités mais aussi d’énormes différences. Le machine learning prend
naissance dans les années 50. Il est le résultat de l‘abandon de la program-
mation compliquée au profit des méthodes d’apprentissage de l’ordinateur. En
effet avec le machine learning, la machine acquiert la faculté d’apprendre par
elle-même afin de réaliser des calculs à partir d’une base de données. C’est une
forme d’apprentissage automatique par l’expérimentation dans le but d’établir
des corrélations. C’est la data qui dans ce cadre nourrit l’analyse de données,
plus le nombre de corrélations augmente et plus la qualité des prédictions des
algorithmes s’améliore. Les résultats des algorithmes de machine learning ont de
nombreuses utilisations dans de multiples domaines. Ils permettent par exemple
de rechercher les consommateurs les plus proches d’un individu afin de faire des
propositions de produits à ceux-ci, de prédire le salaire d’un individu en fonction
du nombre d’années d’expérience ou enfin de savoir si un individu est disposé à
acheter un produit en fonction d’un certain nombre de caractéristiques person-
nelles comme l’âge, le niveau d’études, le sexe ou la résidence géographique.
En général, le machine learning est utilisé en matière de recommandation, de
détection automatique de fraudes, d’anomalies ou d’erreurs de saisie.
Le deep learning est une des facettes du machine learning. Néanmoins si tout
deep learning est un machine learning, l’inverse n’est cependant pas vrai. Les
algorithmes du deep learning sont moins dirigés (apprentissage non supervisé)
par rapport à ceux du machine learning (apprentissage supervisé). C’est sur les
premiers que reposent les technologies comme la reconnaissance d’images ou la
vision robotique. Ces algorithmes disposent d’un réseau de neurones artificiels.
Ces réseaux s’inspirent des neurones du cerveau humain. Ceux-ci sont connectés
entre eux, plus ils sont élevés, plus le réseau est considéré comme profond. Pour
faire intervenir le deep learning en matière de reconnaissance d’images de chats
par exemple, les réseaux de neurones doivent être entraînés. Pour y parvenir,
il faut compiler un ensemble d’images de chats différents mélangés avec des
1. La victoire d’AlphaGo (Google) contre le champion du monde de jeu de Go, Lee Sedol, en
mars 2016 a aussi renforcé cette crédibilité et remis au goût du jour les prouesses de l’intel-
ligence artificielle. En 2017, une nouvelle version d’AlphaGo dénommée AlphaGo Zéro est
apparue. Elle présente la singularité d’être plus puissante et plus intelligente car elle est
capable d’apprendre par elle-même en se passant de la connaissance humaine. Ce nouveau
programme a créé la sensation en battant AlphaGo au jeu de Go par un score sans appel de
100 à 0.
204
images d’objets qui ne sont pas des chats. Converties en données, ces images
sont ensuite transférées sur le réseau neuronal. Un poids est attribué aux différents
éléments et c’est sur la base de ces informations que le réseau va déduire s’il
s’agit ou non d’un chat. Si la réponse est conforme à celle des humains, le réseau
va garder en mémoire cette réponse pour à l’avenir reconnaître les chats. D’une
manière générale, les performances des algorithmes de deep learning tendent
à s’accroître exponentiellement avec l’entraînement. Les avancées en la matière,
permettent aujourd’hui de nombreux progrès. Il en est ainsi de l’utilisation de la
parole dans l’exploitation d’un appareil, de l’analyse des émotions faciales des
clients ou des mauvais comportements des usagers de la route… ©
1. En 2017, il a été constaté en une seule journée, 96 millions de messages sur Instagram,
200 millions de nouvelles photos et 456 millions de mises à jour de statuts dans Facebook,
645 millions de tweets, 5.5 milliards de requêtes sur Google, 4.17 milliards de messages sur
WhatsApp. Ces interactions génèrent donc une gigantesque base de données conférant ainsi
aux GAFA et leurs équivalents chinois (BATX) un pouvoir énorme.
205
Il n’est pas un seul jour sans que la presse se fasse l’écho des prouesses techno-
logiques réalisées grâce aux avancées de l’intelligence artificielle. Il y a quelques
mois, c’est la chaîne de télévision chinoise « Xinhua New Agency » qui a fait sensation
en dévoilant à ses téléspectateurs et au monde entier un présentateur de journaux
télévisés issu de l’intelligence artificielle. Tous les attributs de ce présentateur virtuel
c’est-à-dire l’apparence, la voix, les expressions faciales au niveau des lèvres et
des sourcils ont été créés à partir des caractéristiques humaines. La ressemblance
avec un être humain s’avère si forte que les téléspectateurs non informés de la
situation peuvent être conduits à croire qu’ils sont face à un vrai présentateur. Ce
journaliste hybride est capable de réagir de manière autonome à des vidéos en
ligne et de lire tous les textes possibles de la manière la plus naturelle qui soit.
Utilisable Vingt-quatre heures sur vingt-quatre, il est considéré comme membre à
part entière de l’équipe de reporters et permet par conséquent à la chaîne chinoise
de réduire sa masse salariale.
Pour le grand public ce sont les assistants vocaux qui constituent la forme de
l’intelligence artificielle la plus connue. Ils font partie du quotidien des utilisateurs
de smartphones et sont de plus en plus présents dans les domiciles de particuliers.
C’est Apple qui, en 2011, en intégrant « Siri » dans l’IPhone devient alors pionnier
en matière d’IPA (Intelligent Personal Assistant). Associant reconnaissance vocale et
intelligence artificielle, cette application permet à l’utilisateur d’un iPhone de réaliser
des recherches web sous forme conversationnelle. Depuis d’autres applications
de marques concurrentes, désireuses de tirer profit de ce marché en plein essor,
ont vu le jour. Quatre principaux assistants vocaux font figure de leaders sur ce
marché. Outre Siri d’Apple, il y a « Google Assistant », « Cortana » de Microsoft et
« Alexa » d’Amazon. D’autres IPA devraient voir le jour et intensifier la concurrence
sur ce marché. Il s’agit de « Bixby » de Samsung, « M » de Facebook et « Djingo »
d’Orange. Le potentiel de ce marché est présumé très lucratif puisqu’il devrait
générer près de 16 milliards de dollars de revenus en 2021 et atteindre près de
2 milliards d’utilisateurs.
206
1
3126 3127 3128 3129 312: 3131 3132
9
9*6
7
5 6*3
3 4
2*7 3
1
3126 3127 3128 3129 312: 3131 3132
207
1. Des améliorations s’avèrent encore nécessaires pour que cette technologie atteigne la perfection.
Dès lors que les questions se compliquent, leur fonctionnement devient aléatoire.
2. Le 1er août 2012, 148 valeurs américaines ont été injustement dépréciées à la suite d’un
problème technique intervenu chez un opérateur spécialisé en trading haute fréquence.
3. En 2015, l’Autorité des marchés financiers (AMF) a condamné Virtu Financial et Euronext à
8 millions d’euros d’amendes. Le premier s’était vu reprocher par le régulateur d’avoir enfreint
les règles en manipulant les cours de Bourse grâce à la technique du layering. Il a été reproché
au second d’être resté inerte face à ces agissements dommageables.
208
209
210
211
lièrement lourdes mais de manière moins invasive pour les patients. De nouvelles
générations de robots à base d’intelligence artificielle émergent progressivement
avec une tendance de fond, celle de l’autonomisation croissante par rapport au
chirurgien. C’est le cas du robot chirurgien STAR (Smart Tissue Autonomous Robot).
Autonome à hauteur de 60 %, ce robot ne peut pour l’instant se substituer aux
chirurgiens spécialisés mais il met à leur disposition un outil capable d’une plus
grande précision dans la réalisation de certains gestes comme les sutures.
La santé est un domaine très sensible, la question de l’acceptabilité sociale
est tout aussi importante. Nombre de patients restent très attaché au dialogue
patient-professionnel dans la prise en charge globale du parcours de soins. Cet
attachement constitue une limite à la diffusion de l’intelligence artificielle en cas
de virtualisation de la relation médecins- patients. Autre résistance possible, celle
émanant du corps médical à l’égard de ces évolutions. Les professionnels de santé
ne s’y résoudront que si ces outils s’avèrent simultanément capables de réduire le
risque d’erreur, d’accélérer le processus de prise en charge des patients, d’améliorer
les pratiques des médecins et sont simples d’utilisation.
Choisir qui sauver en cas d’accident tel est le dilemme auquel les voitures
autonomes seront confrontées dès leur mise en circulation. Devraient-elles privi-
légier la vie des passagers au détriment de celle des usagers de la route ou plutôt
l’inverse ? Devraient-elles épargner la vie des enfants au détriment de celle des
adultes ? Des femmes enceintes au détriment des hommes. Bref, une multiplicité
d’interrogations de nature éthique précède l’arrivée des voitures intelligentes.
Ces problématiques prégnantes ne sont en réalité pas nouvelles car elles sont
connues depuis 1967 sous le nom de « dilemme du chauffeur de Tramway ».
Expérience de pensée utilisée en éthique, en science cognitive et en neuro-éthique,
le dilemme du Tramway a été décrit pour la première fois par la philosophe
britannique Philippa Foot. Sa finalité est de mettre à l’épreuve nos valeurs morales
et notre côté utilitariste. L’expérience au cœur de ce dilemme est la suivante.
Un tramway hors de contrôle se dirige droit vers cinq personnes entravées car
attachées à un chemin de fer. Un individu à bord de ce tramway peut éviter cette
tragédie en activant simplement un levier. En l’accomplissant, il peut dévier le
tramway de sa trajectoire en l’orientant vers une direction où se trouve néanmoins
une personne entravée dans les mêmes conditions. En agissant ainsi, l’individu
peut épargner cinq vies pour en sacrifier une. Les individus sont invités à prendre
position sur le fait de savoir si oui ou non, ils sont disposés à faire ce choix. Cette
expérience a mis en lumière le caractère utilitariste des choix effectués par
les individus interrogés. Ceux-ci dans une large proportion, c’est-à-dire à 90 %
estiment qu’il vaut mieux sacrifier une vie pour en sauver cinq.
L’ampleur des réponses affirmatives faiblit dès lors qu’on modifie certains
paramètres de la scène. Le tramway reste hors de contrôle et se dirige droit
vers cinq personnes entravées. Un individu frêle est témoin de la scène depuis
une passerelle surplombant le chemin de fer. À ses côtés, il y a un homme
212
1. Une expérience menée dans le cadre du colloque « Prospective et éthique aux frontières de
l’inconnu » organisé les 13 et 14 mars 2017.
213
pénales que cela engendre. Un choix altruiste signifierait dans ces conditions
que le passager est disposé à sacrifier sa vie au profit de celle d’autres usagers
de la route.
Quelles règles éthiques devraient contenir de tels algorithmes destinés à décider
du sort de nos vies ? Qui décidera du contenu ? Les fabricants ou les program-
mateurs ? Les propriétaires donneront-ils leur accord quant à la programmation
algorithmique de leur véhicule ? Les règles éthiques adoptées seront-elles
l’expression d’un consensus social ? Autant d’interrogations en suspens dont la
clarification relève de l’urgence.
L’Allemagne semble bien engagée dans la réflexion concernant l’éthique de la
voiture autonome. Une commission a rendu un rapport en 2017 recommandant le
primat de la vie humaine par rapport à celle des animaux. Toutefois elle proscrit
toute distinction liée aux caractéristiques de la personne comme l’âge, le sexe
ou l’état sanitaire.
En France, le Conseil d’État dans un arrêt rendu en 2014 a préconisé un meilleur
encadrement de l’utilisation d’algorithmes prédictifs à l’égard des individus en
insistant sur le principe de non-discrimination, la nécessité de la transparence
des algorithmes et le contrôle de leurs résultats.
Au-delà de ces questions éthiques, se posent aussi celles relatives à la protection
des données générées par ces voitures intelligentes. Elles collecteront en effet
non seulement les données relatives à l’environnement immédiat permettant
de fluidifier la circulation mais aussi celles concernant les trajets effectués par
les utilisateurs, les lieux fréquentés par ceux-ci, les différents passagers et leurs
habitudes. Des données strictement personnelles dont la protection s’avère
essentielle pour éviter des situations d’atteinte à la vie privée. Certains utilisa-
teurs redoutent que ces données ne facilitent la mise en place d’une surveillance
généralisée de la part des institutions publiques et qu’elles offrent aux entreprises
des moyens supplémentaires pour mener des politiques marketing agressives
en direction des consommateurs. D’autres craignent enfin que ces données
ne soient détournées à des fins malveillantes dont les risques de cyberattaque
pouvant déboucher sur des drames humains.
Les voitures autonomes sont appelées à réduire les risques d’accident, à rendre
plus agréable les déplacements des usagers mais elles n’en suscitent pas moins
des interrogations cruciales dont l’élucidation nécessitera inévitablement l’impli-
cation des usagers. ©
1. Voir l’encadré 3, page 215, consacré aux statistiques sur l’intelligence artificielle.
214
1. Ce qui suit s’inspire largement du rapport « Modeling the impact of IA on the world » publié
par le cabinet américain. Ces résultats sont le produit de simulations économétriques menées
par ce groupe d’études à partir de l’extrapolation de l’intégration de l’intelligence artificielle
par les entreprises et de ses conséquences. Cinq technologies génériques sont prises en
compte : vision par ordinateur, langage naturel, assistant virtuels, automatisation des process.
D’autres études débouchent sur les mêmes conclusions optimistes notamment celle du cabinet
Accenture. Elles tablent sur une hausse de la productivité de la main-d’œuvre redevable à
l’intelligence artificielle de l’ordre de 40 % ; le Forum économique mondial projette une
création de richesse liée à l’intelligence artificielle de 3.5 milliards de dollars d’ici 2025.
215
Selon de nombreuses projections, c’est dès 2025 que la Chine devrait affirmer
son leadership mondial dans les domaines et usages de l’intelligence artificielle.
Ses principaux atouts pour parvenir à cet objectif sont les données, des milliers
d’entrepreneurs, des ingénieurs dotés de compétences distinctives et le soutien
très actif du pouvoir politique.
Les données sont à la Chine ce que le pétrole est à l’Arabie Saoudite. L’Empire
du Milieu dispose à elle seule plus de données que les États-Unis et l’Europe
réunis. C’est une ressource d’une valeur inestimable en matière d’intelligence
216
artificielle car c’est d’elle que dépend l’efficacité des méthodes d’apprentissage
automatique ou profond. En effet plus la base de données est importante, plus les
machines apprennent, se perfectionnent et améliorent leur pouvoir de prédiction
ou d’identification.
Second atout, la Chine dispose de géants numériques capables de rivaliser avec
les GAFAM (Google, Amazon, Facebook, Microsoft) américains. Ce sont les BATX
(Baidu, Alibaba, Tencent, Xiaomi) dont l’investissement en matière d’intelligence
artificielle ne cesse de croître. À cette considérable force de frappe s’ajoute une
armée d’entrepreneurs à l’esprit qualifié par certains de gladiateurs, généralement
prête à tout pour parvenir à leurs fins.
Troisième atout, un nombre considérable d’ingénieurs en croissance exponentielle
dont certains sortent des universités chinoises. Ceux-ci renforcent la qualité de
la recherche chinoise.
Il y a enfin un soutien sans faille de l’État chinois. Celui-ci a mis en place à partir
de 2017, un plan de développement de la prochaine génération d’intelligence
artificielle. Les moyens alloués à ce plan sont au diapason des ambitions affichées :
22 milliards de dollars par an pour un budget qui devrait atteindre progressi-
vement 59 milliards en 2025. Ce plan ambitionne de faire de la Chine à l’horizon
2030, le premier centre d’innovation au monde en, intelligence artificielle avec
une industrie dédiée à ces technologies d’une valeur de 150 milliards de dollars.
Cet ambitieux programme de l’Empire du Milieu se heurte néanmoins à deux
écueils. Il y a d’abord la dépendance technologique à l’égard des États-Unis en
matière de processeurs ultraperformants dont l’intelligence artificielle dépend
étroitement. La Chine tente d’y remédier en rachetant des entreprises américaines
ou européennes. D’autre part, malgré le nombre croissant des ingénieurs sortis
des universités chinoises, l’Empire du Milieu se doit d’attirer des talents afin de
renforcer sa compétitivité dans ce domaine. Pour s’offrir les compétences de
leurs ressortissants expatriés dans la Silicon Valley, des entreprises chinoises
proposent des niveaux de rémunération équivalents
Néanmoins, ce qui dans les années à venir sera source de différence, ce ne sont
pas les technologies afférentes à l’intelligence artificielle mais plutôt l’usage
généralisé de celles-ci dans différents domaines ou métiers. Or sur ce point la
Chine avec ses milliards de consommateurs disposera d’indéniables avantages
concurrentiels.
Une fois le marché intérieur conquis, les entreprises chinoises s’attaqueront
ensuite au marché mondial. L’intelligence artificielle apparaît en définitive comme
une des clés de voûte de la conquête du monde par l’Empire du Milieu. Un
exemple qui en dit long sur l’offensive chinoise. Son opérateur Alipay comptant
près de 700 millions de clients a récemment signé pour 200 millions de dollars
un accord avec l’UEFA pour qu’il devienne son partenaire financier. Une initiative
qui le positionne avantageusement par rapport aux banques occidentales qui
ne peuvent se prévaloir d’une clientèle aussi importante.
Forte en définitive de ses nombreux atouts, la Chine occupera le devant de la
scène en matière d‘intelligence artificielle à très brève échéance, reléguant ainsi
au second rang les États-Unis puis en arrière-plan l’Europe et le Reste du Monde.
217
1. Cédric Villani est mathématicien et lauréat de la médaille Fields. Il occupe présentement une
fonction élective, celle de député affilié à la République en marche.
2. Pour une présentation du bilan de ce plan un an après, voir l’annexe de ce chapitre, page 246.
218
D’une manière générale, les pays développés capteront l’essentiel de cette manne
du fait d’un taux d’adoption plus élevé des technologies issues de l’intelligence
artificielle par rapport aux pays en développement. Les effets bénéfiques y seront
en effet plus marginaux en raison d’un niveau d’investissement en la matière peu
soutenu voire inexistant. Sans sursaut dans ce domaine, l’écart devrait se creuser
davantage entre pays pionniers ou leaders et pays retardataires.
Source d’écarts de croissance et de prospérité entre pays, l’intelligence artifi-
cielle devrait aussi impacter inégalement les entreprises ainsi que les salariés.
219
1. De son vrai nom Eric Arthur Blair, cet écrivain, essayiste et journaliste britannique a marqué la
première partie du XXe siècle grâce à une œuvre littéraire prolifique. 1984 (Nineteen Eighty-Four),
La ferme aux animaux (Animal Farm), Dans la dèche à Paris et à Londres (Down and out in
Paris and London) sont quelques-unes de ses publications passées à la postérité.
2. Les évolutions des effectifs qui sont décrites dans ce passage concernent pour l’essentiel la
France.
220
1. Les effets inégaux de l’intelligence artificielle sur les métiers s’apparentent à ce que les
économistes qualifient de progrès technique biaisé. Ce phénomène amplifie en général les
inégalités entre d’un côté les travailleurs qualifiés et de l’autre les moins qualifiés. Les premiers
voient leur situation sur le marché du travail s’améliorer du fait de la hausse de la demande
de travail qualifiée. Les autres subissent une dégradation de leur situation marquée par la
précarité.
221
1. Plusieurs études portant sur l’ampleur de destructions d’emplois liées à l’intelligence artificielle
ne débouchent pas sur les mêmes conclusions. L’étude du cabinet Mc Kinsey (2018) estime à
800 millions le nombre d’actifs qui seront victimes d’ici 2030 du processus d’automatisation.
L’Allemagne et les USA seront les pays les plus affectés. À l’inverse le cabinet Roland Berger
limite ce chiffre à 3 millions d’emplois supprimés. Enfin l’étude internationale de « Cap Gimini »
se montre plus optimiste en affirmant que les entreprises qui feront le pari de l’intelligence
artificielle créeront plus d’emplois qu’elles n’en détruiront.
222
223
1. Elon Musk est le cofondateur et le PDG de Tesla et Space X. Il est aux avants postes de
nombreux projets futuristes dont la construction de voitures autonomes, la création d’un
implant permettant à un être humain de communiquer directement avec des machines ou
des interfaces numériques. Une technologie qui permettrait par exemple à un individu de
contrôler son smartphone ou son ordinateur par la pensée.
Bill Gates est un des pionniers de la micro-informatique. Il est le fondateur de Microsoft.
Brad Smith est l’actuel directeur de Microsoft.
2. Les applications de reconnaissance faciale sont de nos jours légion. Face Net (Google),
Name Tag (Facial Network), Moment (Facebok), sont des exemples d’applications utilisant
des algorithmes de reconnaissance faciale.
224
1. Ces élus dans leur immense majorité étaient noirs. Ce logiciel a reproduit la même erreur en
confondant les photos d’athlètes afro-américains avec celles d’identité judiciaire des personnes
noires prises par la police.
225
226
227
Ce moratoire est toutefois considéré par les associations des droits individuels
comme insuffisant pour apporter des réponses à toutes les problématiques inhérentes
à cette technologie source de biais raciaux. Rekognition n’est pas le seul outil mis
à disposition de la police par le géant du Cloud. Un autre outil controversé est
l’objet de dénonciation de la part des associations. Il s’agit de la sonnette vidéo
Ring. Installée sur les portes d’entrée d’une maison, elle est censée améliorer
la sécurité de l’habitation et apporter un sentiment de sécurité aux occupants.
Munie d’une caméra, elle détecte et enregistre tous les mouvements alentours
de l’habitation. La police encourage les habitants à lui faire parvenir des extraits
de vidéos d’activités considérées comme suspectes capturées par cette sonnette.
Pour de nombreuses associations, Ring n’est qu’un outil supplémentaire au service
de la surveillance de masse pouvant conduire à des dénonciations calomnieuses
porteuses notamment de lourdes conséquences pour les minorités raciales.
Ces multiples débats et controverses témoignent, s’il en est besoin, des vives
appréhensions suscitées par cette technologie probabiliste à la fiabilité totale non
garantie. Malgré les assurances des autorités, la crainte de voir la vision prophétique
de George Orwell1 se réaliser demeure très prégnante. Une réglementation de ces
nouvelles technologies se révèle urgente afin de garantir les libertés individuelles et
d’éviter les risques de discriminations porteurs de conséquences dommageables.
1. 1984 est le titre du roman de science-fiction publié en 1949 par l’écrivain britannique George
Orwell. Pour certains, c’est l’un des plus importants romans d’anticipation. Il y décrit en effet
une Grande Bretagne confrontée à un régime dictatorial stalinien et nazi. Les conséquences
d’un tel régime s’avèrent incalculables ; la liberté d’expression est proscrite et toutes les
pensées sont soumises à une stricte surveillance. Pour éviter tout écart de conduite, des
affiches sont placardées dans les rues rappelant à chacun que « Big Brother » vous regarde.
2. Ces chercheurs sont issus des universités d’Oxford, du MITT, de Stanford…
228
229
230
et sociale en raison de leur efficacité supposée, leurs résultats n’en suscitent pas
moins controverses et débats. Une accusation est de manière récurrente mise
en exergue pour mettre en lumière leurs limites : les algorithmes seraient des
boîtes noires sources de discriminations liées au genre ou à l’origine ethnique.
Les algorithmes et l’intelligence artificielle n’apparaissent pas en effet neutres ; ils
peuvent être affectés par de nombreux biais aux effets pervers. Ces biais peuvent
avoir diverses origines ; ils peuvent être cognitifs, statistiques ou économiques.
Les biais cognitifs sont le produit des croyances ou de la perception de la réalité
de celui qui conçoit les paramètres de l’algorithme c’est-à-dire le programmeur.
Ils traduisent une distorsion de la manière dont l’information est traitée par
rapport à un comportement rationnel ou à la réalité.
Les travaux polémiques de Kosinski et Wang servent souvent d’exemple pour
illustrer le risque de biais cognitifs. Ces deux chercheurs de Stanford ont, en
2018, suscité une vive réprobation de la communauté scientifique en prétendant
avoir développé une intelligence artificielle capable de détecter l’orientation
sexuelle d’un individu à partir de son seul faciès. Des travaux sans aucun doute
davantage révélateurs de leurs propres perceptions que d’une quelconque réalité.
Les biais statistiques sont liés aux données qui nourrissent l’algorithme c’est-
à-dire celles qui lui permettent de s’entraîner dans le cadre du machine ou du
deep learning. Si ces données sont erronées ou fausses, l’algorithme produira
inéluctablement des résultats inexacts et potentiellement biaisés.
Un autre exemple témoignant de cette réalité. Il s’inspire de la mésaventure
d’Amazon en matière de recrutement. En 2015, le géant du numérique américain
avait pris le parti de recruter de nouveaux talents via un algorithme dont l’entraî-
nement s’était nourri de centaines de milliers de curriculum vitae reçus durant dix
ans. L’expérience a rapidement tourné court car il est vite apparu que l’algorithme
construit à cet effet était simplement misogyne. Il sélectionnait en effet majori-
tairement des hommes au détriment des candidates. Cette discrimination était
somme toute le fruit des données utilisées par l’algorithme dans le cadre de son
entraînement. Celles-ci s’avéraient totalement déséquilibrées entre hommes et
femmes. Les recrutements passés étant essentiellement masculins, l’algorithme
attribuait automatiquement de mauvaises notes aux curriculum vitae des femmes.
Vivement décrié Amazon a dû renoncer à ce mode de recrutement discriminatoire.
Ces dérapages algorithmiques ne peuvent occulter les bienfaits de l’intelligence
artificielle. Ils suggèrent de fait la nécessité de corriger ces biais afin que les
algorithmes ne contreviennent pas au principe d’équité entre les individus. Pour
y parvenir une transparence s’impose concernant le mode de fonctionnement de
ces outils. Comprendre les tenants et les aboutissants des décisions algorithmiques
est un objectif cardinal. Cependant dans bien des cas, examiner un algorithme
revient à en percer les failles d’où les réticences exprimées par les concepteurs
dès lors qu’il s’agit de secret industriel.
Les algorithmes mobilisés par les pouvoirs publics n’échappent pas aux risques
de biais et donc de discriminations. L’exemple le plus emblématique est celui
d’APB (Admission Post-Bac), un algorithme adopté par l’Éducation nationale
à partir de 2009 dans le but de faciliter et de fluidifier l’appariement entre les
vœux formulés par les élèves de terminale et les places disponibles dans l’ensei-
gnement supérieur.
231
232
233
1. Voir l’encadré 6, ci-après, consacré aux débats sur cette problématique essentielle.
234
L’arrivée dans les années à venir des voitures autonomes sur nos routes et l’impli-
cation croissante des algorithmes ou des robots dans les prises de décisions
dans de nombreux secteurs de la vie sociale posent avec acuité le problème de
la responsabilité civile des systèmes intelligents en cas de dommages causés
à un tiers.
Pourvus d’une perception, d’un raisonnement et de capacités d’action, ces
systèmes peuvent-ils pour autant avoir le bénéfice de la personnalité juridique
au même titre que les humains ?
Cette problématique plus que centrale suscite débats et controverses tant les avis
sur la question sont tranchés. Pour le Parlement européen, il n’y a pas de doute.
Donner aux robots un statut juridique constitue une indéniable avancée dans la
mesure où cela leur donnerait la possibilité d’être assurés individuellement et
d’être tenus responsables en cas de dommages faits à des personnes ou à des
biens. Cette volonté du législateur européen a été affirmée dans une résolution
du 16 février 2017 dans laquelle celui-ci demande aux États membres « la création
d’un statut juridique spécifique aux robots afin que les plus sophistiqués puissent
être considérés comme des personnes électroniques responsables tenues de
réparer tout dommage causé à un tiers ». Bénéficierait du statut de personne
électronique tout robot susceptible de prendre des décisions autonomes ou en
situation d’interaction indépendante avec des tiers.
Pour les partisans de cette évolution juridique parmi lesquels figurent les fabri-
cants de robots, l’adoption d’un tel statut a l’avantage de mettre à pied d’égalité
l’intelligence artificielle avec les sociétés lesquelles bénéficient du statut de
personnes morales devant les tribunaux du monde entier.
Cette initiative du parlement européen ne fait pas l’unanimité, loin s’en faut.
D’une part, le comité économique et social européen s’est insurgé contre la
reconnaissance de toute forme de personnalité juridique aux robots sous le
prétexte que cela constituerait une menace pour une démocratie directe, ouverte
et équitable. D’autre part, un groupe d’experts (spécialistes en intelligence artifi-
cielle, juristes, industriels) de plusieurs pays membres de l’Union européenne s’est
publiquement prononcé contre via la publication d’une lettre ouverte. Conférer
un statut juridique aux robots relève d’une simple hérésie selon eux. Un tel choix
ajoutent-ils traduit la volonté de déresponsabiliser les constructeurs de robots ;
ceux-ci pourraient alors se dédouaner de la responsabilité des actions de leurs
machines et des dommages qu’elles pourraient causer. Doter les robots d’une
personnalité juridique pose aussi des problèmes éthiques et juridiques. Ceux-ci
pourraient en effet prétendre à des droits humains comme le droit à la dignité,
à l’intégrité, à la rémunération ou enfin à la citoyenneté. Une perspective de fait
inenvisageable car en totale contradiction avec la Charte des droits fondamentaux
de l’Union européenne, la Convention de protection des droits humains et les
libertés fondamentales.
Cette évolution juridique est selon ce groupe d’experts trop hâtive car en l’état
actuel des avancées en matière d’intelligence artificielle, les robots dotés d’une
intelligence similaire à celle des humains et capables de prendre des décisions
de manière autonome sont encore loin d’exister. La volonté de doter les robots
L’intelligence artificielle ne doit pas en définitive être une fin en soi. Ses progrès
spectaculaires doivent d’abord être au service des Hommes et de la planète. Pour
garantir ses finalités bienfaitrices, il est nécessaire de définir quelques principes
éthiques susceptibles d’inspirer des cadres légaux et moraux dans lesquels l’intelli-
gence artificielle doit se développer. Il s’agit d’abord de l’importance de la transpa-
rence au niveau des systèmes intelligents. Cela implique la nécessité de comprendre
les raisons des choix opérés par ceux-ci.
La transparence est donc une condition cardinale à l’acceptabilité sociale des
systèmes d’intelligence artificielle et de la confiance nécessaire pour qu’ils se
développent et perdurent. La compréhension des algorithmes ne doit pas être le
privilège exclusif de leurs concepteurs. L’intelligence artificielle ne doit pas être
une boîte noire échappant à toute compréhension et à tout contrôle social et
politique. Son auditabilité est une nécessité démocratique dès lors qu’elle devient
omniprésente dans la vie économique et sociale. La constitution d’un groupe
d’experts, comme le préconise le rapport « Villani », est une voie envisageable
car il permettrait des audits d’algorithme, des bases de données et de procéder à
des tests par tous les moyens requis. En cas de contentieux judiciaires des experts
assermentés pourraient être saisis par les tribunaux ou par le défenseur des droits.
L’intelligence artificielle doit être aussi inclusive. Elle ne peut donc avoir pour
vocation d’exclure des Hommes. Ainsi, l’origine ethnique, le genre, l’âge et l’orien-
tation sexuelle ne doivent pas être des facteurs ou des critères discriminants. En
d’autres termes, l’intelligence artificielle ne doit pas être le refuge de tous les préjugés
négatifs sources de discriminations de certains êtres humains. La réalisation de cet
objectif implique la sensibilisation aux questions éthiques de tous les acteurs au
cœur de cette technologie. Il s’agit des chercheurs-ingénieurs qui conçoivent ces
technologies et des entrepreneurs qui se chargent de leur développement et de
236
leur commercialisation. Ceux-ci doivent donc intérioriser des normes et des valeurs
centrées sur l’équité et l’égalité. Cela implique l’inscription dans leurs parcours
scolaires et universitaires des enseignements en rapport avec ces problématiques.
Les systèmes d’intelligence artificielle doivent se conformer au droit existant c’est-
à-dire respecter les lois qui garantissent le respect de la vie privée des personnes.
Celles-ci doivent avoir la possibilité de préserver la maîtrise de leurs données
personnelles dont l’utilisation peut à rebours leur être dommageable.
Le développement de l’intelligence artificielle ne peut se faire au détriment de
l’environnement. Il doit plutôt renforcer la durabilité et la responsabilité écologiques.
Une intelligence artificielle bienfaitrice ne peut être au service de la course aux
armements. L’apparition d’armes létales autonomes, notamment de robots tueurs1,
doit être proscrite. Il en est de même de la cyberguerre. Ce sont des évolutions
nuisibles, susceptibles de fragiliser la paix dans le monde et de favoriser, selon
Elon Musk, la disparition de la civilisation humaine.
En conclusion, pour éviter certaines dérives, il convient de s’en remettre aux
« lois de la robotique » énoncées par l’écrivain Isaac Asimov2. La première loi
stipule qu’un robot ne peut porter atteinte à un être humain, ni en restant passif,
ni en permettant qu’un être humain soit exposé au danger. La seconde indique
qu’un robot doit obéir aux ordres qui lui sont donnés par un être humain sauf si de
tels ordres entrent en conflit avec la première loi. Enfin la troisième précise qu’un
robot doit protéger son existence tant que cette protection n’entre pas en conflit
avec la première ou la deuxième loi.
237
MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE
18/11/2020 09:10
046092.indd 239
MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE
18/11/2020 09:10
046092.indd 240
MATCHING ou
CONNAISSANCES PRÉDICTION RECOMMANDATION AIDE À LA DÉCISION
CORRESPONDANCE
18/11/2020 09:10
Lexique
Lexique
241
Big Data : Cette expression apparue pour la première fois en 1997 vise à
désigner l’immensité des données générées par le développement du
numérique. Selon l’analyste Doug Laney trois principes sont au cœur du
big data. Il s’agit des 3 V : le Volume des données, la Variété des données,
la Vélocité du traitement. Le volume des données renvoie au caractère
Lexique
242
lyser celui-ci pour en détecter les failles en matière de sécurité afin de les
corriger. Un programme dont le code source est public est ainsi sécurisé
par une collectivité veillant à sa sécurité.
Data mining : Technique permettant d’analyser les données du big data afin
d’en déduire de possibles corrélations.
Données personnelles : Il s’agit de toute information permettant d’identifier
directement ou indirectement toute personne physique. Le nom, le prénom,
l’ADN, la photo d’un visage, le numéro de sécurité sociale, le numéro de
téléphone sont des données contribuant à l’identification directe d’un individu.
Le traitement de ces informations est soumis à la loi Informatique et Libertés
et au RGPD.
Corrélation et causalité : Sources de confusion ces deux notions sont en effet
distinctes. La notion de corrélation désigne un lien statistique entre deux
variables. Par exemple, le sentiment d’intégration sociale et le niveau de
diplôme. L’existence de ce lien peut être cependant le fruit d’un simple
hasard ou d’une coïncidence. Pour qu’une corrélation se transforme en
causalité, l’on doit d’abord savoir le sens de causalité c’est-à-dire laquelle
des deux variables détermine l’autre. On doit aussi s’assurer de l’inexis-
tence d’autres variables non observées de nature à expliquer la corrélation
observée.
Éthique : Elle renvoie à toutes les questions s’articulant autour de la place
de l’homme face aux évolutions technologiques liées au développement
du numérique. Ces technologies disruptives vont-elles dans le sens des
intérêts des hommes ou se déploient-elles au profit d’intérêts particuliers ?
Autant d’interrogations de nature éthique qu’accompagne l’évolution de ces
technologies. L’éthique pose aussi la question de la confiance à accorder
à ces technologies ainsi que la transparence qui doit les caractériser afin
qu’elles puissent bénéficier d’une meilleure acceptabilité.
Explicabilité : Processus visant à rendre compréhensible par les humains les
résultats tirés d’un système d’intelligence artificielle. L’objectif est de rendre
moins opaques les décisions découlant de l’utilisation des algorithmes afin
d’améliorer leur acceptabilité.
GAFAM : Acronyme désignant les principaux géants américains du numérique,
Google, Apple, Facebook Amazon et Microsoft. Ces entreprises se singu-
larisent par le fait qu’elles détiennent plus de la moitié des 10 plus grandes
capitalisations boursières. Apple est ainsi la première entreprise à voir sa
Lexique
243
244
Lexique
245
Annexe
246
Bibliographie
CARDON Dominique, À quoi rêvent les algorithmes : nos vies à l’heure du big
data, Seuil, 2015.
CNIL : « Rapport sur les enjeux éthiques des algorithmes et l’intelligence
artificielle », 2017.
Comité économique et social européen : « Intelligence artificielle et impact sur
le travail », 2018.
FRANCE IA : « France IA. Rapport de synthèse », 2017.
247
248
Quelles perspectives
pour les crypto-monnaies ?
1. On doit à Jude Milhon, une des grandes figures de cette communauté, la création du mot
cypherpunk. Il voulait ainsi faire référence au cyberpunk, courant de science-fiction mettant
en scène une société technologiquement avancée dans les sciences de l’information. Les
racines de cette communauté sont finalement anarchistes car remettre en cause l’ordre établi
est un de leurs chevaux de bataille.
249
A. De multiples influences
1. En 1984, Hayek déclarait « Je ne crois pas au retour d’une monnaie saine tant que nous
n’aurons pas retiré la monnaie des mains de l’état ; nous ne pouvons pas le faire violemment ;
tout ce que nous pouvons faire, c’est par quelque moyen indirect et rusé, introduire quelque
chose qu’il ne peut stopper ». La création du Bitcoin répond à cette aspiration.
2. Il s’agit en réalité d’un collectif composé de spécialistes de haut vol en cryptographie, en
informatique et en mathématiques. L’article fondateur qui décrit le fonctionnement de la
Blockchain et de la crypto-monnaie Bitcoin s’intitule « Bitcoin : A Peer to Peer Electronic Cash
system »
250
Elle traduit le défi de taille que la Blockchain a permis de résoudre afin qu’émerge
enfin une monnaie numérique. Cette métaphore pose le problème de la fiabilité
des informations circulant dans un réseau décentralisé sans tiers de confiance.
Celles-ci peuvent s’avérer erronées, incohérentes ou simplement malveillantes.
Comment dans ce contexte s’assurer que deux nœuds du réseau peuvent commu-
niquer en toute sécurité ? La métaphore des généraux byzantins traduit cette
difficulté tout en apportant une solution. En voici le contexte.
251
Les généraux de l’armée byzantine font le siège d’une ville ennemie. Ils doivent
impérativement établir un plan de bataille en vue d’une attaque coordonnée afin
de s’emparer de la ville. La communication entre eux s’effectue par le biais de
messagers. Or parmi ceux-ci figurent des traites susceptibles de semer la confusion
en transmettant des messages erronés. Pour que le plan de bataille émerge, il
faut trouver un algorithme permettant aux généraux loyaux de s’accorder sur
celui-ci. Compte tenu du contexte, ce problème des généraux byzantins peut
être résolu à la condition expresse que plus des deux tiers des messagers ou
généraux soient loyaux. Un seul général traite ne peut dans ce cas corrompre
que deux généraux loyaux.
Appliqué au domaine de l’informatique, le problème des généraux byzantins
signifie qu’aucun ordinateur d’un réseau décentralisé ne peut garantir entiè-
rement et irréfutablement que les données qu’il affiche sont les mêmes que celles
affichées par les autres. Fiabiliser les données ou les informations circulant entre
les nœuds du réseau implique de parvenir à un consensus. Celui-ci est atteint dans
un réseau peer to peer si les nœuds fidèles ou non défaillants parviennent à un
accord unanime sur leur décision. Pour exclure des nœuds de type byzantins, il
faut que tout message entrant soit répété aux autres destinataires de ce message
entrant. La répétition des messages permet de fiabiliser le réseau et l’information
en circulation. Appliquée à la Blockchain, la solution à toute défaillance byzantine
réside dans la mise en œuvre d’un mécanisme d’incitation économique reposant
sur deux principes. Le premier consiste à rendre extrêmement coûteuse la fraude
ou la défaillance byzantine. Le second implique que le coût doit être consenti
avant chaque transaction en raison de l’impossibilité d’imposer des pénalités a
posteriori. La validation des transactions conduit donc les mineurs à consentir
un coût en amont et ce par le biais de la mobilisation de leur puissance de calcul
au service de la résolution d’un problème cryptographique. ©
252
B. Le fonctionnement de la Blockchain
253
1. Une fonction de hachage transforme n’importe quelle donnée numérique en une suite de
caractères appelée Hash représentant une empreinte cryptographique. Deux caractéristiques
sont spécifiques à cette fonction. Elle est d’une part non réversible c’est-à-dire qu’il est impos-
sible de retrouver la donnée initiale à partir du Hash final. À l’inverse, il est possible de vérifier
si une empreinte est effectivement le Hash d’une donnée spécifique. Pour ce faire, il suffit de
procéder à un nouveau Hash de la donnée et de procéder à la comparaison des deux Hashs
qui doivent être identiques. La moindre modification de la donnée initiale débouche sur une
modification radicale du Hash.
254
Figure 4 : Les différentes étapes de validation des transactions dans une Blockchain
255
La validation des blocs est une prérogative revenant aux mineurs (référence
faite aux chercheurs d’or) qui sont au demeurant des utilisateurs du réseau. Une
fois validés, les Blocks sont communiqués à l’ensemble des membres du réseau
qui les enregistrent sur un registre virtuel contenant l’historique de toutes les
transactions passées. L’actualisation du registre est permanente et se fait de manière
instantanée. Cela confère à la Blockchain un caractère indestructible. La validation
des blocs est une opération essentielle car elle permet de sécuriser le système en
se prémunissant des risques d’attaques malveillantes. La sécurité du système est
renforcée par la confiance mutuelle que se font les utilisateurs. Ces derniers se
contrôlent et se surveillent donc mutuellement.
C’est la méthode dite de consensus qui généralement permet la validation des
blocs. Dans le cas du Bitcoin, la validation d’une transaction intégrée à chaque
bloc implique la réussite d’une épreuve cryptographique appelée minage. Celle-ci
se répète toutes les 10 minutes.
En cas de validation de deux blocs en même temps, les mineurs peuvent opter
pour l’un ou l’autre des deux blocs. Deux chaînes se développent alors parallè-
lement mais le protocole prévoit alors que seule subsiste la Blockchain la plus
longue, c’est-à-dire celle adoptée par la majorité des utilisateurs.
Chaque bloc validé donne lieu à rémunération, donc à l’émission de nouveaux
Bitcoins. Au moment du lancement de cette crypto-monnaie, chaque bloc validé
était assorti d’une rétribution de l’ordre de 50 Bitcoins et ce jusqu’en 2012.
Depuis cette date, la rémunération est diminuée de moitié tous les 210 000 blocs
validés (tous les 4 ans en somme). Elle est de 6.5 Bitcoins depuis le début de
l’année 2020.
256
1. La difficulté de création des Bitcoins devrait aller croissant. Pour illustrer les difficultés auxquelles
l’activité de minage expose les mineurs on peut s’en tenir à l’exemple suivant. Pour une
difficulté de minage initialement fixée à 0 au moment du lancement de la cryto-monnaie, au
mois de juin 2016, elle était évaluée à 200 milliards ; l’ampleur des difficultés requiert des
machines dotées d’une puissance de calcul considérable. Des sociétés de cloud mining ont
ainsi vu le jour, elles sont destinées à vendre de la puissance de calcul aux mineurs.
257
1. En théorie, la possibilité est offerte à tout individu de devenir mineur. Il suffit pour cela de
mettre à disposition du réseau la puissance de calcul de son ordinateur. Simple activité de
loisirs à l’origine, le secteur du minage a rapidement évolué en devenant une véritable industrie
professionnelle et très capitalistique.
2. 67 % des pools de minages sont implantés en Chine suivis des USA qui en accueillent 15 %.
4 pools chinois concentrent à eux seuls 52 % de la puissance de minage du Bitcoin.
258
Source : Coindesk
1. Une opération d’ICO se divise en trois phases. La première consiste à annoncer l’ICO sur
Internet, via la large publication des grandes lignes du projet. La seconde phase définit les
caractéristiques de l’offre, en précisant la nature du projet, le montant des fonds nécessaires
au financement de celui-ci et les droits associés aux investisseurs. La vente des jetons intervient
dans la dernière phase. En échange d’un virement en crypto-monnaie, l’investisseur reçoit
des jetons ou Tokens.
259
1. Au Honduras, 60 % du territoire n’est pas répertorié par l’État. Pour mettre fin aux interven-
tions frauduleuses de la part de certaines autorités, Le Honduras a fait appel à des entreprises
spécialisées pour développer un registre de propriété sur une Blockchain permettant de mettre
fin aux atteintes frauduleuses au cadastre. D’autres pays comme le Ghana ont annoncé des
investissements dans des infrastructures Blockchain afin de sécuriser leur registre de propriété.
261
18/11/2020 09:10
I. La Blockchain une innovation disruptive au cœur des crypto-monnaies
La Blockchain de par ses propriétés favorise en effet le suivi de façon très fiable
des informations portant sur la certification ou de toute information concernant
les produits tout au cours de la chaîne d’approvisionnement. Chaque produit se
voit ainsi doté d’un passeport digital permettant de l’authentifier et d’attester de
son origine. Les problèmes de contrefaçons, de fraudes aux certifications peuvent
être résolus par ce biais. Il peut aussi en résulter une baisse des coûts de suivi et
d’authentification.
La start-up ThingChain s’est inspirée de la Blockchain pour mettre en œuvre
son projet de traçabilité des produits alimentaires. Grâce à un QR-Codes appelé
Pop Codes (Proof-of-Provenance), elle garantit le parcours et la transformation d’un
bien tout au long de la chaîne logistique. C’est ainsi qu’à tout produit est affecté
un Pop Code servant d’identifiant digital unique. Celui-ci permet d’indiquer toutes
les caractéristiques d’un produit à savoir, l’unité de mesure, le poids, l’origine, la
date de fabrication, etc. Inscrites dans la Blockchain, ces informations deviennent
inviolables et infalsifiables. La mise à jour de celles-ci peut se faire grâce au jeu
de clés publiques/privées.
Au vu de ces exemples, il apparaît clairement que le champ des possibles
associé à cette technologie est illimité. En alliant sécurité, décentralisation et
transparence, la Blockchain redonne au client et au citoyen électeur du pouvoir
tout en permettant l’émergence de nouveaux acteurs.
263
264
Un pays, l’Islande, est devenu depuis une terre d’accueil des mineurs en raison
des conditions singulièrement attractives en matière de production de crypto-mon-
naies. En effet, son énergie géothermique bon marché et 100 % renouvelable
permet d’offrir le kWh (hors taxe) à un prix deux fois moins cher que celui en
vigueur dans le reste de l’Union européenne. La température moyenne annuelle
sur l’île est de 5 degrés, niveau de température permettant d’éviter la surchauffe
des ordinateurs, limitant ainsi mécaniquement la consommation énergétique et
les atteintes à l’environnement.
L’amélioration du bilan carbone de la Blockchain Bitcoin relève d’une impérieuse
nécessité écologique. Diverses propositions sont formulées pour ce faire. Celle
consistant par exemple à récupérer la chaleur dissipée par les ordinateurs des
mineurs pour l’utiliser à des fins de chauffage des ménages.
L’utilisation d’énergie plus verte est une piste largement préconisée ainsi que
des alternatives à la preuve de travail, source principale de cette consommation
énergivore1. La preuve d’enjeu, la preuve de capacité ou la preuve de destruction
sont autant d’alternatives envisagées mais tous ces systèmes ne sont pas assez
matures technologiquement pour se substituer comme méthode de consensus à
la preuve de travail2.
1. Une initiative française connue sous l’appellation BART (Blockchain Advanced Research and
Technology) tente de relever ce défi. Ce projet lancé en 2018 par Télécom Paris Sud, Télécom
ParisTech tente d’établir des méthodes de consensus de validation moins consommatrice
s’appuyant sur des supports cryptographiques robustes.
2. La preuve d’enjeu consiste à attribuer la validation de chaque bloc de manière aléatoire à un
utilisateur, selon une probabilité indépendante de la capacité de calcul des mineurs. Quant à
la preuve de capacité, elle consiste à mettre en gage de l’espace disque tandis que la preuve
de destruction revient à détruire des crypto-monnaies afin d’obtenir la confiance du réseau.
Ces méthodes de consensus sont néanmoins moins certaines et présentent notamment le
risque de centralisation contraire à l’esprit de Bitcoin.
265
Les appareils utilisés dans le cadre des opérations de hachage sont rapidement
frappés d’obsolescence car soumis à un rythme de remplacement accéléré au profit
de versions plus performantes. Ainsi se retrouvent rapidement au rebut des millions
d’appareils non recyclés d’où un gaspillage de ressources difficilement soutenable.
266
267
1. Les crypto-monnaies sont souvent soumises à un processus d’évolution qui les conduit à se
transformer ou à se multiplier. Ce phénomène est qualifié de « forks », il désigne la scission
d’une Blockchain donnant naissance à deux nouvelles chaînes partageant le même historique
mais opposées sur leur évolution future.
268
1. Des précisions sont apportées dans la partie réservée aux diverses applications de la Blockchain.
269
méthode de consensus accorde en effet la validation des blocs aux mineurs qui
acceptent de mettre en gage les avoirs en crypto-monnaies qu’ils détiennent. Ces
validateurs sont ainsi dotés de pouvoirs au diapason de leurs dépôts.
La gouvernance est aussi problématique. Le consensus nécessaire au sein de
la communauté des mineurs concernant les évolutions à réaliser par la plateforme
est difficile à établir. C’est en raison des divergences intervenues au niveau de leur
gouvernance respective que les communautés Bitcoin et Ethereum ont été victimes
de scission. Celle de Bitcoin a débouché sur l’avènement de Bitcoin Cash tandis
que celle d’Ethereum a donné naissance à Ethereum Classic.
Bitcoin Cash circule depuis 2017, sa naissance est donc la conséquence d’un
désaccord au niveau de la taille des blocs. Ceux favorables à l’augmentation de
la taille des blocs ont fait le choix de la dissension en créant Bitcoin Cash dont les
blocs de transaction peuvent contenir jusqu’à 8 mégaoctets (contre 1 mégaoctet
pour le Bitcoin). Cela confère au système Bitcoin Cash une capacité de traitement
des transactions plus élevée. En terme de capitalisation boursière, Bitcoin cash
occupe le 6e rang.
Concernant l’Ethereum Classic, son début de circulation remonte à 2016. Il est
la conséquence d’un piratage du réseau. Cet acte criminel a ainsi débouché sur
le détournement d’une somme équivalente à 50 millions d’euros soit 3.6 millions
d’Ether. Les acteurs du réseau hostiles à toute modification du protocole à des fins
de sécurisation ont préféré faire sécession en créant Ethereum Classic. À l’inverse
de Bitcoin Cash, Ethereum Classic bénéficie d’une moindre valorisation marchande.
Un Ethereum Classic vaut à peine une dizaine d’euros
Capitalisation totale
Prix unitaire
Nom Symbole au 27 août 2020
en euros
(en millions d’euros)
270
Capitalisation totale
Prix unitaire
Nom Symbole au 27 août 2020
en euros
(en millions d’euros)
1. Le choix de ce nom fait à la fois référence à la livre romaine, une unité de mesure du poids
sous l’empire Romain. C’est aussi le sigle de la livre sterling britannique et le signe astrologique
de la balance symbolisant à la fois l’équité et la justice.
2. 1,7 milliard de personnes soit 31 % de la population adulte sont exclus des services bancaires.
Ces personnes ne disposent d’aucun compte auprès des institutions financières et n’ont
aucune possibilité de transférer de l’argent. Elles résident pour la plupart dans les pays en
développement souvent peu bancarisés.
271
volatilité. L’objectif est d’éviter que cette nouvelle crypto-monnaie s’inscrive dans le
sillage de ses prédécesseurs devenus des instruments au service de la spéculation.
Les devises permettant d’acquérir Libra serviront de garantie et de réserve ainsi
que les dépôts bancaires et les titres gouvernementaux à court terme. La valeur
d’une Libra par rapport aux autres devises dépendra ainsi de la fluctuation de ses
actifs sous-jacents. À l’instar de ceux-ci, Libra devrait être une devise numérique
mondiale combinant de multiples attributs positifs : stable, moins inflationniste,
grande acceptabilité et fongible.
L’obtention de Libra se fera sur des plateformes spécialisées dans la vente de
crypto-monnaies comme Coinbase. Des points physiques de dépôts et de retraits
verront le jour sur la base de partenariats.
Conçue pour être accessible à tous les citoyens du monde quel que soit leur
lieu de résidence, Libra sera convertible en devise locale et utilisée comme moyen
de paiement. L’application Calibra, un portefeuille virtuel développé par Facebook
jouera le rôle de facilitateur de ces opérations de conversion ou de transfert.
Comme toute crypto-monnaie, la Libra s’appuiera sur la technologie Blockchain.
Celle de Libra se singularisera par sa flexibilité afin de faciliter l’intégration de
nouvelles innovations en matière de services financiers. Elle se différenciera aussi
par le fait qu’elle ne sera pas ouverte. Seuls les membres fondateurs auront le
pouvoir d’accès à celle-ci. Ce choix d’un cercle fermé se justifie par la nécessité
d’assurer davantage de transactions par seconde et de restreindre la consom-
mation énergétique.
Autre particularité de la Blockchain Libra, elle ne sera pas à l’image des autres
crypto-monnaies c’est-à-dire un ensemble de blocs de transactions mais une structure
de données unique enregistrant l’historique des transactions et états au fil du temps.
Une telle structure présente l’avantage de permettre une lecture instantanée de
toutes les données ainsi que la vérification de l’intégrité de celle-ci. La Blockchain
s’appuiera sur un nouveau langage de programmation, le Move. Conçu pour
éviter le clonage des actifs, ce programme vise à sécuriser les transactions de la
Blockchain. Une transaction liée à un paiement ne peut modifier que les soldes
des parties prenantes à la transaction. À chaque transaction est donc associé un
code unique fourni par Move.
Le protocole de consensus choisi pour la validation des transactions est l’approche
BFT. Celle-ci permet d’une part de renforcer la confiance envers le réseau et d’autre
part d’offrir un débit de transaction élevé, une faible latence et une méthode de
consensus plus économe en énergie comparativement à la preuve de travail choisie
par d’autres crypto-monnaies.
Pour mener à bien ce projet, une association Libra est créée c’est-à-dire une
organisation indépendante à but non lucratif basée à Genève. Elle est constituée
des membres fondateurs, d’organisations à but non lucratif et multilatérales et
d’autres adhérents venus d’ici son lancement.
272
1. David Marcus, un des cadres de Facebook chargé du projet Libra a affirmé devant le sénat
américain au début du mois d’octobre 2019 que, « pour le moment, il n’y avait aucune
raison d’envisager le partage des données entre Libra et Facebook ». Est-ce à dire que cette
séparation pourrait être remise en cause en fonction des intérêts de Facebook ? Certains
observateurs pointent du doigt le risque de patrimonialisation des données par le leader des
réseaux sociaux. Le groupe pourrait être tenté d’octroyer des Libras en échange de données
personnelles.
273
274
Libra serait par ailleurs en cas d’adoption une monnaie globale détenue par
un seul acteur ayant à son actif plus de 2 milliards d’utilisateurs. Toute défaillance
dans le fonctionnement de cette monnaie, notamment dans la gestion de ses
réserves, pourrait créer des désordres financiers considérables. On ne peut écarter
le risque d’une panique bancaire en cas de chute du prix des actifs du portefeuille
Calibra à la suite d’une remontée des taux d’intérêt par exemple. L’émetteur de
la monnaie ne pourrait être en mesure de racheter toute la Libra en circulation
d’autant plus que le système ne bénéficie d’aucune garantie et d’aucun prêteur
en dernier ressort.
Les marchés financiers pourraient aussi souffrir de cette crypto-monnaie via
la création d’un réseau financier parallèle. Il en est de même des États dotés de
monnaie faible qui pourraient voir la Libra se substituer à leurs monnaies mettant
ainsi en cause la souveraineté de ceux-ci. C’est le cas notamment de certains pays
en développement notamment ceux d’Afrique subsaharienne dotés d’un faible
taux de bancarisation où l’avènement de Libra pourrait conduire les populations
locales à abandonner les monnaies qui ont cours légal au profit de paiements
dématérialisés via les téléphones portables1. La perte du contrôle de la monnaie
275
amplifierait les difficultés en cas de crise grave. La crise argentine du début des
années 2000 a mis en lumière les risques liés au processus de dollarisation et
préfigure de ce qui pourrait advenir en cas de crise de la Libra.
Cette monnaie privée pourrait selon les banquiers centraux rendre moins lisibles
et moins efficaces les politiques monétaires. En effet si la plupart des usagers de
Facebook adoptent la Libra pour une partie de leurs transactions en ligne, les États
risquent de perdre le contrôle sur une partie non négligeable des flux financiers.
La perte d’informations sur ces flux risque de rendre difficile la détermination de
la politique monétaire à mettre en œuvre.
Obstacle à la lisibilité des politiques monétaires, Libra pourrait aussi porter
atteinte aux libertés individuelles. Sa large adoption ferait en effet du portefeuille
Calibra un véritable panoptique financier à l’intérieur duquel seraient observables
toutes les actions de la vie économique et sociale d’un individu sans qu’il puisse avoir
la possibilité de s’en extraire. Facebook se transformerait ainsi en « Big brother ».
Concernant les autorités européennes, elles ne font pas mystère de leurs désap-
probations. Elles redoutent en effet que Libra contrevienne aux règles anticoncur-
rentielles en vigueur en Europe. Ces craintes résultent du fait que Libra est portée
par une association de 28 opérateurs de renom, les échanges entre ses membres
peuvent porter atteinte aux marchés respectifs de ces acteurs en les dotant d’un
fort avantage concurrentiel. Les mêmes appréhensions existent aux États-Unis où
Facebook fait face à de nombreuses enquêtes menées par le ministère de la Justice
américaine. Le réseau social de Mark Zuckerberg est au cœur d’une enquête pour
abus de position dominante menée dans 45 États américains. Celle-ci vise à déter-
miner si la position dominante de ce mastodonte du numérique a respectivement
étouffé la concurrence, mis en danger les données des consommateurs, limité le
choix de ceux-ci et incité les annonceurs à payer davantage.
Impliqué dans différents scandales et en proie à des démêlées judiciaires, le
réseau social nourrit des doutes sur sa capacité à protéger les données de ses
utilisateurs et par conséquent à se poser en tiers de confiance capable d’assurer en
toute sécurité et confiance les transactions de ses utilisateurs1. L’un des scandales qui
a entaché la réputation de Facebook est celui impliquant une entreprise britannique
du nom de Cambridge Analytica. Spécialisée dans la communication stratégique,
elle est accusée d’avoir utilisé indûment les données personnelles de 50 millions
d’utilisateurs pour élaborer un logiciel permettant de prédire et d’influencer le vote
des électeurs lors de la campagne présidentielle américaine et celle concernant
le Brexit. L’intervention de cette société s’est révélée décisive dans l’issue de ces
différents scrutins. Ce scandale a conduit les eurodéputés à réclamer l’interdiction
s’est mué en moyens de paiement d’une multitude de services dont les impôts. 70 % de la
population adulte au Kenya a accès à ce service dont la démocratisation a contribué à faire
baisser le taux d’exclusion financière.
1. L’idée d’un démantèlement des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et
singulièrement de Facebook semble faire son chemin. C’est la sénatrice Elisabeth Warren,
ancienne candidate à l’investiture démocrate à l’élection présidentielle américaine de 2020
qui en a fait son cheval de bataille. Il existe des précédents en la matière. La Standard Oil en
1911 et ATT furent démantelés. Microsoft y a échappé au début des années 2000.
276
du profilage à des fins publicitaires. Ces différentes tribulations ont provoqué des
défections de quelques membres de l’association Libra. Sept des 28 membres ont
en effet quitté l’aventure. Paypal a été le premier à l’annoncer puis d’autres se sont
rapidement engouffrés dans la brèche, Visa, MasterCard, eBay, Strip, Mercado Pago
et enfin Booking. Aucune raison officielle n’a été évoquée pour justifier ces départs
précoces mais il semblerait que ces différentes sociétés ont subi des pressions de
nature politique de la part de parlementaires américains. Dans une lettre servant
de mise en garde envoyée à certains d’entre eux, il est fait mention de ce qui suit
« Vous deviez être inquiets que toute faiblesse dans le système de gestion des
risques de Facebook devienne une faiblesse dans vos propres systèmes et que
vous ne puissiez peut-être pas l’atténuer efficacement ».
277
278
1. Le stablecoin désigne un type de crypto-monnaie dont la valeur est stable. Cette stabilité
résulte de l’adossement de la monnaie numérique à des devises qui ont cours légal à l’instar
de l’euro, du yen ou du dollar. Certains stable coins sont adossés à des matières premières
comme l’or ou le pétrole. Ils ont pour vocation de réduire la volatilité, les frais de conversion
et la taxation.
2 La circulation de la monnaie fiduciaire est particulièrement en recul en Suède. Entre 2008
et 2018, l’utilisation des espèces a baissé de 50 %. Une baisse qui s’explique notamment par
le fait que de nombreux commerçants refusent les paiements en espèces.
279
280
Depuis Aristote, on considère en effet qu’une monnaie doit remplir trois fonctions
principales. Elle doit servir simultanément d’intermédiaire des échanges, d’unité
de compte et de réserve de valeurs1. Pour nombre d’économistes, les crypto-mon-
naies, dont le Bitcoin, remplissent imparfaitement ces fonctions.
Concernant la première fonction, elle est effective lorsque la monnaie sert
d’intermédiaire et de facilitateur des échanges, en somme lorsqu’elle peut être
échangée contre des biens ou des services. C’est la plus importante des fonctions
car elle conditionne les deux autres. Certaines crypto-monnaies à l’instar du Bitcoin
semblent l’assumer. En effet, un nombre croissant de commerces en ligne affiche
leurs prix en crypto-monnaie et est de ce fait disposé à l’accepter comme moyen
de paiement. Ce constat mérite toutefois d’être relativisé car l’utilisation du Bitcoin
comme moyen de paiement reste marginale. Peu de consommateurs mobilisent
cette crypto-monnaie dans leurs achats quotidiens. Son usage s’avère plus courant
lors d’achat de logiciels et de matériels informatiques en rapport avec cette crypto-
monnaie. Son poids dans les transactions se révèle ainsi très anecdotique. Au sein
de la zone euro, l’utilisation du Bitcoin apparaît infinitésimale, seuls 20 % du volume
des transactions sont concernés. Au niveau mondial, les paiements en Bitcoin
s’élèvent à 100 millions par jour, c’est à peine 1 % des paiements réalisés par Visa et
Mastercard aux États-Unis s’élevant respectivement à 16.5 et 9.8 milliards par jour.
La détention de crypto-monnaie est par ailleurs très concentrée et le nombre
des points de vente en monnaie virtuelle reste très limité. Dans le premier cas,
2.5 % possèdent plus de 95 % des sommes en circulation et dans le second cas,
le nombre d’enseignes acceptant les règlements en monnaie virtuelle dépend des
pays, des cultures et des stratégies commerciales. En Corée du Sud ou au Japon
par exemple, le recours aux crypto-monnaies comme moyen de paiement est plus
répandu que dans certains pays du Vieux Continent. En France notamment aucun
grand groupe n’accepte les crypto-monnaies comme moyen de paiement2. Le
périmètre d’accessibilité des crypto-monnaies demeure encore très faible.
Qu’en est-il alors de la seconde fonction ? Une monnaie joue le rôle d’unité de
compte dès lors qu’elle sert de numéraire de référence pour exprimer les prix et
permet de ce fait aux agents économiques d’effectuer des comparaisons. La monnaie
permet ainsi d’établir une échelle des valeurs et facilite le calcul économique.
281
L’exercice d’une telle fonction implique un attribut essentiel, celui ayant trait
à la stabilité monétaire. Or une des caractéristiques des crypto-monnaies est leur
extrême volatilité comme en témoigne l’évolution du Bitcoin décrite par le graphique
suivant. On peut en effet constater une extrême fulgurance de la valeur du Bitcoin
durant l’année 2017. Son cours a été multiplié par 14 avant de revenir à son niveau
initial à la fin de l’année 2018 après une importante phase de correction.
Source : highcharts.com
La volatilité du Bitcoin est en effet 25 fois plus élevée que celle du marché des
actions, 5 fois plus forte que celle des matières premières et 12 fois supérieure à
celle de la monnaie japonaise le yen. Cette grande volatilité constitue un obstacle
dans l’accomplissement de la fonction d’unité de compte. Les prix affichés en Bitcoin
ou en crypto-monnaie sont de ce fait très fluctuants. Il peut en résulter confusion
et difficulté des consommateurs à apprécier l’évolution des prix dans le temps.
Les vendeurs de biens et services sont de leur côté exposés au risque de
change. De trop fortes variations peuvent déboucher sur de grosses pertes. Dans
le cas du Bitcoin, l’extrême volatilité de cette monnaie virtuelle engendre une
grande différence des prix sur les différentes plates-formes de marché au point
de contrevenir à la loi de l’unicité des prix.
Ces fluctuations perturbent donc la qualité de l’information à disposition des
acteurs économiques. Ils ne peuvent tirer avantage de ces mouvements erratiques
pour acheter au plus bas et vendre au prix élevé. L’absence de lisibilité de ces infor-
mations les empêchant en définitive de faire des arbitrages sur différents marchés.
La difficulté pour les crypto-monnaies de servir d’unité de compte résulte aussi
du fait que leur valeur unitaire est généralement très élevée par rapport à celle
de la plupart des produits et services ordinaires. Cette singularité conduit à fixer
282
des prix en quatre décimales ou plus. La limite de la division des Bitcoins étant
de huit décimales1, il en résulte alors une grande difficulté des consommateurs
à comprendre ces prix, de les interpréter d’autant plus sont coutumiers des prix
composés de deux décimales exprimées en monnaie officielle.
De valeur fragile et inconstante, les crypto-monnaies peuvent-elles remplir la
fonction de réserve ?
Une monnaie remplit cette prérogative lorsqu’elle permet à tout détenteur
d’effectuer un report de consommation ou un placement sans avoir à pâtir de la
dépréciation monétaire, en d’autres termes la monnaie permet l’épargne afin de
faire face aux aléas ou à des besoins différés dans le temps. C’est selon Keynes, un
des éminents économistes passés à la postérité, le lien entre le présent et le futur.
Dans le cas des monnaies officielles, le risque de dépréciation monétaire est
très limité du fait de l’action volontariste des banques centrales dont l’une des
missions est de veiller à la stabilité des prix et donc à la préservation intertempo-
relle du pouvoir d’achat de la monnaie. La Banque centrale européenne définit
la norme en matière d’inflation en dessous du seuil de 2 %. Au-delà, elle agit en
mettant en œuvre une politique monétaire restrictive afin de garantir la stabilité
du pouvoir d’achat de l’euro.
En raison de leur très forte instabilité, les crypto-monnaies en général et le
Bitcoin en particulier peuvent difficilement exercer la fonction de réserve de valeur.
Cette fonction implique par ailleurs que la monnaie doit être facile à conserver en
toute sécurité à l’abri de vols ou de perte. Dans le cas des monnaies qui ont cours
légal, ce risque est infinitésimal du fait que la gestion est assumée par les banques
de second rang bénéficiant des garanties des pouvoirs publics ainsi que celles
des banques centrales. Concernant les crypto-monnaies, cette sécurité est dans
certains cas très anecdotique. Conservées dans des comptes informatiques ou des
disques durs, les crypto-monnaies ne bénéficient pas d’une sécurité absolue à toute
épreuve. Nombre d’incidents ou de vols ont émaillé l’actualité de ces dernières
années. Des attaques informatiques et des vols ont en effet eu lieu témoignant de
fait des faiblesses du système de conservation des monnaies virtuelles.
Ne pouvant assumer les fonctions dites traditionnelles de la monnaie2, les
crypto-monnaies ne peuvent pas non plus être des instruments au service de la
stabilité macro-économique comme le sont les devises officielles. Le processus de
création déflationniste préconisé par le protocole Bitcoin confère à cette monnaie
1. La plus petite unité du Bitcoin est le Satoshi, il vaut 0.00000001 Bitcoin c’est-à-dire 1 Bitcoin est
égal à 100 millions de Satoshis ; Il y a aussi le milli-Bitcoin et le micro-Bitcoin. Le premier vaut
0.001 Bitcoin, le second est égal à 0.000001 Bitcoin. Ainsi si un objet vaut 5 euros et que le
cours du Bitcoin est de 8 670 euros alors son prix exprimé en Bitcoin est de 0.00005767012687
Bitcoins.
2. Certains économistes considèrent que les crypto-monnaies au vu du théorème de régression
peuvent objectivement être considérées comme des monnaies. Défini par Ludwig Von Mises,
le théorème de régression stipule qu’une monnaie avant d’avoir une valeur d’échange a néces-
sairement une valeur d’usage. En d’autres termes ce théorème affirme que toute monnaie tire
sa valeur de son utilisation non monétaire. Le Bitcoin au regard de cette définition satisfait au
théorème de régression.
283
numérique un pouvoir d’attraction justifiant sa montée aux nues mais il rend inefficace
ou inopérant la mise en œuvre d’une politique monétaire accommodante permettant
de juguler la déflation.
Les crypto-monnaies ne sont en définitive que des actifs numériques au service
de la spéculation. L’évolution de leurs cours apparaît davantage dictée par une
logique spéculative plutôt que par des considérations macro-économiques.
284
1. Le piratage de Coinchek en janvier 2018 s’est traduit par 530 millions de pertes, 0.530 millions
en juin 2018 pour celui concernant Coingrail et 1 million de pertes en juillet 2017 à l’issue du
piratage de Bithumb.
285
286
1. La loi PACTE (Plan d’action pour la croissance et la transformation des entreprises) est un
texte législatif visant à assouplir ou à supprimer un certain nombre de formalités auxquelles
les entreprises sont soumises.
287
Dans le cadre de la loi Pacte, la France a aussi fait le choix de réguler les ICO
(Initial Coin Offerings), alors que d’autres pays se sont engagés dans une chasse
contre cette nouvelle source de financement des entreprises spécialisées dans les
nouvelles technologies. L’Hexagone tient à en tirer le meilleur en faisant le choix
d’un visa optionnel délivré par l’Autorité des marchés financiers (AMF).
L’article 26 de la loi Pacte donne la possibilité aux acteurs qui souhaitent recourir
à un financement par le biais de l’émission des crypto-monnaies de solliciter un
visa de l’AMF permettant d’attester du sérieux et de la qualité de leur offre via la
publication de plusieurs documents informatifs. Ce visa de l’AMF a vocation d’agir
comme un sésame destiné à convaincre les banques qui souvent se montrent
réticentes à ouvrir des comptes bancaires au profit de ces entreprises faute de
certitude sur l’origine des fonds.
Les levées de fonds sans visa de l’AMF resteront légales mais les émetteurs qui
ne bénéficieront pas de ce visa ne pourront solliciter la contribution du grand public.
Ce cadre juridique souple devrait rassurer et sécuriser tous les acteurs à la
pointe des nouvelles technologies et en quête de financement.
Ce nouveau dispositif législatif donne aussi la possibilité aux assureurs de
proposer des contrats d’assurance-vie exposés aux crypto-monnaies. L’arrivée sur
ce marché d’un des placements les plus prisés par les ménages français devrait
accroître la légitimité et la crédibilité du marché des monnaies numériques.
Les prestataires en services crypto-monnaies (plateformes d’échange) ont vu
leur statut précisé par la loi Pacte. Celle-ci instaure un enregistrement systématique
et un agrément facultatif de ces acteurs auprès de l’AMF. Le gendarme financier
s’assurera de l’honorabilité et des compétences des dirigeants et actionnaires. Il
vérifiera l’existence et la mise en place de procédures de lutte contre le blanchis-
sement et le financement du terrorisme.
Le but recherché par cette disposition est d’instaurer un environnement favorisant
l’intégrité, la transparence et la sécurité des services concernés, ceci afin de protéger
investisseurs et utilisateurs. Ces prestataires exerçant une activité par nature trans-
nationale, une régulation internationale apparaît la plus appropriée.
Ces avancées en matière de cadre législatif faites par l’Hexagone dans le but
d’être leader en matière des technologies financières contrastent avec l’état de
la législation dans d’autres pays.
Concernant la régulation des transactions et des plateformes d’échange des
monnaies virtuelles, le choix fait par de nombreux pays consiste simplement à
multiplier les avertissements inhérents à l’utilisation des crypto-monnaies notamment
ceux de blanchiment et de financement du terrorisme. Le Japon fait partie des
pays qui ont pris ce parti. Pour les autorités de régulation de l’Empire du soleil
levant, réguler c’est prendre le risque de légitimer, c’est-à-dire d’inciter les agents
économiques à s’y intéresser1.
1. Dans un rapport au premier ministre publié en 2018, Jean pierre Landau se montre peu
favorable à une réglementation directe des crypto-monnaies car selon cet ancien vice-gou-
verneur de la Banque de France, cela oblige à « définir, à classer et à donc à rigidifier des
objets essentiellement mouvants et encore non identifiés. Le danger est triple, celui de
288
La Chine, la Corée du Sud et la Russie ont jusqu’alors fait preuve d’une régle-
mentation à tout le moins sévère à l’égard des crypto-monnaies. L’Empire du Milieu
interdit les établissements financiers d’utiliser les monnaies virtuelles notamment
l’échange contre des devises. En Corée du Sud, les autorités interdisent aux institu-
tions financières qui y sont implantées de réaliser des transactions en crypto-mon-
naies c’est-à-dire d’acheter, de vendre ou même de détenir une crypto-monnaie. La
volonté d’éviter la moindre exposition du secteur financier aux monnaies virtuelles
semble motiver ce choix. La Russie quant à elle, a une vision très singulière des
crypto-monnaies. Elle considère en effet leur usage à une présomption de partici-
pation à des opérations illégales notamment de blanchissement et de financement
du terrorisme. D’autres pays moins en vue ont aussi pris le parti d’en interdire
l’usage. C’est le cas du Maroc, du Vietnam et de la Bolivie où les crypto-monnaies
n’ont pas droit de cité.
Ces législations disparates ne peuvent contribuer à une régulation efficace
de ce secteur financier au poids relativement croissant représentant aujourd’hui
autour de 265 milliards d’euros. La coopération internationale en matière de lutte
contre le blanchiment et le financement du terrorisme est plus que cardinale. Des
progrès se font néanmoins jour. Le GAFI (Groupe d’action financière)1, organisme
intergouvernemental créé en 1989 exige aux États membres d’enregistrer et de
surveiller les plateformes d’échange de crypto-monnaies. Les clients feront l’objet
de contrôles et de signalement en cas de transactions suspectes. Ceci afin d’éviter
que les monnaies cryptographiques ne soient utilisées à des fins criminelles. Les
normes du GAFI sont résumées en 40 recommandations. Elles sont la source d’ins-
piration des directives de l’Union européenne. Le Conseil et le parlement européens
ont adopté en 2018 une directive qui a vocation d’assujettir à la réglementation
les plateformes de change et les fournisseurs de services de portefeuille. Ces
acteurs sont désormais soumis à l’obligation d’adopter des mesures préventives
et de porter à la connaissance des autorités compétentes les transactions perçues
comme suspectes.
Cette réglementation vise in fine à bannir l’anonymat car elle permet d’une
part aux cellules de renseignement financier nationales d’associer les adresses
correspond aux crypto-monnaies à l’identité du propriétaire de ces actifs.
Malgré la frilosité de certains États à l’égard des crypto-monnaies, force est
de constater que la régulation progresse dans certains États désireux d’en tirer le
meilleur. La Suisse, Malte et l’Estonie apparaissent volontaristes en la matière. Ces
pays ont engagé des stratégies visant à renforcer leur attractivité afin de devenir
des terres d’accueil des start-ups.
rigidifier dans les textes une évolution rapide de la technologie, celui de se tromper sur la
nature véritable de l’objet que l’on réglemente, celui d’orienter l’innovation vers l’évasion
réglementaire. Au contraire la réglementation doit être technologiquement neutre et pour
ce faire s’adresser aux acteurs et non aux produits eux-mêmes ».
1. Le GAFI est un organisme intergouvernemental chargé d’établir des normes, de développer
et d’assurer la promotion des politiques de lutte contre le blanchiment de capitaux et le
financement du terrorisme. Il se compose de 30 membres soit 34 pays et 2 organisations
internationales.
289
Échaudés par les vives critiques formulées à l’encontre dans leur projet par les
autorités monétaires et ministres de différents pays, les membres de l’association
Libra se sont ravisés en proposant une nouvelle mouture du projet Libra, plus en
phase avec la volonté des régulateurs. Cette nouvelle version prend le contre-pied
de la précédente en consacrant l’abandon de l’ambition initiale de Libra, celle
d’être une crypto-monnaie universelle défiant les circuits financiers traditionnels.
Le nouveau projet annoncé depuis peu par ses promoteurs consiste à faire de
Libra, une monnaie à devises multiples englobant des Libras à devise unique.
Concrètement, cela revient à faire de Libra, une Stablecoin c’est-à-dire une
crypto-monnaie adossée à des devises existantes. Ainsi, il y aura une Libra Euro
utilisable en zone euro, une Libra USD pour le dollar américain, une Libra Livre
Sterling etc. La valeur de la Libra dans sa globalité découlera donc de l’ensemble
de ces Stablecoins.
Ce changement de cap a de multiples implications. Tout d’abord, Libra ne sera
pas une nouvelle monnaie créée et indexée sur une réserve de devises comme
initialement prévu. Ainsi, l’association Libra n’entend pas remettre en cause le
monopole du pouvoir souverain de battre monnaie. Secundo, les Stablecoins
ainsi proposés ne déboucheront pas sur de la création monétaire puisqu’ils seront
intégralement garantis par une réserve en devises constituées de liquidités et
de titres d’État à très court terme libellés dans cette devise. Les ménages et les
acteurs économiques auront ainsi la possibilité de convertir les Libras reçues
en devise locale en passant par les fournisseurs de services financiers. Tertio,
la gouvernance de chaque réserve devra répondre aux critères définis par le
régulateur de sorte qu’en cas de crise économique, les détenteurs de Libra auront
la possibilité de les échanger instantanément contre n’importe quelle devise.
Appelée à devenir une simple monnaie numérique, Libra sera entourée d’une
sécurité renforcée afin de répondre aux préoccupations des régulateurs concernant
le risque de blanchiment d’argent ou de financement du terrorisme. L’association
propose la création d’une unité d’intelligence financière chargée des enjeux de
sécurité. Pour ce faire, elle sera dotée de spécialistes et d’outils technologiques
permettant de bloquer de manière automatique toute transaction supposée
frauduleuse.
La reconfiguration du projet Libra a permis de redonner du crédit à celui-ci. De
nouvelles adhésions ont été enregistrées après la vague de départs qui avait
suivi le lancement du projet. Trois acteurs ont donc rejoint le consortium, il s’agit
de la société de paiement en ligne Checkout.com, de l’organisation caritative
Heifer puis de la holding singapourienne Temasek. Cette dernière bénéficie
d’une bonne assise financière puisqu’elle gère un portefeuille d’actifs estimé à
375 milliards de dollars et couvre un large éventail d’activités qui vont des services
financiers aux télécommunications en passant par les médias et la Blockchain.
La mouture revisitée du projet Libra semble en définitive, au vu de ses caracté-
ristiques, se conformer aux normes du GAFI. Pour autant, est-ce suffisant pour
que le projet Libra puisse bénéficier de l’aval des régulateurs des différents
pays ? La réaction des autorités à cette évolution du projet semble pour l’heure
290
teintée de prudence. L’année 2021 sera de ce point de vue décisive pour l’avenir
de Libra. Verra-t-elle ce projet porté par un des géants du numérique aboutir ?
Consacrera-t-elle plutôt l’abandon d’un projet originellement trop ambitieux ? ©
Conclusion
291
Lexique
292
Initial Coin Offering (ICO) : C’est une levée de fonds en monnaie numérique
permettant le financement de nouveaux projets dans le domaine des
crypto-monnaies.
Minage de blocs : Processus mathématique et informatique consistant à utiliser
la puissance d’un processeur dans le but de valider les transactions en
crypto-monnaies à enregistrer sur la Blockchain.
293
Mineurs : Il s’agit des personnes dont l’activité consiste à faire du minage à partir
d’un ordinateur, d’un téléphone ou d’une ferme de serveurs. Les mineurs se
regroupent généralement pour constituer un « pool de mineurs ». Ils sont
rétribués en unités de la crypto-monnaie minée.
Monnaie fiduciaire : Elle est composée des billets de banque et des pièces
Lexique
294
295
Volatilité : Une monnaie est volatile lorsque son cours est marqué par l’insta-
bilité. C’est le propre du cours du Bitcoin, il peut descendre aussi vite qu’il
augmente.
Wallet (ou portefeuille) : Il s’agit d’un moyen de stockage sécurisé des
crypto-monnaies qui peut prendre la forme d’un fichier crypté, d’un logiciel
ou d’une application. Deux éléments incontournables font partie d’un Wallet,
il s’agit de la clé privée d’une part, et d’autre part de la clé publique. La
première est connue du seul propriétaire tandis que la seconde est connue
de tous puisqu’elle peut servir d’adresse.
Bibliographie
296
Bibliographie
297
298
Préface ............................................................................................................3
Introduction ....................................................................................................7
Conclusion...............................................................................................70
Lexique ................................................................................................................ 72
Liste des acronymes............................................................................................. 75
Bibliographie ....................................................................................................... 75
Annexe ................................................................................................................. 77
299
Conclusion.............................................................................................133
Lexique .............................................................................................................. 134
Bibliographie ..................................................................................................... 139
300
Conclusion.............................................................................................189
Lexique .............................................................................................................. 190
Bibliographie ..................................................................................................... 197
301
Conclusion.............................................................................................291
Lexique .............................................................................................................. 292
Bibliographie ..................................................................................................... 296
302