Vous êtes sur la page 1sur 418

Titre original anglais : PostCapitalism.

Publié pour la première fois par Allen Lane, Penguin Random


House.

© 2015, Paul Mason.

© 2021, Diateino, une marque du groupe Guy Trédaniel, pour la


traduction française.

ISBN : 978-2-35456-473-5

Ouvrage publié sous la direction éditoriale de Jean Staune.

Traduit de l’anglais par Anthony Mercier.

Tous droits réservés pour l’édition française.

Aucune partie de cette publication ne peut être reproduite,


stockée dans un système de récupération ou transmise sous
quelque forme que ce soit ou par quelque moyen que ce soit,
électronique, mécanique, photocopie, enregistrement ou autre,
sans l’autorisation écrite préalable de l’éditeur.
www.diateino.com
contact@diateino.com
Linkedin fr.linkedin.com/company/diateino
@diateino

Ce document numérique a été réalisé par PCA


Introduction

Pour atteindre le fleuve Dniestr, il nous faut traverser une région


boisée au climat froid située juste après une zone urbaine, pleine
d’immeubles en ruines et de parcs ferroviaires, dont la couleur
dominante est la rouille. L’eau du fleuve est glaciale et transparente.
Le silence est tel que l’on peut entendre, au-dessus de nous, des
petits morceaux de béton tomber du pont routier qui s’effrite
lentement à cause du manque d’entretien.
Le Dniestr matérialise la frontière géographique entre le
capitalisme de libre-échange et le système – appelez-le comme
vous voudrez – dirigé par Vladimir Poutine. Il marque la séparation
entre la Moldavie, un pays d’Europe de l’Est, et la Transnitrie, un
État fantoche russe dissident contrôlé par la mafia et la police
secrète.
Du côté moldave, des personnes âgées occupent les trottoirs et
vendent des biens qu’ils ont soit fait pousser, soit produits eux-
mêmes : du fromage, des pâtisseries et des navets. Il n’y a pas
beaucoup de jeunes : un adulte sur quatre travaille à l’étranger. La
moitié de la population gagne moins de 5 dollars par jour ; une
personne sur dix vit dans des conditions de pauvreté telles qu’elles
en deviennent comparables à celles observées en Afrique1. Le pays
a vu le jour au début de l’ère néolibérale et a pu témoigner
de l’éclatement de l’Union soviétique au début des années 1990 et
de l’introduction des forces du marché sur le territoire ; malgré cela,
nombre de villageois avec lesquels je me suis entretenu
préféreraient vivre dans l’État policier de Poutine que continuer de
subir la pauvreté abjecte de la Moldavie. C’est le capitalisme qui a
produit ce monde dénué de couleurs et fait de chemins de terre et
de visages sombres, pas le communisme. Et, aujourd’hui, le meilleur
du capitalisme est derrière nous.
Bien évidemment, la Moldavie se distingue de ses voisins
européens. Mais c’est dans ce genre de pays situé au bout du
monde que l’on peut constater les effets d’un ralentissement
économique et établir le lien de cause à effet entre stagnation, crise
sociale, conflit armé et érosion de la démocratie. L’échec
économique de l’Occident nuit à la confiance que nous avions dans
les valeurs et les institutions que nous pensions autrefois à l’épreuve
du temps.
Dans les centres financiers, à l’abri derrière les grandes vitres des
gratte-ciel, il est encore possible de voir la vie en rose. Depuis 2008,
des milliers de milliards de dollars fictifs circulent entre les banques,
les fonds spéculatifs, les cabinets d’avocats et les sociétés de
conseil, et cela dans le but de maintenir le système mondial à flot.
Mais l’avenir du capitalisme est loin d’être radieux. Selon l’OCDE,
la croissance des pays développés sera « faible » lors des cinquante
prochaines années. Les inégalités augmenteront de 40 %. Même au
sein des pays en voie de développement, le dynamisme que nous
connaissons aujourd’hui aura perdu tout son élan à l’horizon 20602.
La timidité des économistes de l’OCDE les ayant empêché d’affirmer
ce qui suit, je me propose de le faire pour eux : en ce qui concerne
les pays développés, le meilleur du capitalisme est derrière eux ; ce
qu’il en reste s’éteindra de notre vivant.
Ce qui a commencé en 2008 en tant que crise économique s’est
transformé en crise sociale et a provoqué de nombreux
bouleversements ; aujourd’hui, tandis que les révolutions dégénèrent
en guerres civiles et créent des tensions entre puissances nucléaires
sur le plan militaire, cette crise menace l’ordre mondial.
À première vue, il n’y a que deux façons de sortir de cette crise.
Selon le premier cas de figure, l’élite mondiale persévère et impose
le coût de la crise aux travailleurs, aux retraités et aux plus démunis
au cours des dix ou vingt prochaines années. L’ordre mondial, tel
qu’il nous a été imposé par le FMI, la Banque mondiale et
l’Organisation mondiale du commerce, survit tant bien que mal. Le
sauvetage de la mondialisation est imputé au commun des mortels.
Et, malgré toutes ces mesures, la croissance stagne.
Selon le deuxième cas de figure, le consensus est rompu. La
population refuse de se soumettre à l’austérité, ce qui provoque
l’arrivée au pouvoir des partis d’extrême gauche et d’extrême droite.
Faute d’alternative, les États tentent de s’imposer mutuellement le
coût de la crise. La mondialisation éclate, les institutions
internationales sont impuissantes et les différentes crises qui ont
sévi lors de ces vingt dernières années (guerres de la drogue, crises
postsoviétiques, djihadisme, migrations non contrôlées et hostilité
envers les migrants) attaquent le cœur du système. Dans ce
scénario, le droit international n’est plus qu’un lointain souvenir ; la
torture, la censure, la détention arbitraire et la surveillance de masse
deviennent les outils traditionnels de l’action gouvernementale. C’est
plus ou moins ce qui s’est passé dans les années 1930, et rien ne
garantit que l’Histoire ne se répétera pas.
Dans les deux cas, le véritable impact du changement climatique,
du vieillissement de la population ainsi que de la croissance
démographique se fera réellement sentir vers 2050. Si nous ne
parvenons pas à instaurer un ordre mondial durable ni à relancer
l’économie, les décennies qui suivront 2050 seront chaotiques.
Je vous propose un troisième cas de figure : premièrement, nous
sauvons la mondialisation en abandonnant le néolibéralisme,
ensuite, nous sauvons la planète et nous nous préservons des
tensions et des inégalités en allant au-delà du capitalisme lui-même.
Le plus facile sera d’abandonner le néolibéralisme. Les
mouvements protestataires, les économistes radicaux et les partis
politiques radicaux européens s’accordent de plus en plus sur la
manière de procéder : supprimer la haute finance, inverser
l’austérité, investir dans les énergies vertes et favoriser le travail
hautement rémunéré.
Et ensuite ?
Comme l’a montré l’exemple de la Grèce, tout gouvernement qui
oserait s’opposer à l’austérité se heurterait instantanément aux
institutions internationales qui protègent les 1 %*1. Après la victoire
électorale du parti d’extrême gauche Syriza en janvier 2015, la
Banque centrale européenne (BCE), censée assurer la stabilité des
banques grecques, a cessé de soutenir ces dernières, ce qui a
provoqué une vague de retraits à hauteur de 20 milliards d’euros.
Cet événement a contraint un gouvernement de gauche à choisir
entre la faillite et la soumission. Vous ne trouverez aucun procès-
verbal, aucun compte rendu de vote et aucune explication qui puisse
justifier les actes de la BCE. On trouve cependant un bout
d’explication dans les colonnes du quotidien allemand de droite
Stern : la BCE a « écrasé » la Grèce3. Ce geste, hautement
symbolique, visait à renforcer le message central du néolibéralisme,
à savoir qu’il n’existe aucune alternative à ce modèle, que toutes les
voies qui s’éloignent du capitalisme se terminent par le genre de
désastre qui a frappé l’Union soviétique et que se révolter contre le
capitalisme revient à se révolter contre un ordre naturel et
intemporel.
La crise actuelle ne fait pas que marquer la fin du modèle
néolibéral, elle est aussi symptomatique de l’incompatibilité à long
terme des systèmes de marché avec une économie de l’information.
Cet ouvrage vise à expliquer pourquoi le remplacement du
capitalisme par un autre modèle n’est plus une utopie, comment
déceler les prémices d’une économie postcapitaliste au sein du
système actuel et comment les amener à se développer rapidement.
Le néolibéralisme est une doctrine des marchés dérégulés : cette
doctrine prétend que la meilleure voie vers la prospérité est celle
qu’empruntent les individus motivés par leur propre intérêt et
que le marché est le seul moyen d’exprimer cet intérêt. Elle affirme
que le rôle de l’État doit être minime (sauf lorsqu’il s’agit de réprimer
les manifestants et de recourir à une police secrète), que la
spéculation est bénéfique, que les inégalités sont bénéfiques et que
l’état naturel de l’être humain se réduit à adopter le comportement
d’un groupe d’individus sans pitié et en concurrence les uns avec
les autres.
Le néolibéralisme doit son prestige à des exemples de réussite
concrets : au cours des vingt-cinq dernières années, le
néolibéralisme fut à l’origine de la plus grande vague de
développement que le monde ait jamais connue et a conduit à une
amélioration exponentielle des technologies clés de l’information.
Mais ce faisant, il a rétabli le niveau d’inégalité à un taux proche de
celui d’il y a un siècle et a déclenché un événement mettant en jeu
notre survie.
La guerre civile en Ukraine, qui a amené les forces spéciales
russes sur les rives du Dniestr ; les victoires de l’État islamique en
Syrie et en Irak ; la montée des partis fascistes en Europe ; la
paralysie de l’OTAN (la population des pays membres refusant de
consentir à une intervention militaire) : tous ces problèmes sont
étroitement liés à la crise économique. Ils sont la preuve que l’ordre
néolibéral ne fonctionne pas.
Au cours des deux dernières décennies, plusieurs millions
d’individus ont tenté de résister au capitalisme, mais la plupart ont
échoué. Outre les erreurs stratégiques et la répression, la raison de
cet échec est on ne peut plus claire : le capitalisme de marché libre
est un concept à la fois simple et efficace, tandis que les forces qui
s’y opposaient semblaient défendre quelque chose d’obsolète, de
pire et d’incohérent.
Au sein des 1 %, le néolibéralisme a tout d’une religion : plus on la
pratique, mieux on se sent, et plus on s’enrichit. Et même chez les
plus démunis, une fois le système installé, agir selon toute autre
manière que celle dictée par les structures néolibérales défie toute
logique : on emprunte, on se faufile entre les rouages du système
d’imposition et on suit bêtement les règles inutiles que l’on nous
impose sur notre lieu de travail.
Sans compter que, des décennies durant, les opposants au
capitalisme se sont délectés de leur propre incohérence. Depuis le
mouvement altermondialiste des années 1990, en passant par
Occupy, jusqu’aux autres mouvements qui ont suivi, la vague de
contestation pour la justice sociale n’a eu de cesse de rejeter l’idée
d’un programme cohérent en faveur d’un schéma de pensée façon
« un pas en avant, trois pas en arrière ». Toutefois, si l’on estime que
la seule alternative à tout cela est ce que la gauche du e siècle
appelle « socialisme », cette incohérence devient logique. Pourquoi
se donner la peine de se battre pour le changement si celui-ci est
synonyme de régression et de retour au contrôle étatique, au
nationalisme économique et aux économies qui ne fonctionnent que
si tout le monde se comporte de la même manière ou se soumet à
une hiérarchie brutale ? D’un autre côté, l’absence totale de solution
alternative concrète explique pourquoi la plupart des mouvements
contestataires échouent toujours : ce n’est pas ce que cherchent à
tout prix les acteurs de ces mouvements. Il existe même un terme
qui circule en leur sein : « Le refus de la victoire4. »
Si nous voulons remplacer le néolibéralisme, nous avons besoin
de quelque chose de tout aussi puissant et efficace ; plus qu’une
idée de génie, nous avons besoin d’un tout nouveau modèle
holistique capable de fonctionner indépendamment de toute
intervention et de produire de meilleurs résultats. Il doit s’inspirer des
microorganismes, pas des diktats ni des politiques ; il doit
fonctionner spontanément. Dans ce livre, j’affirme qu’il existe une
alternative évidente, que l’on peut adopter à l’échelle mondiale et qui
peut offrir un avenir bien meilleur que celui que le capitalisme nous
proposera au milieu du e siècle.
Cette alternative, c’est le « postcapitalisme ».
Le capitalisme n’est pas qu’une simple structure économique ou
une série de lois et d’institutions. Il constitue la totalité du système
(social, économique, démographique, culturel et idéologique)
nécessaire au bon fonctionnement, à travers le marché et la
propriété privée, d’une société développée. Cela inclut les
entreprises, les marchés et les États. Mais cela inclut également les
organisations criminelles, les réseaux de pouvoir secrets, les
prêcheurs de miracles dans un bidonville de Lagos et les analystes
véreux de Wall Street. Le capitalisme, c’est à la fois l’usine Primark
qui s’est effondrée au Bangladesh et les adolescentes rebelles
présentes à l’ouverture de la filiale londonienne de Primark et
surexcitées à l’idée d’acheter des vêtements à un prix qui défie toute
concurrence.
En étudiant le capitalisme comme un système à part entière, nous
pouvons identifier un certain nombre de ses caractéristiques. Le
capitalisme est un organisme : il a un cycle de vie, un début, un
milieu et une fin. C’est un système complexe qui opère bien au-delà
du contrôle des individus, des gouvernements et même des
superpuissances. Il produit des résultats bien souvent contraires à
ceux attendus, même lorsque la population agit rationnellement. Le
capitalisme est également un organisme qui apprend : il s’adapte en
continu et à pas de géants. Lorsque survient un tournant majeur de
l’Histoire, il se transforme et se redéfinit selon le danger qui le
menace, développant des schémas et des structures à peine
reconnaissables pour la génération précédente. Son instinct de
survie le plus basique consiste à favoriser les progrès
technologiques. Si nous prenons en compte (en plus des
technologies de l’information) la production de nourriture, la
contraception et la santé mondiale, alors les vingt-cinq dernières
années ont probablement été marquées par le plus grand
développement des capacités humaines jamais connu. Mais les
technologies que nous avons développées ne sont pas compatibles
avec le capitalisme, que ce soit dans sa forme actuelle ou dans une
autre. Dès lors que le capitalisme ne peut plus s’adapter aux
changements technologiques, le postcapitalisme devient une
nécessité. Lorsque des comportements et des organisations adaptés
à l’exploitation du changement technologique apparaissent
spontanément, le postcapitalisme devient possible.
Voilà, en somme, le postulat de ce livre : le capitalisme est un
système complexe et adaptatif qui a atteint les limites de ses
capacités d’adaptation.
C’est une idée qui se situe, bien évidemment, à des années-
lumière de ce que nous enseigne l’économie orthodoxe. Au cours
des années de prospérité économique, les économistes ont
commencé à croire que le système qui avait émergé après 1989
était permanent, qu’il était l’expression parfaite de la rationalité
humaine et que tous ses problèmes pouvaient être résolus par les
politiciens et les banquiers centraux rien qu’en manipulant des
leviers de contrôle sur lesquels était indiqué : « politique fiscale et
monétaire ».
Lorsqu’ils envisagèrent la possibilité que les nouvelles
technologies et les anciennes formes de société pussent ne pas être
compatibles, les économistes émirent l’idée que la société se
remodèlerait en accordant une place centrale à la technologie. Dans
la mesure où le phénomène avait déjà été observé dans le passé,
leur optimisme était tout à fait légitime. Mais, aujourd’hui, le
processus d’adaptation est entravé.
L’information s’éloigne de toute autre forme antérieure de
technologie. Comme j’en ferai la démonstration, sa tendance
première est de dissoudre les marchés, de détruire la propriété et
de rompre le lien entre travail et salaire. Et ce n’est que la toile de
fond de la crise que nous connaissons.
Si j’ai raison, nous devons accepter que, pendant la majeure
partie du siècle dernier, la gauche n’a pas su comprendre à quoi
ressemblerait la fin du capitalisme. L’objectif de la vieille gauche était
la destruction forcée des mécanismes du marché. La force venait de
la classe ouvrière, que ce soit dans les urnes ou dans la rue, l’État
en était le levier, et chaque période d’effondrement économique était
une occasion à saisir. Au lieu de cela, c’est le projet de la gauche qui
s’est effondré au cours des vingt-cinq dernières années. Le marché
a saboté le plan ; l’individualisme a pris la place du collectivisme et
de la solidarité ; la main-d’œuvre mondiale, qui s’est énormément
développée, ressemble à s’y méprendre à du « prolétariat », mais
elle n’agit ni ne pense comme lui.
Quiconque déteste le capitalisme et a fait l’expérience de tout ceci
l’a vécue comme un traumatisme. Mais, au milieu de tout cela, la
technologie a ouvert une nouvelle voie que les restes de la vieille
gauche, ainsi que toutes les autres forces influencées par celle-ci,
doivent suivre, si elles ne veulent pas disparaître.
Le fait est que le capitalisme ne disparaîtra pas selon une
méthode de destruction forcée des marchés. Il disparaîtra en créant
quelque chose de plus dynamique et dont l’existence est quasiment
imperceptible au sein de l’ancien système, mais qui, à terme,
percera et remodèlera l’économie autour de nouvelles valeurs, de
nouveaux comportements et de nouvelles normes. Comme pour le
féodalisme il y a cinq siècles, la disparition du capitalisme sera
accélérée par des chocs externes et façonnée par l’émergence d’un
nouveau type d’être humain. Et cela a déjà commencé.
Parmi les conséquences des progrès technologiques de ces vingt-
cinq dernières années, trois rendent possible l’émergence du
postcapitalisme.
Premièrement, les technologies de l’information ont réduit l’utilité
du travail, brouillé les frontières entre travail et temps libre et terni le
rapport entre travail et salaire.
Deuxièmement, les biens de l’information nuisent à la capacité du
marché à fixer les prix avec précision. Cela, car les marchés
exploitent la rareté d’un produit tandis que l’information abonde. Le
système se défend en constituant des monopoles à une ampleur
jamais vue au cours des deux cents dernières années, cela étant,
ces monopoles sont voués à disparaître.
Troisièmement, nous sommes témoins de l’apparition spontanée
d’un mode de production collaboratif : on voit ainsi apparaître des
biens, des services et des organisations qui ne s’assujettissent plus
aux diktats du marché ni à la hiérarchie de la gestion. Wikipédia, le
plus important produit de l’information, a été créé et est animé par
27 000 bénévoles qui ont mis fin au commerce des encyclopédies et
qui privent le secteur de la publicité d’un revenu estimé à 3 milliards
de dollars par an.
Presque sans que l’on s’en aperçoive, dans les niches et les creux
du système de marché, des pans entiers de la vie économique
commencent à évoluer à un autre rythme. Conséquence souvent
directe de l’éclatement des anciennes structures après la crise de
2008, les monnaies alternatives, les banques du temps,
les coopératives et les espaces autogérés ont proliféré tout en
échappant au regard des économistes.
Avec l’apparition de nouvelles formes de propriété, de nouvelles
méthodes de prêt et de nouveaux types de contrat, c’est toute une
sous-culture commerciale qui a vu le jour au cours des dix dernières
années. Cette sous-culture commerciale, les médias l’ont baptisée
« économie du partage ». Partout on entend des expressions à la
mode telles que « communs » ou « production entre pairs », mais
bien peu d’entre nous se sont posé la question de savoir quel sens
ces termes revêtent au regard du capitalisme.
J’ai l’intime conviction que ces phénomènes émergents nous
offrent une sorte d’échappatoire, mais seulement s’ils sont nourris,
encouragés et protégés par une action gouvernementale d’un
nouveau type. Cette évolution doit, à son tour, s’accompagner d’une
modification de notre conception de la technologie, de la propriété et
du travail lui-même. Lorsque nous concevrons les éléments du
nouveau système, nous devrons être en mesure de nous dire, à
nous-mêmes et aux autres : ce n’est plus ma technique de survie,
mon échappatoire au monde néolibéral, c’est une nouvelle façon de
vivre qui se développe sous mes yeux.
Selon le vieux projet socialiste, l’État prend le contrôle du marché,
agit dans l’intérêt du plus démuni au lieu du fortuné et fait ensuite
sortir certains secteurs de productions clés du marché pour les
intégrer à un schéma d’économie planifiée. La seule fois où
l’expérience fut réalisée, c’est-à-dire en Russie en 1917, elle a
échoué. On pourrait se demander pourquoi cela n’a pas fonctionné,
mais jamais on ne le saura.
Aujourd’hui, le paysage capitaliste a changé : il est à la fois
mondial et divisé, axé sur les choix à petite échelle ainsi que sur le
travail temporaire et la polyvalence. La consommation est devenue
une forme d’expression de soi, et des millions d’individus jouent
maintenant un rôle dans la finance.
L’émergence de ce nouveau paysage symbolise la fermeture des
anciennes voies. Mais une autre, différente, a également vu le jour.
La production collaborative, qui consiste à exploiter la technologie du
réseau pour produire des biens et des services qui ne sont viables
que lorsqu’ils sont gratuits ou partagés, pave la route qui s’étend au-
delà du système de marché. L’État doit encore définir le cadre, après
quoi le secteur postcapitaliste pourrait bien coexister avec le secteur
marchand pendant des décennies. C’est déjà ce qu’il se passe.
Les réseaux redonnent de la « granularité » au projet
postcapitaliste, c’est-à-dire qu’ils peuvent être la base d’un système
non marchand qui se reproduit lui-même, qui n’a pas besoin d’être
créé à nouveau chaque matin sur l’écran d’ordinateur d’un
commissaire.
La transition nécessitera l’intervention de l’État et sollicitera le
marché ainsi que la production collaborative au-delà du marché.
Mais, pour qu’elle puisse se réaliser, l’intégralité du projet de la
gauche, des groupes contestataires aux partis libéraux et
sociodémocratiques dominants, doit être revue. En fait, une fois que
la population aura saisi tout le caractère urgent de la réalisation du
projet postcapitaliste, il ne sera plus la seule propriété de la gauche,
mais plutôt celle d’un mouvement de plus grande ampleur, pour
lequel nous aurons probablement besoin de nouveaux appellatifs.
Mais qui en sera le principal acteur ? Pour la vieille gauche, c’était
la main-d’œuvre ouvrière. Il y a plus de deux cents ans, le journaliste
radical John Thelwall mettait en garde les hommes qui
construisaient les usines anglaises en leur disant qu’ils avaient créé
une forme de démocratie à la fois nouvelle et dangereuse : « Tous
les grands ateliers et toutes les manufactures sont comme des
sociétés politiques qu’aucune loi du parlement ne peut réduire au
silence et qu’aucun magistrat ne peut diviser5. »
De nos jours, c’est l’ensemble de la société qui constitue l’usine,
et les réseaux de communication, indispensables au travail quotidien
et au profit, sont riches d’un savoir partagé et du ressentiment de
leurs utilisateurs. Aujourd’hui, c’est le réseau, qui, à l’image des
ateliers il y a deux cents ans, ne peut être « réduit au silence » ou
« divisé ».
Certes, les autorités peuvent toujours nous empêcher d’utiliser
Facebook et Twitter, voire nous priver des réseaux mobiles et
Internet en temps de crise, ce qui paralyserait l’économie au
passage. Elles peuvent également surveiller et stocker chaque kilo-
octet d’informations que nous produisons. Mais jamais elles ne
pourront rétablir la société ignorante, hiérarchique et propagandiste
d’il y a cinquante ans, sauf, comme c’est le cas en Chine, en Corée
du Nord et en Iran, en supprimant certains aspects clés de la vie
moderne. Comme l’a affirmé le sociologue Manuel Castells, cela
reviendrait à tenter de priver un pays d’électricité6.
En mettant en réseau des millions de personnes, exploitées
financièrement, mais disposant de toute l’intelligence humaine à
portée de main, le capitalisme de l’information a créé un nouvel
agent de changement dans l’Histoire : l’être humain éduqué et
connecté.
C’est pourquoi, depuis 2008, nous avons assisté au début d’un
nouveau type de révolte. Les membres des mouvements
d’opposition sont descendus dans la rue avec la ferme intention
d’éviter les structures de pouvoir et les abus qu’entraînent les
hiérarchies, et de se préserver des erreurs de la gauche du
e
siècle.
Les valeurs, les voix et la morale de la génération connectée
avaient tellement été mises en évidence lors de ces manifestations
que, du mouvement des indignados espagnols aux événements
qui ont marqué le printemps arabe, les médias ont d’abord cru
qu’elles avaient été provoquées par Facebook et Twitter. Puis,
en 2013-2014, des révoltes ont éclaté dans certains des pays en
voie de développement les plus importants : la Turquie, le Brésil,
l’Inde, l’Ukraine et Hong Kong. Des millions de personnes sont
descendues dans la rue, génération connectée en tête une fois
encore, sauf que, cette fois-ci, leurs griefs touchaient au cœur de ce
qui avait été rompu au sein du capitalisme moderne.
À Istanbul, sur les barricades autour du parc Gezi en juin 2013, j’ai
rencontré des médecins, des développeurs, des commis
d’expédition et des comptables, tous des professionnels pour qui le
taux de croissance de 8 % du PIB de la Turquie ne compenserait
jamais le vol d’un mode de vie moderne perpétré par les islamistes
au pouvoir.
Au Brésil, les économistes célébraient la naissance d’une nouvelle
classe moyenne… faite de travailleurs faiblement rémunérés. À
peine avaient-ils réussi à échapper à la vie des bidonvilles et à
entrer dans un monde de salaires réguliers et de comptes bancaires
qu’ils s’étaient retrouvés privés des commodités les plus simples et à
la merci d’une police brutale au service d’un gouvernement
corrompu. Ils descendirent dans les rues par millions.
En Inde, les manifestations déclenchées par le viol collectif et le
meurtre d’une étudiante en 2012 signalaient que, bientôt, ici aussi la
génération éduquée et connectée ne tolérerait plus le patriarcat et
les pratiques rétrogrades. La plupart de ces révoltes se sont
éteintes. Le printemps arabe avait été soit réprimé, comme en
Égypte et au Bahreïn, soit endigué par l’islamisme, comme ce fut le
cas en Libye et en Syrie. En Europe, sous l’effet de la répression
policière et la coalition de tous les partis en faveur de l’austérité, les
indignados se turent dans un silence maussade. Cela étant, ces
révoltes ont montré que la nature des révolutions qui se produisent
dans une société hautement complexe et axée sur l’information sera
très différente de celle des révolutions du e siècle. En l’absence
d’une classe ouvrière forte et organisée capable de mettre
rapidement les questions sociales sur le devant de la scène, les
révoltes échouent souvent.
Mais l’ordre n’est jamais complètement rétabli.
Au lieu de passer d’un seul coup de la pensée à l’action, comme
l’ont fait les radicaux du e et du e siècle, la répression oblige les
jeunes radicalisés à hésiter entre les deux : on peut emprisonner,
torturer et harceler les gens, mais on ne peut pas les empêcher de
résister mentalement.
Il fut un temps où il était inutile d’avoir un mode de pensée radical
si l’on ne possédait pas de pouvoir. Combien de générations de
rebelles ont perdu leur temps, cloitrés dans des greniers à écrire des
poèmes empreints de colère et maudissant l’injustice du monde ainsi
que leur propre impuissance ? Mais, dans une économie de
l’information, la relation entre la pensée et l’action n’est plus la
même.
Dans l’ingénierie de haute technologie, bien avant qu’un bout de
métal ne soit produit, les objets sont conçus virtuellement, testés
virtuellement et même « fabriqués » virtuellement, l’ensemble du
processus étant modélisé du début à la fin, à l’aide d’ordinateurs.
Les erreurs sont relevées et corrigées au stade de la conception
selon une méthode que l’on ne pouvait matériellement pas appliquer
avant l’apparition des simulations 3D.
Par analogie, il en va de même pour la conception d’un système
postcapitaliste. Dans une société de l’information, aucune pensée,
aucun débat, aucun rêve ne sont perdus, qu’ils aient été conçus
dans une tente, une cellule de prison ou lors d’une session
d’imaginiérie d’une jeune entreprise.
Lors de la phase de transition vers une économie postcapitaliste,
le travail accompli lors de la phase de conception permet de réduire
les erreurs qui seront potentiellement commises lors de la phase
d’intégration. Et, comme les logiciels, la conception du monde
postcapitaliste autorise la modularité. Des individus différents
peuvent travailler à différents endroits, à différentes vitesses, et jouir
d’une certaine autonomie les uns par rapport aux autres. Ce n’est
plus d’un plan dont nous avons besoin, c’est d’un modèle de projet
modulaire.
Cela dit, il nous faut agir vite.
Mon but n’est pas de fournir une stratégie économique ou une
méthode d’organisation. Je vise plutôt à identifier les nouvelles
contradictions du capitalisme de sorte que les individus, les
mouvements et les partis politiques soient capables de savoir où
aller au cours de cette quête qu’ils souhaitent entreprendre.
De nos jours, la principale contradiction se situe entre la possibilité
de disposer de biens et d’informations libres et abondants et d’un
système de monopoles, de banques et de gouvernements qui
tentent de garder les choses privées, rares et échangeables. Tout se
résume à la lutte entre le réseau et la hiérarchie, entre les anciennes
formes de société façonnées autour du capitalisme et les nouvelles
formes de société qui préfigurent la suite.
Face à ce changement, l’élite du pouvoir du capitalisme moderne
a beaucoup à perdre. Tandis que j’écrivais ce livre, mon travail
quotidien de journaliste m’a amené à me plonger dans trois conflits
majeurs qui illustrent parfaitement les atrocités commises par les
élites en réponse au changement.
En août 2014, à Gaza, j’ai passé dix jours au sein d’une
communauté qui se faisait systématiquement attaquer au moyen de
frappes de drones, de bombardements et de tirs de snipers. Mille
cinq cents civils furent tués, dont un tiers d’enfants. En février 2015,
j’ai vu les membres du Congrès américain saluer vingt-cinq fois
l’homme qui avait ordonné ces attaques.
En septembre 2014, en Écosse, je me suis retrouvé au beau
milieu d’un mouvement de radicaux totalement improvisé et en
faveur de l’indépendance vis-à-vis de la Grande-Bretagne. Face à la
possibilité de rompre avec un État néolibéral et de prendre un
nouveau départ, des millions de jeunes ont dit « oui ». Les membres
du mouvement auraient pu obtenir gain de cause si les PDG de
grandes entreprises n’avaient pas menacé de retirer leurs activités
d’Écosse et que la Banque d’Angleterre, pour faire bonne mesure,
n’avait pas émis la possibilité d’empêcher l’Écosse de continuer à
utiliser la livre sterling.
Puis, en Grèce en 2015, j’ai vu les visages euphoriques se tordre
d’angoisse alors qu’une population qui avait voté à gauche pour la
première fois en soixante-dix ans voyait ses velléités démocratiques
réduites à néant par la Banque centrale européenne.
Dans chaque scénario, la lutte pour la justice s’est heurtée au
véritable pouvoir qui dirige le monde.
En 2013, alors qu’ils observaient l’austérité gagner lentement le
sud de l’Europe, les économistes de J.P. Morgan adressèrent un
message clair : pour que le néolibéralisme survive, la démocratie
doit s’effacer. Selon eux, la Grèce, le Portugal et l’Espagne
souffraient déjà de « problèmes hérités du passé et de nature
politique » : « Les constitutions et les règlements politiques de la
périphérie sud, mis en place au lendemain de la chute du fascisme,
présentent un certain nombre de caractéristiques qui ne semblent
pas adaptées à la poursuite de l’intégration dans la région7. » En
d’autres termes, les peuples qui se sont battus pour obtenir des
systèmes de protection sociale décents en échange d’une transition
pacifique vers la sortie de la dictature dans les années 1970 doivent
maintenant renoncer à ces acquis pour que des banques comme
J.P. Morgan puissent survivre.
Aujourd’hui, aucune convention de Genève ne fait loi dans le
cadre de la lutte entre les élites et les personnes qu’elles
gouvernent : le robot-flic est devenu la première ligne de défense
contre les manifestations pacifiques. Le recours aux tasers, aux
lasers sonores et aux gaz lacrymogènes, combinés à la surveillance
intrusive, à l’infiltration et à la désinformation, fait maintenant partie
des techniques courantes de maintien de l’ordre. Et les banques
centrales, dont la plupart des gens n’ont aucune idée du
fonctionnement, sont prêtes à saboter la démocratie en déclenchant
des vagues de retraits là où les mouvements anti-néolibéraux
menacent de l’emporter, comme elles l’ont fait avec Chypre en 2013,
puis avec l’Écosse et maintenant avec la Grèce.
L’élite et ses partisans se sont unis pour défendre les mêmes
principes directeurs : haute finance, bas salaires, secret, militarisme,
propriété intellectuelle et énergie basée sur le carbone. Le problème,
c’est qu’ils contrôlent presque tous les gouvernements du monde. La
bonne nouvelle, c’est qu’ils ne sont pas très populaires et ne
bénéficient pas du soutien de la population dans la plupart des pays.
Mais le fait est que, dans ce décalage entre leur popularité et leur
pouvoir, le danger réside. Comme je l’ai constaté sur les rives du
Dniestr, une dictature qui propose de l’essence bon marché ainsi
qu’une place dans l’armée peut paraître plus attrayante qu’une
démocratie qui vous laisse mourir de froid et de faim.
C’est dans ce genre de situation que bien connaître l’Histoire peut
s’avérer utile.
Les néolibéralistes, avec leur foi en la permanence et la finalité
des marchés libres, ont tenté de réécrire l’histoire de l’humanité en
qualifiant les événements qui les ont précédés de « choses qui ont
mal tourné dans le passé ». Mais, dès que l’on commence à réfléchir
à l’histoire du capitalisme, on est obligé de se demander quels
événements, parmi tout ce chaos, font partie d’un schéma récurrent
et lesquels font partie d’un changement irréversible.
Ainsi, bien que son objectif soit de définir un cadre pour l’avenir,
certaines parties de ce livre portent sur le passé. La première partie
traite de la crise et de la façon dont nous en sommes arrivés là. La
deuxième partie propose une théorie du postcapitalisme à la fois
nouvelle et complète. La troisième partie se veut un exposé de la
transition vers le postcapitalisme. Mais peut-on parler d’utopie ? Les
e
communautés socialistes utopiques du milieu du siècle ont
échoué parce que l’économie, la technologie et les niveaux de
capital humain n’étaient pas suffisamment développés. Grâce aux
technologies de l’information, une grande partie de cette utopie
qu’est le projet socialiste devient possible, notamment les
coopératives, les communs et les manifestations de comportements
libérés qui redéfinissent la liberté humaine.
Non, c’est l’élite, isolée dans son monde à part, qui semble
aujourd’hui aussi utopique que les sectes millénaires du e siècle.
La démocratie des brigades antiémeute, des politiciens corrompus,
des journaux contrôlés par les magnats ainsi que de l’État policier
semble aussi fausse et fragile que celle instaurée par l’Allemagne de
l’Est il y a trente ans.
Tout examen de l’histoire de l’humanité doit tenir compte de la
possibilité d’un effondrement. La culture populaire en fait une
obsession : il est toujours plus présent dans les films de zombies, les
films-catastrophes ou encore dans le désert post-apocalyptique de
La Route ou dans celui d’Elysium. Mais pourquoi ne pourrions-nous
pas, en tant qu’êtres doués d’intelligence, nous amuser à imaginer
une vie idéale et une société parfaite ?
Des millions d’individus commencent à comprendre qu’on leur a
vendu un rêve qu’ils ne pourront jamais réaliser. Mais remplacer un
rêve par d’autres ne suffira pas. Nous avons besoin d’un projet
cohérent et rationnel, fondé sur des preuves et des modèles
vérifiables, un projet qui aille dans le sens de l’histoire économique
et qui soit durable pour notre planète.
Et nous n’avons pas de temps à perdre.
PARTIE 1

Pour les historiens, chaque événement est unique. Les sciences


économiques partent, en revanche, du principe que les forces dans la
société et la nature se comportent de manière répétitive.
Charles Kindleberger1
1
Le néolibéralisme ne fonctionne plus

Lorsque Lehman Brothers s’est effondrée le 15 septembre 2008,


mon caméraman m’a plusieurs fois fait traverser le groupe de
limousines, de camions-satellites et de banquiers licenciés amassés
devant le quartier général new-yorkais de la banque
d’investissement. Il voulait me filmer au milieu du chaos.
Alors que je regarde ces allées et venues près de sept ans plus
tard et que le monde ne s’est toujours pas remis de cette journée,
une question se pose : que sait l’homme qui se tient devant la
caméra aujourd’hui, mais qu’il ne savait pas à l’époque ?
Je savais qu’une récession venait de commencer : je venais de
traverser l’Amérique en filmant la fermeture de 600 succursales
de Starbucks. Je savais qu’il y avait des tensions au sein du
système financier mondial. J’avais fait part de mes inquiétudes à
propos de la faillite imminente d’une grande banque un mois et demi
avant qu’elle se produise1. Je savais que le marché immobilier
américain n’existait plus : à Detroit, j’ai vu des maisons à vendre
pour 8 000 dollars comptant. Je savais, en plus de tout cela, que je
détestais le capitalisme.
Mais pas que le capitalisme, tel quel, était sur le point de
s’autodétruire.
La crise de 2008 avait effacé 13 % de la production mondiale et
20 % du commerce international. Sur une échelle où tout ce qui se
trouve en dessous de 3 % devient de la récession, la crise a plongé
la croissance mondiale dans le négatif. En Occident, elle a
déclenché une période de dépression plus longue que celle qui a
suivi la crise de 1929, et même encore aujourd’hui, au milieu d’une
reprise timide, elle a fait craindre aux économistes orthodoxes la
possibilité d’une stagnation à long terme.
Cependant, le vrai problème n’est pas la dépression post-Lehman.
C’est ce qui vient après. Pour saisir toute l’ampleur du phénomène, il
nous faut voir plus loin que les causes immédiates de la crise de
2008 et remonter à leurs origines. Lorsque le système financier
mondial s’est effondré en 2008, il n’a pas fallu longtemps pour en
découvrir les causes directes : des dettes cachées dans des produits
mal évalués connus sous le nom d’« instrument de placement
structuré » et un réseau de sociétés délocalisées et non
réglementées connues, dès lors qu’elles ont commencé à s’écrouler,
sous le nom de « système bancaire parallèle2 ». Puis, lorsque les
procédures judiciaires ont commencé, l’ampleur des activités
illégales, devenues monnaie courante alors que la crise approchait,
s’est révélée3.
Au bout du compte, nous n’avions rien vu venir, car il n’existe
aucun modèle de crise économique néolibérale. Même si l’on
n’adhère pas à toute l’idéologie – la fin de l’Histoire, la terre plate, le
capitalisme sans friction –, l’idée de base derrière le système veut
que les marchés se corrigent eux-mêmes. La possibilité que le
néolibéralisme s’effondre sous ses propres contradictions était et
reste inacceptable pour la plupart.
Sept ans plus tard, le système s’est stabilisé. Pour lutter contre la
crise, l’Amérique, la Grande-Bretagne, l’Europe et le Japon ont
stimulé la relance en générant des dettes publiques qui ont atteint
presque 100 % du PIB et en imprimant de l’argent représentant
environ un sixième de la production mondiale. Ils ont sauvé leurs
banques en enterrant leurs mauvaises dettes ; certaines ont été
annulées, d’autres sont venues grossir la dette publique, et d’autres
ont été absorbées au sein d’entités rendues sûres par les banques
centrales qui misent sur leur crédibilité.
Puis, à l’aide de plans d’austérité, ils ont déchargé ceux qui
avaient investi de manière insensée de toute responsabilité et ont
pénalisé les bénéficiaires des aides sociales, les fonctionnaires, les
retraités et, surtout, les générations futures. Dans les pays les plus
touchés, le système de retraite a été détruit, l’âge de départ à la
retraite monte tellement que ceux qui quittent actuellement
l’université partiront en retraite à 70 ans, et la part de privatisation
des études supérieures occupe une place tellement importante que
les futurs diplômés seront surendettés à vie. Enfin, la plupart des
services ont été démantelés et les projets d’infrastructures mis à
l’arrêt.
Pourtant, nombre d’entre nous ne savent pas réellement ce que le
mot « austérité » signifie. L’austérité n’est pas les sept années de
coupes budgétaires que le Royaume-Uni a connu, ni même les
catastrophes sociales qu’a subies la Grèce. Tidjane Thiam, le PDG
de Prudential, a donné la définition réelle de l’austérité lors du Forum
de Davos en 2012. Les syndicats sont les « ennemis de la
jeunesse » a-t-il dit, et le salaire minimum est « une machine à
détruire les emplois ». Les droits des salariés et les salaires décents
font obstacle à la résurrection du capitalisme et, affirme le
millionnaire et homme de finance sans aucune gêne, doivent
disparaître4.
C’est ça, le véritable plan d’austérité : faire baisser les salaires et
les niveaux de vie en Occident pendant plusieurs décennies jusqu’à
ce qu’ils atteignent ceux des classes moyennes de Chine et de l’Inde
à la hausse.
Pendant ce temps, et faute de modèle alternatif, les conditions
pour une autre crise sont en train d’être réunies. Les salaires réels
ont baissé ou sont restés les mêmes au Japon, dans le sud de la
zone euro, aux États-Unis et au Royaume-Uni5. Le système bancaire
parallèle s’est reconstitué et est même plus important qu’en 20086.
La dette combinée des banques, des ménages, des sociétés et des
États a augmenté de 57 000 milliards de dollars depuis la crise et
équivaut à presque trois fois le PIB mondial7. De nouvelles règles
exigeant des banques qu’elles détiennent plus de réserves ont été
adoucies et leurs mises en place ont été retardées. Et les 1 % sont
devenus plus riches.
Si une autre crise financière était suivie d’un nouvel effondrement,
il n’y aurait pas de seconde chance. Avec des dettes publiques
similaires à celles d’après la Seconde Guerre mondiale et des
systèmes de protection sociale paralysés dans certains pays, nous
n’avons plus de cartes en main, du moins pas comme celles que
nous avons pu avoir en 2009-2010. Le sauvetage de Chypre en
2013 avait servi de crash-test, il nous a permis de savoir ce qui se
passerait si une grande banque ou un État faisaient à nouveau
faillite. Pour les épargnants, tout ce qui était placé au-delà de
100 000 € avait disparu.
Voici, en résumé, ce que j’ai appris depuis que Lehman s’est
effondrée : la prochaine génération sera plus pauvre que celle-ci, le
vieux modèle économique ne fonctionne plus et ne permet pas de
relancer la croissance sans renouveler ses instabilités financières.
Les marchés financiers nous ont envoyé un message à propos de
l’avenir du capitalisme durant cette journée, mais c’est un message
que je n’avais pas totalement compris à l’époque.

« Une drogue de plus… »


À l’avenir, nous devrions chercher les émoticônes, smileys et autres
clins d’œil numériques dans les e-mails que les gars de la finance
utilisent lorsqu’ils font quelque chose de mauvais et qu’ils le savent.
« Ce n’est qu’une drogue de plus », confesse dans un e-mail le
cadre de Lehman responsable de la tristement célèbre technique
Repo 105. Cette technique a consisté à cacher les dettes du bilan de
Lehman en « vendant » temporairement ces dettes et en les
rachetant une fois le rapport trimestriel de la banque envoyé. On
demande à un autre cadre de Lehman : est-ce que cette pratique est
légale ? Est-elle employée par d’autres banques ? Déguise- t-elle
des trous dans notre bilan ? Il répond par e-mail : « Oui, non et
oui :)8 ».
À l’agence de notation Standard & Poor’s, l’endroit même où le
risque avait été volontairement mal évalué, un type envoie un
message à un autre : « Espérons que nous soyons tous riches et
retraités avant que ce château de cartes ne s’effondre », en ajoutant
l’émoticône « : O)9 ».
Pendant ce temps, à la firme londonienne de Goldman Sachs,
le trader Fabrice Tourre plaisante :

« Il y a de plus en plus de leviers dans le système, tout peut s’effondrer à


n’importe quel moment… Le seul qui survivra peut-être, c’est le fabuleux Fab
[…] Debout, au milieu de toutes ces transactions étranges, compliquées et à
un taux de dette très élevé qu’il a réalisées sans forcément avoir conscience
de tout ce que ces monstruosités impliquaient !!! »

Alors que de plus en plus de preuves de corruption et d’activités


illégales apparaissent, une spontanéité complice entre les banquiers
demeure, alors même qu’ils enfreignent les règles. « Voilà pour toi,
mon grand », écrit un salarié de Barclays à un autre alors qu’ils
jouent avec le Libor, le taux auquel les banques se prêtent entre
elles. Le taux d’intérêt le plus important de la planète10.
Nous devrions prêter attention au ton employé dans ces e-mails –
l’ironie, la malhonnêteté, l’usage répété de smileys et l’utilisation
abusive de la ponctuation. C’est la preuve d’un aveuglement
généralisé. Au cœur du système financier, qui occupe une position
centrale dans le monde néolibéral, ils savaient que ça ne
fonctionnait pas.
John Maynard Keynes disait autrefois de l’argent qu’il faisait le
« lien entre le présent et le futur11 ». Selon lui, cela signifiait que ce
que l’on fait avec l’argent aujourd’hui reflète nos prévisions sur les
événements à venir dans les prochaines années. Ce que nous
avons fait avec l’argent alors que 2008 approchait a été d’augmenter
son volume de manière radicale : l’offre monétaire mondiale est
passée de 25 000 milliards de dollars à 70 000 milliards de dollars
durant les sept années qui ont précédé la crise. La croissance
économique réelle n’aurait jamais pu suivre un tel rythme. Lorsque
l’offre monétaire se développe si vite, c’est le signe que nous
pensons que l’avenir sera infiniment plus riche que le présent. La
crise était tout simplement un signal de retour du futur : nous avions
tort.
Mettre plus de jetons sur la table de la roulette, voilà tout ce que le
gotha mondial a pu faire lorsque la crise s’est produite. Les trouver,
sous la forme de 12 000 milliards de dollars d’assouplissement
quantitatif, n’a pas été très difficile puisqu’ils étaient les caissiers de
leur propre casino. Cependant, ils eurent à partager leurs gains plus
équitablement pendant un moment, en plus d’être plus prudents12.
Telle a été la politique internationale depuis 2008. La planche à
billets est tellement sollicitée que le coût d’emprunt pour les banques
devient nul, voire négatif. Lorsque les taux d’intérêt réels deviennent
négatifs, les épargnants, qui ne peuvent que mettre leur argent en
sûreté en achetant des obligations d’État, sont, dans les faits,
obligés de renoncer à un quelconque revenu généré depuis leur
épargne. Ainsi, l’immobilier, les denrées, l’or et la bourse
ressuscitent puisque les épargnants sont contraints d’investir leur
capital dans ces secteurs plus risqués. À ce jour, le résultat a pris la
forme d’une relance fragile, mais les problèmes d’ordre stratégique
subsistent.
La croissance est lente, dans les pays développés. L’Amérique
s’est relevée au prix d’une dette publique portée à 17 000 milliards
de dollars. Des milliers de milliards de dollars, de yens, de livres et
maintenant d’euros, créés à partir de rien, sont toujours en
circulation. Les dettes des ménages de l’Occident n’ont toujours pas
été remboursées. Des villes fantômes entières, nées de la
spéculation immobilière, s’étendent de l’Espagne à la Chine et n’ont
toujours pas trouvé de propriétaire. La zone euro, peut-être la
création économique la plus importante et la plus fragile, est toujours
en stagnation et est le théâtre de tensions politiques qui menacent
l’équilibre entre les classes sociales et les pays.
À moins que d’innombrables richesses viennent inonder l’avenir,
tout cela doit cesser. Malheureusement, l’économie qui émerge de la
crise ne peut pas en produire autant. C’est un moment clé dans
l’Histoire, à la fois pour le modèle néolibéral et, comme je le
démontrerai dans le chapitre 2, pour le capitalisme lui-même. Si l’on
fait un saut dans le passé et que l’on revient à New York en
septembre 2008, on peut clairement saisir l’aspect rationnel du
déclencheur de cette forte croissance. Dans mon enregistrement de
ce jour, on peut voir la foule amassée devant le QG de Lehman
prendre des photographies avec des Nokia, des Motorola et des
Sony Ericsson. Les combinés sont obsolètes depuis longtemps, et le
monopole qu’exerçaient autrefois ces marques n’existe plus.
Le rythme frénétique des avancées technologiques du numérique
qui ont amené la période de croissance antérieure à 2007 s’est à
peine ralenti pendant la crise économique. Pendant les années qui
ont suivi la chute de Lehman, l’iPhone a conquis le monde avant
d’être dépassé par Android. Les ventes de tablettes et d’e-books se
sont envolées. Les réseaux sociaux, dont on parlait à peine à
l’époque, ont commencé à occuper une place centrale dans la vie de
la population. Le réseau Facebook comptait 100 millions
d’utilisateurs lorsque Lehman a fait faillite ; il en compte 1,3 milliard
au moment où j’écris ces lignes et couvre une région bien plus vaste
que celle occupée par Internet en 200813.
Et le progrès technologique ne s’arrête pas à la sphère
numérique. Durant ces sept ans, malgré une crise financière
mondiale combinée à un gigantesque tremblement de terre, Toyota a
fabriqué 5 millions de voitures hybrides, cinq fois plus qu’avant la
crise. En 2008, l’énergie solaire affichait une puissance de
15 000 mégawatts ; en 2014, dix fois plus14.
C’était une période de dépression sans précédent. Nous avons pu
témoigner d’une crise et d’une stagnation combinées à une rapide
mise en œuvre de nouvelles technologies d’une manière qui ne
s’était jamais produite durant les années 1930. Politiquement
parlant, c’est tout l’inverse. Au lieu d’aggraver la crise, comme ils
l’ont fait pendant les années 1930, les grandes puissances
mondiales ont cherché des outils pour mettre l’économie réelle à
l’abri, souvent en allant à l’encontre de ce que leurs propres théories
économiques leur préconisaient. Au sein des pays clés des marchés
émergents, la demande croissante en denrées et la relance
monétaire mondiale ont donné naissance à un nouvel âge d’or juste
après 2008.
L’impact cumulé des progrès technologiques, des mesures de
relance des pouvoirs publics et de la résilience des marchés
émergents a rendu la dépression bien plus douce sur le plan humain
que dans les années 1930. Mais ce tournant est bien plus décisif
que celui de l’époque. Pour en connaître les raisons, nous devons
nous pencher sur la chaîne de cause à effet.
Pour les économistes de gauche et de droite, la cause immédiate
de l’effondrement réside dans « l’argent facile » : la décision des
États occidentaux de libéraliser le secteur bancaire et de faciliter
l’accès au crédit après l’éclatement de la bulle internet en 2001.
Toutes les conditions étaient réunies pour cette bulle financière
organisée. Le mobile du crime ? Les banquiers avaient en effet reçu
pour instruction de la part des politiciens de devenir riches en
spéculant, de sorte que leur richesse ruisselle sur le reste du monde.
Dès que l’on a saisi le caractère fondamental de l’argent facile, on
peut s’attaquer à un problème plus complexe : les « déséquilibres
mondiaux », la division du travail qui a permis à des pays comme les
États-Unis de vivre à crédit et de gérer des déficits importants tandis
que la Chine, l’Allemagne, le Japon et d’autres pays exportateurs en
sont devenus les créditeurs. Évidemment, ces déséquilibres trouvent
leur origine dans le surendettement des économies occidentales.
Mais quelle est la raison d’être de ces déséquilibres ? Pourquoi les
ménages chinois ont-ils épargné 25 % de leurs salaires et les ont-ils
prêtés, par le biais du système financier mondial, à des travailleurs
américains qui, eux, n’ont rien épargné ?
Dans les années 2000, les économistes rivalisaient d’arguments
contraires : il fallait soit accuser les Chinois parcimonieux et leur
épargne abusive, soit la tendance maladive à l’emprunt des
Occidentaux dépensiers. Pour chaque camp, les déséquilibres
faisaient partie de la vie. Si l’on creuse davantage, on atteint les
fondations de la mondialisation elle-même, et l’on ne saurait, dans le
cadre de l’économie orthodoxe, remettre en question la
mondialisation. Elle existe, voilà tout.
La théorie de la « mauvaise gestion bancaire combinée à une
croissance perturbée » a fini par expliquer les raisons de
l’effondrement. Recadrez les banques, faites baisser les dettes,
rétablissez l’équilibre dans le monde, et tout finira par s’arranger.
C’est l’hypothèse qui a guidé la politique depuis 2008.
Malgré tout, la lenteur persistante de la croissance a poussé les
économistes traditionnels à dépasser cette complaisance. Larry
Summers, le secrétaire américain au Trésor sous Bill Clinton et
architecte de la libéralisation du secteur bancaire a secoué le monde
de l’économie en 2013 en prévenant que l’Occident faisait face à
une « stagnation séculaire », à savoir, une croissance faible à
prévoir pour les prochaines années. « Malheureusement, a-t-il
avoué, cette faible croissance existe depuis un long moment, mais
elle a été masquée par des finances non viables15. » Robert Gordon,
un vétéran de l’économie américaine est allé plus loin en estimant
que la période de faible croissance allait durer vingt-cinq ans aux
États-Unis. Cette période serait le résultat d’une productivité réduite,
d’une population vieillissante, d’une dette importante et
d’inégalités croissantes16. L’échec de la relance du capitalisme a
impitoyablement éloigné les préoccupations du scénario d’une
stagnation de dix ans causée par un nombre incalculable de dettes
vers un scénario où le système ne retrouvera jamais son
dynamisme. Jamais.
Pour comprendre toute la rationalité de ces prédictions
apocalyptiques, nous devons analyser en priorité quatre facteurs qui
ont d’abord permis au néolibéralisme de se développer avant de
commencer à le détruire :
1. La « monnaie fiduciaire », qui a permis d’une part de faire
face aux ralentissements à l’aide d’un accès facilité au crédit
et, d’autre part, aux pays développés de vivre à crédit.
2. La financiarisation, qui a remplacé les revenus stagnants de
la main-d’œuvre des pays développés par du crédit.
3. Les déséquilibres mondiaux, et les risques inhérents aux
dettes importantes et aux réserves monétaires des grands
pays.
4. Les technologies de l’information, qui ont permis à tout le
reste de se produire, mais dont la contribution à la
croissance n’est pas avérée.
L’avenir du néolibéralisme dépend du devenir de ces quatre
facteurs. Le futur à long terme du capitalisme est fonction de ce qu’il
se passe si ces facteurs disparaissent. Examinons-les plus en détail.

La monnaie fiduciaire
En 1837, la toute nouvelle République du Texas émettait ses
premiers billets. Il en existe encore quelques-uns, parfaitement
conservés dans les musées de l’État. Faute de réserve d’or, le pays
nouvellement formé a promis aux porteurs de ces billets de leur
verser 10 % d’intérêts par an. En 1839, la valeur d’un dollar texan
était tombée à 40 cents américains. En 1842, la monnaie était si peu
populaire que le gouvernement refusait que les contribuables paient
leurs impôts avec. Peu de temps après, la population a demandé
que les États-Unis annexent le Texas. En 1845, année de l’annexion,
le dollar texan avait retrouvé presque toute sa valeur. En 1850, les
États-Unis ont effacé 10 millions de dollars de la dette publique du
Texas.
Cet événement est considéré comme un cas d’école de ce
qu’engendre la « monnaie fiduciaire », c’est-à-dire la monnaie dont
la valeur ne repose pas sur celle de l’or. Le mot latin fiat a le même
sens que dans l’expression biblique fiat lux, « que la lumière soit » ;
l’expression signifie « que l’argent soit ». Au Texas, il y avait des
terres, du bétail et du commerce, mais pas en quantité suffisante
pour être garant de l’impression de 4 millions de dollars et contracter
une dette publique de 10 millions de dollars. La monnaie fiduciaire a
disparu, tout comme la République du Texas.
En août 1971, les États-Unis ont décidé de répéter l’expérience,
cette fois en utilisant tout le pays comme laboratoire. Richard Nixon
a de son propre chef quitté un accord qui indexait la valeur de toutes
les autres monnaies sur le dollar, et le dollar sur l’or. Dès lors, le
système monétaire international dépendait de la monnaie fiduciaire.
À la fin des années 1960, le futur patron de la Réserve fédérale,
Alan Greenspan, avait qualifié le projet d’abandon de l’or de complot
fomenté par « les partisans de l’état providence » qui visait à
financer les dépenses publiques en confisquant l’argent des
citoyens17. Cependant, tout comme le reste de l’élite américaine, il
prit conscience que cela permettrait en premier lieu aux États-Unis
de s’approprier l’argent des autres pays, ce qui a permis à
Washington de se livrer à trois décennies de manipulation
monétaire. Ainsi, l’Amérique a pu cumuler, au moment où j’écris ces
lignes, une dette de 6 000 milliards de dollars auprès du reste du
monde18.
Cette transition vers un système de monnaie 100 % papier était la
condition préalable à toutes les autres étapes du projet néolibéral.
Les Américains ont mis du temps à se rendre compte que l’idée ne
leur plaisait pas. Aujourd’hui, les théories économiques de droite
n’est qu’un long cri de rage contre la monnaie fiduciaire. Ses
adversaires sont persuadés qu’elle est la source ultime des
expansions et des récessions, et ils ont en partie raison.
L’abandon de l’or et des taux de change fixes a permis le
développement de trois réflexes fondamentaux inhérents à l’ère
néolibérale : la production accrue d’argent de la part des banques, le
sentiment que toutes les crises peuvent être résolues et que les
bénéfices générés par la spéculation ne peuvent qu’augmenter à
l’infini. Ces réflexes sont devenus tellement ancrés dans l’esprit de
millions d’individus que, lorsqu’ils ne fonctionnent plus, c’est la
paralysie.
Pour certains, l’idée que les banques « créent » de l’argent est
nouvelle, pourtant elles l’ont toujours fait : elles ont toujours prêté
plus d’argent qu’elles n’en avaient dans leurs coffres. Dans le
système d’avant 1971, il y avait des limites légales à ce genre de
création. Aux États-Unis, en ce qui concerne les épargnes que l’on
peut retirer à tout moment, les banques devaient posséder 20 dollars
en liquide pour 100 dollars de dépôt. Même si une personne sur cinq
courait à la banque pour retirer tout son argent, il y en aurait
suffisamment19.
À chaque étape de sa fabrication, le projet néolibéral a supprimé
ces limites. Le premier Accord de Bâle en 1988 a fixé les réserves
nécessaires pour 100 dollars d’emprunt à 8 dollars de dépôt. En
2004, année du deuxième Accord de Bâle, les dépôts et les
emprunts étaient devenus trop complexes pour les faire s’équilibrer
avec un pourcentage à un seul chiffre. De ce fait, les règles furent
modifiées : il fallait maintenant « peser » la valeur du capital selon sa
qualité, qui était évaluée par les agences de notation. Il fallait révéler
l’ingénierie financière d’après laquelle on avait évalué les risques. Il
était également nécessaire de prendre en compte les « risques du
marché » : en d’autres termes, ce qui se passe hors des murs de la
banque.
Le deuxième Accord de Bâle nous invitait ouvertement à nous
jouer du système, et c’est ce que les banquiers et leurs avocats ont
fait. Les agences de notation ont mal évalué les actifs, et les
cabinets d’avocats ont conçu des structures complexes pour
contourner les règles de transparence. En ce qui concerne les
risques du marché, même si les États-Unis allaient droit vers une
récession à l’automne 2007, le Comité du marché libre de la
Réserve fédérale, ceux qui sont censés tout savoir, suintait la
complaisance. Tim Geithner, patron, à l’époque, de la Réserve
fédérale de New York, avait affirmé : « Les dépenses des
consommateurs ralentissent un peu, et les entreprises réagissent en
réduisant leur perspective de croissance en matière d’embauche et
d’investissement, ce qui se traduit par plusieurs trimestres de
croissance un peu en dessous de la norme20. »
Cette incapacité totale à évaluer correctement les risques du
marché n’était pas symptomatique d’une foi aveugle ; elle était
étayée par l’expérience. Confrontée à un ralentissement, la Réserve
fédérale a toujours réagi en sabrant les taux d’intérêt, ce qui
permettait aux banques de prêter toujours plus d’argent contre
moins de garanties. C’est ce qui a donné naissance au deuxième
réflexe fondamental du néolibéralisme : le sentiment que toutes les
crises peuvent être résolues.
De 1987 jusqu’en 2000, sous la tutelle de Greenspan, la Réserve
fédérale a réagi à tous les ralentissements par des baisses du taux
d’intérêt. L’effet s’est non seulement traduit par la transformation des
investissements en un pari à sens unique, puisque la Réserve
fédérale serait toujours en mesure de faire face à un krach boursier.
Il s’agissait également de réduire, au fil du temps, le risque inhérent
à la possession d’actions21. Le prix des actions, qui représentent en
théorie l’idée que l’on se fait sur le devenir d’une société, en est
progressivement venu à représenter l’idée que l’on se fait sur les
décisions futures de la Réserve fédérale. Le rapport entre le prix des
actions et les bénéfices (bénéfices annuels) des 500 meilleures
entreprises américaines, qui oscillait entre 10 fois et 25 fois leurs
bénéfices depuis 1870, oscille maintenant entre 35 fois et 45 fois
leurs bénéfices22.
Si l’argent est un « lien vers le futur », alors, il annonçait en 2000
un avenir plus radieux que dans toute l’histoire de l’humanité.
L’éclatement de la bulle internet est dû à la décision prise par
Greenspan d’augmenter les taux d’intérêt de façon à étouffer une
tendance qu’il a qualifiée d’« exubérance irrationnelle ». Mais, après
les attentats du 11-Septembre, la faillite d’Enron en 2001 et
l’apparition d’une courte récession, les taux d’intérêt furent une fois
de plus abaissés. C’était devenu ouvertement politique : cette
exubérance irrationnelle était tolérée tant que le pays était en guerre
à la fois avec l’Irak et l’Afghanistan et parce que la confiance dans le
système financier avait été ébranlée par une succession de
scandales.
Cette fois-ci, la décision de la Réserve fédérale s’appuyait sur une
promesse transparente : le gouvernement préférait émettre de la
monnaie plutôt que de laisser une récession et une déflation se
prolonger. En 2002, Ben Bernanke, membre de la direction de la
Réserve fédérale, s’est exprimé ainsi : « Le gouvernement américain
possède une technologie appelée planche à billets. Avec un
système de papier-monnaie, un gouvernement déterminé sera
toujours en mesure de faire des dépenses plus élevées, donc
d’afficher une inflation positive23. »
Lorsque les conditions financières sont favorables et prévisibles,
les banques feront toujours de gros bénéfices. Le monde de la
banque est devenu un jeu de stratégie en évolution permanente qui
consiste à soutirer de l’argent aux banques concurrentes, aux clients
et aux entreprises. D’où le troisième réflexe fondamental du
néolibéralisme : l’idée reçue et unanime que l’on puisse créer de
l’argent à partir de l’argent lui-même.
Même s’ils ont diminué le capital minimum obligatoire qui doit être
détenu par les banques, les pouvoirs publics américains avaient
maintenu la stricte séparation qui existe entre les banques de prêt
de Main Street et les banques d’investissement dont la mise en
place fut imposée par la loi Glass-Steagall de 1933. Mais, à la fin
des années 1990, en pleine course à la fusion-acquisition, le secteur
des banques d’investissement s’était mondialisé et se jouait des
règles. Grâce à l’abrogation de la loi Glass-Steagall, le secrétaire au
Trésor, Larry Summers, a ouvert le système bancaire aux adeptes
des formes de financement étrangères, obscures et délocalisées.
Ainsi, la monnaie fiduciaire a contribué à la crise en générant une
série de vagues de signaux erronés venant du futur : la Réserve
fédérale sera toujours là pour sauver tout le monde, les actions ne
comportent aucun risque, et les banques peuvent faire de gros
bénéfices à partir de transactions peu risquées.
Rien ne peut mieux témoigner de la continuité qui existe entre les
politiques d’avant et d’après la crise que l’assouplissement
quantitatif. En 2009, ayant baissé les bras devant l’ampleur de la
tâche, Bernanke, avec l’aide de son homologue anglais Mervyn
King, gouverneur de la Banque d’Angleterre, a fait redémarrer la
planche à billets. La Chine avait déjà commencé à imprimer de
l’argent en novembre 2008 en utilisant un moyen plus direct, celui
des prêts bancaires à « taux réduit » (c’est-à-dire des prêts qui
n’allaient jamais être remboursés) émis par les banques
nationalisées au profit des entreprises. Durant les quatre années qui
suivirent, la Réserve fédérale a fait imprimer 4 000 milliards de
dollars et a racheté les lourdes dettes des prêteurs hypothécaires
soutenus par l’État, puis les obligations d’État, puis les dettes
hypothécaires au rythme de 80 milliards de dollars par mois.
L’impact cumulé de ces procédures s’est traduit par une injection de
liquidités dans l’économie à travers une augmentation du prix des
actions et des logements. Autrement dit, ces liquidités sont, en
premier lieu, tombées dans la poche de ceux qui étaient déjà riches.
Le Japon avait eu recours en premier à la solution de la planche à
billets lors de l’éclatement de la bulle immobilière en 1990. Alors que
l’économie était en berne, le Premier ministre, Shinzo Abe, fut
contraint de redémarrer la presse en 2012. L’Europe, qui n’avait pas
le droit d’émettre de la monnaie selon des règles conçues pour
empêcher l’euro d’être dévalué, a attendu jusqu’en 2015, quand la
déflation et la stagnation se sont imposées, avant de s’engager à
imprimer 1 600 milliards d’euros.
J’ai estimé le montant cumulé de l’argent qui avait été imprimé, y
compris celui que la BCE s’est engagée à imprimer, à environ
12 000 milliards de dollars, soit un sixième du PIB mondial24.
Cela a fonctionné, au sens où cela a permis d’éviter une
dépression. Mais c’était combattre le feu par le feu : l’argent facile
utilisé pour combattre une crise causée par l’argent facile.
Ce qui se passe ensuite dépend de l’idée que l’on se fait de
l’argent. Les détracteurs de la monnaie fiduciaire pensent qu’un
désastre va se produire. En fait, les livres qui dénoncent la monnaie
fiduciaire sont devenus aussi courants que ceux qui dénoncent les
banques. En théorie, avec une quantité limitée de biens
économiques, mais avec une quantité illimitée d’argent, tous les
systèmes de monnaie fiduciaire sont destinés à disparaître, comme
la République du Texas au e siècle. La crise de 2008, c’était le
calme avant la tempête.
En ce qui concerne les solutions, elles viennent sous des formes
millénaires. Il y aura, écrit Detlev Schlichter, un ancien cadre de J.P.
Morgan, un « transfert des richesses dans des proportions
gigantesques » entre ceux qui possèdent des actifs papier, que ce
soit sur un compte bancaire ou dans un fonds de pension, et ceux
qui possèdent des actifs réels, l’or en tête de liste. Selon lui, un
nouveau système connu sous le nom de « 100 % monnaie » et
selon lequel tous les emprunts sont garantis par une quantité
d’argent liquide détenu au sein des banques s’élèvera au-dessus
des ruines, accompagné d’un nouvel étalon-or. Cela nécessitera une
hausse exceptionnelle du prix de l’or, dans la mesure où tout l’or du
monde doit s’aligner sur toute la richesse du monde. (Une logique
similaire est à la base de la mode du Bitcoin, qui trouve son origine
dans la tentative de création d’une monnaie numérique, soutenue
par aucun État et avec un nombre limité de pièces numériques.)
Ce nouveau monde de monnaie « réelle » coûterait extrêmement
cher. Si les réserves bancaires doivent correspondre aux prêts
accordés, alors il ne peut y avoir de croissance économique fondée
sur le crédit. De même, cela ne laisse que peu de place aux
marchés dérivés, dont la complexité se révèle être un atout en
temps normal, pour résoudre des problèmes tels que les
sécheresses, les mauvaises récoltes, le rappel de voitures
défectueuses, etc. Un monde dans lequel les banques détiennent
100 % de leurs dépôts impliquerait des cycles intermittents d’activité
économique ainsi qu’un taux de chômage élevé. De simples calculs
suffisent pour prouver que nous entrerions dans une spirale de
déflation : « Dans une économie qui affiche une offre monétaire
inchangée, mais une productivité croissante […] Les prix ont
tendance à baisser », affirme Schlichter25.
C’est l’alternative favorite des fondamentalistes de la finance de
droite. Leur plus grande peur réside dans le fait que, pour sauver la
monnaie fiduciaire, l’état nationalise les banques, annule les dettes,
prenne le contrôle du système financier et mette définitivement un
terme à l’esprit de la libre entreprise.
Comme nous le verrons, il se peut que nous en arrivions là. Mais
leur raisonnement comporte une erreur fondamentale : ils ne
comprennent pas ce qu’est réellement l’argent.
En économie vulgarisée, l’argent n’est rien de plus qu’un moyen
d’échange pratique qui a été inventé, car, dans les anciennes
sociétés, il était trop hasardeux d’échanger une poignée de pommes
de terre contre une peau de raton laveur. En fait, comme l’a
démontré l’anthropologue David Graeber, rien ne prouve que les
premières sociétés du monde aient eu recours au troc ni que l’argent
en soit issu26. Elles se reposaient sur quelque chose de bien plus
puissant. Elles se reposaient sur la confiance.
L’argent est créé par les États et l’a toujours été ; ce n’est pas
quelque chose qui existe indépendamment d’eux. L’argent a toujours
représenté une « promesse de paiement » formulée par les
gouvernements. Sa valeur ne repose pas sur la valeur intrinsèque
d’un métal, elle quantifie la confiance de la population dans la
pérennité de l’État.
La monnaie fiduciaire aurait fonctionné au Texas si la population
avait eu foi en l’existence à long terme de l’État. Mais personne n’y a
cru, même pas les colons du début du e siècle. Dès qu’ils ont su
que le Texas allait faire partie des États-Unis d’Amérique, la valeur
du dollar texan a augmenté.
Une fois que l’on a compris cela, la véritable nature du problème
du néolibéralisme devient évidente. Le problème n’est pas : « Mince,
nous avons imprimé trop d’argent par rapport à ce qui circule
réellement dans l’économie ! » C’est plutôt, même si bien peu seront
d’accord : « Mince, plus personne n’a confiance en l’État ! »
L’intégrité du système dépend entièrement de la crédibilité de l’État
qui produit de l’argent. Pour l’économie mondiale d’aujourd’hui, cette
crédibilité ne repose pas uniquement sur les États, mais sur un
système de dettes à plusieurs niveaux, des formules de paiement,
des devises dont la valeur est fixée de manière non officielle, des
unions monétaires officielles comme l’euro ainsi que d’énormes
réserves en devises étrangères et constituées par les États pour se
protéger d’un effondrement du système.
Le vrai problème avec la monnaie fiduciaire se pose si, ou plutôt
quand, ce système multilatéral s’effondre. L’avenir nous le dira. Ce
que nous savons, pour l’instant, c’est que la monnaie fiduciaire,
combinée à l’économie du libre-échange, est une machine à créer
des cycles d’expansion et de récession. Laissée sans surveillance,
elle pourrait, avant même d’avoir pris en compte les autres facteurs
de déstabilisation, pousser l’économie du monde vers une
stagnation à long terme.

La financiarisation
Allez visiter n’importe quelle ville anglaise ravagée par le déclin
industriel, et vous trouverez le même paysage urbain : des sociétés
de prêt sur salaire, des prêteurs sur gages et des boutiques qui
vendent de l’électroménager à crédit à des taux d’intérêt vertigineux.
À côté des prêteurs sur gages, vous apercevrez peut-être l’un des
autres lieux de culte de la ville pauvre : une agence pour l’emploi.
Jetez un œil à l’intérieur, et vous trouverez des annonces pour des
emplois rémunérés au salaire minimum, mais qui demandent plus
que des compétences de base. Opérateurs de presse, personnel
soignant qui travaille de nuit, préparateur de commandes : des
emplois qui autrefois payaient bien sont maintenant rémunérés aussi
bas que le permet la loi. Ailleurs, loin des projecteurs, dans les
banques alimentaires gérées par des églises et des organismes de
charité et les bâtiments des services sociaux dont la mission
principale consiste maintenant à conseiller les plus endettés, vous
croiserez ceux à qui l’on a laissé les miettes.
La génération d’avant avait vu ces rues déborder d’entreprises
prospères. Je me souviens comment, dans les années 1970, dans la
rue principale de Leigh, ma ville natale, située dans le nord-ouest de
l’Angleterre, les familles ouvrières aisées se pressaient le samedi
matin. C’était l’époque du plein emploi, des bons salaires et de la
productivité. On trouvait des banques à chaque coin de rue. C’était
un monde plein de travail, d’épargne et de grande solidarité.
Écraser cette solidarité, imposer le salaire minimum et détruire le
tissu social de ces villes a été fait, à l’origine, pour préparer le terrain
à l’introduction du système de la libre concurrence. Au cours de la
première décennie, on a pu observer une hausse de la criminalité,
du chômage, de la dégradation des quartiers ainsi qu’une
détérioration massive du système de santé publique.
Puis vint la financiarisation.
Le paysage urbain d’aujourd’hui, des agences qui prêtent de
l’argent à des taux d’intérêt rédhibitoires, de la main-d’œuvre bon
marché et de la nourriture gratuite, symbolise ce que le
néolibéralisme a pu accomplir. Les salaires fixes ont été remplacés
par de l’emprunt : notre vie a été financiarisée.
Le mot « financiarisation » est long ; si je pouvais en utiliser un
plus court, je le ferais, car il est au cœur du projet néolibéral et doit,
de ce fait, être mieux compris. Les économistes emploient ce terme
pour décrire quatre transformations particulières qui ont démarré
dans les années 1980 :
1. Les sociétés se sont détournées des banques et ont adopté
les libres marchés financiers comme source de financement.
2. Les banques ont commencé à considérer leurs clients
comme une nouvelle source de bénéfices et à s’adonner à
une série d’activités hautement risquées intitulées
« investissement bancaire ».
3. Les consommateurs sont devenus les premiers acteurs des
marchés financiers : les cartes de crédit, les découverts, les
hypothèques, les prêts étudiants et automobiles sont
devenus monnaie courante. Une part croissante des
bénéfices dans l’économie ne vient plus du travail salarié ou
de la fourniture de biens et de services qu’achètent ces
salariés, mais des prêts qui leur sont accordés.
4. Toutes les formes de financement les plus simples sont
désormais à l’origine d’un marché de financement complexe
qui se situe plus haut dans le système : chaque nouveau
propriétaire d’un logement ou d’une voiture est une source
de gain financier que l’on peut retrouver quelque part dans le
système. Notre abonnement de téléphone, de salle de sport
ou de fourniture d’énergie ; tous nos paiements récurrents
sont encapsulés dans des instruments financiers qui
génèrent des intérêts au bénéfice d’un investisseur bien
avant que l’on décide de les souscrire. Ensuite, un parfait
inconnu vient parier sur la probabilité de vos paiements.

Le système n’est peut-être pas spécifiquement conçu pour


maintenir au plus bas les salaires et les investissements productifs.
Les politiciens néolibéraux affirment en permanence qu’ils sont en
faveur d’une haute valeur-travail et d’une forte productivité, mais, à
en juger par les résultats, la financiarisation et les faibles salaires
sont similaires au travail précaire et aux banques alimentaires : ils
vont de pair.
Selon le gouvernement américain, les salaires réels des ouvriers
de production aux États-Unis sont restés les mêmes depuis 1973.
Sur la même période, le nombre de dettes présentes dans
l’économie américaine a doublé, pour atteindre trois fois le montant
du PIB. Dans le même temps, la part du PIB américain issu de la
finance, des assurances et du secteur immobilier est passée
de 15 % à 24 %, dépassant ainsi celle des industries et s’alignant
avec celle des services27.
La financiarisation a également transformé les rapports entre les
entreprises et les banques. À partir des années 1980, le chiffre des
bénéfices trimestriels à court terme est devenu le bâton avec lequel
la finance s’est mise à battre à mort les vieux modèles économiques
industriels : les entreprises qui n’étaient pas assez florissantes
n’eurent d’autre choix que de délocaliser, fusionner et se livrer à des
stratégies de monopoles suicidaires ou diviser leurs opérations en
passant par plusieurs services de sous-traitance, et de baisser les
salaires en permanence.
La légende au cœur du néolibéralisme raconte que tout le monde
peut adopter un mode de vie de consommateur sans que les
salaires augmentent. Vous pouvez emprunter, mais jamais vous ne
serez sur la paille : si vous empruntez pour acheter une maison, sa
valeur ne fera qu’augmenter. Et il y aura toujours de l’inflation, donc
si vous empruntez pour acheter une voiture, la valeur de la dette qui
reste à solder aura diminué d’ici à ce que vous ayez besoin d’un
nouveau véhicule, ce qui vous laisse suffisamment de marge pour
emprunter davantage.
L’accès généralisé au système financier convient à tout le monde :
les politiciens libéraux américains pourront pointer du doigt le
nombre croissant de pauvres familles noires et hispaniques avec
des crédits hypothécaires ; les banques et les sociétés de
financement se sont enrichies en vendant des crédits à des
personnes qui ne pouvaient pas se le permettre. De plus, la
financiarisation a créé la gigantesque industrie des services qui se
sont développés autour des riches : fleuristes, professeurs de yoga,
constructeurs de bateaux de luxe et ainsi de suite, et qui donnent
l’impression que les riches du e siècle n’ont que faire du rapport
social entre eux et le reste du monde. En plus, cela convenait
également à monsieur Tout-le-monde : après tout, qui serait assez
fou pour refuser de l’argent facile ?
Mais la financiarisation a également créé des problèmes
intrinsèques ; des problèmes qui ont déclenché la crise, mais qu’elle
n’a pas résolus.
Alors que la monnaie fiduciaire est illimitée, les salaires, eux, sont
bien réels et limités. On peut tout à fait créer de l’argent à l’infini,
mais, si les travailleurs en reçoivent de moins en moins tandis que
de plus en plus de bénéfices sont générés par leurs prêts
hypothécaires et leurs cartes de crédit, on va droit dans le mur. À un
moment donné, l’expansion du profit financier par l’octroi de prêts
aux consommateurs en difficulté va cesser, avant de s’inverser.
C’est exactement ce qui s’est produit lors de l’éclatement de la bulle
immobilière aux États-Unis.
De 2001 à 2006, la valeur des prêts hypothécaires américains est
passée de 2 200 milliards de dollars à un peu moins de
3 000 milliards de dollars : c’est beaucoup, tout en restant
raisonnable. Mais la valeur des prêts à risque, c’est-à-dire accordés
à une population pauvre et à des taux d’intérêt réels énormes, est
passée de 160 milliards de dollars à 600 milliards de dollars. De
plus, les « prêts hypothécaires à taux variable », très abordables au
début et qui deviennent de plus en plus élevés au fil du temps, sont
sortis de nulle part et ont fini par représenter 48 % de la totalité des
prêts accordés durant les trois dernières années de la croissance
économique. Avant que les banques d’investissement ne l’inventent,
ce marché d’emprunts à la fois risqués et compliqués, et qui
n’allaient jamais être remboursés, n’existait pas28.
Ce phénomène sert d’exemple à un autre problème inhérent à la
financiarisation : elle brise le lien entre le prêt et l’épargne29. Les
banques de Main Street ne possédaient jamais plus d’argent qu’elles
n’en prêtaient. Nous avons pu constater à quel point le libéralisme
les a encouragées à détenir toujours moins de liquidités et à se jouer
du système. Mais ce nouveau processus, dans lequel chaque flux
d’intérêts est enfermé dans un produit financier plus complexe et
partagé entre plusieurs investisseurs, exige que les banques les plus
modestes se tournent bon gré mal gré vers le marché monétaire à
court terme, ne serait-ce que pour être en mesure de mener leurs
opérations de routine.
Cela a entraîné un changement radical dans la psychologie du
secteur bancaire. Le caractère durable de leurs prêts (sur des
hypothèques de vingt-cinq ans ou des cartes de crédit refusées)
s’est de plus en plus éloigné du caractère éphémère de leurs
emprunts. Ainsi, au-delà des escroqueries et des faux prix, la
financiarisation crée au sein du secteur bancaire une tendance
généralisée aux crises de liquidité instantanée, c’est-à-dire à la
rupture d’argent liquide, du même type que celle qui a détruit
Lehman Brothers.
Dans les sociétés financiarisées, une crise bancaire ne donne pas
lieu à des ruées vers les banques pour effectuer des retraits, tout
simplement parce qu’il n’y a pas beaucoup d’argent dans les coffres.
Ce sont les banques elles-mêmes qui ont de l’argent dans les
coffres – à savoir, chez les autres banques – et, comme nous avons
pu le constater en 2008, principalement sous la forme de papier
sans valeur.
Le problème que nous venons d’aborder ne peut être résolu qu’en
mettant un terme à la financiarisation. Laissons-la perdurer et, au fil
du temps, l’argent présent dans le système financier deviendra de
plus en plus fictif, et de plus en plus d’institutions du système
financier seront dépendantes des emprunts à court terme.
Mais, des politiciens aux régulateurs, personne n’était prêt à
démanteler le système. Au lieu de cela, ils l’ont reconstitué, l’ont
relancé en injectant 12 000 milliards de dollars sortis de nulle part et
l’ont remis en marche. Tout cela pour garantir que les mêmes
conditions à l’origine du cycle d’expansion et de récession vont, si
tant est qu’une croissance significative fût à venir, en créer un
nouveau.
L’historien Ferdinand Braudel a suggéré que le déclin de toutes
les superpuissances économiques commence par une transition de
grande ampleur vers la finance. Il fut l’auteur de travaux à propos de
e
la chute des Pays-Bas en tant qu’empire commercial au siècle :
« En atteignant la phase du capitalisme financier, tous les
développements capitalistiques de cette ampleur semblent d’une
certaine manière atteindre leur maturité : c’est l’automne qui
vient30. »
Les partisans de la théorie de l’« automne financier » font part
d’un scénario similaire dans l’histoire de la République de Gênes, le
principal centre de la finance de la fin du Moyen Âge, puis ce fut le
tour des Pays-Bas, et de Londres, au crépuscule de l’Empire
britannique. Mais, dans chacun de ces scénarios, la tendance était
que la puissance dominante devienne le créancier du monde. Sous
le néolibéralisme, la tendance s’est inversée. Les États-
Unis d’Amérique, et l’Occident en général, sont devenus les
débiteurs, pas les créanciers. C’est une première, dans ce scénario
à long terme.
Il en va de même pour les salaires stagnants. Les grands empires
financiers de ces cinq cents dernières années ont fait leurs
bénéfices sur le dos du commerce non équitable, de l’esclavage et
de l’usure, qu’ils exploitaient pour financer des modes de vie décents
sur leur sol. Sous le libéralisme, les États-Unis ont augmenté leurs
bénéfices en appauvrissant leurs propres citoyens. La vérité est que,
comme la finance s’est immiscée dans notre quotidien, nous ne
sommes plus seulement esclaves de la machine, de la routine du
métro-boulot-dodo, nous sommes également devenus les esclaves
du taux d’intérêt. Nous ne faisons plus que créer des bénéfices pour
le patron qui nous emploie, mais aussi pour l’intermédiaire de la
finance grâce à nos emprunts. Une mère célibataire qui perçoit des
prestations sociales, qui n’a d’autre choix que de recourir à des prêts
sur salaires et d’acheter des biens immobiliers à crédit, est une bien
meilleure source de bénéfices pour le capital qu’un ouvrier de
l’industrie automobile avec un emploi stable.
Dès lors que chaque être humain peut générer un gain financier
rien qu’en consommant, et que les plus pauvres peuvent en générer
le plus, un changement profond survient dans l’attitude du
capitalisme à l’égard du travail. Nous examinerons tout cela plus
tard, dans la partie 2. Pour le moment, résumons : la financiarisation
est une composante éternelle du néolibéralisme. Tout comme la
monnaie fiduciaire, elle mène à l’effondrement, mais le système ne
peut opérer sans.

Un monde en déséquilibre
Fatalement, le néolibéralisme a contribué à l’augmentation de ce
que l’on appelle les « déséquilibres mondiaux », que ce soit dans le
commerce, l’épargne ou l’investissement. Pour les pays qui ont
écrasé les syndicats, délocalisé une part importante de leurs
secteurs de production et soutenu la consommation à l’aide d’un
volume de crédit croissant, le résultat se traduira toujours par des
déficits commerciaux, une dette publique élevée et des tensions
dans le secteur financier. Les gourous du néolibéralisme ont exhorté
la totalité de la population à suivre le modèle anglo-saxon, alors que,
en réalité, le système s’appuie surtout sur certains pays clés qui ont
choisi de ne pas suivre ce modèle.
L’excédent commercial de l’Asie par rapport au reste du monde,
l’excédent de l’Allemagne par rapport à l’Europe, la détention des
dettes d’autres pays par les pays exportateurs de pétrole, tout était
prévu. Tout ceci a permis aux États-Unis, à la Grande-Bretagne et à
l’Europe du Sud d’emprunter au-delà de leurs capacités. Autrement
dit, nous devons d’emblée comprendre que le néolibéralisme
n’existe que par le refus de certains pays d’adhérer au modèle.
L’Allemagne, la Chine et le Japon pratiquent ce que leurs
détracteurs appellent le « néomercantilisme » : ils usent de leurs
politiques commerciales, monétaires et financières pour s’approprier
d’énormes réserves d’argent venant d’autres pays. On disait
autrefois de ces pays excédentaires qu’ils souffraient d’un retard
économique, mais, dans le monde d’après la crise, ils font partie des
rares pays encore debout. La capacité de l’Allemagne à dicter les
conditions de la défaite de la Grèce, dont les habitants se
souviennent avoir vu la croix gammée flotter au-dessus de
l’Acropole, suffit à affirmer la position dominante dans laquelle se
trouve le pays exportateur et prêteur une fois que le néolibéralisme
s’effondre.
Les déséquilibres mondiaux sont principalement mesurés à l’aide
de la balance courante – la différence entre l’importation et
l’exportation de biens, de services et d’investissements. La balance
courante mondiale avait augmenté durant les années 1990, puis
rapidement décollé après les années 2000, passant de 1 % du PIB
mondial à 3 % en 2006. Les principaux pays débiteurs étaient les
États-Unis et la majeure partie de l’Europe ; les pays excédentaires
étaient la Chine, le reste de l’Asie, l’Allemagne, le Japon ainsi que
les pays producteurs de pétrole31.
Pourquoi est-ce important ? Parce que ces déséquilibres ont
préparé le terrain à la crise de 2008 en saturant les systèmes
financiers américains, britanniques et européens de dettes non
viables. Elles ont entraîné des pays comme la Grèce, qui ne
pouvaient pas sortir de la crise à l’aide de l’exportation, dans une
spirale infernale d’austérité. Elles ont également laissé la plupart des
pays néolibéraux avec une dette publique monumentale.
À la suite de la crise de 2008, les déséquilibres mondiaux
mesurés à l’aide de la balance courante se sont réduits, passant de
3 % du PIB mondial à 1,5 %. Les projections les plus récentes du
FMI ne font pas état d’un risque de deuxième pic, mais les
conditions sont réunies : la Chine ne retrouve pas son taux de
croissance antérieur à la crise, et les États-Unis n’empruntent ni ne
prêtent plus comme avant. Comme les économistes Florence Pisani
et Anton Brender le disent : « L’effondrement de la finance
mondialisée était le seul phénomène qui aurait pu significativement
jouer sur l’accroissement constant des déséquilibres mondiaux32. »
Après 2008, le déficit décroissant de la balance courante avait
persuadé certains économistes que le risque posé par les
déséquilibres n’existait plus33. Mais, dans le même temps, une autre
caractéristique fondamentale inhérente aux déséquilibres s’était
développée : la quantité d’argent détenu par les pays excédentaires
dans d’autres devises, connu sous le nom de « réserve de change ».
Alors que la Chine a vu son taux de croissance revenir à 7 %,
ainsi que son excédent commercial avec l’Occident se réduire, sa
réserve de change a doublé depuis 2008, elle représentait
4 000 milliards de dollars en juin 201434. Les réserves de change
mondiales avaient augmenté de la même manière, en passant de
8 000 milliards de dollars à presque 12 000 milliards de dollars à la
fin de 201435.
Les déséquilibres ont toujours représenté deux dangers bien
connus. Premièrement, ils risquent d’engorger le système financier
avec tellement de crédits qu’il s’effondrerait sous le poids de la dette.
C’est déjà arrivé. Deuxièmement, sur un plan géopolitique, que tous
les risques et les tensions du monde entier fassent l’objet d’un
accord formulé entre États à propos de la dette et des taux de
change, et que cet accord vienne à se rompre. Cette menace plane
toujours.
Si les États-Unis ne peuvent plus financer leurs dettes, la valeur
du dollar s’effondrera. Le seul fait d’y penser suffit à provoquer un
effondrement de sa valeur. Quoi qu’il en soit, l’interdépendance des
États-Unis et de la Chine et, à une plus petite échelle, de
l’Allemagne et du reste de la zone euro suffit à garantir une certaine
stabilité.
Tout ce qui s’est produit depuis 2008 à cause de l’accumulation de
réserves de change doit être interprété comme étant le signe que les
pays excédentaires souscrivent des polices d’assurances toujours
plus importantes contre le danger d’un effondrement américain.
Si le monde n’était fait que de puissances économiques, ce
résultat serait tolérable : une croissance modérée ou nulle dans les
pays déficitaires, une augmentation progressive de la valeur du yuan
par rapport à celle du dollar, une réduction de la dette américaine
grâce à l’inflation, ainsi qu’un déficit commercial aux États-Unis
réduit grâce aux forages qui les rendent moins dépendants de
l’importation pétrolière.
Mais le monde est fait de classes sociales, de religions et de
nations. Les élections européennes de 2014 ont vu des partis
militant pour la destruction de ce système mondial gagner 25 % des
voix ou plus, au Danemark, en France, en Grèce et en Grande-
Bretagne. Alors que j’écris ces lignes, en 2015, la victoire de
l’extrême gauche en Grèce a semé le doute dans la zone euro. De
plus, les tensions diplomatiques en Ukraine ont été à l’origine des
premières sanctions commerciales et économiques sérieuses
imposées à la Russie par les puissances occidentales depuis le
début de la mondialisation. D’Islamabad à Istanbul, le Moyen-Orient
est à feu et à sang, tandis que les relations diplomatiques entre la
Chine et le Japon, déjà malmenées par une violente guerre
monétaire, ne cessent de se détériorer, et ce, à un niveau jamais
atteint depuis 1945.
Il suffirait qu’un ou plusieurs pays « quittent la partie » en
recourant au protectionnisme, à la manipulation des devises ou au
défaut de paiement de la dette pour mettre le feu aux poudres. Les
probabilités pour que cela se produise sont élevées dans la mesure
où la nation la plus importante du monde, les États-Unis, doit
désormais compter avec un parti républicain qui s’est publiquement
engagé à faire usage de ces trois pratiques.
Les déséquilibres étant des caractéristiques inhérentes à la
véritable nature de la mondialisation, ils ne peuvent s’inverser que
sous l’effet d’une catastrophe financière.
Développons : la forme actuelle de la mondialisation souffre d’un
défaut de conception. Ce n’est qu’en alimentant certains
déséquilibres, corrigés par les crises financières, qu’elle est en
mesure de produire une forte croissance. Pour réduire ces
déséquilibres, il est nécessaire de ne plus recourir à la méthode
traditionnelle de croissance néolibérale.

La révolution des technologies de l’information


Le seul facteur positif à mettre en regard de tous les points négatifs
évoqués jusqu’à présent est la révolution des technologies de
l’information, que l’on doit au néolibéralisme et qui a fait un tabac au
mépris de la crise économique. Le philosophe Luciano Floridi
explique que « la société de l’information est née de la technologie
qui a connu le progrès le plus rapide de l’Histoire. Aucune
génération antérieure n’a connu une telle accélération des moyens
techniques par rapport à la réalité, ni les changements sociaux et les
responsabilités éthiques qu’elle implique36 ».
C’est l’augmentation de la puissance de calcul qui a permis
l’émergence d’un système financier mondial aussi complexe. Elle a
favorisé l’augmentation du volume monétaire par la dématérialisation
des paiements. Elle a permis de répartir physiquement la production
et l’approvisionnement des biens vers les marchés émergents, là où
la main-d’œuvre ne coûte rien. Elle a fait perdre en complexité le
métier d’ingénieur, rendu obsolète le travail accompli par les salariés
des emplois intermédiaires et accéléré la croissance des emplois
peu qualifiés de l’industrie du service.
Mais, même si les technologies de l’information sont devenues,
comme le dit Floridi, « les technologies qui ont marqué notre
époque », elles prennent des allures de fuite à l’anglaise. Les
systèmes informatiques naissent avant de disparaître aussitôt,
remplacés par des serveurs, qui eux aussi disparaissent des sièges
sociaux et se retrouvent ailleurs, entreposés dans de grands
hangars climatisés. Les processeurs rapetissent toujours plus, le
matériel tiers – les modems, les disques durs, les cartes
mémoires –, qui autrefois encombrait nos bureaux devient de plus
en plus discret, se raréfie, puis disparaît. Les logiciels propriétaires
sont développés par des départements informatiques internes aux
entreprises, puis sont remplacés par des versions « clés en main » à
un dixième du prix d’origine. Bientôt, c’est le département
informatique qui disparaît à son tour, pour être remplacé par des
centres d’appels localisés à Bombay. L’ordinateur de bureau devient
portable. Le portable devient plus petit et plus puissant, mais finit par
être remplacé par le Smartphone et la tablette.
Au début, ces nouvelles technologies furent développées sur les
bases, anciennes, du capitalisme. Dans les années 1990, la légende
des technologies de l’information racontait que les logiciels les plus
onéreux, les progiciels, « entraient dans le moule comme du plâtre
et durcissaient comme du béton ». À peine avait-on fini
d’informatiser sa ligne de production qu’il fallait déjà tout retirer et
recommencer, à cause d’une énième innovation technologique
surgie quelque part dans le monde.
Mais, après 2004 environ, avec l’essor d’Internet et des données
mobiles, on voyait apparaître, grâce aux nouvelles technologies, de
nouveaux modèles commerciaux : le Web 2.0 était né. Avec ce
phénomène, on a pu constater l’apparition de nouveaux
comportements, adoptés par la majeure partie de la population. Il
était devenu normal de payer avec du plastique ; normal de partager
sa vie privée en ligne pour toujours ; normal de souscrire un prêt sur
salaires en ligne à 1 000 % de taux d’intérêt.
Au début, on se servait de la frénésie des nouvelles technologies
comme prétexte pour justifier tous les efforts qui avaient été fournis
afin de libéraliser les marchés. Le sacrifice des mineurs britanniques
était nécessaire pour que nous puissions avoir Facebook, il fallait
privatiser les télécommunications pour que nous puissions tous avoir
accès à la téléphonie 3G. C’était là le mode de pensée implicite.
Par-dessus tout, c’est l’humain qui a fondamentalement changé.
L’élément crucial du néolibéralisme, l’individu travailleur et
consommateur, qui se renouvelle et devient « capital humain », qui
se lève tous les matins pour livrer un combat sans merci avec ses
semblables, trouve ses racines dans la technologie du réseau. La
prédiction du sociologue Michel Foucault selon laquelle cela ferait de
nous des « entrepreneurs de soi » semblait d’autant plus avant-
gardiste qu’elle avait été formulée alors que la seule chose qui
ressemblait à Internet était composée d’un réseau d’écrans verts
possédé par l’État français et appelé « Minitel37 ».
On nous avait vanté les mérites des nouvelles technologies
comme précurseurs d’une économie de l’information et d’une société
de la connaissance. Elles sont bel et bien apparues, mais n’ont pas
répondu à nos attentes. Dans les vieilles dystopies, par exemple
2001 : l’Odyssée de l’espace et l’ordinateur rebelle Hal, c’est la
technologie qui se soulève. En réalité, le réseau a permis à l’humain
de se rebeller.
Premièrement, elle a permis de produire et de consommer du
savoir indépendamment des voies d’accès instituées à l’époque du
capitalisme industriel. C’est pourquoi nous avons d’abord remarqué
des perturbations dans les industries de l’information et de la
musique avant de constater que l’État avait soudainement perdu le
monopole sur la propagande et les idées politiques.
Ensuite, elle a commencé à nous faire remettre en question la
perception que nous avions de concepts fondamentaux tels que
la propriété et la vie privée. Wikileaks et les collectes de données de
surveillance de la population par la NSA ne sont que les dernières
étapes d’une guerre de possession et de stockage de l’information.
Cependant, ce n’est que maintenant que nous arrivons à identifier la
plus importante de toutes les conséquences de ces innovations.
L’« effet de réseau » a, pour la première fois, été théorisé par
Theodore Vail, le directeur de la Bell Telephone Company, il y a
cent ans. Il a en effet alors compris que les réseaux apportaient
quelque chose de plus, et ce, gratuitement. En plus d’être utile pour
un utilisateur de téléphone et d’être une source de revenus pour son
propriétaire, le réseau gagne en utilité à mesure que plus
d’utilisateurs le rejoignent.
Cela étant, lorsque l’on essaie de quantifier et de s’approprier ce
troisième phénomène, les choses se compliquent. Robert Metcalfe,
l’inventeur du port Ethernet, avait affirmé en 1980 que la valeur d’un
réseau est « égale au carré du nombre de ses utilisateurs ». Donc,
tandis que le coût de construction d’un réseau augmente de manière
linéaire, sa valeur augmente de manière exponentielle38. On peut
ainsi dire que faire des affaires dans une économie de la
connaissance revient tout simplement à s’approprier tout ce qui se
trouve entre la ligne droite et la courbe ascendante.
Mais comment mesure-t-on la valeur ? En termes d’argent
économisé, de revenus gagnés ou de bénéfices engrangés ? En
2013, les économistes de l’OCDE se sont mis d’accord sur le fait
que l’on ne pouvait pas mesurer cela à l’aide des instruments
classiques de mesure du marché. « Alors que l’impact d’Internet sur
les transactions effectuées au sein du marché et sur la valeur
ajoutée a sans doute été important à grande échelle, expliquent-ils,
ses effets sur les interactions non marchandes […] sont bien plus
importants39. »
Les économistes ont pour habitude de ne pas relever les
phénomènes non marchands : ils ne sont pas, par nature, des
phénomènes économiques, ils n’ont guère plus d’importance qu’un
sourire échangé entre deux clients faisant la queue chez Starbucks.
Tout comme avec l’effet de réseau, ils estiment que leur utilité
devrait se matérialiser par des prix plus bas et être partagée entre
producteurs et consommateurs. Mais, en l’espace de moins de
trente ans, la technologie du réseau a donné à de grands secteurs
de la vie économique des moyens de produire et de travailler de
manière collaborative qui dépassent le marché.
Le 15 septembre 2008, les Nokia et les Motorola pointés vers le
siège de Lehman Brothers et le signal du wifi gratuit de Starbucks
étaient à leur manière aussi importants que la banque qui venait de
faire faillite. Ils étaient porteurs de l’ultime message du marché du
futur à celui du présent : une économie de l’information peut ne pas
être compatible avec une économie de marché, ou au moins une qui
n’est pas principalement dominée et réglementée par les forces du
marché.
Cela, et c’est là notre théorie, est la cause principale de la chute,
de la crise cardiaque et de la mort cérébrale du néolibéralisme. Tout
l’argent créé, toute la vitesse et l’élan financier accumulés au cours
des vingt-cinq dernières années doivent être mis en regard de la
possibilité que le capitalisme, un système basé sur les marchés, la
propriété et l’échange, puisse ne pas s’approprier la « valeur »
générée par les nouvelles technologies. Autrement dit, il devient de
plus en plus évident que les biens de l’information sont les ennemis
naturels des mécanismes du marché.

Le système zombie
Essayons d’imaginer comment sortir du capitalisme. Durant la
prochaine décennie, les banques centrales abandonnent le
mécanisme de l’assouplissement quantitatif de manière ordonnée.
Elles s’abstiennent de recourir à la planche à billets pour amortir leur
dette nationale. Tenu à l’écart pendant une décennie, le marché
privé des obligations d’État renaît. En plus de cela, les
gouvernements acceptent de mettre un terme à la folie financière :
ils s’engagent à faire monter les taux d’intérêt pour parer aux futures
bulles financières et abolissent définitivement la garantie implicite
que représente le sauvetage bancaire. En conséquence, tous les
autres marchés (crédits, actions et produits dérivés) se corrigeraient
de sorte à refléter le risque accru du capitalisme financier. Le capital
serait réaffecté à des investissements productifs, loin des activités
spéculatives de la finance.
En fin de compte, le monde devra adopter des taux de change
fixés en fonction d’une nouvelle devise mondiale gérée par le FMI, le
yuan chinois devenant une devise de réserve entièrement
négociable, à la manière du dollar. Cela permettrait de faire face à la
menace généralisée posée par la monnaie fiduciaire : un manque de
crédibilité qui trouve ses racines dans le risque d’éclatement de la
mondialisation. Mais le prix à payer serait la disparition définitive des
déséquilibres mondiaux : la valeur des monnaies des pays
excédentaires augmenterait, et la Chine, l’Inde et d’autres pays
devraient renoncer à leur avantage en matière de main-d’œuvre bon
marché.
Il faudrait, en même temps, inverser le mouvement de la
financiarisation. Cela nécessiterait un déplacement du pouvoir
politique exercé par les banques et les politiciens qui les soutiennent
en faveur d’une politique de relocalisation de l’industrie et des
services vers l’Occident, afin de créer des emplois à salaires élevés
dans les pays développés. Ainsi, la finance perdrait en complexité,
les salaires augmenteraient, et la part du secteur financier dans le
PIB diminuerait, de même que notre dépendance au crédit.
Seuls les membres les plus clairvoyants du gotha mondial savent
que c’est la seule solution : stabilisation de la monnaie fiduciaire,
retrait de la financiarisation et fin des déséquilibres. Cependant,
d’énormes obstacles sociaux et politiques se dressent.
Tout d’abord, les plus riches s’opposent aux augmentations de
salaire et à la réglementation de la finance, tant c’est à l’opposé de
ce à quoi ils aspirent. Ensuite, il y aurait des gagnants et des
perdants au niveau international : l’élite dirigeante allemande tire
actuellement profit de sa colonisation de la Grèce et de l’Espagne à
travers leur endettement, l’élite dirigeante chinoise tire profit de sa
position de gardienne d’une économie de main-d’œuvre bon marché
forte de 1,4 milliard de personnes. Tous ont un intérêt motivé à
bloquer cette voie de sortie.
Et ce n’est pas le plus gros problème : pour que ce scénario
fonctionne, il faudrait effacer d’énormes dettes nationales
impossibles à rembourser, en plus d’une grande partie de celles des
ménages et des entreprises. Il n’existe cependant aucun système au
niveau mondial qui le permettrait. Si l’on efface la dette des États-
Unis, ce sont les épargnants chinois qui perdent, ce qui mènerait à
une rupture de l’accord fondamental entre l’Asie et l’Occident : vous
empruntez, nous prêtons. Si nous effaçons la dette que la Grèce a
contractée auprès de l’Union européenne, ce sont les contribuables
allemands qui perdent des dizaines de milliards d’euros, ce qui,
encore une fois, mettrait fin à un accord crucial.
Le résultat de ce scénario idéal, en supposant que la transition
puisse s’effectuer de manière pacifique, ce serait l’éclatement de la
mondialisation.
Or une telle transition ne se ferait pas sans conflits.
Depuis 2014, la Russie est devenue une puissance qui se
consacre à perturber les économies occidentales, au lieu de
coopérer avec elles. La Chine, malgré tout le soft power qu’elle a
commencé à concrétiser, ne peut pas accomplir ce que les États-
Unis ont fait à la fin de la Seconde Guerre mondiale : absorber la
dette mondiale, établir des règles claires et mettre en place un
nouveau système monétaire international.
En attendant, il n’y a pas la moindre trace d’une quelconque
stratégie similaire en Occident à celle expliquée plus haut. Il en est
question, notamment si l’on considère l’adulation de l’économiste
français Thomas Piketty et l’augmentation des salaires en Europe
demandée par la Bundesbank en 2014. Mais, en pratique, les
principaux partis restent attachés au néolibéralisme.
Qui plus est, sans cette voie de sortie, l’avenir ressemble de plus
en plus à une stagnation à long terme.
En 2014, l’OCDE a publié ses prévisions sur l’état de l’économie
internationale entre 2015 et 206040. Selon ses experts, la croissance
mondiale ralentirait à 2,7 %, car les effets de rattrapage qui stimulent
la croissance dans les pays en voie de développement
(accroissement de la population, éducation, urbanisation) vont
s’estomper. Même avant cela, la quasi-stagnation des économies
développées indique une croissance mondiale moyenne de
seulement 3 % au cours des cinquante prochaines années, ce qui
est nettement inférieur à la moyenne observée avant la crise.
Dans le même temps, les emplois semi-qualifiés seront
automatisés et leurs salaires disparaîtront, ne laissant que des
salaires faibles et élevés. Les inégalités augmenteront de 40 %. En
2060, des pays comme la Suède connaîtront les niveaux d’inégalité
actuellement observés aux États-Unis : la banlieue de Stockholm
aura des allures de ville fantôme. Il existe également un risque réel
que le changement climatique se traduise autant par la destruction
des capitaux que par celle des zones côtières et de l’agriculture, ce
qui réduirait le PIB mondial de 2,5 % et celui de l’Asie du Sud-Est de
6 %.
Cependant, l’élément le plus pessimiste du rapport de l’OCDE ne
réside pas dans ses projections, mais dans ses estimations : une
forte hausse de productivité due aux technologies de l’information.
On s’attend à ce que les trois quarts de la croissance d’ici à 2060
viennent d’une productivité accrue. Cependant, ces estimations sont,
comme le rapport l’indique avec un euphémisme, « hautes par
rapport à l’Histoire récente ».
Dans les faits, et comme nous l’expliquerons dans le chapitre 5, il
n’est absolument pas certain que la révolution technologique qui a
eu lieu lors de ces vingt dernières années puisse se traduire par une
croissance et une productivité quantifiable en termes de marché.
Dans le cas présent, il existe un risque non négligeable que les
maigres 3 % de croissance annuelle prévus par l’OCDE sur les
cinquante prochaines années à venir soient plus proches de 0,75 %.
Enfin, il y a le problème de l’immigration. Pour que le scénario de
croissance centrale de l’OCDE fonctionne, l’Europe et les États-Unis
devront absorber 50 millions d’immigrants, chacun entre 2015 et
2060, tandis que les autres pays développés devront en assimiler
30 millions. Sans eux, la main-d’œuvre et l’assiette fiscale de
l’Occident diminueront de telle façon que les états entreront en
faillite. Le risque, incarné par 25 % de votes pour le Rassemblement
national, en France, et par des militants de droite surarmés et
haranguant des enfants d’immigrants à la frontière entre la Californie
et le Mexique, est que les populations des pays développés s’y
opposent.
Essayez de vous plonger dans le monde en 2060 comme
envisagé par l’OCDE : Los Angeles et Detroit ressemblent à Manille
aujourd’hui, avec des bidonvilles qui longent des gratte-ciel
surveillés par des gardes ; Stockholm et Copenhague ont
l’apparence des villes en ruines de la rust belt des États-Unis, les
emplois à salaire moyen disparaissent. Le capitalisme en serait à sa
quatrième décennie de stagnation.
Selon l’OCDE, ne serait-ce que pour concrétiser cet avenir
radieux, nous devons rendre la main-d’œuvre plus « flexible » et
mondialiser davantage l’économie. Il faudrait privatiser
l’enseignement supérieur (puisque le coût de son développement,
nécessaire pour répondre à la demande des nouveaux bacheliers,
entraînerait la faillite de nombreux états) et absorber des dizaines de
millions de migrants dans les pays développés.
Et, alors que nous nous efforçons de faire face à tout cela, il est
probable que les moyens actuels de financement des États
disparaissent. L’OCDE indique que la polarisation des populations,
en groupes de revenus faibles et forts, rendra l’imposition sur le
revenu inefficace. Il deviendra nécessaire, comme le suggère
Thomas Piketty, de taxer les riches à la place. Le problème ici étant
que les biens – qu’il s’agisse d’un cheval de course prestigieux, d’un
compte bancaire secret ou des droits de propriété intellectuelle sur le
logo de Nike – ont tendance à être détenus au sein de juridictions
dont le but est d’éviter les impôts sur la fortune, quand bien même
quelqu’un déciderait de les lever, ce qui n’est pas le cas
actuellement.
Selon l’OCDE, si rien ne change, nous pouvons raisonnablement
nous attendre à une stagnation en Occident, à un rythme de
croissance modéré pour les marchés émergents ainsi qu’à la faillite
probable de nombreux États.
Il est donc plus réaliste de penser que, à un moment donné, un ou
plusieurs pays renonceront à la mondialisation par le biais du
protectionnisme, de l’annulation de la dette et de la manipulation des
devises. Ou alors, qu’une crise de démondialisation ayant pour
origine des désaccords diplomatiques et des conflits armés se
répercute sur l’économie internationale et produise les mêmes
résultats.
La leçon que nous pouvons tirer du rapport de l’OCDE est que
nous avons besoin de revoir le système dans son intégralité. La
génération la plus éduquée et la plus connectée de toute l’histoire de
l’humanité ne saurait accepter un futur d’inégalités profondes et de
croissance nulle.
Plutôt que de nous précipiter vers une démondialisation et ainsi
aller vers plusieurs décennies de stagnation et une augmentation
des inégalités, nous devrions adopter un nouveau modèle
économique. Concevoir un tel modèle exigera bien plus qu’un simple
effort de pensée utopiste. Au milieu des années 1930, le talent de
Keynes résidait dans sa capacité à comprendre ce que la crise avait
révélé sur le système existant. Un nouveau modèle viable devait être
construit afin de corriger les défauts permanents de l’ancien, ceux
qui échappaient au regard de l’économie orthodoxe.
Cette fois-ci, le problème est plus important encore.
Le postulat de ce livre est que, en parallèle du problème de la
stagnation à long terme (qui a pour origine la crise financière et
l’explosion démographique), les technologies de l’information ont
privé les forces du marché de leur capacité à créer du dynamisme.
Au lieu de cela, elles réunissent les conditions nécessaires à une
économie postcapitaliste. Dans la mesure où ses fondements
technologiques ont changé, il n’est peut-être pas possible de
« sauver » le capitalisme comme Keynes l’a fait par le biais de
solutions radicales.
Avant d’exiger un « New Deal vert », des banques publiques, un
enseignement universitaire gratuit ou des taux d’intérêt zéro à long
terme, nous devons donc comprendre comment tout ceci
pourrait s’intégrer dans le type d’économie qui est en train
d’émerger. Or nous manquons terriblement de moyens pour y
parvenir. Un ordre a été rompu, mais les économistes orthodoxes
n’ont aucune idée de l’ampleur de cette rupture.
Pour avancer, nous devons nous appuyer sur une idée plus
humble que « l’automne financier d’un empire sur le déclin », mais
plus ambitieuse qu’une simple théorie des cycles alternant
expansions et récessions. Il nous faut une théorie qui explique à la
fois pourquoi de grandes transformations se sont produites dans
l’histoire du capitalisme durant ces deux derniers siècles, et
comment les révolutions technologiques stimulent la croissance
capitaliste.
Ce qu’il nous faut, en somme, c’est une théorie qui permet de
situer la crise actuelle dans le cadre du destin global du capitalisme.
Cette quête nous mènera au-delà de l’économie traditionnelle, et
bien au-delà encore du marxisme orthodoxe. Cette quête débute
dans une cellule de prison russe en 1938.
2
Cycles longs et mémoire courte

Les vagues sont belles. Le bruit de l’océan frappant le sable est la


preuve que l’ordre existe dans la nature.
Lorsqu’on prend en compte la physique des vagues, elles en
deviennent encore plus belles. C’est la matière qui matérialise la
tendance à l’inversion : l’énergie dressant la vague est la même qui
la fait descendre. Lorsque l’on pense aux propriétés mathématiques
des vagues, elles en deviennent d’autant plus fascinantes.
Il y a mille cinq cents ans, un mathématicien indien a découvert
que, si l’on trace toutes les droites perpendiculairement à deux côtés
sur trois d’un triangle, on obtient un motif en forme de vague. Les
savants du Moyen Âge ont appelé ce motif un « sinus ». Aujourd’hui,
nous appelons « signal sinusoïdal » la répétition d’ondes régulières
que l’on trouve dans la nature. Un courant électrique se déplace à la
manière d’un signal sinusoïdal, tout comme le son et la lumière.
Puis viennent les ondes parmi les ondes. Pour un surfer, les
vagues semblent venir en groupe et sont de taille croissante, de telle
sorte que la sixième ou la septième est la grande vague sur laquelle
il veut surfer. En fait, ces vagues ne sont que le résultat d’une vague
plus longue et plus plate qui se déplace « à travers » les plus petites.
Ce rapport, entre ondes longues et ondes courtes, est source
d’organisation, en acoustique. Pour les musiciens, les notes
harmoniques créées par les ondes courtes au sein d’ondes plus
longues sont ce qui donne à chaque instrument un son qui lui est
propre ; la musique sonne juste lorsque les ondes longues et les
ondes courtes sont strictement proportionnelles d’un point de vue
mathématique.
Les vagues sont présentes partout naturellement. À l’échelle
subatomique, le mouvement ondulatoire des particules est la seule
preuve de leur existence. Il existe cependant des vagues au sein de
systèmes plus grands, plus complexes et artificiels, comme les
marchés. Pour les analystes des marchés financiers, les vagues font
figure d’icônes religieuses : ils utilisent des outils qui leur permettent
de filtrer le « bruit » des variations quotidiennes de sorte à générer
une courbe prévisionnelle. Les « pics » et les « creux » sont
devenus des mots de tous les jours en économie.
Cependant, dans ce domaine, les vagues peuvent devenir
dangereuses. Elles peuvent témoigner de stabilité et de régularité là
où il n’y en a pas. Là où les ondes sonores deviennent silence, les
ondes produites à partir de données brutes se distordent avant de
disparaître un peu plus tard. L’économie est un monde
d’événements complexes et aléatoires, pas de simples vagues.
Ce sont les spécialistes des courbes qui n’ont pas su prévoir le
ralentissement. Dans le jargon du surf, ils ont observé les vagues
individuellement plutôt que de les considérer dans un ensemble,
puis se sont concentrés sur ces ensembles plutôt que de prendre en
compte les marées, avant de se focaliser sur les marées au lieu du
tsunami qui était sur le point de déferler sur eux. Nous voyons le
tsunami comme une énorme vague, un mur d’eau. En fait, un
tsunami n’est qu’une très longue vague : elle gonfle et arrive
inexorablement.
Pour l’homme qui a découvert l’existence de ces vagues en
économie, celles-ci lui ont été fatales.

Peloton d’exécution
Le prisonnier traîne des pieds, incapable de marcher. Il ne voit plus
très bien, souffre de maladie cardiaque chronique et d’une
dépression clinique. « Je n’arrive pas à penser de manière
rationnelle. Réfléchir à la manière d’un scientifique, sans travailler
activement sur des matériaux de recherche, sans livres, et avec une
migraine par-dessus le marché est très difficile », écrit-il1.
Nikolai Kondratiev est resté enfermé huit ans comme prisonnier
politique à Suzdal, à l’est de Moscou. Il ne pouvait lire que les livres
et les journaux autorisés par la police politique de Staline. En hiver,
le froid le faisait trembler de tous ses membres ; en été, il suait au
point de frôler la déshydratation sévère, mais son calvaire touchait
bientôt à sa fin. Le 17 septembre 1938, dernier jour de sa peine,
Kondratiev fut jugé une deuxième fois. Il fut condamné pour ses
activités contre le régime soviétique et abattu dans sa cellule par un
peloton d’exécution.
Ainsi périt l’un des géants de l’économie du e siècle. De son
temps, Kondratiev s’était élevé aux côtés de penseurs d’influence
mondiale tels que Keynes, Schumpeter, Hayek et Gini. Ses
« crimes » avaient été fabriqués de toutes pièces. Le « Parti
travailliste paysan » clandestin, dont il était censé avoir été le chef,
n’a jamais existé.
Selon ses bourreaux, le vrai crime de Kondratiev avait été de
penser l’impensable à propos du capitalisme : au lieu de s’effondrer
sous le poids de la crise, celui-ci s’adapte et se transforme. Dans le
cadre de deux de ses travaux d’analyse de données les plus
révolutionnaires, il avait réussi à prouver qu’un cycle long de
cinquante ans existait au-delà des cycles économiques de courte
durée et dont les tournants majeurs coïncident avec des
changements structurels importants au sein du capitalisme ainsi
qu’avec des conflits de grande ampleur. De ce fait, les moments de
crises intenses et autres combats pour la survie n’étaient pas
synonymes de chaos, mais d’ordre. Kondratiev avait été le premier à
découvrir l’existence des vagues longues en économie.
Bien qu’elle ait été vulgarisée et, plus tard, connue sous le nom de
« théorie des cycles », l’intérêt principal de la théorie de Kondratiev
tient dans sa description des changements fondamentaux auxquels
l’économie mondiale est sujette, des tensions structurelles au sein
du capitalisme et de la façon avec laquelle celui-ci se transforme
pour y répondre. Kondratiev a réussi à expliquer pourquoi des
systèmes économiques qui ont survécu pendant plusieurs dizaines
d’années sont susceptibles de s’écrouler d’un instant à l’autre. Il
préférait employer le terme « cycle long » plutôt que « vague », car,
dans la pensée scientifique, parler de « cycle » nous permet
d’utiliser l’ensemble d’un champ lexical tout à fait pertinent : on peut
ainsi parler de phases, d’états et de leur inversion soudaine.
Kondratiev avait étudié le capitalisme industriel. Bien que d’autres
affirment avoir trouvé des preuves de cycles longs en examinant les
prix que l’on pratiquait à l’époque du Moyen Âge, ses séries de
données commencent à l’époque de la révolution industrielle, dans
les années 1770.
Selon la théorie de Kondratiev, chaque cycle de longue durée
commence par une période de croissance économique qui dure
environ vingt-cinq ans et qui est alimentée par la mise en œuvre de
nouvelles technologies et par d’importants investissements en
capital, puis vient une période de récession de même durée qui se
termine habituellement par une dépression. Lors de la période de
« croissance », les récessions se font rares ; dans la période de
« décroissance », elles sont fréquentes. Dans la période de
« croissance », le capital va aux industries de production ; dans la
période de « décroissance », il est prisonnier du système financier.
On pourrait creuser davantage, mais c’est la base de la théorie.
Dans ce premier chapitre, j’expliquerai pourquoi cette théorie se
vérifie, mais aussi pourquoi la crise actuelle marque une rupture
dans le cycle et pourquoi il se passe quelque chose de bien plus
significatif que la fin d’un cycle de cinquante ans.
Kondratiev lui-même était très prudent quant à ce que sa théorie
impliquait. Il n’a jamais prétendu être en mesure de prévoir quoi que
ce soit, même s’il avait vu venir la Grande Dépression des
années 1930 dix ans avant qu’elle ne se produise. Il s’est arrangé
pour que la publication de ses découvertes soit accompagnée de
vives critiques et qu’elle passe par un comité de lecture2.
D’une certaine manière, la police de Staline avait mieux compris
sa théorie que Kondratiev lui-même. Les officiers de la police avaient
compris que, si l’on allait au bout de la théorie, elle mettrait le
marxisme face à une idée dangereuse : le capitalisme ne connaîtra
jamais sa « dernière » crise. Le chaos, la panique et la révolution,
oui ; mais, selon les données collectées par Kondratiev, la tendance
du capitalisme n’est pas à l’effondrement, mais plutôt au
changement. Des pans entiers du capital peuvent disparaître, des
modèles économiques peuvent devenir obsolètes, des empires
peuvent s’écrouler lors de guerres totales, mais le système survit,
bien que sous une autre forme.
Pour les marxistes orthodoxes des années 1920, l’explication qu’a
fournie Kondratiev sur les causes de ces transformations était tout
aussi dangereuse. Les événements à l’origine de ces tournants
majeurs – à savoir les guerres, les révolutions, la découverte de
nouveaux gisements d’or et l’établissement de nouvelles colonies –
ne traduisaient, selon lui, que l’impact des exigences de l’économie
elle-même. Même si elle essaie de façonner l’histoire de l’économie,
l’humanité peut difficilement agir sur le long terme.
Dans les années 1930, la théorie des cycles longs avait influencé
la pensée occidentale. L’économiste Joseph Schumpeter avait, lui
aussi, émis une théorie des cycles économiques, contribuant ainsi à
la popularité du terme « cycle de Kondratiev ». Mais une fois le
capitalisme stabilisé après 1945, la théorie des cycles longs semblait
obsolète. Les économistes croyaient que l’on pouvait corriger les
variations les plus infimes du capitalisme grâce à l’interventionnisme.
Quant aux cycles de cinquante ans, le gourou de l’économie
keynésienne Paul Samuelson les avait qualifiés de « science-
fiction3 ».
En outre, dans les années 1960, lorsque la nouvelle gauche
essayait tant bien que mal de réhabiliter le marxisme en tant que
théorie sociologique légitime, elle n’avait clairement pas le temps de
s’intéresser à Kondratiev et à ses vagues. Elle cherchait une théorie
qui prédisait l’éclatement du capitalisme, pas sa survie.
Seule une poignée de durs à cuire (principalement des
investisseurs) restèrent attachés à Kondratiev. Dans les
années 1980, les analystes de Wall Street ont fait de ses prudentes
conclusions à court terme un ramassis de bla-bla prophétique. Ils
remplacèrent les données complexes de Kondratiev par une courbe
grossière composée de lignes tracées à la volée : une hausse, un
plateau, une crise et une chute brutale. Ils la baptisèrent « vague
K ».
Selon ces investisseurs, si Kondratiev a raison, la reprise
économique qui a commencé dans les années 1940 marque le
début d’un cycle de cinquante ans, ce qui implique qu’une
dépression doit avoir lieu vers la fin des années 1990. Ces mêmes
investisseurs ont conçu des stratégies d’investissement complexes
pour se protéger de la catastrophe, puis ils ont attendu…

Ce qu’a réellement dit Kondratiev


En 2008, ce que les investisseurs attendaient s’est finalement
produit, bien qu’accusant, et nous expliquerons pourquoi plus tard,
un retard de dix ans.
Aujourd’hui, les économistes traditionnels s’intéressent de
nouveau aux cycles de longue durée. Lorsqu’ils se sont rendu
compte que la crise de Lehman Brothers était de nature systémique,
ils se sont mis à chercher des récurrences produites par les
interactions entre la croissance et les innovations technologiques.
En 2010, les économistes de Standard Chartered ont affirmé que
nous étions au beau milieu d’un « supercycle4 » d’ampleur mondiale.
Carlota Perez, une économiste anglo-vénézuélienne et disciple de
Schumpeter, s’est approprié la théorie des cycles de Kondratiev et a
auguré d’un nouvel « âge d’or » du capitalisme, si tant est que celui-
ci parvienne à mettre fin aux crises financières et à rétablir le
processus d’innovations financées par les États qui fut à l’origine de
l’accélération de la croissance après la guerre5.
Mais, pour bénéficier au mieux des enseignements de Kondratiev,
il est nécessaire de bien comprendre ce qu’il a réellement dit. Ses
premières recherches, qui datent des années 1920, s’appuyaient sur
les données tirées de l’analyse de cinq économies avancées durant
la période 1790-1920. Il n’a pas directement observé le PIB, mais
plutôt les taux d’intérêt, les salaires, le prix des denrées, les
productions de charbon et de fer ainsi que les chiffres du commerce
international. À l’aide des outils statistiques les plus avancés de son
époque, et de deux assistants, dont l’intitulé de poste était
« ordinateur », il a dégagé une courbe de tendance à partir des
données brutes. Il a distribué ces données en fonction de la taille de
la population et les a lissées en utilisant une « moyenne mobile » de
neuf ans pour écarter les fluctuations aléatoires et les cycles plus
courts.
Le résultat s’est traduit par une série de diagrammes qui prenaient
la forme de signaux sinusoïdaux creux. Ces diagrammes
matérialisaient le premier cycle de longue durée, qui commence par
l’apparition de l’industrialisation en Grande-Bretagne dans les
années 1780 et qui se termine autour de 1849. Puis un deuxième
cycle plus important commence en 1849 et coïncide avec la mise en
service des chemins de fer, des bateaux à vapeur et du télégraphe à
l’échelle mondiale. Il ralentit après 1873, année qui marque le début
de la « Grande Dépression » et se termine dans les années 1890.
Au début des années 1920, Kondratiev était persuadé qu’un
troisième cycle se déroulait. Il avait atteint son pic et entamait sa
phase de décroissance, quelque part entre 1914 et 1920. Mais ce
n’était que le début. Selon lui, les tensions politiques qui ont mis
l’Europe à feu et à sang entre 1917 et 1921 n’allaient pas
immédiatement déboucher sur une catastrophe économique. Une
reprise, quoique fragile, était possible, selon Kondratiev, avant une
dépression imminente, cela dit. L’Histoire lui a donné raison.
À l’inverse des analystes de Wall Street d’aujourd’hui, Kondratiev
n’était pas obsédé par la forme des vagues. Il a vu dans les signaux
sinusoïdaux qu’il avait tracés sur papier la preuve que quelque
chose de bien plus profond se déroulait dans la réalité : une série de
« périodes » qui s’alternent, et qui constituent les données les plus
utiles à notre compréhension des cycles de cinquante ans6.
Examinons plus en détail ces périodes telles que les décrit
Kondratiev. La première période, celle de croissance, commence
habituellement par une décennie d’expansion accélérée, ponctuée
de guerres et de révolutions, durant laquelle les technologies mises
au point lors de la précédente récession sont tout à coup
standardisées et déployées. Puis vient un ralentissement provoqué
par la baisse des investissements en capital, l’augmentation des
épargnes et l’accumulation de capital par les banques et les
entreprises ; le tout aggravé par l’impact destructeur des guerres et
la croissance des dépenses militaires non productives. Cependant,
ce ralentissement fait partie de la période de croissance, les
récessions restent brèves et peu marquées, tandis que les périodes
de croissance sont fréquentes et importantes.
Enfin, une période de décroissance commence, lors de laquelle
les prix des denrées et les taux d’intérêt diminuent. Le capital
accumulé dépasse celui qu’il est possible d’investir dans les
industries productives, il a donc tendance à être retenu dans le
secteur financier, ce qui fait baisser les taux d’intérêt puisque l’offre
abondante de crédit fait baisser le prix des emprunts. Les récessions
s’aggravent et deviennent plus fréquentes. Les salaires et les prix
s’écroulent, puis vient la dépression.
Dans tous les cas, personne ne prétend que les événements se
déroulent à un moment précis, ni que les cycles sont réguliers.
Kondratiev a insisté sur le fait que chaque cycle de longue durée
survient dans le cadre d’un « contexte historique nouveau et unique,
à un niveau jamais atteint dans le développement des moyens de
production, et n’est donc en aucun cas une simple répétition du
cycle précédent7 ». En somme, c’est bien plus qu’une simple
impression de déjà-vu.
Vient maintenant l’argument le plus controversé de Kondratiev. Il a
remarqué que chaque début de cycle était accompagné
d’événements déclencheurs. Nous allons le citer dans son entièreté,
malgré le caractère ancien du langage, car les similitudes avec le
présent sont frappantes.

« Pendant, approximativement, les deux premières décennies qui précèdent


le début de la période de croissance d’un cycle de longue durée, nous
pouvons remarquer que de plus en plus d’inventions voient le jour. Avant et
après le commencement d’un cycle, nous sommes témoins de l’application à
grande échelle de ces inventions dans le secteur industriel, application qui fait
suite à la réorganisation des relations de production. Le début des cycles de
longue durée coïncide habituellement avec l’agrandissement de l’orbite des
relations économiques mondiales. Enfin, le début des deux derniers cycles
qui se sont succédé fut précédé d’importants changements dans les moyens
d’extraction des métaux précieux et dans la circulation monétaire8. »

Ce qui donne, en français moderne : à chaque début de cycle,


– de nouvelles technologies sont mises en œuvre ;
– de nouveaux modèles commerciaux voient le jour ;
– de nouveaux pays rejoignent le marché international ;
– et l’argent est plus disponible et en plus grande quantité.

L’importance de cette liste saute aux yeux : elle décrit de manière


très claire ce qui est arrivé à l’économie mondiale entre le milieu des
années 1990 et la chute de Lehman Brothers. Cependant,
Kondratiev était persuadé que ces événements n’étaient pas les
causes de cette chute, mais plutôt ses déclencheurs. Il insiste sur le
fait qu’il n’est « absolument pas convaincu que ces événements
puissent de quelque manière que ce soit justifier les causes des
cycles de longue durée9 ».
Kondratiev était déterminé à trouver les causes des cycles de
longue durée dans l’économie, et non dans la technologie ou la
politique internationale. Et il avait raison. Mais, durant sa quête, il
s’est appuyé sur des théories avancées par Karl Marx pour expliquer
les cycles économiques de dix ans qui avaient eu lieu au e siècle.
Ces cycles se caractérisent par l’épuisement des investissements en
capital et la nécessité de réinvestir.
Si, explique-t-il, les crises « récurrentes » qui surviennent tous les
dix ans sont le résultat d’un besoin de renouvellement des outils et
des machines, alors les crises que nous subissons tous les
cinquante ans sont probablement causées par « le vieillissement,
l’usure, le remplacement et l’augmentation des biens capitaux de
base et dont le coût de production en temps et en investissement est
extrêmement élevé10 ». Par exemple, il avait pensé au grand nombre
e
de canaux creusés à la fin du siècle et de lignes de chemin de
fer construites lors des années 1840.
Selon la théorie de Kondratiev, un cycle long démarre en raison de
l’accumulation d’argent peu coûteux, de sa centralisation et de son
utilisation dans le système financier, le tout habituellement
accompagné d’une hausse de l’offre monétaire, hausse qui est
nécessaire au financement des investissements croissants. On
commence à investir en masse : des canaux et des usines à la fin du
e
siècle, des chemins de fer et des infrastructures urbaines au
e
milieu du siècle. De nouvelles technologies sont mises en
œuvre, et de nouveaux modèles commerciaux voient le jour, ce qui
conduit à de nouvelles luttes pour la conquête de nouveaux
marchés, et rendent les conflits d’autant plus intenses que les
rivalités territoriales autour des colonies se multiplient. Les nouveaux
corps sociaux associés aux industries et aux technologies
émergentes se heurtent aux anciennes élites, ce qui provoque des
conflits.
Certaines des spécificités sont évidemment propres à chaque
cycle, mais ce qui est à retenir dans la théorie de Kondratiev réside
dans son explication des causes et effets. Le début d’un cycle
s’enclenche en fonction de la vitesse à laquelle le capital a été
accumulé par rapport à celle à laquelle il a été investi lors de la
période de dépression précédente. L’un des effets de ce phénomène
se traduit par la poursuite d’une offre monétaire plus importante ; un
autre se matérialise par la disponibilité de nouvelles technologies
peu onéreuses. À chaque nouvelle poussée de croissance, on
observe une recrudescence des guerres et des révolutions.
Kondratiev, par son obsession relative aux causes économiques
et aux effets de la politique et des technologies, s’est retrouvé sous
un feu nourri venant de trois directions. Les marxistes ont d’abord
insisté sur le fait que les tournants majeurs de l’histoire du
capitalisme ne pouvaient se produire qu’à cause de crises externes.
Puis Schumpeter, son contemporain, a postulé que les cycles de
longue durée dépendent des ruptures technologiques, et non du
rythme changeant des investissements en capital. Un troisième
groupe d’opposants a enfin affirmé que, dans tous les cas, les
données utilisées par Kondratiev étaient fausses et que les preuves
de l’existence des cycles étaient exagérées.
Mais Kondratiev avait raison, et les arguments qu’il avançait sur la
causalité démontrent de manière tout à fait pertinente ce qui est
arrivé à l’économie depuis 1945. Si nous pouvons compléter la
théorie de Kondratiev, nous sommes non seulement en mesure de
comprendre comment le capitalisme s’adapte et se transforme en
réponse aux crises, mais aussi pourquoi cette capacité d’adaptation
atteindra peut-être ses limites. J’expliquerai dans la partie 2 pourquoi
nous vivons à l’époque d’une rupture significative et
vraisemblablement définitive avec les schémas suivis par le
capitalisme industriel durant deux cents ans.
Mais, d’abord, nous nous devons de répondre aux critiques.

La courbe imaginaire
En 1922, les publications des premières esquisses des cycles de
longue durée de Kondratiev ont immédiatement déclenché une
controverse. Léon Trotsky, l’un des trois chefs les plus influents du
communisme de l’époque, a écrit que, si les cycles de cinquante ans
existent, « leurs particularités et leur durée ne sont pas déterminées
par les interactions entre les différentes forces du capitalisme, mais
selon ces conditions externes à travers les voies desquelles le
développement capitalistique se déverse11 ».
e
Au début du siècle, les révolutionnaires marxistes sont
devenus obsédés par l’idée que l’action humaine, la « volonté
subjective », était plus importante que l’économie. Ils se sentaient
prisonniers de l’économie, devenue la propriété des socialistes
modérés qui croyaient qu’une révolution était impossible. Selon
Trotsky, Kondratiev avait fait les choses à l’envers :

« La conquête de nouveaux pays et de continents par le capitalisme, la


découverte de nouvelles ressources naturelles, et, à leur suite, les
événements importants à l’échelle “super-structurelle” tels que les guerres et
les révolutions, déterminent les spécificités et le renouvellement des époques
de croissance, de stagnation et de déclin du développement capitaliste12. »

Cela peut sembler étrange à ceux qui ne connaissent que le


marxisme en tant que forme de déterminisme économique, mais
Trotsky insistait ici sur le fait que les conflits politiques entre les
nations et les classes étaient plus importants que les puissances
économiques. Au lieu des cycles de longue durée, Trotsky a
défendu l’idée que les économistes soviétiques devraient plutôt se
concentrer sur l’explication de « la totalité de la courbe du
développement capitaliste », de sa naissance à son apogée puis
jusqu’à sa chute. Autrement dit, toute son histoire. Les cycles longs
ne manquaient pas d’intérêt, mais, pour ceux désireux de voir le
capitalisme s’effondrer, le modèle le plus important était le cycle de
vie complet du capitalisme, qui ne tendait certainement pas vers
l’infini.
Les marxistes avaient expliqué à leur manière les grands
changements qui avaient eu lieu dans les structures commerciales
après 1890, qu’ils ont baptisés « impérialisme » et qui constituaient,
selon eux, la dernière étape, ou le « point culminant » du
capitalisme. Ainsi, confronté aux données de Kondratiev, Trotsky a
lui aussi tracé une courbe… fruit de son imagination. Elle
représentait l’essor et la chute d’un pays capitaliste imaginaire sur
une période de quatre-vingt-dix ans. La raison d’être de ce
graphique, explique Trotsky, était de montrer ce qu’un traitement
complet et laborieux des données pourrait produire. Selon lui, dès
lors que l’on comprend la courbe de tendance d’une économie
capitaliste, on est en mesure de comprendre qu’un cycle de
cinquante ans, si tant est qu’il existe, correspond soit à la période de
croissance, soit à la période de déclin, soit au moment où l’existence
de cette économie s’achève. Trotsky ne s’est jamais excusé à
propos de sa courbe imaginaire. Les données n’étaient pas assez
bonnes pour tracer une vraie courbe, disait-il, mais, avec du travail,
c’est possible. On s’est servi et l’on continue de se servir des
réponses apportées par Trotsky en 1922 pour rejeter l’idée des
cycles de longue durée. Mais cette attaque n’avait pas de pouvoir.
Elle disait simplement :
1. que les cycles ne sont pas réguliers, même s’ils sont causés
par des événements externes ;
2. qu’ils doivent être intégrés dans la perspective d’un cycle
plus long décrivant l’essor et le déclin du capitalisme lui-
même. Autrement dit, Trotsky appelait à une définition plus
qualitative et davantage mise en contexte de la « tendance »
par rapport à laquelle les cycles de cinquante ans ont été
calculés.

Cela était logique en soi. Dans n’importe quelle tendance, les


statisticiens cherchent ce qu’ils appellent une « rupture de
tendance » : un moment précis où la courbe cesse de monter,
devient plate et amorce une descente. Cette quête de la rupture de
tendance a obsédé les économistes de gauche tout au long du
e
siècle, jusqu’à finir par les perdre.
Pendant ce temps, Kondratiev avait à faire.

Une chambre froide à Moscou


En janvier 1926, Kondratiev publiait ses derniers travaux, intitulés
Les Grands Cycles de la conjoncture. Le 6 février, la crème des
économistes soviétiques s’est rassemblée dans la cellule de
réflexion de Kondratiev, l’Institut de conjoncture économique russe,
situé dans la rue Tverskaya à Moscou, pour démolir ses arguments.
L’enregistrement authentique de la réunion ne contient rien de la
peur et de l’absurdité bientôt instillées par les purges de Staline dans
la vie universitaire soviétique. Les participants s’expriment
franchement et avec dureté. Ils continuent sur la lancée des trois
axes de critiques dominantes des travaux de Kondratiev : la
défaillance de ses méthodes statistiques, son manque de
compréhension des causes des cycles, ainsi que l’irrecevabilité de
ses conclusions sur le plan politique.
Tout d’abord, l’économiste Dmitry Oparine, son adversaire
principal, a soutenu que la méthode qu’il a employée pour lisser les
données des cycles courts ne fonctionnait pas et qu’elle avait
déformé les résultats. En plus de cela, les données à long terme
relatives à la hausse et à la baisse des épargnes n’appuyaient pas la
théorie de Kondratiev.
Puis, le séminaire s’est penché sur la question de la relation de
cause à effet. L’économiste V. E. Bogdanov affirma que ce sont les
innovations technologiques qui donnent le rythme aux cycles de
longue durée, et non pas les investissements en capital (ce qui fait
de lui la première personne à réduire la théorie des cycles de longue
durée à une chronologie des innovations technologiques, mais pas
la dernière).
Cependant, Bogdanov avait raison sur ce point. Il avait expliqué
qu’il était illogique que ce soit le coût de la construction de grandes
structures comme les canaux, les chemins de fer ou des aciéries qui
donne sa cadence à l’économie mondiale pour une période de
cinquante ans. Son opposition à un cycle dirigé par le capital l’a
conduit à proposer un cycle animé par la technologie ; et, sur cette
base, il a par la suite proposé une version plus rigoureuse de
l’argument du « choc externe » de Trotsky.
Si les cycles longs existent, ils doivent, selon Bogdanov, leur
existence à des « interactions aléatoires de deux séries de
causalité », à savoir les dynamiques internes du capitalisme et les
dynamiques externes, celles qui n’appartiennent pas au
capitalisme13. Par exemple, les crises subies par des sociétés non
capitalistes comme la Chine ou l’Empire ottoman à la fin du
e
siècle ont créé de nouvelles ouvertures pour le capital
occidental ; le retard agraire d’un pays comme la Russie a modelé la
croissance de son secteur capitaliste, l’obligeant à rechercher des
financements auprès de la France et de la Grande-Bretagne.
Bogdanov avait raison. La théorie de Kondratiev prétend que les
rythmes du capitalisme exercent une forme d’attraction
gravitationnelle à sens unique sur le monde non capitaliste. En fait,
les deux mondes interagissent constamment, et n’importe quelle
synthèse de la théorie de Kondratiev doit prendre en compte ce
facteur.
Vers la fin du séminaire, un ponte de longue date du Parti
communiste, l’économiste agraire Miron Nachimson, a pesé les
implications politiques de la théorie des cycles de longue durée.
L’obsession de Kondratiev envers ces cycles était de nature
idéologique. Il visait à rendre les crises normales ; affirmer que
« nous faisons face à un mouvement fondamentalement perpétuel
du capitalisme, d’abord vers le haut, puis vers le bas, de plus, on ne
peut pas encore parler de révolution sociale ». Nachimson a pris
conscience du fait que les cycles de longue durée pourraient
constituer un énorme obstacle idéologique au bolchévisme, qui
plaçait la fin imminente du capitalisme au cœur de sa théorie14.
Le débat se rapproche du cœur du problème avec le travail de
Kondratiev :
1. Il a vu les changements dans les investissements en capital
comme cause principale des crises qui ont lieu tous les
cinquante ans. Cependant, son interprétation de ces
changements n’était pas assez développée.
2. Il avait postulé que les sociétés non capitalistes ne faisaient
qu’observer de manière passive les tendances des cycles
capitalistes, alors que ce n’était pas le cas.
3. À ce stade, bien qu’il considère chaque cycle comme une
version plus complexe du suivant, il ne parvient pas à situer
le rôle des cycles de longue durée dans l’ultime fin du
capitalisme.

Et il y avait un autre problème en lien avec les travaux de


Kondratiev : le problème des données. Il a nui à la théorie des cycles
de longue durée tout au long de l’ère de la règle à calcul jusqu’à
celle de la Linux Box*1. Ici, nous devons en tenir compte, car,
pendant toute une génération, le problème des données nous a
interdit l’accès aux travaux de Kondratiev.

Le défi des nombres aléatoires


Le fait que le groupe de recherche dirigé par Kondratiev ait employé
l’un des plus grands mathématiciens du e siècle, Eugen Slutsky,
témoigne de l’ambition de Kondratiev. Tandis que Kondratiev se
confrontait à des données réelles, Slutsky travaillait sur un projet
personnel, à base de nombres aléatoires.
Il avait montré que, en appliquant une moyenne mobile à des
données aléatoires, on pouvait facilement créer des graphiques qui
représentent des vagues comme si elles témoignaient de
phénomènes économiques réels. Pour appuyer sa démonstration, il
a créé un graphique représentant une vague à partir de chiffres de
loterie pris au hasard et l’a superposé sur un graphique des
statistiques de croissance britannique : une fois l’un sur l’autre, les
formes étaient remarquablement similaires. En statistique, on
appelle ce phénomène l’« effet Yule-Slutsky », il réfère de nos jours
à la production de résultats erronés à la suite d’un lissage des
données. Cependant, Slutsky croyait l’inverse. Il pensait que
l’apparition de schémas de cycles réguliers à partir d’événements
aléatoires se produisait réellement15, non seulement en économie,
mais aussi dans la nature :

« Il semble probable qu’un rôle particulièrement important soit joué par la


nature dans le processus de déplacement des sommes de telle ou telle
quantité ; processus dans lequel la portée de chaque conséquence est
déterminée par l’influence, non pas d’une, mais d’un certain nombre des
causes qui les précèdent, comme la taille d’une récolte est déterminée, non
pas par les précipitations d’un jour, mais par celles de plusieurs jours16. »

Autrement dit, les gouttes de pluie tombent au hasard sur une


surface d’un kilomètre carré, mais, à la fin de la saison, nous
obtenons un rendement agricole que l’on peut calculer par rapport à
celui de l’année qui précède. L’effet cumulé d’événements aléatoires
peut produire des schémas réguliers, ou cycliques.
Au moment où Slutsky a écrit ceci, il devenait dangereux de
connaître Kondratiev. En 1927, des conflits au sein de la
bureaucratie soviétique avaient éclaté et s’étaient manifestés par
des expulsions et des combats de rue. L’historienne Judy Klein
souligne qu’il aurait été facile pour Slutsky de renier Kondratiev, qui
était soupçonné d’être un économiste de marché socialiste notoire.
Au lieu de cela, il a soutenu la théorie de base de Kondratiev17.
L’expérience de Slutsky a apporté à la théorie des cycles longs un
élément déterminant. Il a remarqué que les cycles générés par le
filtrage de données aléatoires ne se répètent pas indéfiniment. Au
fur et à mesure qu’il les calculait, les cycles s’arrêtaient brutalement.
Il a baptisé ce phénomène « changement de régime » : « Après un
nombre plus ou moins considérable de périodes, chaque régime
devient désorganisé, la transition vers un autre régime se faisant
parfois assez progressivement, parfois plus ou moins brusquement,
près de certaines valeurs critiques18. »
Pour quiconque s’intéresse aux modèles économiques à long
terme, le défi posé par l’observation de Slutsky est clair.
Premièrement, les cycles longs peuvent ne pas être rattachés à une
cause réelle, que ce soient les innovations technologiques, les chocs
externes ou le rythme des investissements en capital. Ils peuvent
tout simplement n’être qu’un aspect récurrent de tous les systèmes
économiques au cours du temps. Deuxièmement, quelle qu’en soit
la cause, nous devrions nous attendre à ce que les cycles réguliers
s’arrêtent brusquement avant de redémarrer.
Slutsky lui-même pensait que la répétition de ces arrêts brutaux
pouvait se produire à deux niveaux : durant les cycles économiques
de dix ans et ceux longs de cinquante ans. Mais une troisième
possibilité émerge de ses travaux. Si le capitalisme industriel est à
l’origine d’une série de cycles longs de cinquante ans s’étalant sur
une période de deux cents ans, alors peut-être que, à un moment
donné, cette période s’arrêtera d’un seul coup pour donner lieu à un
changement de régime qui débouchera sur un nouveau cycle.
Au cours des vingt dernières années, les statistiques se
rebellèrent contre Kondratiev. Plusieurs études récentes prétendent
montrer que, si l’on utilise de meilleures techniques de lissage, les
cycles de Kondratiev disparaissent purement et simplement, ou
deviennent inégaux. D’autres remarquent avec justesse que la
fluctuation des prix à long terme constatée lors des trois premiers
cycles a disparu après l’émergence d’un marché complexe et
mondialisé après 194519.
Cependant, étant donné la quantité astronomique de nouvelles
données et les méthodes plus efficaces que nous possédons, il
devrait être possible de détecter des cycles de Kondratiev dans les
statistiques de la croissance mondiale.
C’est exactement ce que les chercheurs Korotayev et Tsirel ont
fait en 201020. Ils ont utilisé une méthode appelée « analyse
fréquentielle » pour montrer de manière pertinente qu’il existe des
sursauts longs de cinquante ans dans les statistiques du PIB. Ils ont
prouvé que, pour la période d’après-guerre, même les données
brutes contenaient les preuves irréfutables de l’existence d’une
période de croissance après 1945 et d’une période de décroissance
prolongée qui commence en 1973.
En s’appuyant sur la définition de la récession du FMI (à savoir,
une période de six mois durant laquelle la croissance mondiale
passe en dessous de 3 %), ils ont déterminé que, si aucune
récession n’a eu lieu entre 1945 et 1973, six récessions ont eu lieu
depuis 1973. Ils sont persuadés que le cycle de Kondratiev est
présent dans les chiffres du PIB mondial après 1870, et qu’il est
possible de le détecter dans les économies occidentales avant cette
date.
Il y a plus de preuves encore de l’existence des cycles de longue
durée dans les travaux de Cesare Marchetti, un physicien italien qui
a analysé les données historiques de la consommation d’énergie et
des projets d’infrastructures. D’après ses conclusions, qu’il a
formulées en 1986, les résultats « montrent très clairement des
comportements cycliques ou animés par des impulsions »
apparaissant dans nombre de secteurs de la vie économique et dont
la durée est en moyenne de cinquante-cinq ans21.
Marchetti rejette l’idée de cycles, et même qu’ils soient
principalement de nature économique, préférant décrire ce
phénomène par le terme « impulsions » de longue durée dans les
comportements sociaux. Mais il ajoute que les signaux que l’on a du
mal à interpréter en économie « deviennent des plus clairs lorsque
l’on se penche sur la “physique” de ceux-ci ».
Marchetti affirme que la preuve la plus flagrante des cycles de
longue durée réside dans la répétition des investissements dans les
réseaux de communications physiques. Il prend l’exemple des
canaux, des chemins de fer, des routes pavées et des couloirs
aériens et montre comment le développement de chaque élément
atteint son apogée à peu près cinquante ans après celle de la
technologie précédente. À partir de là, il a situé l’apparition
prochaine d’un nouveau type de réseau aux alentours des
années 2000. Bien qu’il ait écrit à peine quatorze ans avant le
nouveau millénaire, il ne pouvait pas deviner quel serait ce nouveau
type de réseau. Aujourd’hui, nous avons la réponse : le réseau
informatique.
Il existe bel et bien des preuves de nature physique et
économique de l’existence d’un cycle de cinquante ans. La forme
sinusoïdale produite par ce cycle, ou cette impulsion est
d’importance secondaire par rapport à l’existence du cycle. Pour un
économiste, elle constitue la preuve de processus plus complexes à
l’œuvre, comme le mouvement de la matière autour d’un trou noir
permet aux astrophysiciens de le détecter. Et voilà pourquoi c’est
important : Kondratiev nous a donné les moyens de comprendre les
transformations qui s’opèrent au sein du capitalisme. Les
économistes de gauche se sont bornés à chercher un processus qui
ne menait qu’à la destruction. Kondratiev a prouvé que la menace de
l’effondrement encourageait l’adaptation et la survie. Le défaut de
Kondratiev reste son interprétation des puissances économiques qui
animent le cycle ; et comment cette interprétation est liée à la durée
de vie du système et à sa fin ultime. C’est ce que nous devons
corriger.

À la rescousse de Kondratiev
Une fois, j’ai donné un cours à 200 étudiants en économie d’une
université britannique. Ils n’avaient aucune idée de qui ou de quoi je
parlais. Après l’échange, l’un des universitaires est venu me dire que
mon erreur fut de « confondre microéconomie et macroéconomie ».
Il ajoute que « les étudiants ne sont pas habitués à cela ». Un autre
maître de conférences, professeur d’histoire de l’économie, n’avait
jamais entendu parler de Kondratiev.
Cependant, ils connaissaient Joseph Schumpeter. Dans Les
Cycles des affaires (1939), Schumpeter prétend que le capitalisme
est animé par l’entrelacement des cycles économiques, allant des
plus courts, qui sont produits par l’accumulation des stocks au sein
des entreprises et dont la durée est de trois à cinq ans, jusqu’aux
longs cycles de cinquante ans que Kondratiev a repérés.
Lors d’un exercice de logique complexe, Schumpeter a écarté les
cycles de crédit, les chocs externes, les changements de tendances
et ce qu’il a nommé « croissance » en tant que causes des cycles de
Kondratiev. Au lieu de cela, il prétend que : « L’innovation est le fait
marquant de l’histoire économique de la société capitaliste et est en
grande partie responsable de la majorité de ce que nous attribuons à
première vue à d’autres facteurs22. » Il a ensuite dressé un portrait
historique détaillé de chacun des cycles de Kondratiev et les a
définis comme cycles d’innovations : le premier est déclenché par
l’apparition de l’industrialisation dans les années 1780, le deuxième
par les chemins de fer à partir de 1842, le troisième par une série
d’innovations qui constituent ce que nous appelons aujourd’hui « la
deuxième révolution industrielle » et qui a eu lieu dans les
années 1880 et 189023.
Schumpeter s’est approprié la théorie des cycles de Kondratiev et
l’a rendue plus attractive aux yeux des capitalistes : dans sa version,
les entrepreneurs et les innovateurs sont les moteurs du cycle.
Inversement, les cycles s’arrêtent lorsque cessent les innovations et
que le capital s’accumule dans le système financier. Selon
Schumpeter, la crise est un élément indissociable du système
capitaliste dans la mesure où elle encourage la « destruction
créatrice » des vieux modèles qui ne fonctionnent plus.
Et, bien que l’on ne se souvienne plus de Kondratiev depuis
longtemps, les travaux de Schumpeter, qui consistent en un compte
rendu technodéterministe des hauts et des bas vers lequel les
économistes orthodoxes peuvent se tourner en temps de crise,
lorsque leurs convictions normatives échouent, sont devenus parole
divine.
La plus grande adepte actuelle de Schumpeter, Carlota Perez,
s’est appuyée sur sa théorie pour inciter les dirigeants politiques à
donner la priorité aux technologies de l’information, aux
biotechnologies et à l’énergie verte, suivant la promesse d’un nouvel
« âge d’or » qui commencera dans les années 2020, lorsque le
prochain cycle débutera.
Perez a apporté quelques améliorations à la théorie des cycles
pour nous permettre de mieux comprendre la période actuelle. Son
idée du « paradigme techno-économique » est l’élément le plus
important. Selon elle, ni un ensemble d’innovations à chaque début
de cycle ni la simple interaction de ces innovations ne suffisent.
L’apparition d’une « nouvelle forme de bon sens guidant toutes les
révolutions » et d’une « logique de la nouveauté » qui permet le
remplacement d’un ensemble de technologies et de pratiques
commerciales par un autre est nécessaire.
Mais, en datant les cycles à partir de l’invention de nouvelles
technologies plutôt qu’à partir de leur déploiement, Perez s’éloigne à
la fois de Kondratiev et de Schumpeter. Elle propose un nouveau
modèle séquentiel : les innovateurs innovent, la finance exulte et
spécule puis tout se termine dans les larmes. L’État intervient et
résout le problème afin qu’un nouvel âge d’or de forte croissance et
de productivité soit possible.
Les partisans de Perez affirment que cette série de dates n’est
qu’une refonte de la théorie de Schumpeter, les débuts de cycles se
produisant seulement vingt-cinq ans plus tôt. Mais c’est bien plus
que cela. Selon elle, le principal sujet de la théorie des cycles longs
ne tourne pas autour des variations du PIB, qui étaient la priorité de
Kondratiev, mais plutôt autour de « l’apparition et l’assimilation
progressive de chaque révolution technologique24 ».
Par conséquent, elle se retrouve avec toutes sortes de problèmes
de cohérence. Pourquoi est-ce que le quatrième cycle (1909-1971)
dure presque soixante-dix ans ? Car il a fallu attendre 1945 pour que
les mesures prises par les autorités publiques portent leurs fruits.
Pourquoi est-ce que l’enchaînement bien défini « innovation, bulle,
éclatement » s’est produit deux fois entre 1990 et 2008 ? Elle répond
que c’est encore une fois à cause d’une erreur de politique
gouvernementale.
La théorie des cycles de Perez met l’accent sur les mesures
gouvernementales en temps de crise, mais néglige la lutte des
classes et la distribution des richesses. Elle prend le contrepied de la
théorie de Kondratiev en expliquant que la technologie est le moteur
de l’économie et que le moteur de la technologie est le
gouvernement.
L’intérêt de la théorie des cycles provoqués par la technologie est
que les preuves qui la soutiennent sont matérielles : les séries
d’innovations ont lieu avant le début des cycles longs, et leurs
interactions ont été répertoriées. Cette théorie se veut matérialiste,
en ce sens qu’elle considère les révolutions et les changements des
comportements sociaux comme le résultat de quelque chose de plus
profond. Les nouvelles technologies provoquent l’avènement de ce
que Schumpeter appelait les « nouveaux hommes », qui à leur tour
apportent leurs propres tendances et normes de consommation.
Mais Kondratiev avait eu raison de réfuter l’idée de la technologie
comme moteur des changements de grande ampleur. Elle justifie le
début des cycles de cinquante ans, mais ne justifie pas totalement la
simultanéité des innovations, ni l’apparition d’un nouveau paradigme
social, ni même la fin des cycles.
Si l’on suit la théorie de Kondratiev et que l’on étend sa série de
cycles de longue durée au présent, que l’on exploite la « physique »
de Marchetti ainsi qu’une série de données d’une bien meilleure
qualité qu’en 1920, cela nous donne, dans les grandes lignes :
Le capitalisme industriel a traversé quatre cycles de longue durée,
se dirigeant vers un cinquième dont le décollage a été interrompu.
1. 1790-1848 : Il est possible de trouver des preuves du
premier cycle de longue durée dans les données anglaises,
françaises et américaines. L’industrialisation, les machines à
vapeur et les canaux sont à la base du nouveau paradigme.
La dépression de la fin des années 1820 constitue le
tournant majeur. La Révolution française de 1848, qui a duré
jusqu’au coup d’État du 2 décembre 1851, en parallèle à la
guerre américano-mexicaine (1846-1848) et au compromis
du Missouri de 1820, marque un point de repère évident.
2. 1848-milieu des années 1890 : des preuves d’un deuxième
cycle de longue durée se font jour dans les pays développés,
puis dans l’économie mondiale à la fin du cycle. Les chemins
de fer, le télégraphe, les bateaux de croisière à vapeur, la
stabilité de la valeur des monnaies et la production en série
des machines par d’autres machines en constituent le
paradigme. Le cycle atteint son point culminant au milieu des
années 1870 avec des crises financières aux États-Unis et
en Europe qui déboucheront sur la Grande Dépression
(1873-1896). Au cours des années 1880 et 1890, de
nouvelles technologies sont mises au point en réponse aux
crises sociales et économiques qui surviennent en même
temps au début du troisième cycle.
3. 1890-1945 : dans le contexte du troisième cycle, l’industrie
lourde, l’ingénierie électrique, le téléphone, le taylorisme et la
production de masse marquent les progrès technologiques
les plus importants. La rupture survient à la fin de la
Première Guerre mondiale : la Grande Dépression de 1930,
suivie de la destruction du capital lors de la Seconde Guerre
mondiale qui signifia la fin du déclin.
4. Fin des années 1940-2008 : le paradigme du quatrième cycle
tire ses origines des transistors, des matériaux synthétiques,
des biens de consommation de masse, de l’automatisation
industrielle, du nucléaire et du calcul automatique. C’est la
plus longue période de forte croissance économique de
l’Histoire. Le point culminant est, sans équivoque, le choc
pétrolier d’octobre 1973, après lequel se produit une longue
période d’instabilité, mais pas de dépression majeure.
5. À la fin des années 1990, les premiers éléments du
cinquième cycle apparaissent, au milieu de ceux de la fin du
quatrième. Le cycle naît grâce à la technologie du réseau,
aux communications mobiles, aux biens de l’information et à
un marché entièrement mondialisé. Mais il s’arrête là. Et la
raison pour laquelle il n’est pas allé plus loin est liée au
néolibéralisme et a quelque chose à voir avec la technologie
elle-même.

Ce n’est là qu’une esquisse : une liste de points de départ et


d’arrivée, de séries d’innovations technologiques et de crises
significatives. Pour aller plus loin, nous devons comprendre les
changements dans l’accumulation du capital mieux que ne l’a fait
Kondratiev, et avec des moyens que les théoriciens des
technologies osent à peine employer. Nous devons non seulement
comprendre que le capitalisme se transforme, mais aussi
comprendre ce qui, au sein de l’économie, entraîne ces
transformations et ce qui pourrait les limiter. Kondratiev nous a
donné un moyen de comprendre ce que les théoriciens des
systèmes appellent « méso-économie » : quelque chose qui se situe
entre la modélisation abstraite du système et son histoire concrète. Il
nous a transmis une meilleure façon de comprendre lesdites
transformations que les théories avancées par les disciples de Marx
au e siècle, qui se concentraient sur les facteurs externes et les
scénarios catastrophes, l’ont fait.
Nous n’en avons pas encore fini avec Kondratiev. Mais, pour
terminer ce qu’il a essayé de faire, nous devons nous pencher sur
un problème qui a longtemps obsédé les économistes pendant plus
de cent ans : les causes des crises.
3
Marx avait-il raison ?

Il est arrivé quelque chose d’étrange à Karl Marx en 2008. « Il est de


retour ! » titre la une d’un numéro du Times de Londres. Les éditeurs
allemands du Capital de Marx ont fait état d’un bond de 300 %
d’augmentation des ventes après que l’un des ministres du
gouvernement a dit que ses idées n’étaient « pas si mal ». Pendant
ce temps, une adaptation en manga du Capital s’est vendue comme
des petits pains. En France, Nicolas Sarkozy fut photographié en
train de feuilleter la traduction française du chef-d’œuvre de Marx.
Le catalyseur de cette obsession pour Marx était bien évidemment
la crise. Le capitalisme s’effondrait. Marx l’avait annoncé, nous
devions bien lui donner raison, ou le réhabiliter, ou au moins lui
permettre de se réjouir de notre malheur.
Mais il y a un problème. Le marxisme est à la fois une théorie de
l’Histoire et une théorie de l’économie. Comme théorie de l’Histoire,
rien à dire : grâce à elle, nous avons les outils pour comprendre les
classes, le pouvoir et la technologie ; nous sommes en mesure de
prédire les actions des puissants avant même qu’ils sachent eux-
mêmes ce qu’ils vont faire. Mais, comme théorie de la crise, le
marxisme ne fonctionne pas. Si nous voulons appliquer la pensée de
Marx à la situation actuelle, nous devons en comprendre les limites,
sans parler du désordre intellectuel dans lequel ses adeptes se sont
retrouvés en essayant de surmonter ces limites.
Ces questions sont toujours d’actualité. Plus le visage barbu de
Marx apparaît dans les pages confuses des grands journaux, et plus
la catastrophe sociale infligée aux jeunes de demain est profonde,
plus il y a de chances qu’ils essaient de répéter les expériences
ratées des disciples de Marx : le bolchévisme et l’abolition forcée du
marché. Le postulat de ce livre, à savoir qu’il existe une autre voie
de sortie du capitalisme et d’autres moyens pour y parvenir, exige
que nous examinions ici la théorie marxiste de la crise.
Alors, quel est le problème ?
Marx a compris que le capitalisme est un système de nature
complexe, instable et fragile. Il a constaté que les classes donnent
un pouvoir inégal aux différents agents du marché. Mais le marxisme
a sous-estimé la capacité d’adaptation du capitalisme.
Karl Marx lui-même ne fut témoin que d’un scénario d’adaptation à
l’échelle mondiale : la période de croissance du deuxième cycle
durant les deux décennies après la révolution de 1848. Assez
tragiquement, l’économie marxiste a cessé d’évoluer en tant que
théorie des systèmes pertinente au moment où ses partisans étaient
au milieu du troisième cycle.
En fin de compte, trois caractéristiques générales des
mécanismes d’adaptation complexes vinrent remettre en question le
marxisme. Premièrement, ces systèmes ont tendance à être
« ouverts », c’est-à-dire qu’ils se développent grâce au contact avec
le monde extérieur. Deuxièmement, ils réagissent face aux difficultés
en innovant et en se transformant de manière imprévisible, chaque
innovation produisant un ensemble complexe de nouvelles
possibilités de croissance et d’expansion au sein du système.
Troisièmement, ils sont à l’origine de phénomènes dits
« émergents », qui ne peuvent être étudiés qu’à un niveau supérieur
à celui des fonctionnements du système lui-même. Par exemple, le
comportement d’une colonie de fourmis peut éventuellement être
attribué à leur code génétique, mais il doit être étudié en tant que
comportement, pas en tant que facteur génétique.
D’une certaine manière, le marxisme constituait l’étude la plus
systématique des phénomènes émergents jamais entreprise, mais
elle était sans cesse mise en déroute par leur nature. C’est
seulement dans les années 1970, lorsque l’idée d’« économie
relative » fut intégrée à l’économie marxiste, que ses disciples ont
commencé à comprendre que toutes les strates de la réalité ne
constituent pas totalement l’expression de leurs strates inférieures.
Dans ce chapitre, nous allons montrer comment la capacité
d’adaptation du capitalisme a déconcerté non seulement les
partisans du marxisme, mais aussi la gauche de manière plus
générale durant ces cent dernières années. Cela étant, la pensée
originelle au cœur du Capital de Marx, qui explique comment les
fonctionnements du marché mènent à l’effondrement, reste non
seulement pertinente, mais aussi cruciale pour la compréhension
des grands changements.
Lorsqu’elle est bien comprise, la théorie marxiste de la crise
propose une meilleure explication que celle de Kondratiev à propos
de ce qui motive les changements de grande ampleur, et pourquoi ils
risquent de ne plus avoir lieu. Mais le Marx dont nous nous
e
occupons actuellement est le fruit de l’imagination du siècle
e
emprisonné dans un cerveau du .

Le postulat de Marx
Durant les quatre-vingts premières années du capitalisme industriel,
les économistes ont fait part de leur pessimisme quant à son avenir.
Les économistes traditionnels, Smith, Say, Malthus et Ricardo,
doutaient de manière maladive de sa survie. Le sujet de leurs
travaux était les limites du capital : les obstacles à son expansion, le
déclin du profit, la fragilité d’une croissance stable.
L’idée que le travail humain est la source de la valeur et qu’il
détermine le prix des biens était au cœur de leurs débats. Cette idée
est connue sous le nom de « valeur-travail ». Nous expliquerons en
détail dans le chapitre 6 comment elle nous aide à schématiser la
transition depuis une économie capitaliste vers une économie non
marchande.
Marx a passé sa vie à corriger les défauts de la théorie de la
valeur-travail dans le but de donner une explication aux crises et aux
effondrements dont le capitalisme fut victime à ses débuts. Selon
Marx, une économie de marché à part entière ne va pas sans une
certaine instabilité. Pour la première fois de l’Histoire, connaître la
crise en vivant dans l’abondance est possible. Des choses qui ne
peuvent ni s’acheter ni être utilisées sont conçues ; un scénario qui
aurait semblé hors du commun à l’époque du féodalisme ou dans
l’Antiquité.
Marx a également relevé des tensions dans l’économie entre l’être
et le paraître. Le marché est une machine dont le but est de
réconcilier les deux. La valeur réelle des biens est établie par la
quantité de travail, d’ingénierie et de matières premières, toutes ces
valeurs étant calculées en valeur-travail, nécessaires à leur
conception. Il est cependant impossible de déterminer cette valeur à
l’avance. On ne peut pas non plus « voir » cette valeur, car les lois
de l’économie fonctionnent « dans le dos » de tous les individus
concernés.
Cette tension est à l’origine des petites corrections du marché,
comme lorsque l’étalage du marché déborde d’invendus, comme
des grandes, si l’on prend l’exemple de la demande (refusée) de
sauvetage de Lehman Brothers par le gouvernement américain.
Cela signifie que, lorsque nous examinons une crise, nous devons
chercher ce qui ne fonctionne pas, en allant plus loin que ce qui est
présenté sur la couverture du Wall Street Journal.
Marx avait avancé que, dans une économie entièrement
capitaliste, les bénéfices ont tendance à converger vers la moyenne.
De ce fait, alors que leur esprit leur dit qu’ils sont en compétition
féroce les uns avec les autres, les chefs d’entreprise génèrent, en
fait, un taux de profit moyen discernable dans chaque secteur et
dans l’ensemble de l’économie, en fonction duquel ils fixent les prix
et jugent les performances. Puis, à l’aide du système financier, ils
constituent un réservoir global de bénéfices dans lequel les
investisseurs peuvent puiser à des taux de rendement assez
réguliers pour un niveau de risque donné. Même si le secteur
financier venait d’apparaître lorsque Marx a écrit le Capital, il a très
clairement saisi la manière dont la finance, en matière de taux
d’intérêt, est devenue le principal outil de distribution logique du
capital en fonction des risques et des bénéfices moyens du secteur.
Il a également pris conscience que le travail, et plus
particulièrement la valeur ajoutée arrachée aux salariés par le
rapport de force inégal au sein de l’entreprise, était la seule véritable
source de bénéfices. Mais il existe une tendance intrinsèque,
motivée par la nécessité d’accroître la productivité, à remplacer la
main-d’œuvre par des machines. Puisque la main-d’œuvre est la
seule source de bénéfices, et puisque la mécanisation se développe
dans toute l’économie, cette tendance a pour conséquence de
diminuer les taux de profit. Dans une entreprise, un secteur ou tout
un ensemble économique dans lesquels une part croissante du
capital est investie dans des machines, des matières premières et
d’autres intrants non liés au travail, la part des bénéfices générés
par la main-d’œuvre est réduite. Marx a qualifié le phénomène de
« loi la plus essentielle du capitalisme ».
Cependant, le système réagit de manière spontanée à cette
menace : il amène à la création d’institutions et de comportements
qui contrebalancent la tendance à la baisse du taux de profit. Les
investisseurs se tournent vers de nouveaux marchés où les
bénéfices sont plus élevés et les coûts de la main-d’œuvre baissent
en réponse à l’appauvrissement qualitatif des biens de
consommation et des denrées ; soit les chefs d’entreprise se mettent
en quête de nouvelles sources de main-d’œuvre bon marché, soit ils
font la transition depuis une industrie fortement mécanisée à une
industrie de main-d’œuvre, ou alors ils privilégient les parts de
marché (volume de bénéfices) au lieu des marges (taux de profit).
Marx a assimilé l’essor de la finance à une contre-tendance
d’ordre stratégique : une partie des investisseurs commencent à
accepter de recevoir des intérêts, plutôt que le profit entrepreneurial
pur et simple qui découle de la création et de l’exploitation d’une
entreprise, comme récompense légitime pour le simple fait de
posséder de grandes quantités d’argent. Les entrepreneurs
continueront de prendre des risques unilatéraux, comme le font
aujourd’hui les capitaux privés et les fonds spéculatifs, mais une
grande partie du système est conçue pour survivre grâce à des
investissements à faible risque et à faible rendement à l’aide
du système financier, ce qui, selon Marx, permet au capitalisme de
continuer à fonctionner lorsque les bénéfices sont en baisse.
Nous nous devons d’être le plus clair possible à propos de cela :
selon Marx, ces contre-tendances fonctionnent en permanence. Une
crise survient uniquement lorsque ces tendances cessent d’exister1.
C’est-à-dire lorsqu’il n’y a plus de main-d’œuvre bon marché, que de
nouveaux marchés n’apparaissent plus ou que le système financier
n’est plus en mesure d’absorber le capital que les investisseurs, peu
enclins à prendre des risques, essaient de stocker.
Pour résumer, Marx a démontré que la crise est la soupape de
pression du système entier. C’est une caractéristique inhérente au
capitalisme et un produit de son propre dynamisme technologique.
Rien qu’à partir de ces quelques lignes, il est aisé de constater
que Marx pose le modèle du capitalisme comme un système
complexe. Même lorsqu’il semble équilibré, le capitalisme ne l’est
pas : il existe un processus d’effondrement spontané contrebalancé
par de nombreux stabilisateurs eux-mêmes spontanés. La théorie
des crises vise à expliquer pourquoi et quand ces stabilisateurs
cessent de fonctionner.
Dans les trois volumes du Capital, Marx définit plusieurs
catégories de crise. La première traduit les conséquences d’une
surproduction. Elle survient lorsque l’offre surpasse la demande et
qu’il est impossible de réaliser des profits par la vente des biens.
Marx s’attendait également à ce que des crises émergent de
l’inefficacité des flux de capitaux entre les secteurs : il fut témoin de
nombreuses crises durant lesquelles l’industrie lourde s’était
développée en décalage avec le secteur de la production de biens
de consommation, entraînant une récession jusqu’à leur
rééquilibrage. Puis viennent les crises provoquées par l’impact limité
des contre-tendances listées plus haut. Les crises sont marquées
par une baisse notable du taux de profit, un gel des investissements
et une baisse du PIB.
Enfin, Marx explique dans le troisième volume du Capital
comment les crises se produisent : la durée des crédits est
excessivement étendue, puis la spéculation et les activités illégales
font atteindre au crédit des limites insoutenables pour l’économie
jusqu’au moment où les faillites viennent empêcher le
remboursement de ces crédits, plongeant l’économie dans une
dépression de plusieurs années. En l’espace d’une seule phrase aux
allures de sentence, Marx a anticipé le monde d’Enron, de Bernie
Madoff et des 1 % les plus riches. Il écrit que la fonction principale
du crédit est de faire en sorte que l’exploitation devienne « la plus
grande et la plus pure forme de pari et d’escroquerie » et qu’elle
« réduise de plus en plus le nombre des quelques individus qui
exploitent la richesse sociale2 ». En 2008, ce sont les similitudes
entre l’effondrement du système financier et la célèbre formule citée
plus haut qui ont inspiré la rédaction des articles affirmant que Marx
avait raison. Aujourd’hui, alors que la crise financière recule, mais
que les revenus réels stagnent partout en Occident, la population
clame de nouveau que « Marx avait raison » ; cette fois à propos du
problème posé par la surproduction, là où les bénéfices et la
croissance repartent à la hausse, mais pas les salaires des
travailleurs.
Cela étant, la théorie marxiste de la crise est incomplète. Elle
souffre de lacunes d’ordre logique qui ont demandé à ses partisans
un certain temps avant d’être résolues. Il a commis une erreur
fondamentale en essayant de faire le lien entre son modèle abstrait
et la réalité. Elle appartient, de plus, à une autre époque, Marx
n’ayant pas pu tenir compte des événements majeurs du e siècle :
le capitalisme d’État, les monopoles, les marchés financiers
compliqués et la mondialisation.
Pour donner raison à Marx, c’est-à-dire aller au-delà du simple
prophète qui affirme que « les crises sont normales », nous devons
rendre sa théorie cohérente à la fois de manière intrinsèque et en
accord avec ce qui se produit naturellement. Nous devons en affiner
la réflexion de sorte qu’elle comprenne les caractéristiques
communes aux systèmes d’adaptation complexes auxquels elle s’est
confrontée : l’ouverture, les réponses imprévisibles face aux
menaces et les cycles de longue durée (qui se trouvent quelque part
entre les crises dites « normales » et l’effondrement ultime). Mais,
même après correction, une théorie des crises cycliques n’est pas
encore suffisante dans le cadre des changements de niveau de
survie que nous abordons dans ce livre.
Dans une célèbre formule qu’il a écrite en 1859, Marx a annoncé
que, à un certain degré de leur développement, les forces
productives matérielles de la société entrent en collision avec les
rapports de production existants. Hier encore formes de
développement des forces productives, ces conditions se changent
en de lourdes entraves. Alors commence une ère de
révolution sociale3. Mais jamais il n’explique comment ces crises
épisodiques réunissent, ou pourraient réunir, les conditions
nécessaires à un nouveau système. C’est aux partisans de Marx
d’apporter une réponse.
Après le décès de Marx, ses partisans estimaient que la sévérité
des crises dues à la surproduction ne pouvait pas être atténuée
durablement en découvrant ou en inventant de nouveaux marchés.
Le dirigeant socialiste allemand Karl Kautsky écrit en 1892 qu’il
« existe une limite à l’expansion des marchés » et qu’il « reste bien
peu de marchés à exploiter de nos jours4 ». Ils s’attendaient à ce
que les crises courtes subissent un effet boule de neige et se muent
en effondrement total. En 1898, la socialiste polonaise Rosa
Luxemburg prévoyait que, lorsque le système serait à court de
nouveaux marchés à exploiter, il y aurait « une explosion, un
effondrement, et nous occuperons alors le rôle du syndic
[administrateur] qui liquide une société en faillite5 ».
Au lieu de cela et comme nous le savons, le début de son
troisième cycle a vu le capitalisme se transformer. Sa capacité
d’adaptation lui a permis de créer des marchés internes, même
lorsque la course à la colonisation a connu un arrêt brutal. Sans
compter qu’il s’est montré capable de supprimer certains pans du
marché pour assurer sa propre survie.
Les funestes prédictions de la gauche marxiste des années 1890
ne se sont pas réalisées. Il leur faudrait d’abord connaître un rapide
essor du capitalisme, puis le chaos et l’effondrement de 1914 à
1921. L’impact de cette évolution a désorienté les économistes de
gauche pendant la majeure partie d’un siècle.
Le capitalisme supprime le marché
À partir des années 1900, l’économie mondiale fut sujette à des
changements majeurs. La technologie, les modèles de gestion, les
modèles commerciaux et la consommation ont rapidement évolué,
côte à côte, jusqu’à ne faire qu’un, sous la forme d’un tout nouveau
capitalisme.
Ce qui nous touche aujourd’hui, ce sont les risques encourus ainsi
que la vitesse auxquels se sont produits ces changements. L’acier
remplace le fer, l’électricité remplace le gaz, le téléphone remplace
le télégraphe, le cinéma et la presse à sensation voient le jour, la
production industrielle explose, d’impressionnants bâtiments à
l’armature de métal se dressent dans les capitales, et des voitures
passent devant eux.
Cependant, à l’époque, les dirigeants commerciaux prenaient tout
cela pour acquis. La relation entre les grandes entreprises et les
tendances du marché était source d’inquiétude pour eux. Ils en ont
conclu que ces tendances devaient disparaître si possible.
James Logan, propriétaire de l’US Envelope Company, a écrit en
1901 que « la concurrence, c’est la guerre industrielle. Une
concurrence aveugle où tous les coups sont permis entraîne
forcément des morts et des blessés6 ». À l’époque, son entreprise
occupait une position quasi monopolistique sur le marché américain.
Dans le même temps, Theodore Vail, l’homme à la tête de Bell
Telephone, avertit que « c’est le public qui souffre, de manière
directe ou indirecte, des conséquences d’une concurrence
commerciale féroce et sans limites7 ». Pour soulager la population
d’un tel fardeau, Vail lui-même s’est approprié tout le réseau
téléphonique américain.
L’homme d’affaires explique que la concurrence a plongé la
production dans le chaos en plus de faire baisser les prix, à tel point
que la mise en service de nouvelles technologies se faisait à perte. Il
était possible d’attaquer le problème selon trois angles : le
monopole, la fixation des prix et la protection des marchés. Les
moyens pour atteindre ces objectifs étaient les suivants :
premièrement, les fusions-acquisitions, largement encouragées par
les nouvelles banques d’investissements aux méthodes agressives ;
deuxièmement, la création de cartels et d’un « souci » de fixation
des prix ; et troisièmement, des restrictions gouvernementales sur
les biens importés.
La United States Steel Corporation fut fondée en 1901 à partir de
138 entreprises différentes, ce faisant, elle a instantanément pris le
contrôle de 60 % du marché. Pendant ce temps, Standard Oil
possédait 90 % des raffineries américaines et a profité de sa position
majoritaire pour forcer les compagnies de chemins de fer à
transporter du pétrole à perte. Bell Telephone a exercé un monopole
sur les télécommunications avant de le perdre au milieu des
années 1890, puis de le retrouver en 1909 lorsque J.P. Morgan s’est
alliée à Theodore Vail pour racheter les entreprises concurrentes.
En Allemagne, les cartels qui fixent les prix et qui sont soutenus
par le gouvernement, en plus de jouir d’une existence juridique, ont
vu leur nombre doubler entre 1901 et 19118. Un de ces cartels, le
Kohlensyndikat (cartel du charbon de Rhénanie-Westphalie),
comptait 67 adhérents, disposait d’un pouvoir suffisant pour fixer le
prix de 1 400 produits différents et contrôlait 95 % du marché de
l’offre énergétique de sa région9.
Que les choses soient très claires, car c’est assez difficile à
comprendre de nos jours : dans ce système, ce ne sont pas l’offre et
la demande qui déterminent les prix, ce sont les millionnaires.
En 1915, l’électricité allemande était dominée par deux géants de
l’industrie, et il en allait de même pour les industries minière,
chimique et maritime. L’économie japonaise était dominée par six
zaibatsu, des conglomérats qui ont commencé en tant que sociétés
commerciales et qui ont évolué jusqu’à devenir des empires
industriels verticalement intégrés autour des exploitations minières
et des industries du transport maritime et de l’armement. Le tout était
favorisé par un puissant système bancaire central. En 1909, Mitsui
contrôlait au moins 60 % du génie électrique japonais10.
Une nouvelle organisation de la finance avait rendu possible la
création de ces grandes entreprises. Aux États-Unis, en Grande-
Bretagne et en France, les banques d’investissement et les marchés
avaient piloté le projet. En 1890, seules dix entreprises étaient
cotées à la bourse de Wall Street ; en 1897, on en comptait plus de
20011. Au Japon et en Allemagne, où le capitalisme industriel avait
été créé « d’en haut » sous des régimes autoritaires, la finance
n’avait pas tant été sollicitée à travers les marchés financiers qu’à
travers les banques et l’État lui-même. La Russie, dernière de la
liste, avait adopté un modèle hybride, la plupart de ses entreprises
étant possédées par des capitaux étrangers.
Les modèles anglo-saxons et germano-japonais semblaient se
différencier en tous points, ce qui fut à l’origine d’un débat qui a duré
cent ans sur la question de savoir quel modèle était le meilleur *.
Mais chacun de ces modèles avait été conçu sur une variante du
même concept de base : la finance s’était arrangée pour contrôler
une partie de l’industrie, si possible occuper un monopole et, enfin,
supprimer les tendances du marché, cela avec le soutien direct
de l’État.*1
En somme, le marché s’était organisé. Il fallait maintenant le
protéger. Au milieu de la course à la colonisation, les grandes
puissances appliquèrent une large quantité de tarifs, spécialement
conçus pour protéger les intérêts de leurs entreprises, sur les biens
du commerce extérieur. Dès 1913 par exemple, la plupart des pays
industrialisés protégeaient leurs industries en appliquant des taxes à
l’importation à deux chiffres sur les produits manufacturés12. En
retour, les entreprises qui exerçaient un monopole installaient des
membres clés au sein des gouvernements. Ainsi mourut l’idée du
rôle de « surveillant » de l’État qui se tient à l’écart de la vie
économique.
La naissance de ce nouveau système fut accompagnée de crises.
Aux États-Unis, une courte période de dépression (1893-1897) a
donné un coup d’accélérateur aux processus de fusion-acquisition ;
puis, en 1907, une crise financière a marqué la fin de la
surévaluation des actions qui ont vu le jour durant la phase
d’accélération. Le Japon et l’Allemagne ont tous deux vu le
processus de centralisation s’accélérer à petits coups d’expansions
et de récessions dans les années 1890.
Mais, si l’on considère toute la période qui s’étend de 1895 jusqu’à
la Première Guerre mondiale, les bénéfices issus des progrès
technologiques et financiers surpassent l’impact des crises. En effet,
l’économie américaine a doublé de volume de 1900 à 1910 tandis
que celui de l’économie canadienne a triplé13. Même en Europe, là
où l’expansion économique issue des déplacements de la main-
d’œuvre n’a pas eu le même impact, le volume de l’économie
italienne a augmenté d’un tiers tandis que celui de l’économie
allemande a augmenté d’un quart.
Ces événements correspondent à la phase de croissance du
troisième cycle de Kondratiev. Il est possible de « voir » les résultats
de cette phase dans le paysage urbain de New York, Shanghai,
Paris et Barcelone : les bâtiments publics les plus beaux et les plus
résistants, les bibliothèques, les brasseries, et même les bains,
furent en général construits entre 1890 et 1914. L’histoire qu’ils
transmettent est limpide : pendant la période que nous appelons
« Belle Époque » ou « ère progressiste », une ère de forte
croissance, de libéralisation et de développement culturel, le monde
a su prospérer non pas à l’aide du marché, mais de sa suppression
contrôlée. À l’époque, cela ne causait guère de confusion pour les
conservateurs, mais pour les marxistes.

Le capitalisme se transforme
Actualiser la théorie marxiste de l’économie revint à un docteur
autrichien de 33 ans nommé Rudolf Hilferding. Hilferding était un
intellectuel typique de la Belle Époque : pendant qu’il étudiait la
médecine pédiatrique à l’université de Vienne à la fin des
années 1890, il se fit une place sur la scène économique de
l’époque, qui comptait déjà quelques grands acteurs. Eugen Böhm-
Bawerk, le professeur d’économie à qui l’on doit une célèbre critique
de Marx, organisait des séminaires durant lesquels Hilferding
rivalisait avec, entre autres, Schumpeter, Ludwig von Mises, le père
du néolibéralisme, et un étudiant hongrois, Jeno Varga, qui
contribuerait bientôt de manière exceptionnelle à l’économie.
En 1906, Hilferding abandonna la médecine et déménagea à
Berlin pour enseigner l’économie à l’école du Parti socialiste
allemand, centre intellectuel majeur de la gauche dans le monde.
En 1910, Hilferding donna un nom au produit de la fusion du capital
bancaire et du capital industriel : « Par cette liaison […], le capital
prend la forme de capital financier, qui est sa manifestation la plus
haute et la plus abstraite14. »
Son livre, Capital financier, est devenu une référence
incontournable, en plus d’avoir alimenté tous les débats de la
gauche pendant un siècle. Hilferding fut le premier marxiste à
prendre conscience de l’ampleur des transformations du capitalisme.
Qui plus est, de nombreuses caractéristiques permanentes
ressemblaient exactement à celles que Marx avait listées comme
contre-tendances à la baisse du taux de profit : l’exportation du
capital, l’exportation par la migration de main-d’œuvre excédentaire
vers des colonies blanches à l’étranger, la mise en commun des
bénéfices par le marché financier, l’abandon de l’entrepreneuriat au
profit d’un style d’investissement de rentier.
« Le système financier, dont l’utilité au cours du siècle dernier se
résumait à redistribuer de maigres bénéfices commerciaux, en plus
de constituer une source de capital peu fiable, dominait et contrôlait
maintenant le monde des affaires. »
Ces tendances allant contre la crise se combinèrent en un
nouveau système plus fiable.
Hilferding avait avancé que ce nouveau système pouvait
potentiellement mettre fin aux crises récurrentes. Les grandes firmes
et les grandes banques pourraient alors survivre longtemps sur de
faibles bénéfices, voire aucun. Les investisseurs, quant à eux,
accepteraient volontiers une stagnation de longue durée plutôt que
d’assister à une crise qui détruirait des firmes comme Siemens, Bell
ou Mitsui. Ainsi, sous le régime du capitalisme financier, les périodes
de crise seraient longues et d’intensité modérée plutôt que brèves et
traumatisantes. Les banques ne pratiqueraient plus la spéculation,
car elles auraient saisi sa nature destructrice. Les cartels
s’arrangeraient pour que les tendances du marché, donc de la crise,
n’affectent pas les grandes entreprises, mais plutôt les secteurs les
moins puissants de l’économie, pour leur faire subir l’impact des
pertes. Les petites entreprises subiraient de plein fouet les effets de
n’importe quelle récession, ce qui précipiterait leur acquisition par les
monopoles.
Hilferding considère que les forces à l’origine des tensions n’ont
pas disparu, mais qu’elles se sont plutôt concentrées au même
endroit : le déséquilibre entre les secteurs de l’économie basés sur
la production et la consommation. Il a d’emblée écarté le principe de
« sous-consommation » comme cause de la crise, en insistant sur le
fait que le capitalisme pouvait générer en permanence de nouveaux
marchés là où les plus vieux devenaient obsolètes, et ainsi continuer
à développer la production. Mais la possibilité d’un développement
inégal des différents secteurs subsiste, d’où la nécessité d’une
intervention de l’État dans le but d’effacer ce déséquilibre.
Le livre d’Hilferding a eu une influence considérable sur la vision
de la gauche. Il a réfuté la thèse des « crises à effet boule de
neige » comme déclencheurs des mutations sociales ; il a introduit
des concepts et des termes que le marxisme partagerait avec
l’économie traditionnelle. Il avait avancé, avant Schumpeter, l’idée
selon laquelle le principal moteur de l’innovation était maintenant la
grande entreprise qui tire profit des sciences appliquées plutôt que
l’entrepreneur qui bricole dans son atelier15.
Mais l’ouvrage d’Hilferding a conduit les économistes de gauche
au pied du mur. Même s’il a défini le capital financier comme étant la
plus « récente étape » du développement du système, il a laissé
entendre qu’elle en serait la dernière. Un système dans lequel le
capital financier domine, écrit-il, est la « manifestation la plus haute
et la plus abstraite » du capitalisme et ne peut pas aller plus loin :

« Le facteur de socialisation du capital financier fait de la suppression du


capitalisme une tâche bien moins ardue. Dès lors que le capital financier s’est
approprié les plus importants secteurs de production, il suffit à la société, à
travers son organe décisionnel éclairé, l’État (administré par la classe
ouvrière), de s’emparer du capital financier de manière à prendre le contrôle
immédiat de ces secteurs de production. »

Hilferding était un socialiste modéré et se modérait davantage à


mesure que le temps passait. Il pensait que le capitalisme allait
progressivement prendre la forme du socialisme. Cela étant, ses
idées ont influencé aussi bien les réformistes que les
révolutionnaires. Les mouvements syndicaux de gauche comme de
droite se sont attachés à l’idée que le socialisme pouvait être
introduit en prenant le contrôle de l’État et de la Bourse. Le capital
financier était, comme l’a dit Lénine plus tard, un « capitalisme
moribond, en transition vers le socialisme […] À l’agonie16 ». La
seule chose sur laquelle les socialistes étaient en désaccord portait
sur la manière dont ils allaient l’achever.
Ce qu’il faut retenir, c’est qu’Hilferding n’avait pas seulement fait
que rattacher le socialisme à un projet de transition piloté par l’État, il
a également écarté de manière définitive la possibilité d’une nouvelle
transformation du capitalisme bien au-delà du modèle établi dans les
années 1900. Les principes au cœur de sa théorie continuent
d’exercer une influence importante de nos jours. Jusque dans les
années 1970, on pourrait y opposer l’argument selon lequel, même
si le capitalisme a survécu plus longtemps que prévu, ce fut encore
un système essentiellement dirigé par l’État et fortement
monopolisé. Les travailleurs de gauche pouvaient raisonnablement
croire qu’un monde de compagnies aériennes, d’aciéries et
d’entreprises automobiles appartenant à l’État constituait la
deuxième étape de la progression suivante : marchés libres
monopole socialisme.
L’idée mourut après 1989, avec l’éclatement du bloc soviétique, la
progression de la mondialisation ainsi que la création de l’économie
fragmentaire, commercialisée et privatisée que nous connaissons
aujourd’hui. Le scénario d’évolution qu’Hilferding avait imaginé, et
qui avait implicitement guidé le socialisme durant quatre-vingts ans,
n’a pas abouti et s’est même inversé.
Cela dit, cette doctrine d’une inévitable transition linéaire, de
Standard Oil au socialisme, était très tentante.

Les besoins en catastrophes de la gauche


En 1910, année de la parution du livre d’Hilferding, l’influence du
mouvement social-démocrate s’étendait dans tous les pays
développés. Berlin était l’épicentre reconnu de ce mouvement, et les
travaux de ses locuteurs germaniques s’étaient vus traduits, puis
débattus dans les usines de Chicago, les mines d’or de la Nouvelle-
Galles-du-Sud (Australie) et les cellules clandestines des navires de
guerre russes. Mais, alors que les masses salariales digéraient le
message d’Hilferding, quelque chose ne tournait pas rond. Des
grèves massives s’organisaient ici et là, aussi bien chez les ouvriers
du textile new-yorkais que chez les conducteurs de tramway à
Tokyo. Une guerre se préparait dans les Balkans. Pour un système
qui était censé avoir éliminé la crise, des tensions politiques et
sociales demeuraient. Rosa Luxemburg, qui avait remplacé
Hilferding à l’école du Parti socialiste de Berlin, avait entamé la
rédaction d’une œuvre monumentale qui réfuterait la théorie de la
stabilité d’Hilferding. Luxemburg était en faveur des grèves massives
et s’en était pris au militarisme, elle avait en effet critiqué Lénine et
sa conception élitiste de la politique révolutionnaire. Elle s’en prenait
maintenant à Hilferding.
Luxemburg a écrit son livre L’Accumulation du capital en 1913
avec un double objectif : expliquer les raisons économiques qui
motivent les rivalités coloniales entre les grandes puissances et
prouver que le capitalisme était voué à l’échec. Elle avait établi dans
la foulée la première théorie contemporaine de la sous-
consommation.
En reprenant les estimations de Marx, elle a prouvé, tout du moins
à elle-même, que le capitalisme est dans un état permanent de
surproduction. Il souffre continuellement du trop faible pouvoir
d’achat des travailleurs. Il est ainsi contraint de s’ouvrir à la
colonisation, pas seulement en tant que source de matières
premières, mais également en tant que source de marchés. Le coût
militaire de la conquête et de la défense de ses colonies a cet
avantage supplémentaire qu’il permet d’absorber une partie du
capital excédentaire. Luxemburg affirme que ces dépenses militaires
sont comparables au gaspillage ou à la consommation de luxe : elles
drainent le capital excédentaire.
Dans la mesure où l’expansion coloniale faisait office de soupape
de pression au sein d’un système vulnérable à la crise, Luxemburg
avait estimé qu’une fois le monde entièrement colonisé et converti
au capitalisme, le système devrait inévitablement s’effondrer. Elle en
conclut que le capitalisme est « le premier type d’économie
incapable d’exister par lui-même et qui a besoin d’autres systèmes
économiques à la fois comme terreau et comme engrais. Bien qu’il
tente de s’imposer à tous […], il ne peut que s’effondrer, car il est
fatalement incapable de revêtir une quelconque forme de
production universelle17 ».
Lénine et la plupart des professeurs socialistes avec lesquels elle
avait travaillé avaient déchiré son livre alors qu’ils l’avaient à peine
ouvert. Ils lui avaient fait remarquer, à raison, que tous les écarts
entre la production et la consommation étaient temporaires, et qu’ils
seraient réduits par le déplacement des investissements en capital
depuis les industries lourdes vers les biens de consommation. Dans
tous les cas, les nouveaux marchés issus de la colonisation n’étaient
pas les seules soupapes de pression des crises.
Malgré cela, le livre de Luxemburg est devenu de plus en plus
important. Il a introduit l’idée de « dernière crise » dans l’économie
de gauche. Il faisait état du même sentiment que celui de nombre
d’activistes à propos des monopoles, de la finance et du
colonialisme qui, même dans la période de paix et de prospérité des
années 1900, réunissaient les conditions d’une ultime catastrophe
aux conséquences désastreuses. Dès 1920, l’idée de sous-
consommation était au cœur de la principale théorie des crises de la
gauche, et, une fois que les choses se sont calmées, elle est
devenue un terrain d’entente pour la gauche et les partisans de
l’économie keynésienne pour les cinquante années à venir.
Les travaux de Luxemburg restent pertinents de nos jours dans la
mesure où ils mettent l’accent sur un élément fondamental du débat
postcapitaliste d’aujourd’hui : l’importance du « monde extérieur »
pour les systèmes qui s’adaptent avec succès.
Si nous ignorons son obsession pour la colonisation et les
dépenses militaires, et que l’on considère le simple fait que « le
capitalisme est un système ouvert », nous sommes déjà plus à
même de comprendre sa capacité naturelle à l’adaptation que l’ont
fait les partisans de Marx dans leur tentative de modélisation du
capitalisme en tant que système fermé.
L’idée précise de Luxemburg qui a irrité les enseignants
socialistes était la suivante : le capitalisme doit entrer en interaction
avec un monde extérieur non capitaliste au cours de son existence
et s’en imprégner pour en faire une partie de lui-même. Dès lors que
son environnement immédiat est transformé, que les sociétés
indigènes sont anéanties et que les paysans sont expulsés de leurs
terres, il doit trouver de nouveaux lieux pour répéter le processus.
Mais Luxemburg a eu tort de limiter cela à la simple possession de
colonies. De nouveaux marchés peuvent apparaître chez soi, pas
seulement en augmentant le pouvoir d’achat de la masse salariale,
mais aussi en transformant des activités non commerciales en
activités commerciales. Que Luxemburg ait ignoré cette possibilité
est assez curieux, si l’on considère tous les changements qui
avaient lieu tout autour d’elle.
Alors qu’elle travaillait sur son livre, les premières voitures
sortaient des lignes de production de l’usine Ford de Highland Park
à Detroit. La Victor Talking Machine Company vendait
250 000 phonographes par an aux États-Unis. Lorsqu’elle a
commencé à écrire en 1911, Berlin ne possédait qu’une seule salle
de cinéma autonome ; elle en comptait 168 en 191518. La
spectaculaire période de croissance du troisième cycle long (1896-
1945) témoigne surtout de l’expansion d’un tout nouveau marché de
consommation au sein des classes moyennes-basses et des
ouvriers qualifiés. Le loisir, l’activité non commerciale par excellence
au e siècle, commençait à se commercialiser. Luxemburg avait
ignoré le fait que les nouveaux marchés se forment de manière
complexe et interactive, et qu’ils peuvent apparaître non seulement
au sein des colonies, mais aussi au sein des économies nationales,
des filières locales, des foyers et dans les cerveaux de leurs
habitants.
La vraie question posée d’après l’idée de Luxemburg n’est pas
« que se passe-t-il lorsque le monde entier est industrialisé ? », mais
plutôt « que se passe-t-il si le capitalisme ne dispose plus de
moyens d’interactions avec le monde extérieur ? » Et, par-dessus le
marché, que se passe-t-il si le capitalisme ne parvient plus à créer
de nouveaux marchés au sein de l’économie actuelle ? Comme
nous le verrons, c’est exactement le problème qu’a rencontré le
capitalisme avec les technologies de l’information aujourd’hui.

Confusion générale
En 1919, à la suite d’une tentative d’insurrection ratée à Berlin, Rosa
Luxemburg fut assassinée par les membres d’une milice de droite.
Son corps fut jeté dans un canal. Rudolf Hilferding décéda, soit par
suicide soit sous la torture, dans une cellule de prison tenue par la
Gestapo à Paris en 1941. Entre ces deux événements, les théories
économiques anticapitalistes ont connu de grands bouleversements.
Luxemburg s’était toujours opposée au bolchévisme. Selon elle, si
le parti de Lénine venait au pouvoir, il finirait par instaurer un régime
autocratique. Ironie du sort, sa théorie a fini par devenir la doctrine
d’État de l’Union soviétique au milieu des années 1920. Pour
comprendre pourquoi et comment les conséquences de cette
doctrine hantent toujours la gauche, il est nécessaire de considérer
ce que la population mondiale a vécu au début des années 1920 :
le chaos.
La période 1919-1920 a vu le cycle d’expansion-récession le plus
violent de l’Histoire. L’inflation, galopante, a été suivie de soudaines
hausses du taux d’intérêt, ce qui a provoqué un krach boursier qui
s’est répercuté de Washington à Tokyo. Le chômage de masse et le
manque d’activité dans les grandes usines ont maintenu un niveau
de production bien en dessous de celui de 1914.
Dans ce contexte, des événements que même les socialistes
n’auraient pas osé envisager eurent lieu. La révolution russe de
1917 n’avait même pas encore un an que des États socialistes virent
le jour en Bavière et en Hongrie. Au début de la République de
Weimar, l’Allemagne s’était lancée dans une révolution socialiste au
seul moyen de réformes de grande envergure, parmi lesquelles la
« promesse » de socialiser l’économie. En 1919, des usines
tombèrent sous le contrôle de leurs ouvriers en Italie, des actions de
grève à la limite de l’insurrection eurent lieu en France et en Écosse
et des mouvements de grève générale s’organisaient à Seattle et à
Shanghai. Partout en Occident, les grands dirigeants envisageaient
la possibilité d’une révolution.
Sauf que, alors, la gauche avait plus que le livre de Luxemburg
pour progresser. Pendant la guerre, Lénine et Nikolaï Boukharine,
théoricien de la pensée bolchévique, se sont attelés à la rédaction
d’ouvrages inspirés de la pensée d’Hilferding. Tous deux ont conclu
qu’une domination de la finance sur le capitalisme était la preuve de
la fin imminente du système. Lénine a donné le nom
d’« impérialisme » à ce nouveau modèle de déclin, qu’il définit
comme « capitalisme en transition ». L’échelle à laquelle ces
changements s’opéraient, au moyen d’intégrations verticales, de
cartels et d’interventions de l’État, prouvait que l’économie revêtait
un caractère socialiste sous le capitalisme : dans L’Impérialisme,
stade suprême du capitalisme, Lénine écrit que la « propriété privée
forme une enveloppe qui est sans commune mesure avec son
contenu, qui doit nécessairement entrer en putréfaction si l’on
cherche à en retarder artificiellement l’élimination, qui peut continuer
à pourrir pendant un laps de temps relativement long […], mais qui
n’en sera pas moins inéluctablement éliminée19 ».
Le pamphlet de Boukharine, écrit en 1915 dans une bibliothèque
de New York ouverte la nuit, est allé plus loin. Il affirme que, dans la
mesure où les États-nations ont aligné leurs intérêts sur ceux de
leurs entreprises industrielles dominantes, la seule forme de
concurrence qui demeure est la guerre20.
Même écrits par des économistes amateurs, ces pamphlets furent
vénérés durant des dizaines d’années, car ils décrivaient un
scénario en adéquation avec les données. Les pratiques
monopolistiques ont débouché sur la colonisation, qui a à son tour
conduit à des guerres totales, guerres qui provoquèrent des
révolutions. La domination de la finance a abouti au capitalisme
organisé, prêt à être cueilli par la classe ouvrière pour fonctionner
sur des bases socialistes.
Lénine et Boukharine ont tous deux consacré la majeure partie de
leur temps à démolir l’idée de la naissance d’un nouveau type de
capitalisme intégrant un scénario de coopération internationale.
C’est le socialiste allemand Kautsky qui en eut l’idée à la veille de la
Première Guerre mondiale : il avait imaginé la création d’un marché
mondial unique dominé par les sociétés internationales. Au moment
de la parution de son article « Ultra-imperialism », la guerre avait
commencé. Toute la question avait dès lors revêtu un caractère
purement académique21.
Cependant, les bolchéviques comprirent que le concept de super-
impérialisme de Kautsky allait leur poser problème. Ils affirmèrent
que le capitalisme avait atteint ses limites, qu’il était nécessaire de
prendre le pouvoir à la première occasion, et que les propos selon
lesquels la classe ouvrière a besoin de « plus de temps » pour
devenir plus instruite et plus mature sur le plan politique étaient
mensongers.
Il y avait, aux yeux des bolchéviques, une nette progression
dialectique, de la libre concurrence au monopole, de la colonisation
à la guerre mondiale. Une fois le processus achevé, leur position
philosophique ne pouvait plus évoluer : le capitalisme ne pouvait
progresser que jusqu’à sa propre destruction. À ce stade, toute
l’extrême gauche avait effectivement adopté l’une des idées clés de
Luxemburg : la théorie des crises devrait décrire la finalité du
capitalisme, pas sa nature cyclique.
Entre 1917 et 1923, les deux ailes du socialisme eurent l’occasion
de tester l’idée que les travailleurs pouvaient exploiter le pouvoir de
l’État dans le but de socialiser le capitalisme.
En janvier 1919, Hilferding rejoint la commission de socialisation
du gouvernement allemand à Berlin, commission qui avait tenté de
nationaliser et de planifier l’économie durant quatre mois. Mais, à la
suite de blocages de la part de membres socialistes modérés et
libéraux du gouvernement, le développement du projet s’arrêta à la
phase de conception. En Autriche, pays nouvellement constitué sur
les ruines de l’Empire austro-hongrois, le mouvement social
s’étendait sans difficulté. Le gouvernement de coalition socialiste-
chrétien fit passer une loi permettant la nationalisation des
entreprises en difficulté. Un plan socialiste pour reprendre le
système bancaire a cependant été rejeté. En fin de compte,
l’Autriche s’est retrouvée avec trois entreprises majeures possédées
par l’État : une usine de chaussures, une usine pharmaceutique et
l’arsenal de l’Empire austro-hongrois, que le gouvernement a tenté
de convertir en une entreprise de fabrications diverses. Le destin de
ce projet ne peut pas être mieux récapitulé que par celui qui a
essayé de le piloter : « Pour la société nouvellement créée, le
problème qui se pose est d’employer ses hommes et ses machines
à la production de biens pour lesquels un marché n’avait pas encore
été créé22. »
En Hongrie, durant la courte République des conseils de Hongrie,
Jeno Varga, ancien collaborateur d’Hilferding durant les séminaires
de Vienne, est devenu ministre des Finances. Il a décrété que toutes
les entreprises fortes de plus de vingt salariés seraient nationalisées.
Tous les grands magasins furent fermés pour empêcher les classes
moyennes d’acheter des biens de luxe et de les utiliser en tant
qu’investissements. Les terres furent nationalisées. La République
des conseils de Hongrie allait bientôt se confronter à un autre
problème. Les usines avaient besoin d’être dirigées, mais leurs
ouvriers en étaient incapables. Varga avait clairement exposé le
problème :

« Les membres des comités d’entreprise se sont efforcés d’éviter le travail


productif. En leur qualité de contrôleurs, ils se sont tous assis autour de la
table du bureau […] ils cherchaient à gagner la faveur des travailleurs, par un
assouplissement des règles, un quota de travail réduit ainsi que des
augmentations de salaire, tout cela au détriment de l’intérêt général23. »

En d’autres termes, les membres des comités d’entreprise ont agi


dans l’intérêt des travailleurs, et non dans celui des commissaires.
En Russie, les bolchéviques avaient surmonté ces problèmes en
imposant une doctrine de discipline militaire dans les usines et en
supprimant le pouvoir exercé par les travailleurs. Ils devaient faire
face à un plus gros problème : l’économie s’effondrait sous la
pression qu’exerçaient les ouvriers dans les usines, des pénuries et
du refus des paysans de fournir des céréales aux villes.
En 1920, Boukharine avait proposé une solution : un projet
complexe de transition rapide depuis ce système improvisé, connu
sous le nom de « communisme de guerre », vers un système
permanent de planification centrale de l’ensemble de l’économie. Un
an plus tard, Lénine renonce à ce plan alors que les tensions
contraignent les bolchéviques à passer à une forme plus brutale de
socialisme de marché.
Pendant des décennies, les dirigeants de la social-démocratie
d’avant-guerre avaient insisté sur le fait qu’il était inutile d’établir une
feuille de route en cas de prise de pouvoir. Les bolchéviques et les
modérés qui dirigeaient le parti travailliste britannique étaient tous
d’accord sur ce point : toute leur idéologie avait été forgée en
opposition à l’utopie du socialisme, ses expériences ratées et ses
rêves désabusés. Ils avaient pris conscience que les progrès
technologiques et la réorganisation des entreprises étaient si rapides
à l’approche de 1914 que tout plan enfermé dans l’armoire du QG du
parti serait dépassé au moment où il était nécessaire de le mettre en
place. Ils savaient qu’il fallait contrôler ou nationaliser le système
financier ; ils savaient qu’ils ne pouvaient pas répondre aux besoins
et des fermiers et des consommateurs, ce qui créerait des tensions.
Mais ils ont bien peu réfléchi au problème qui détruirait à la fois les
versions réformistes et révolutionnaires de la socialisation : à savoir,
l’action indépendante des ouvriers en quête de leurs propres intérêts
immédiats, qui entre en conflit avec la nécessité d’un mode de
gestion technocratique et d’une planification centralisée.
Des comités d’entreprise récalcitrants de Varga à Budapest aux
ouvriers russes qui insistaient sur leur autonomie, en passant par les
ouvriers de Fiat à Milan qui essayaient même de produire des
voitures sans l’aide de leurs chefs, le problème des intérêts
divergents des ouvriers et de la planification allait totalement prendre
les dirigeants socialistes de court.
Certes, ces premiers essais du socialisme se sont révélés
infructueux, mais il est bon de se rappeler que, au même moment,
les tentatives de stabilisation du capitalisme ont échoué. Les
accords de paix de 1919 ont condamné la relance économique
allemande à stagner sous la contrainte des réparations. « Dans
l’Europe continentale, écrit un John Maynard Keynes désabusé, peu
après avoir quitté rapidement la délégation britannique à Versailles,
le sol s’agite et nul néanmoins ne prend garde à ses grondements. Il
ne s’agit pas seulement d’excès ou d’agitation ouvrière, mais de vie
ou de mort, de famine ou d’existence. Ce sont peut-être là les
convulsions effroyables d’une civilisation qui se meurt24. »
Avec le recul, nous pouvons considérer la période 1917-1921
comme une crise sociale dont l’issue aurait pu être fatale.
Économiquement parlant, elle aurait pu être évitée si les bonnes
décisions avaient été prises sur le plan politique. En Allemagne, elle
résulte du coût astronomique des réparations d’après-guerre ; aux
États-Unis et en Grande-Bretagne, elle fut provoquée par les
banques qui, dans l’optique d’entraver la forte période de croissance
de 1919, ont fixé des taux d’intérêt bien trop élevés. Les accords de
paix de Versailles ont mis à sec l’Autriche et la Hongrie, qui se
retrouvent avec des dettes exorbitantes et plus d’empire pour les
payer.
La situation a commencé à se stabiliser après 1921. Comme nous
l’avons vu, Kondratiev disait de la période 1917-1921 qu’elle était la
première période de crise d’une longue phase de ralentissement
économique. Sans compter que cette stabilisation avait laissé les
marxistes, qui avaient adopté le modèle « monopole – guerre –
effondrement », complètement démunis. Ils estimaient que les
fonctions vitales du capitalisme n’étaient assurées que par
l’immaturité du prolétariat et le manque de volonté de prise de
pouvoir des travailleurs, ainsi que d’erreurs politiques de la part des
différents partis socialistes. Lénine avait autorisé quelques poussées
de croissance dans tel ou tel secteur, mais pas la survie du système
entier.
Mais, en 1924, Lénine était mort, Trotsky avait été mis sur la
touche, et Staline était aux commandes ; Varga, qui avait fui
la Hongrie pour Moscou, était son économiste en chef. Staline
n’avait pas besoin d’une théorie de la complexité, il avait besoin
d’une théorie de la certitude. La certitude d’un effondrement du
capitalisme justifierait la tentative de construire ce que tous les
économistes de gauche ont jugé comme étant impossible : « le
paradis socialiste » ; un pays extrêmement arriéré, soit dit en
passant. Les bases d’une théorie de la catastrophe avaient été
établies dans l’ouvrage de Luxemburg, mais il manquait quelque
chose, quelque chose que Varga apporta plus tard.
La « loi de Varga » avait prévu la baisse régulière des revenus
réels des ouvriers. Il écrit que « cela constitue la base économique
de la crise que traverse l’intégralité du capitalisme […]
l’appauvrissement définitif de la classe ouvrière passe au premier
plan25 ». Varga était on ne peut plus clair : la tendance à la baisse de
la consommation de masse était une caractéristique généralisée et
non cyclique du e siècle et allait, avec le temps, détruire tout
soutien aux politiques réformistes et libérales au sein des
travailleurs. On ne parlerait pas de « croissance », mais plutôt, et
selon la formule de Varga, d’un « décumul ».
Il est difficile de se rappeler aujourd’hui à quel point ces idées
étaient devenues puissantes après avoir été transmises de bouche à
oreille en discutant autour d’une table dans les cuisines des foyers
de la classe ouvrière. Durant les années 1920 et 1930, la loi de
Varga était une formule régulièrement citée parmi les activistes des
mouvements syndicaux. Ce n’était que pure logique à leurs yeux :
dans les années 1920, toute la stratégie des gouvernements
britannique et français consistait à imposer des réductions de
salaire. Et, lorsque la crise de 1929 survint, le gouvernement
américain n’y a volontairement pas remédié dans le but de faire
baisser les salaires. Bien que complètement erronée, la théorie de la
sous-consommation a grandement gagné en intérêt.
Varga a, lui aussi, produit quelques œuvres majeures dans les
années 1930. En tant que partisan de Luxemburg, il n’a pas oublié
que les conditions économiques des pays non développés pouvaient
avoir un impact sur la dynamique des crises, il a ainsi fortement mis
l’accent sur l’échec de l’agriculture dans les colonies comme facteur
de blocage de la relance économique en Occident. Résultat :
la « version légale » de la théorie marxiste de l’économie, théorie de
l’effondrement tant inévitable qu’imminent, était valide. Même les
trotskystes, traqués par Staline, étaient convaincus que le
capitalisme allait s’effondrer à la fin des années 1930. Leurs leaders
insistaient sur le fait que « les forces de production n’avancent
plus26 ».
Dans un mouvement syndical international désormais dominé par
la variante moscovite du marxisme, aucune autre possibilité que
l’effondrement n’était permise.
Marx avait tenté de définir le capitalisme de manière abstraite :
utiliser un nombre minimal d’idées générales et travailler à partir
d’elles à une explication de la réalité complexe et superficielle de la
crise. Donc, selon Marx, la baisse des taux de profit génère des
contre-tendances à plusieurs niveaux d’abstraction, à la fois dans le
monde merveilleux des bénéfices cumulés et dans le monde
cauchemardesque de la colonisation et de l’exploitation. Pour lui,
tandis que toute crise réelle a une cause réelle, l’objectif est
d’expliquer le processus profond à l’œuvre derrière toutes les crises.
Mais l’explication de la première grande transformation structurelle
du capitalisme dépassait ce cadre. Le capitalisme financier a créé
une nouvelle réalité.
Dans les années 1900, les efforts entrepris pour comprendre le
capitalisme financier ont inévitablement attiré la théorie marxiste
vers des phénomènes précis : les questions d’inadéquation des
secteurs et de faible consommation, l’économie multisectorielle et
les prix réels au lieu des quantités abstraites de travail que Marx
vendait.
Cette attention sur le « réel » a conduit Hilferding à conclure que
le cycle des crises était fini, Luxemburg à déplacer sa théorie de la
crise sur le terrain de l’effondrement, et Lénine à envisager le
caractère irréversible du déclin économique. Avec Varga, nous
passons de la réalité au dogme : la théorie de la crise la moins
développée devient la doctrine incontestable d’un État impitoyable,
tous les partis communistes du monde en sont les émissaires,
et toute une génération d’intellectuels de gauche reçoit un
enseignement totalement dénué de sens.
Tout au long du débat, les participants ont été hantés par ses
implications politiques comme aucun spécialiste des sciences
sociales ne devrait l’être. Selon Luxemburg, si Hilferding est dans le
vrai, le socialisme n’est pas inévitable. Il devient un « luxe » pour la
classe ouvrière. Ses membres peuvent tout aussi bien choisir de
vivre avec le capitalisme, et, étant donné leur conscience politique,
le feront probablement. Luxemburg a donc été poussée à chercher
une justification objective à l’effondrement.
Cela étant, toutes les variantes des théories de la sous-
consommation ont un point faible : que se passe-t-il si le capitalisme
parvient à trouver un moyen de passer outre le faible pouvoir d’achat
des masses ? En 1928, Boukharine eut l’intuition que le capitalisme
y était parvenu. Il a affirmé que le capitalisme s’était stabilisé en
1920, complètement et définitivement, et a provoqué une nouvelle
série d’innovations technologiques. Selon lui, cette série fut
provoquée par l’apparition du capitalisme d’État, qui résulte de la
fusion des monopoles, des banques et des cartels avec l’État lui-
même27.
Ce faisant, la théorie de la crise avait bouclé la boucle, en
revenant à la possibilité que le capitalisme organisé puisse
supprimer la crise. Le malheur de Boukharine a été d’affirmer cela la
veille du krach boursier de Wall Street, au milieu d’une querelle de
faction avec Staline. Il fut expulsé de la direction du parti et, malgré
une décennie difficile durant laquelle il tenta de cohabiter avec
Staline en plus d’avoir renié publiquement ses anciennes opinions, il
fut exécuté, comme Kondratiev, en 1938.

Le problème de la théorie des crises


Ce n’est que dans les années 1970 qu’un solide corpus de travaux
universitaires a commencé à réunir les bouts éparpillés de la théorie
de Marx pour en faire un tout fonctionnel. Malgré le succès de la
génération de la Nouvelle Gauche dans la clarification et la
réhabilitation de la pensée du « vrai » Marx, le principal problème de
sa théorie demeure : pour comprendre le capitalisme et ses
transformations les plus significatives, la théorie des crises ne suffit
pas.
Marx laisse entendre qu’il existe un processus selon lequel la
machine rend le travail humain obsolète ; résultat, les taux de profit
ont tendance à baisser. De même, cette baisse des taux de profit a
tendance à être compensée par des processus d’adaptation (c’est
une contre-tendance). Une crise de nature cyclique survient lorsque
ces processus cessent d’être efficaces.
Kondratiev nous a cependant montré qu’à un certain moment,
lorsque les crises deviennent plus fréquentes, profondes et
violentes, un processus d’adaptation se déclenche à une échelle
plus structurelle. Dans la mesure où leur modèle économique ne
pouvait pas s’aligner sur ces adaptations structurelles, les marxistes
du début du e siècle furent contraints de définir ce phénomène en
parlant d’« époques » historiques ou en faisant appel à la
philosophie, et en utilisant des termes tels que parasitisme,
décroissance ou encore transition.
Dans les faits, cette phase de transformation est surtout de nature
économique. Elle reflète l’obsolescence de la structure entière, des
modèles commerciaux, des panoplies de compétences, des devises,
des technologies, et son remplacement par une structure plus
récente.
Elle se produit, en terminologie des systèmes, au niveau
« méso », entre la microéconomie et la macroéconomie. L’ampleur
de ce phénomène de transformation se trouve entre celle du cycle
du crédit et celle de la fin du système. Une fois que l’on comprend
que ces transformations sont courantes et régulières, on comprend
également que tous les modèles du capitalisme qui les aborde
comme étant fortuites ou négligeables seront faux.
Il n’existe aucune version de la théorie des crises qui traite du
phénomène de transformation des systèmes en intégralité.
Cependant, il est possible, avec cette théorie, d’en définir les causes
au cas par cas.
Une théorie des crises actualisée se doit d’aborder le problème
sous un angle macroéconomique, et non abstrait. Il est possible, à la
manière de Marx, d’exploiter certaines idées abstraites pour repérer
les mécanismes du marché fondamentaux ; par contre, nous ne
pouvons pas faire l’impasse sur l’État en tant que puissance
économique, ni sur le travail syndiqué, les monopoles, les devises et
les banques centrales. Impossible non plus d’ignorer le système
financier comme accélérateur des crises, et, dans le présent
contexte, le consumérisme financiarisé et les instabilités générées
par la monnaie fiduciaire, qui encourage le développement du crédit
et de la spéculation à une ampleur telle que le capitalisme du
e
siècle ne s’en serait jamais relevé.
En ce sens, Hilferding, Luxemburg et les autres n’étaient pas de
« mauvais » marxistes lorsqu’ils ont commencé à abandonner les
idées abstraites pour se tourner vers une réalité plus concrète : ils se
comportaient en bons matérialistes. Leur erreur fut d’affirmer que le
capitalisme d’État monopolisé était le seul moyen d’arriver à un
système postcapitaliste. Aujourd’hui, nous pouvons être sûrs que ce
n’est pas le cas.
Les économistes marxistes ont contribué de manière éclairée à
notre compréhension des événements de 2008. L’économiste
français Michel Husson et le professeur Ahmed Shaikh de la
Nouvelle École ont tous deux démontré comment le néolibéralisme a
fait remonter les taux de profit à partir de la fin des années 1980.
Ces taux ont cependant brutalement chuté durant les quelques
années avant la crise financière de 200828. Husson affirme à raison
que le néolibéralisme « résout » le problème du manque de
rentabilité, à la fois pour les entreprises individuelles (en supprimant
les coûts de main-d’œuvre) et pour le système dans son entièreté
(en augmentant de manière phénoménale les avantages
pécuniaires). Mais, par rapport à des profits plus élevés, le taux
global d’investissement après les années 1970 est faible.
C’est ce mystère des hausses de bénéfices et des baisses des
investissements qui doit être résolu dans le cadre d’une théorie des
crises actualisée. Il en existe une explication raisonnablement
simple : dans le système néolibéral, les entreprises exploitent les
bénéfices pour payer des dividendes au lieu de réinvestir. Et, lorsque
surviennent des tensions sur le marché financier, tensions devenues
palpables après la crise économique asiatique de 1997, les
entreprises constituent des réserves de liquidités grâce aux
bénéfices pour se prémunir contre un resserrement des crédits.
De plus, elles s’endettent en permanence. Durant les périodes
prospères, elles rachètent des actions à leurs propriétaires
financiers, à la manière d’une distribution exceptionnelle de
bénéfices. Elles minimisent leur exposition au danger de
l’exploitation financière et maximisent leurs possibilités en tant
qu’actrices sur les marchés financiers.
Ainsi, bien qu’Husson et Shaikh aient réussi à prouver qu’une
« baisse des taux de profit » s’était produite avant la crise de 2008,
cette crise est le résultat d’un processus de plus grande ampleur, à
une échelle bien plus structurelle. Comme l’a suggéré Larry
Summers dans ses travaux à propos de la stagnation séculaire,
cette crise est due à la disparition soudaine de facteurs qui ont
compensé durant plusieurs dizaines d’années l’inefficacité du
modèle et le manque de productivité29.
Cet entêtement à faire le lien entre les crises et une cause
abstraite unique, au détriment des transformations structurelles à
l’œuvre, a été la première source de confusion parmi les partisans
de la théorie de Marx. Cette fois-ci, il faut l’éviter. Le bilan se doit
d’être concret. Il doit inclure les structures tangibles du capitalisme :
les États, les sociétés, les systèmes de protection sociale, les
marchés financiers.
La crise qui est survenue en 2008 n’était pas le résultat de la
disparition de telle ou telle contre-tendance, ni même d’une baisse
des taux de profit à court terme. Elle est due à la disparition de tout
un ensemble de facteurs qui soutenaient les taux de profit, ensemble
qui constituait le système néolibéral. Le néolibéralisme n’a jamais
été synonyme de croissance exceptionnelle ni, comme le prétendent
certains, de période de stagnation cachée. C’était une expérience
ratée.

Le cycle parfait
Dans le chapitre suivant, nous expliquerons ce qui a mené à cette
expérience. Nous exposerons en détail comment le quatrième cycle
de Kondratiev a pris son envol entre 1948 et 2008, ce qui l’a
interrompu et ce qui l’a prolongé. Nous avancerons l’idée selon
laquelle l’impact des nouvelles technologies et la disponibilité
immédiate d’un « nouveau monde » extérieur sont à l’origine d’une
rupture dans ce schéma à long terme.
Nous devons en premier lieu établir le modèle d’un cycle standard
comme outil intellectuel. Kondratiev a eu raison d’avertir que chaque
cycle, en partant du précédent, établit une nouvelle version du
modèle. Mais ce n’est qu’en examinant attentivement les
caractéristiques des trois premiers que l’on peut voir comment le
quatrième se démarque.
Ce qui suit est une reformulation « normative » de la théorie des
cycles longs combinée aux idées rationnelles de la pensée marxiste
à propos des crises :
1. Le début d’un cycle est habituellement marqué par une
accumulation du capital dans le système financier. Cette
accumulation stimule la création de nouveaux marchés et
provoque la mise en œuvre d’un ensemble de nouvelles
technologies. Cette première poussée de croissance est à
l’origine de guerres et de révolutions ; à terme, elle conduit à
la stabilisation des marchés mondiaux par le biais de
nouvelles règles et de nouveaux accords.
2. Dès lors que les nouvelles technologies, les nouveaux
modèles commerciaux et les nouvelles structures du marché
fonctionnent en harmonie, et que le nouveau « paradigme
technologique » est clairement apparu, le capital est propulsé
vers les secteurs de production, ce qui permet le maintien
d’un âge d’or marqué par un taux de croissance plus élevé
que la moyenne et peu de récessions. Dans la mesure où les
bénéfices sont partout, l’idée d’une distribution rationnelle de
ceux-ci entre les acteurs économiques gagne en popularité,
tout comme la possibilité d’une redistribution des richesses
vers le bas. L’époque respire la « concurrence coopérative »
et l’harmonie sociale.
3. Au cours du cycle, on observe une tendance au
remplacement de la main-d’œuvre par des machines.
Cependant, lors de la phase de croissance, toute baisse des
taux de profit est contrebalancée par un rythme de
production bien plus important, ainsi, les bénéfices
augmentent globalement. Lors de la phase de croissance de
chacun des cycles, l’économie n’a aucun mal à absorber le
supplément de main-d’œuvre, même lorsque la productivité
augmente. Dans les années 1910, par exemple, les
souffleurs de verre remplacés par des machines sont
devenus des projectionnistes de cinéma ou des opérateurs
de lignes de production dans l’industrie automobile.
4. Si les limites de la croissance lors d’un tel âge d’or sont
atteintes, c’est souvent parce que l’euphorie qui en est
caractéristique a provoqué un surinvestissement dans les
secteurs de production, ou une inflation, ou encore un conflit
d’orgueil mené par les puissances dominantes. À un moment
survient un « point de rupture » aux conséquences
désastreuses ; il correspond au moment où l’incertitude qui
plane sur les modèles commerciaux, les accords monétaires
et l’équilibre mondial devient générale.
5. C’est là que commence le premier processus d’adaptation,
qui consiste à faire baisser les salaires et tenter de
déqualifier la main-d’œuvre. Les projets de redistribution, tels
que l’État-providence ou le financement public des
infrastructures urbaines, sont sous pression. Les modèles
commerciaux évoluent rapidement de manière à faire le
maximum de bénéfices là où c’est possible ; l’État doit
planifier des changements dans l’urgence. Les récessions
gagnent en fréquence.
6. Si cette première tentative d’adaptation échoue (comme
dans les années 1830, 1870 et 1920), le capital est retiré des
secteurs de production avant d’être injecté dans le système
financier, ainsi, la crise adopte un caractère ouvertement plus
financier. Les prix baissent. La dépression précède la
panique. Ainsi débute une quête de nouvelles technologies
de rupture, de nouveaux modèles commerciaux et de
nouvelles sources d’argent. Les structures des puissances
mondiales s’ébranlent.

Il est nécessaire, à cette étape, d’intégrer un nouveau facteur,


celui des « agents », ces groupes sociaux qui agissent selon leurs
propres intérêts. L’un des problèmes de la version de la théorie
des cycles longs de Schumpeter vient de sa tendance à l’obsession
des innovateurs et des technologies, au détriment des classes,
qu’elle ignore. Lorsque l’on s’intéresse à l’histoire sociale, on peut
remarquer que chacune des phases d’« adaptation ratée » s’est
produite à cause d’une résistance de la part de la classe ouvrière.
A contrario, chaque phase d’adaptation réussie relève de l’État.
Au cours du premier cycle long, grossièrement entre 1790 et
1848, l’économie industrielle était captive d’un État aristocratique en
Grande-Bretagne. Une crise longue commença vers la fin des
années 1820. Elle fut caractérisée par le désordre dans lequel était
plongé le système bancaire et par l’entêtement des directeurs
d’usines, désireux de survivre en déqualifiant la main-d’œuvre et en
baissant les salaires. Les résistances ouvrières, parmi lesquelles le
chartisme, mouvement qui atteint son apogée en 1842 lors de la
grève générale, forcent l’État à stabiliser l’économie.
Cela étant, un processus d’adaptation réussi se produit dans les
années 1840 : la Banque d’Angleterre acquiert le monopole de
l’émission de billets ; les lois industrielles mettent fin au rêve
de remplacer la main-d’œuvre masculine qualifiée par des femmes
et des enfants. Les « Corn Laws », une série de lois protectionnistes
en faveur de l’aristocratie, sont abolies. L’impôt sur le revenu est
prélevé, et l’État britannique commence enfin à fonctionner comme
une machine qui profite aux capitalistes industriels au pouvoir, au
lieu de prendre des allures de champ de bataille entre eux et une
aristocratie vieillissante.
Pour le deuxième cycle, qui commence en Grande-Bretagne, dans
l’Europe de l’Ouest et l’Amérique du Nord, et qui finira par inclure la
Russie et le Japon, la phase de décroissance commence en 1873.
Le système essaie de s’adapter par la création de monopoles, par
les réformes agraires, la baisse des salaires des emplois qualifiés et
l’intégration de travailleurs immigrés en tant que main-d’œuvre bon
marché là où c’est possible. Les pays adoptent l’étalon-or,
constituent des blocs monétaires et imposent des mesures tarifaires
sur le commerce. Cela étant, des instabilités continuent ici et là de
gangrener la croissance. Les années 1880 voient les premiers
mouvements syndicaux d’envergure. Même si les mouvements
échouent souvent, les ouvriers qualifiés résistent remarquablement
bien à l’automatisation, tandis que les travailleurs non qualifiés
bénéficient d’un début de système de protection sociale. Ce n’est
que dans les années 1890, lorsque les monopoles fusionnent avec
les banques ou sont soutenus par un marché financier fluide, qu’un
changement d’ordre stratégique est opéré. Un ensemble de
technologies de rupture est mis en service, et, de la même manière
que dans les années 1840, un changement radical se produit dans
le rôle économique de l’État. Que ce soit à Berlin, Tokyo ou
Washington, l’État devient responsable du maintien des conditions
optimales dont les grandes entreprises monopolistiques profitent. Il
opère en appliquant des tarifs, en favorisant l’impérialisme et les
projets d’infrastructures.
C’est encore une fois la résistance ouvrière qui empêche le
système de s’adapter pour un coût nul et sans innovation
technologique.
Pour ce qui est du troisième cycle, si l’on considère la
période 1917-1921 comme le début de la phase de décroissance, le
système s’adapte en resserrant le contrôle exercé par l’État sur les
industries et en essayant de relancer l’étalon-or. Les salaires sont
diminués dans la plupart des pays au cours des années 1920, mais
ils ne baissent pas assez rapidement pour résoudre la crise. Puis,
lorsque la phase de dépression commence, la peur des tensions
sociales pousse les grandes puissances à chercher une voie de
sortie compétitive : supprimer l’étalon-or, créer des blocs
commerciaux fermés, favoriser la croissance et réduire le chômage
à l’aide de fonds publics.
En mettant l’accent sur tout ceci, je pense apporter quelque chose
d’essentiel à la théorie des cycles : lors de chaque cycle de longue
durée, la baisse des salaires et la dégradation des conditions de
travail au début de la phase descendante sont les caractéristiques
les plus flagrantes du schéma. Elles déclenchèrent les luttes
sociales des années 1830, elles ont motivé les poussées
syndicalistes des années 1880 et 1890 et ont été à l’origine de la
lutte des classes des années 1920. Les conséquences sont
majeures : si les ouvriers résistent, le système est contraint d’opérer
des changements plus profonds, ce qui permet à un nouveau
paradigme d’apparaître. Mais, pour le quatrième cycle, nous avons
pu voir ce qui se produit lorsque cette résistance ouvrière échoue.
Le rôle de l’État dans la création d’un nouveau paradigme est tout
aussi équivoque. Les années 1840 ont pu témoigner du succès des
économistes de la Currency School, qui ont imposé une monnaie
tangible au capitalisme britannique en insistant sur le fait que la
Banque d’Angleterre avait le monopole de l’émission des billets. Les
années 1880 et 1890 ont vu l’augmentation des interventions de
l’État. Dans les années 1930, il s’agit carrément de capitalisme
d’État et de fascisme.
L’histoire des cycles de longue durée montre que ce n’est que
lorsque le capital ne parvient pas à faire baisser les salaires et que
les nouveaux modèles commerciaux ne fonctionnent pas, et lorsque
le climat économique n’est pas favorable, que l’État est contraint
d’agir en institutionnalisant les nouveaux systèmes, en favorisant les
nouvelles technologies et en finançant et protégeant les innovateurs.
Le rôle de l’État dans les grandes transformations a bien été
assimilé. À l’inverse, l’importance des classes a été sous-évaluée.
Dans les travaux de Carlota Perez à propos des cycles longs, la
résistance ouvrière est perçue comme un sous-ensemble du
problème plus général posé par la « résistance au changement ».
Selon nous, la résistance ouvrière joue un rôle essentiel dans la
forme que prendra le prochain cycle long.
Si la classe ouvrière est en mesure de résister aux baisses de
salaires et à la dégradation du système de protection sociale, les
innovateurs sont forcés de chercher de nouvelles technologies et de
nouveaux modèles commerciaux capables de redonner du
dynamisme sur la base de salaires plus élevés, en passant par des
innovations et une productivité accrue plutôt que par l’exploitation.
Lors des trois premiers cycles, la résistance ouvrière a généralement
forcé le capitalisme à se réinventer sur la base d’un niveau de
consommation préexistant ou plus élevé (mais le revers de la
médaille est que les grandes puissances coloniales cherchaient
alors des moyens toujours plus brutaux d’extraire des bénéfices de
leurs colonies).
Dans ses rapports sur les cycles longs, Perez juge futile toute
résistance à la mort de l’ancien système. Une ligne est tracée
« entre ceux qui regardent le passé avec nostalgie et qui
s’accrochent aux anciennes pratiques et ceux qui adoptent le
nouveau paradigme30 ».
Cela étant, une fois que l’on a pris en compte des facteurs tels
que les classes, les salaires et les États-providence, la résistance
ouvrière peut devenir facteur de progression technologique ; elle
force l’apparition d’un nouveau paradigme à un plan plus élevé de la
productivité et du consumérisme. Elle contraint les « hommes et les
femmes de demain » à trouver le moyen de produire une forme de
capitalisme plus productive et plus propice à l’augmentation des
salaires réels et à le sauvegarder.
Les cycles de longue durée ne sont pas seulement le produit de la
combinaison entre technologie et économie, en effet, la lutte des
classes joue un rôle essentiel dans leur apparition. Et c’est dans ce
contexte que la première théorie des crises de Marx permet une
meilleure compréhension des cycles que ne le permet celle de
l’épuisement des investissements de Kondratiev.

L’origine du cycle
La théorie de Marx explique de manière adéquate d’où vient
l’énergie nécessaire au déclenchement des cycles de cinquante ans.
Si l’on en ôte les fausses affirmations ajoutées par ses partisans,
nous sommes en mesure de saisir toute l’importance de la théorie
de Marx, ainsi que sa position par rapport aux transformations
cycliques longues de cinquante ans.
On peut raisonnablement penser que la baisse du taux de profit
ainsi que ses contre-tendances se manifestent tout au long du cycle.
Les crises surviennent lorsque les contre-tendances ne suffisent
plus à entraver la baisse des taux de profit. Dans le capitalisme
juvénile du e siècle, ces crises étaient fréquentes, elles l’étaient
d’autant plus lors des périodes de décroissance. Par exemple, Marx
avait sous-estimé la possibilité que les crises, ayant un impact sur
les bénéfices, soient déclenchées par la résistance ouvrière face aux
baisses de salaires. Cependant, la baisse du taux de profit – si
fondamentale – agit désormais sous une série de couches de
pratiques sociales conçues pour l’inverser.
Le bilan dressé par Kondratiev, qui disait que les cycles de
cinquante ans étaient entraînés par la nécessité de renouveler les
grandes infrastructures, était beaucoup trop simpliste. Il serait plus
correct d’affirmer que chaque cycle trouve sa propre solution
concrète à la baisse du taux de profit lors de la période de
croissance, à savoir, une série de modèles commerciaux, de savoir-
faire et de technologies, et que la période de décroissance
commence lorsque ces solutions ne fonctionnent plus ou deviennent
obsolètes. Les formes les plus efficaces de la solution appliquée lors
de la période de croissance sont celles que la théorie de Marx a
définies à un niveau profond du processus de production :
augmentation de la productivité, baisse du prix des intrants,
augmentation des bénéfices. Une fois que le cycle entame sa
période de décroissance et que la solution n’est plus inefficace, ce
sont les facteurs les plus aléatoires, et que l’on trouve en surface,
qui ont tendance à entrer en jeu. Est-il possible de trouver de
nouveaux marchés en dehors du système ? Les investisseurs
accepteront-ils une part réduite des bénéfices sous forme de
dividendes ?
La tendance à la baisse des taux de profit et sa constante
interaction avec les contre-tendances expliquent beaucoup mieux la
dynamique des cycles de cinquante ans que la synthèse de
Kondratiev. Une fois ces deux facteurs combinés, la théorie des
cycles longs devient un outil bien plus puissant que ce que la
traditionnelle gauche marxiste soupçonnait.
Plus simplement : les cycles de cinquante ans marquent le rythme
à long terme du système capitaliste.
Un système qui permet le remplacement rapide de la main-
d’œuvre par des machines fonctionne pendant un certain temps,
générant des profits accrus, puis cesse tout simplement de
fonctionner. C’est là notre variante de la théorie de « l’épuisement
des investissements » de Kondratiev.
Une crise financière est toujours possible lors de la période de
croissance du cycle long (comme cela s’est produit en 1907 aux
États-Unis), mais elle est virtuellement inévitable lors de la période
de décroissance. Lorsque les capitaux passent des secteurs de
production en difficulté à la finance, ils sont à l’origine de
déséquilibres, ce qui entraîne des cycles spéculatifs d’expansion et
de récession. De plus, au cours des trois premiers cycles longs,
la nature du capital s’était complexifiée sur le plan financier.
Enfin, il est nécessaire pour le capitalisme d’interagir avec un
monde extérieur, à la fois pour ouvrir de nouveaux marchés de biens
et acquérir plus de main-d’œuvre. C’est un aspect fondamental de la
théorie des systèmes, mais qui avait été sous-estimé par la théorie
marxiste des crises dans la mesure où celle-ci met l’accent sur des
modèles abstraits et fermés.
e
Il existait déjà au siècle un marché interne prêt à se
développer au sein des pays capitalistes, si tant est que l’économie
agraire fût en mesure d’encaisser le choc de la rupture. De la même
manière, la main-d’œuvre abondait. Mais, après 1848, le processus
d’adaptation nécessitait désormais la recherche de marchés
extérieurs.
Au début du e siècle, l’offre en main-d’œuvre domestique était
limitée, en partie à cause du taux de natalité et de l’opposition des
ouvriers à la mise en pratique du travail des femmes et des enfants.
En ce qui concerne les nouveaux marchés, dans les années 1930, le
monde entier était pratiquement cloisonné dans des blocs
commerciaux fermés.
Avec le quatrième cycle, une partie non négligeable du monde
extérieur s’est retrouvée isolée d’office. Au début de la guerre froide,
environ 20 % du PIB mondial était produit en dehors du marché31.
Après 1989, l’apparition soudaine de nouveaux marchés et d’une
nouvelle main-d’œuvre a largement contribué à la prolongation du
cycle, tout comme la nouvelle liberté d’action dont disposait
l’Occident pour façonner les marchés des pays neutres qui étaient
auparavant exclus.
En d’autres termes, entre 1917 et 1989, la capacité du capitalisme
à mettre en œuvre des mécanismes complexes d’adaptation avait
été totalement supprimée. Elle retrouva tout son potentiel après
1989 : main-d’œuvre, marchés, liberté d’entreprendre, nouvelles
économies majeures. À partir de là, l’année 1989 doit, à elle seule,
expliquer une partie des perturbations du cycle que nous allons
bientôt exposer. Seulement une partie.
La séquence des cycles longs a été perturbée. Le quatrième cycle
long a été prolongé, déformé et finalement rompu par des facteurs
qui ne s’étaient jamais manifestés auparavant dans l’histoire du
capitalisme : la défaite et la reddition morale du travail syndiqué,
l’essor des technologies de l’information et la prise de conscience
que dès lors qu’existe une superpuissance qui règne sans
opposition, elle peut créer de l’argent à partir de rien pendant
longtemps.
4
Un cycle long et perturbé

En 1948, une fois le plan Marshall mis en place, la guerre froide


débutait et les laboratoires Bell inventaient le transistor. Chacun de
ces événements a contribué à donner sa forme au quatrième cycle
long qui allait commencer.
Le plan Marshall, une enveloppe financière de 12 milliards de
dollars adressée à l’Europe, avait permis aux Américains de garantir
que la reprise économique d’après-guerre se ferait sous leur tutelle.
La guerre froide avait perturbé le déroulement du quatrième cycle,
d’abord en isolant 20 % de la production mondiale du capital, puis en
permettant une nouvelle poussée de croissance à la fin de cette
période en 1989. En permettant d’utiliser l’information à un niveau
industriel, les transistors étaient, quant à eux, devenus la
technologie clé d’après-guerre.
Ceux qui ont vécu la période de croissance d’après-guerre furent
étonnés, intrigués et constamment inquiets qu’elle arrive à son
terme. Même Harold McMillan, qui avait dit aux Britanniques en
1957 qu’ils n’avaient « jamais aussi bien vécu », a ajouté : « Ce qui
commence à inquiéter certains d’entre nous, c’est de savoir si c’est
trop beau pour être vrai1. » En Allemagne, au Japon et en Italie, la
presse grand public a, chacune à leur manière, qualifié la croissance
de leur pays de « miracle ».
Les chiffres faisaient peur. Le plan Marshall, combiné aux efforts
de reconstruction nationale, a permis à la plupart des économies
européennes de connaître une croissance bien supérieure à 10 %
par an, jusqu’à retrouver un niveau similaire à celui d’avant la
guerre, niveau qui, pour la plupart de ces économies, avait été
retrouvé en 19512. La croissance, qui était régulière, s’est envolée
rapidement, et ne s’est pas arrêtée. Entre 1948 et 1973, l’économie
américaine a plus que doublé de volume3. Les économies du
Royaume-Uni, de l’Allemagne de l’Ouest et de l’Italie ont quadruplé
au cours de la même période. Pendant ce temps, l’économie
japonaise a été multipliée par dix, et cela par rapport à un chiffre de
référence proche de la moyenne d’avant-guerre, ce qui n’a rien à
voir avec un quelconque effet de rattrapage qui aurait suivi
Hiroshima et Nagasaki. Durant toute la période, la croissance
annuelle mensuelle de l’Europe de l’Ouest était de 4,6 %, soit près
du double de celle qui s’étend de 1900 à 1913, lors de la période de
croissance du précédent cycle4.
La croissance était propulsée par une hausse de la productivité
jamais observée auparavant. Lorsque l’on se penche sur les
données du PIB par habitant, les résultats sont on ne peut plus
clairs. Dans les seize pays les plus développés, le PIB par habitant a
augmenté en moyenne de 3,2 % par an entre 1950 et 1973.
Durant toute la période qui va de 1870 à 1950, la moyenne était
de 1,3 %5. Les revenus réels se sont envolés : aux États-Unis, la
plupart des foyers ont vu leurs revenus réels augmenter de plus de
90 % entre 1947 et 19756 ; au Japon, les revenus réels moyens ont
bondi de 700 %7.
Partout dans les pays développés, le nouveau paradigme techno-
économique s’était imposé, même si chaque pays avait sa propre
version. La standardisation de la production de masse, en plus des
salaires suffisamment élevés pour entraîner la consommation de ce
qui était produit par les usines, avait fait son entrée dans toute la
société. Toute la main-d’œuvre masculine était employée, et, selon
les cultures, de plus en plus d’adolescents et de femmes trouvaient
du travail durant la période de reconstruction qui a suivi la guerre.
Dans les pays développés, l’exode rural était de plus en plus
important : entre 1950 et 1970, le personnel agricole européen a vu
ses effectifs diminuer rapidement, passant de 66 millions à
40 millions de personnes ; aux États-Unis, il s’est effondré, passant
de 16 % de la population à un maigre 4 %8.
La période de croissance la plus rapide de l’Histoire n’allait
certainement pas se passer sans problème. Mais, pour y remédier,
des techniques de gestion économiques complexes avaient été
développées : des statistiques en temps réel, des organes de
planification économiques au niveau national et des armées
d’économistes et de statisticiens qui occupaient le quartier général
des grandes sociétés.
Tandis que la période de croissance suivait son cours, elle fut
source de grande confusion au sein de la gauche. Varga,
l’économiste attitré de Staline, avait bien saisi la chose : il avait
averti les chefs du Parti soviétique en 1946 que les méthodes des
États capitalistes développées pendant la guerre avaient le potentiel
de rétablir l’équilibre à l’Ouest9. Il avait émis l’hypothèse que les
puissances dominantes anglo-saxonnes prêteraient probablement
assez d’argent au reste du monde pour relancer le consumérisme, et
que les méthodes développées lors de la guerre par les
organisations gouvernementales remplaceraient l’« anarchie de la
production capitalistique10 ». Pour avoir dit cela, il fut chassé de son
poste en plus d’avoir été contraint de renoncer à sa thèse et
d’admettre qu’il était « cosmopolite ». Staline avait décrété qu’il était
impossible pour les économies de l’Ouest de s’équilibrer.
À l’Ouest, l’extrême gauche était restée du côté des pessimistes :
« La relance de l’activité économique dans les pays capitalistes
affaiblis par la guerre […] sera caractérisée par un rythme
particulièrement lent qui maintiendra leurs économies à des niveaux
frôlant la stagnation et l’enlisement », écrivaient les trotskystes
en 194611.
Lorsque leurs propos furent démentis, les marxistes ne furent pas
les seuls à être surpris. Les théoriciens des social-démocraties
furent si désarçonnés qu’ils affirmèrent que le système économique
de l’Ouest était, en effet, devenu non capitaliste. L’ancien député
britannique Anthony Crosland a écrit en 1956 que « les
caractéristiques fondamentales du capitalisme, la règle immuable de
la propriété privée, la soumission de la vie aux influences du
marché, l’hégémonie de la recherche du profit, la neutralité des
gouvernements, la distribution traditionnelle des revenus par le
laisser-faire et l’idéologie des droits individuels ont disparu12 ».
Au milieu des années 1950, presque toute la gauche avait adopté
la théorie du « capitalisme monopoliste d’État », d’abord proposée
par Boukharine, puis par Varga, et maintenant transformée en une
théorie à part entière par l’économiste américain de gauche
Paul Sweezy13. Il pensait que l’intervention de l’État, les mesures
sociales et les dépenses militaires élevées en permanence avaient
supprimé la tendance à la crise. La baisse du taux de profit pourrait
être compensée par une augmentation de la productivité, là encore,
de manière permanente. Il était clair que l’Union soviétique n’avait
pas d’autre choix que de coexister avec le capitalisme ; les
mouvements syndicaux de l’Ouest avaient oublié les révolutions et
profitaient maintenant des avantages considérables de la
croissance.
Pendant toute la période, le débat s’était concentré sur ce qui
avait changé au niveau de l’État, de l’usine, du supermarché, de la
salle de conférence et du laboratoire. L’argent avait été négligé.
Cependant, le facteur crucial qui soutenait la réalité économique
dans les années 1950 et 1960 se basait sur un système monétaire
international stable et sur la suppression effective des marchés
financiers.

Le pouvoir des règles explicites


Le 1er juillet 1944, des économistes, des hommes d’État et des
banquiers prirent le train pour White River Junction dans le Vermont,
avant de rejoindre un hôtel dans le New Hampshire par bateau.
« Tous les trains, dont le passage était habituel, ou programmé,
devaient faire attention à nous, se souvient le conducteur du train.
Nous étions les maîtres du monde14. » Ils partaient en direction de
Bretton Woods. Là, ils développèrent un système monétaire
international qui, tout comme le train, allait devenir le « maître du
monde ».
Lors de la conférence de Bretton Woods, un accord a été signé à
propos d’un système de taux de change fixe conçu pour retrouver la
stabilité d’avant la Première Guerre mondiale, sauf que, cette fois,
des règles explicites ont été établies. La valeur des monnaies
mondiales allait maintenant dépendre de celle du dollar, qui, elle,
avait été fixée par les États-Unis sur celle de l’or, à 35 dollars pour
28,3 g. Les pays dont la balance commerciale devenait
dangereusement déséquilibrée furent contraints d’acheter ou de
vendre des dollars pour maintenir la valeur de leur propre monnaie
au montant convenu.
Lors de la conférence, l’économiste britannique John Maynard
Keynes prôna la création d’une monnaie internationale
indépendante, mais les États-Unis repoussèrent l’idée. Au lieu de
cela, ils renforcèrent la position du dollar en tant que monnaie
internationale non officielle. Il n’existait pas de banque centrale
mondiale, cependant le Fonds monétaire international (FMI) et la
Banque mondiale furent créés dans l’optique de fluidifier le système.
Le rôle du FMI était alors de faire appliquer les règles et de prêter de
l’argent à court terme et en dernier ressort.
Le système favorisait grandement les États-Unis : leur économie
était la plus importante, leur infrastructure avait été épargnée par la
guerre et, pour le moment, leur productivité était la plus haute. Ils
eurent même le droit de choisir le patron du FMI. Le système
favorisait également l’inflation. Dans la mesure où le lien avec l’or
était indirect, la fixation de la valeur des monnaies était libre, et les
règles qui régissaient l’équilibre des échanges et les réformes
structurelles étaient laxistes – le système était conçu pour produire
de l’inflation. La droite libérale en avait pris conscience bien avant
que le train en partance pour Bretton Woods ne quitte la gare. Le
journaliste Henry Hazlitt, un proche du gourou du libre-échange
Ludwig von Mises, avait émis de vives critiques à propos de ce plan
dans une tribune du New York Times : « Il est difficile d’envisager
une menace plus sérieuse pour l’équilibre mondial et la pleine
productivité que l’éternelle possibilité d’une inflation mondiale
constante à laquelle les politiciens de tous les pays seraient si
facilement tentés15. »
Cependant, le système n’agissait pas en faveur de la haute
finance. Des limitations sévères à l’endettement des banques furent
imposées par la loi et par la « persuasion » – une forme de pression
silencieuse qu’exercent les banques centrales sur les banques qui
prêtent trop. Aux États-Unis, les banques devaient détenir
l’équivalent de 24 % de l’argent qu’elles prêtaient en liquidités ou en
obligations16. Au Royaume-Uni, c’était 28 %. En 1950, les prêts émis
par les banques de quatorze pays développés capitalistes
équivalaient à un cinquième seulement du PIB – c’était le ratio le
plus bas depuis 1870, c’était également bien moins que ce qui avait
été prêté lors de la période de croissance d’avant la Première
Guerre mondiale. Ces restrictions virent naître une forme de
capitalisme profondément national. Les banques et les fonds de
pension étaient dans l’obligation légale de détenir la dette publique
de leur propre pays ; par ailleurs, le système ne les encourageait
pas à effectuer des échanges financiers à l’international. Ajoutons à
cela un plafond bien défini appliqué sur les taux d’intérêt, et nous
obtenons ce que l’on appelle désormais la « répression financière ».
Voilà comment elle fonctionne : on maintient les taux d’intérêt en
dessous de celui de l’inflation de sorte que les épargnants paient
pour le privilège de posséder de l’argent ; on les empêche de faire
sortir l’argent du pays en quête d’un meilleur plan d’épargne, et on
les force à racheter la dette souveraine de leur propre pays à prix
d’or. Comme l’ont prouvé les économistes Reinhart et Sbrancia,
cette forme de répression financière eut pour effet de grandement
réduire la dette des pays développés17.
Le coût de la guerre a fait que la dette publique des pays
développés équivalait en 1945 à pratiquement 90 % du PIB. Mais, à
cause d’une poussée d’inflation juste après la guerre, suivie d’une
période d’inflation modérée qui s’était étalée sur toute la durée de la
période de croissance d’après-guerre, les taux d’intérêt réels sont
devenus négatifs : aux États-Unis, entre 1945 et 1973, les taux
d’intérêt réels à long terme étaient en moyenne de -1,6 %. Dans la
mesure où les restrictions bancaires avaient mené à des impositions
efficaces sur les actifs financiers, les économistes estimèrent
qu’elles permirent au gouvernement de gagner un cinquième de
l’ensemble de ses revenus pendant la période de croissance, et
encore plus au Royaume-Uni18. Résultat : la dette souveraine des
pays développés fut spectaculairement réduite à 25 % du PIB en
1973.
En somme, les signataires de la conférence de Bretton Woods
réalisèrent quelque chose d’unique : ils réduisirent les dettes
cumulées lors de la Seconde Guerre mondiale, supprimèrent la
spéculation, mobilisèrent les épargnes dans le cadre
d’investissements productifs et permirent à une croissance
exceptionnelle de se développer. Ils déplacèrent toute l’instabilité
latente du système dans la sphère des relations monétaires.
Cependant, l’hégémonie américaine avait contribué à la maîtrise de
celles-ci dans un premier temps. Les indignations de la droite quant
au caractère inflationniste des accords de Bretton Woods étaient
bien peu de chose comparées à la plus grande période de stabilité
et de pleine productivité que l’humanité ait jamais connue.
Keynes avait insisté, lors de la phase de développement, sur
l’importance d’établir des règles explicites ; ce faisant, il est allé plus
loin que l’accord informel à l’origine de l’étalon-or. Il se trouve que,
dans la mesure où ces règles explicites avaient été soutenues par
une superpuissance mondiale, leurs effets ont été démultipliés,
d’une manière que bien peu auraient pu imaginer.
Même si la Grande Dépression résulte partiellement du déclin de
la Grande-Bretagne et du refus de l’Amérique de devenir une
superpuissance mondiale, c’est à Bretton Woods que les États-Unis
firent preuve d’un certain dévouement en acceptant d’assumer le
rôle de superpuissance. Le fait est que, dans l’Histoire moderne, ce
n’est que durant les vingt-cinq années qui ont suivi la Seconde
Guerre mondiale qu’une grande puissance a réellement dominé le
monde. La domination exercée par la Grande-Bretagne au e siècle
fut somme toute relative, et sans cesse négociée. Dans le monde
capitaliste du milieu du e siècle, la domination américaine était
totale. L’économie mondiale fut complètement réinitialisée, et la
période de croissance du quatrième cycle en fut d’autant plus
favorisée, mais ce ne fut pas la seule réinitialisation à avoir eu lieu.
La croissance économique d’après-guerre
vue comme un cycle
Avec la prise de contrôle par l’État de l’innovation, un second
changement majeur s’était produit lors de la guerre. En 1945, les
bureaucraties nationales s’étaient habituées à pratiquer la
nationalisation et la prise de contrôle, et certainement à
communiquer vers les masses, dans le but de modeler le
comportement des acteurs du secteur privé. Des gérants tout à fait
ordinaires, agissant sous la pression et fonctionnant selon l’état
d’esprit « marche ou crève », avaient perfectionné la technocratie.
Même au sein des puissances de l’Axe, où les États avaient été
démantelés en 1945, cette culture de l’innovation ainsi qu’une
grande partie du système technocratique avaient survécu à la
guerre.
Le cas de General Motors est intéressant. En 1940, le
gouvernement américain a engagé le président de General Motors,
William S. Knudsen, pour administrer le Bureau de la gestion et de la
production américaine, dont le personnel était chargé de coordonner
toute l’économie de guerre. Il a fait signer l’équivalent de 14 milliards
de dollars de contrats avec General Motors pendant la guerre. La
société a converti l’intégralité de ses 200 usines pour les besoins du
gouvernement ; elles produisirent, entre autres, 38 000 chars,
206 000 moteurs d’avions et 119 millions d’obus. Autrement dit,
General Motors est devenue un fabricant d’armes de premier ordre,
avec un client unique. Dans ce secteur comme dans d’autres grands
secteurs industriels américains, la gestion industrielle a bel et bien
agi à l’image d’un bureau de planification d’État à but lucratif. C’était
du jamais vu, et cela n’a jamais été revu.
Au niveau fédéral, la R&D fut centralisée et industrialisée par
l’action de l’Office of Scientific Research and Development*1
(OSRD), une agence du gouvervement créée pour coordonner la
recherche scientifique à des fins militaires. Il avait été convenu que
l’OSRD ne tirerait pas directement profit de ses recherches. « Le
profit est fonction des activités de production propres à un
établissement industriel, pas à un département de recherche », a
décrété l’OSRD19. Des contrats furent signés dans les secteurs où la
main-d’œuvre était très qualifiée et où le risque de surcharge de la
production de masse était à la fois le plus faible et « divisé entre le
plus d’organisations possible ». C’était seulement lorsque tous ces
critères étaient satisfaits qu’il était possible de rechercher le coût de
production le plus faible. Les hostilités entre concurrents
commerciaux cessèrent, de même que les conflits de propriété
industrielle à propos des brevets20.
Ce qui fut réalisé dans le monde du capitalisme a été
remarquable : faire de la recherche un bien public, supprimer la
concurrence et planifier non seulement la production, mais aussi la
direction de la recherche. De plus, même si les États-Unis
perfectionnèrent ces pratiques, tous les autres États prenant part au
conflit les testèrent. Résultat : une toute nouvelle culture de
métissage des secteurs clés vit le jour. Cette nouvelle approche a
conduit à l’intégration des mathématiques et des sciences dans les
processus industriels et, de la même manière, l’économie et la
gestion des données furent intégrées aux instances de décision
politique.
L’OSRD s’est arrangée pour que l’on fasse sortir Claude Shannon
(le père de la théorie de l’information) de l’université de Princeton
avant de l’installer dans les laboratoires de Bell, dans le but de
concevoir des algorithmes destinés aux canons de
21
défense antiaérienne . Dans ces laboratoires, Claude Shannon a
rencontré Alan Turing, avec qui il a discuté de la possibilité des
« machines qui pensent ». Turing avait lui aussi été enlevé au
monde universitaire par le gouvernement britannique pour prendre la
tête de l’opération de déchiffrage du code Enigma qui se déroulait à
Bletchley Park.
Cette culture de l’innovation a survécu à la transition vers la paix,
même si certaines sociétés individuelles ont essayé de s’approprier
le monopole des résultats et d’ignorer les principes de la propriété
industrielle. Et cela ne s’arrêtait pas aux innovations technologiques.
En 1942, General Motors donna l’autorisation au théoricien de la
gestion Peter Drucker d’accéder à l’ensemble de ses opérations et
de les étudier. Après quoi, Drucker rédigea The Concept of the
Corporation, qui est sans doute le tout premier livre de gestion
moderne de l’Histoire prônant la dislocation des organes
décisionnels et la décentralisation du contrôle. Même si General
Motors s’est passée de ses conseils, des milliers d’autres sociétés
les ont suivis : l’industrie automobile japonaise d’après-guerre les a
complètement adoptés comme doctrine. La théorie de la gestion est
devenue une discipline qui s’est, sans grande surprise, généralisée.
Cette généralisation s’est faite par le biais de centaines de sociétés
de conseil consacrées à la diffusion de techniques de gestion
efficaces plutôt qu’à leur mise sous le boisseau au profit de quelques
grands groupes.
En ce sens, l’économie de guerre donna naissance à l’un des
réflexes fondamentaux du capitalisme durant la longue période de
croissance d’après-guerre : la résolution de problèmes
à l’aide de bonds technologiques audacieux, le rassemblement de
spécialistes de plusieurs disciplines, la diffusion des meilleures
pratiques propres à un secteur donné ainsi que la transformation des
processus commerciaux au même rythme que celui de la
transformation des produits.
Le rôle premier de l’État contraste fortement avec celui, bien plus
discret, de la finance. Dans tous les modèles normatifs des cycles
longs, c’est la finance qui alimente les innovations en permettant au
capital d’être injecté dans de nouveaux secteurs plus productifs.
Mais la finance a bel et bien souffert durant les années 1930.
Le capitalisme qui est apparu après la guerre était d’un tout
nouveau genre. On doit cette apparition au développement d’un
ensemble de nouvelles technologies : le moteur à réaction, les
circuits intégrés, l’énergie nucléaire et les matériaux synthétiques.
Après 1945, le monde s’est subitement mis à sentir le nylon, le
plastique et le vinyle, en plus de vrombir sous l’effet des processus
électriques.
Mais l’une de ces technologies clés demeurait invisible : la
technologie de l’information. Même si « l’économie de l’information »
allait naître bien plus tard, les économies d’après-guerre
témoignèrent d’un usage de l’information à l’échelle industrielle. Elle
se diffusait, tout comme la science, la théorie de la gestion, les
données, la communication de masse, et même dans quelques lieux
reculés, à partir d’un ordinateur vers un bac de papier à plier.
Un transistor n’est rien de plus qu’un bouton sans élément
amovible. De la combinaison de la théorie de l’information et des
transistors naquit la possibilité d’automatiser les processus
physiques. Ainsi, les usines occidentales furent rééquipées avec des
machines semi-automatisées : des presses, des perceuses, des
fraiseuses, des tours, des machines à coudre et des lignes de
production entièrement pneumatiques. Il ne leur manquait plus que
des systèmes de retour d’information complexes : les détecteurs
électriques et les systèmes logiques automatisés étaient si
rudimentaires que ces derniers utilisaient de l’air comprimé pour
faire ce que l’on fait maintenant à l’aide d’applications pour iPhone.
Cependant, on ne manquait pas de personnel, et, pour une grande
partie, le travail manuel consistait à assurer le contrôle d’un
processus semi-automatisé.
L’économiste Andrew Glyn, de l’université de Cambridge, pensait
que la performance exceptionnelle enregistrée lors de la croissance
d’après-guerre ne pouvait être expliquée que par l’existence d’un
« régime économique unique22 ». Il avait défini ce régime comme
étant un mélange de facteurs économiques, sociaux et géopolitiques
qui avaient interagi de manière bénigne durant la période de
croissance, avant d’être à l’origine de conflits et de frictions vers la
fin des années 1960.
L’interventionnisme de l’État donna naissance à une culture de
l’innovation technologique administrée par la recherche scientifique.
L’innovation stimulait la productivité. La productivité permettait des
salaires plus élevés, à tel point que la consommation a pu suivre le
rythme de la production durant vingt-cinq ans. Des règles mondiales
strictes stimulaient la croissance. Le système de réserves
fractionnaires encourageait une inflation « bénigne » qui, associée à
la répression financière, poussait le capital dans les secteurs
productifs et diminuait le risque de spéculation financière.
L’utilisation des engrais et de la mécanisation au sein des pays
développés multipliait le rendement des productions agricoles,
permettant ainsi de maintenir des frais d’intrants minimaux. Les
apports en énergie étaient, eux aussi, peu coûteux à l’époque.
En conséquence, la période qui s’étale de 1948 à 1973 s’est
déroulée à la manière d’une période de croissance de cycle de
Kondratiev sous stéroïdes.

Les causes de la rupture du cycle


Rien dans toute l’histoire de l’économie n’égalera la journée du
17 octobre 1973. Leurs armées étant en guerre contre Israël, la
majeure partie des pays arabes exportateurs de pétrole ont imposé
un embargo sur les États-Unis et ont très fortement diminué leur
production. Le prix du pétrole a quadruplé. Le choc qui en a résulté a
plongé les principales puissances économiques dans la récession.
L’économie des États-Unis a perdu 6,5 % entre janvier 1974 et
mars 197523, tandis que celle de la Grande-Bretagne a diminué de
3,4 %. Même le Japon, dont la croissance moyenne était de 10 %
après la guerre, a connu de brèves périodes de croissance
négative24. Cette crise avait un caractère unique dans la mesure où,
dans les pays les plus durement touchés, le déclin de la croissance
s’accompagnait d’une inflation importante. En 1975, elle atteignait
20 % en Grande-Bretagne et 11 % aux États-Unis. Le mot
« stagflation » apparaissait dans les gros titres.
Malgré tout, le choc pétrolier ne marquait que le début de la crise.
La période de croissance avait déjà souffert de quelques
ralentissements. Vers la fin des années 1960, la croissance a été
entravée par des problèmes à l’échelle nationale ou locale partout
dans les pays développés : inflation, conflits syndicaux, manque de
productivité et pléthore de scandales financiers. Mais l’année 1973
fut décisive, c’est l’année durant laquelle l’énergie qui animait la
période de croissance du quatrième cycle lui a fait atteindre son
point culminant avant d’inverser le mouvement. Les causes de cette
inversion de mouvement ont contribué à définir l’économie
contemporaine.
Pour les économistes de droite, la réponse tient dans
l’obsolescence des pratiques issues de la pensée keynésienne. Les
économistes de gauche, quant à eux, ont proposé plusieurs
explications qui varièrent au cours du temps : vers la fin des
années 1960, c’était les hauts salaires qu’il fallait accuser ; durant la
décennie qui a suivi, les économistes de la nouvelle gauche
tentèrent d’appliquer la théorie de la surproduction de Marx.
Dans les faits, il est plus facile d’interpréter les événements de
1973 comme étant une période de changements qui se produit
habituellement au milieu d’un cycle de Kondratiev. Elle survient
environ vingt-cinq ans après le début d’un cycle économique. Elle
touche le monde entier. Elle est précurseur d’une longue phase de
crises récurrentes. Dès lors que l’on comprend ce qui est à l’origine
des périodes de croissance – c’est-à-dire une forte productivité, des
règles strictes appliquées à l’échelle mondiale et l’usage de la
répression financière –, on est alors en mesure de comprendre
comment elles viennent à s’essouffler.
Les accords d’après-guerre avaient efficacement écarté les
déséquilibres et les avaient confinés dans deux zones où ils
pouvaient être contrôlés : les relations intermonétaires et les
relations entre les classes. Selon les accords de Bretton Woods, il
est interdit de dévaluer sa propre monnaie pour réduire les coûts
d’exportation et favoriser l’emploi. Au lieu de cela, si l’économie du
pays n’est pas assez concurrentielle, il est possible de se protéger
de la concurrence internationale à l’aide de barrières commerciales
ou en imposant une « dévaluation interne », en diminuant les
salaires, en contrôlant les prix et en réduisant le budget des
prestations sociales. Dans la pratique, le protectionnisme n’était pas
encouragé par les accords de Bretton Woods ; de plus, les baisses
de salaire n’avaient jamais réellement été mises en pratique,
jusqu’au milieu des années 1970. Il ne restait plus que la
dévaluation. En 1949, la Grande-Bretagne dévalua la livre sterling
de 30 % de sa valeur par rapport à celle du dollar. Vingt-trois pays
firent de même. Au total, 400 dévaluations avaient officiellement été
décidées avant 1973.
Ainsi, les accords de Bretton Woods ont débouché sur un système
qui nécessitait d’emblée que les États essaient sans cesse de
répondre à leurs échecs économiques en manipulant leur taux de
change par rapport au dollar. À Washington, cette pratique ayant été
vue comme une forme de concurrence déloyale, les États-Unis y
répondirent. En 1960, ils dévaluèrent leur propre monnaie en termes
réels en se basant sur les différences de prix, comparés à ceux
pratiqués par leurs concurrents. Ce conflit économique est passé du
statut de guerre en sous-main à celui de guerre ouverte lors des
périodes d’hyperinflation de la fin des années 1960.
Au sein des usines, cette longue période de croissance fut surtout
une affaire de productivité et de salaires. Dans les pays développés,
la production augmentait de 4,5 % par an, tandis que la
consommation des ménages augmentait de 4,2 %. Le rendement
croissant des machines automatisées avait plus que compensé
l’augmentation des salaires de la main-d’œuvre qui les opéraient.
Tout ceci résultait d’un investissement nouveau. La période de
croissance s’est achevée au moment où cet investissement ne
suffisait plus à garantir l’accroissement de la productivité au taux
précédent.
Il existe des signes évidents d’un ralentissement de la productivité
dans les données d’avant 1973, d’autres montrent une baisse du
ratio entre rendement et capital investi25. La productivité, en tant que
contre-tendance à la pression exercée vers le bas sur les bénéfices,
ne suffisait plus. Mais, alors que la situation devenait plus difficile, le
pouvoir de négociation de la classe ouvrière dans les pays de plein
emploi ainsi que l’objection à la rupture du contrat social d’après-
guerre ont suffi à ne pas faire appliquer des réductions de salaire.
Les directeurs n’eurent d’autre choix que d’augmenter les salaires et
les avantages en nature tout en réduisant le quota d’heures de
travail.
Il en résulta un « rétrécissement des bénéfices ». En comparant
les taux de profit des États-Unis, de l’Europe et du Japon en 1973 à
ceux des années durant lesquelles ils ont enregistré leur meilleure
performance lors de la croissance, Andrew Glyn a constaté qu’ils
avaient, pour chaque pays, chuté d’un tiers. Face à la baisse des
bénéfices, à l’augmentation des salaires et au niveau alarmant de
militantisme dans les ateliers, il y avait deux solutions : laisser
l’inflation sévir, réduisant ainsi la valeur des salaires réels sans avoir
à provoquer davantage de conflits ; et accompagner les
augmentations des minimums sociaux, en allégeant la pression sur
les entreprises individuelles, par exemple, en augmentant les
allocations familiales et autres prestations sociales versées par
l’État. En conséquence, les dépenses sociales de l’État, en
prestations, subventions et autres mesures de stimulation des
revenus, ont atteint des niveaux qui ne leur permettaient plus de
fonctionner, en particulier en Europe où ils sont passés de 8 % du
PIB à la fin des années 1950 à 16 % en 197526. Aux États-Unis,
pendant la même période, les dépenses fédérales en matière d’aide
sociale, de retraites et de santé ont doublé pour atteindre 10 % du
PIB à la fin des années 1970.
Il a suffi d’un choc pour faire basculer ce système fragile dans la
crise. C’est ce qu’a provoqué Richard Nixon en août 1971 en
rompant unilatéralement la promesse d’échanger le dollar contre de
l’or, réduisant ainsi à néant ce qui avait été réalisé à Bretton Woods.
Les motivations de Nixon sont bien documentées27. Lorsque les
concurrents des États-Unis rattrapèrent leur retard en matière de
productivité, les capitaux affluèrent des États-Unis vers l’Europe,
tandis que la balance commerciale américaine déclinait. À la fin des
années 1960, alors que tous les pays étaient engagés dans des
politiques expansionnistes, grâce à des dépenses publiques élevées
et des taux d’intérêt bas, les États-Unis sont devenus les grands
perdants de Bretton Woods. Il leur fallait assumer le coût de la
guerre du Viêt Nam et des réformes sociales de la fin des
années 1960, mais ils ne le pouvaient pas. Il leur fallait dévaluer leur
monnaie, mais ils ne pouvaient pas puisqu’il fallait que les autres
pays acceptent d’augmenter la valeur de leur propre monnaie par
rapport à celle du dollar, chose que ces pays ont refusée. Nixon a
donc agi.
Le monde est passé d’un taux de change fixé par rapport au dollar
et à l’or à un système de monnaies totalement flottantes. À partir de
ce moment-là, le système bancaire mondial était effectivement en
train de créer de l’argent à partir de rien.
Par ce changement, tous les pays touchés furent provisoirement
en mesure de lutter contre les problèmes sous-jacents de
productivité et de rentabilité à l’aide de solutions que l’ancien
système ne permettait pas : hausse des dépenses publiques et
baisse des taux d’intérêt. Les années de 1971 à 1973 furent
marquées par une sorte d’euphorie nerveuse.
L’inévitable krach boursier a frappé Wall Street et Londres en
janvier 1973, provoquant ainsi l’effondrement de plusieurs banques
d’investissement. Le choc pétrolier d’octobre 1973 fut la goutte d’eau
qui fit déborder le vase.

Carry On Keynes*2
En 1973, tous les aspects de ce régime unique qui avait entretenu la
croissance exceptionnellement longue d’après la guerre avaient
disparu. Seulement, on aurait dit que la crise avait été le fruit d’un
accident : hausse des prix du pétrole après embargo de l’OPEP ;
annulation pure et simple des règles établies à Bretton Woods par
Richard Nixon ; baisse des bénéfices due à cette figure de dégoût
qu’est le « travailleur cupide ».
C’est à ce moment-là que les producteurs de la célèbre franchise
de films britanniques Carry On ont décidé d’abandonner les parodies
historiques burlesques pour s’essayer à la satire sociale. Le film
Carry On At Your Convenience (1971), qui se déroule dans un décor
d’usine de toilettes, parodie un monde dans lequel les ouvriers
contrôlent le rythme de production, les directeurs sont incompétents
et la liberté sexuelle exerce une influence jusqu’à même le sol de
l’usine du coin. Le message de Carry On At Your Convenience
dénonce l’absurdité du système de l’époque : impossible de
continuer comme ça, mais faute de mieux… Le fait est que l’on
retrouve ce même message dans les décisions politiques qui avaient
été prises en réponse à la crise.
Après 1973, les gouvernements tentèrent de renverser la vapeur
en appliquant une version durcie des règles keynésiennes. Pour
supprimer l’inflation et apaiser les tensions syndicales, les autorités
gouvernementales appliquèrent un contrôle sur les prix et les
salaires. Ces mêmes autorités dépensèrent et empruntèrent l’argent
public à un rythme accru pour parer à la baisse de la demande
induite par la crise économique. Mais, même si la croissance a
repris après 1975, elle n’a jamais retrouvé son rythme précédent.
Vers la fin des années 1970, le système keynésien s’est
autodétruit. Cette destruction ne fut pas seulement due aux
décisions politiques prises par les dirigeants, mais aussi par tous les
acteurs du système keynésien : les ouvriers, les bureaucrates, les
technocrates et les politiciens.
Le militantisme ouvrier avait déjà quitté les usines et était entré sur
le terrain des négociations gouvernementales. Au milieu des
années 1970, l’attention des chefs syndicaux était centrée sur les
accords salariaux à l’échelle nationale, le contrôle des prix et les
plans de réformes sociales, le tout accompagné de méthodes
destinées au maintien de leur mainmise sur certains secteurs,
comme le firent les ouvriers des docks britanniques dans leur
tentative de s’opposer à la technologie des conteneurs. Le but des
mouvements syndicaux des pays développés était désormais de
mettre au pouvoir des gouvernements sociaux-démocrates de
gauche qui maintiendraient en permanence des politiques
keynésiennes.
Mais, à cette époque, les hommes d’affaires et les principaux
hommes politiques de droite s’étaient complètement éloignés du
monde keynésien.

Les syndicats attaqués


Il était devenu monnaie courante de penser que le triomphe du
néolibéralisme et de la mondialisation était inévitable. Or ce n’était
pas le cas. Leur apparition résulte d’actions gouvernementales, il en
va de même pour le fascisme et le corporatisme dans les
années 1930.
Le néolibéralisme avait été conçu et mis en pratique par des
politiciens visionnaires : Pinochet au Chili ; Thatcher et sa caste
ultraconservatrice en Grande-Bretagne ; Reagan et ses alliés de la
guerre froide qui l’avaient fait accéder au pouvoir. Ces politiciens
durent faire face à une résistance acharnée de la part des
travailleurs syndiqués et en eurent assez. Ces pionniers du
néolibéralisme en sont parvenus à une conclusion qui a façonné les
traits de notre époque : il est impossible pour une économie
moderne de coexister avec le travail syndiqué. Ils s’engagèrent ainsi
dans la destruction totale du pouvoir de négociation commun à tous
les ouvriers, de leurs traditions ainsi que de leur cohésion.
Ce ne fut pas la première fois que l’on tenta de renverser les
syndicats. Cela étant, les attaques précédentes venaient de
politiciens paternalistes qui préféraient le moindre mal : ils
n’encourageaient pas la main-d’œuvre à militer, mais plutôt à bien se
comporter, à faire preuve d’un socialisme modéré et à élire des
fonctionnaires comme chefs de leurs syndicats. Ils avaient par
ailleurs favorisé le développement de communautés stables, basées
sur des idées conservatrices et dont la dynamique sociale
s’apparentait à celle d’une fourmilière, avec ses ouvrières et ses
soldats. Le plan global du conservatisme, et même du fascisme,
favorisait une forme différente de solidarité qui servait à renforcer
l’intérêt du capital. Mais il était toujours question de solidarité.
Les néolibéraux avaient autre chose en tête : la division. Dans la
mesure où les générations actuelles ne voient que le produit du
néolibéralisme, il est facile de passer à côté du fait que cet objectif –
la destruction du pouvoir de négociation des ouvriers – était au cœur
de tout le projet : c’était le moyen unique de parvenir à toutes les
autres fins. Ni le libre-échange, ni la discipline fiscale, ni la monnaie
saine, ni la privatisation, ni la délocalisation, ni même la
mondialisation ne sont au cœur des principes fondateurs du
néolibéralisme. Toutes ces choses étaient soit les produits dérivés
du néolibéralisme, soit les méthodes utilisées pour atteindre son
principal objectif : effacer le travail syndiqué de l’équation.
Tous les pays industrialisés n’ont pas suivi le même chemin ni le
même rythme. Le Japon a balisé le terrain de la flexibilité du travail
dans les années 1970 en adoptant le principe des petits groupes de
travail dans les lignes de production, la négociation individuelle des
salaires et les séances de propagande récitée à haute voix dans les
usines. De tous les pays dont l’économie est développée, le Japon
est le seul à avoir réussi à rationaliser les modèles commerciaux
industriels après 1973. Bien évidemment, les ouvriers résistaient, ce
à quoi les industriels répondaient de manière assez brutale : on
enlevait les chefs de file avant de les battre physiquement tous les
jours jusqu’à ce que la résistance cesse. Après avoir été témoin de
certaines de ces « corrections », l’intellectuel de gauche japonais
Muto Ichiyo a écrit que « c’était comme si le “monde des affaires”
n’était pas sujet aux lois de l’État. De plus, il est naturel qu’au sein
de ce monde des affaires, les ouvriers, pétrifiés par la peur et dont la
liberté de pensée a été muselée, se taisent28 ».
L’Allemagne, en revanche, a résisté aux réformes du travail
jusqu’au début des années 2000, préférant créer une main-d’œuvre
marginale constituée de travailleurs immigrés et destinés aux
emplois de service et de construction peu qualifiés à proximité du
monde paternaliste de la chaîne de production. Pour cette raison,
elle a été surnommée « L’homme malade de l’Euro » par le
magazine The Economist, qui dans ses lignes déplorait un
« système de protection sociale surchargé et des coûts de main-
d’œuvre excessifs29 ». Cette surcharge et ces coûts excessifs furent
éliminés par les réformes Hartz II (2003), qui ont fait de l’Allemagne
d’aujourd’hui une société très inégalitaire et dont beaucoup de ses
communautés sont ravagées par la pauvreté30.
Nombre de pays développés profitèrent de la récession du début
des années 1980 pour imposer le chômage de masse. Les
gouvernements de ces pays adoptèrent des politiques
manifestement conçues pour aggraver l’inflation : en faisant grimper
les taux d’intérêt, les anciennes entreprises industrielles se sont
retrouvées au pied du mur. Ces gouvernements ont privatisé ou
fermé une grande partie des secteurs de production de charbon,
d’acier, d’automobile et d’industrie lourde appartenant à l’État. Ils ont
mis fin aux grèves sauvages et aux actions sociales qui avaient
accablé les gérants industriels pendant la période de croissance.
Mais ils n’avaient pas encore essayé de démanteler les systèmes de
protection sociale : en effet, ils avaient besoin d’eux pour maintenir
un certain ordre social au sein de communautés déjà meurtries.
L’offensive contre le travail syndiqué fut ponctuée de moments
phares.
En 1981, les dirigeants syndicaux du contrôle aérien américain
furent arrêtés avant de défiler enchaînés, et, de plus, l’ensemble du
personnel fut licencié pour avoir mené des actions de grève.
Thatcher avait fait appel à la police paramilitaire pour briser la grève
des mineurs des années 1984 et 1985. Mais le véritable succès de
l’offensive antisyndicale se situe sur le plan moral et culturel. À partir
des années 1980, les actions de grève et la densité syndicale
commencèrent à diminuer au sein des pays développés. Aux États-
Unis, l’appartenance syndicale a baissé, passant d’un maigre 20 %
en 1980 à 12 % en 200331. Les survivants se sont regroupés dans le
secteur public. Au Japon, ce taux est passé de 31 % à 20 %. Au
Royaume-Uni, la baisse fut d’autant plus spectaculaire, en passant
de 50 % à 30 %32.
Grâce à la mise à l’écart des syndicats, la transformation de
l’emploi pouvait réellement commencer. Aujourd’hui, cette
transformation se manifeste par la division et la précarité de la main-
d’œuvre. Ceux d’entre nous qui ont assisté à la défaite du travail
syndiqué dans les années 1980 l’ont vécue comme un traumatisme,
tout en se disant que leurs grands-parents avaient vécu la même
chose. Mais, si l’on prend un peu de recul et que l’on observe le
phénomène à travers le prisme de la théorie des cycles longs, on se
rend compte qu’il est unique.
Les années 1980 ont vu la première « phase d’adaptation » dans
l’histoire des cycles longs, durant laquelle la résistance des
travailleurs s’est effondrée. Dans le scénario type, expliqué dans le
chapitre 3, la résistance force les capitalistes à s’adapter plus
radicalement, en créant un modèle basé sur une haute productivité
et des salaires réels plus élevés. Après 1979, l’incapacité à résister
des travailleurs a permis aux principaux pays capitalistes de trouver
une solution à la crise en abaissant les salaires et en adoptant des
modèles de production peu coûteux. C’est l’information cruciale qui
permet de comprendre tout ce qui s’est passé après.
L’échec du travail syndiqué n’a pas rendu possible, comme le
pensaient les néolibéraux, l’apparition d’un « nouveau capitalisme »,
mais il a permis au quatrième cycle d’étendre sa durée, grâce à la
stagnation des salaires et à la division. Au lieu de se voir contraints
de trouver une solution technologique à la crise, comme ils l’ont fait
à la fin des trois cycles précédents, les 1 % ont tout simplement
imposé une pénurie à la classe ouvrière, en plus de sa division.
Partout en Occident, la part salariale du PIB a nettement diminué.
L’économiste Engelbert Stockhammer, qui en a étudié l’impact pour
l’Organisation internationale du travail, a démontré que cette baisse
de la part des salaires était entièrement due aux conséquences de la
mondialisation, de la financiarisation et de la réduction des
prestations sociales. Selon lui, « il s’agit d’un tournant historique
majeur, car la part des salaires était restée stable ou avait augmenté
après la guerre33 ».
Et encore, parler de « tournant majeur » est un euphémisme. En
effet, ce tournant fut à l’origine de grandes transformations dans le
monde.

La perturbation du cycle en images


Lorsqu’une transformation est radicale et flagrante, mais qu’elle
s’opère sur plusieurs décennies, il n’y a rien de mieux que les
graphiques à deux dimensions pour représenter la réalité des
choses dans leur ensemble. Les graphiques suivants montrent très
clairement ce qui relève et ce qui ne relève pas des scénarios
classiques prédits par Kondratiev. Ils peuvent également nous aider
à comprendre pourquoi.
1. Croissance du PIB mondial
Le graphique ci-dessus résume la chronologie du quatrième cycle.
On remarquera la transition qui s’effectue au début des
années 1970. Si l’on adopte la définition du FMI d’une récession
mondiale, qui survient lorsque le taux de croissance tombe en
dessous de 3 %, on peut remarquer qu’il n’y a pas eu de récession
pendant les vingt-cinq premières années du cycle alors qu’il y en a
eu six après 1973, la dernière étant plus modeste34.

2. Taux d’intérêt35
Kondratiev déterminait les données chiffrées de ses cycles à l’aide
des taux d’intérêt, et en ce qui concerne la période qui suit la
Seconde Guerre mondiale, il n’existe pas d’indicateur plus explicite
que les taux d’intérêt pratiqués par les banques dans le cadre de
leurs relations avec les sociétés et les individus aux États-Unis. Les
taux d’intérêt ont progressivement augmenté lors de la longue
période de croissance d’après-guerre, avant d’atteindre leur
maximum au début des années 1980, période durant laquelle on a
vu disparaître des pans entiers de l’ancienne industrie sous l’effet de
taux d’intérêt très élevés. Puis ils ont baissé progressivement avant
de s’aplatir au bout du graphique après la mise en pratique de
l’assouplissement quantitatif. Les collègues de Kondratiev, qui
avaient vu ce même schéma se répéter lors des précédents cycles,
avaient formulé la conclusion suivante : « C’est un bien long cycle,
camarade. »

3. Prix des matières premières : le nickel


Cela étant, Kondratiev avait également suivi de près la variation des
prix des produits de base tels que le charbon et le fer. Ce graphique
représente les variations du prix d’un équivalent moderne, le nickel –
un composant essentiel de l’acier inoxydable – sur une période de
cinquante-sept ans. Kondratiev en serait tombé de sa chaise. Il ne
s’agit là que d’un seul bien, mais, à quelques exceptions près, il est
assez représentatif de l’évolution des prix des matières premières
depuis 1945 : on voit toujours une hausse soudaine des prix à droite
du graphique, hausse provoquée par le développement rapide de
l’industrie et du consumérisme de masse dans les pays du Sud
mondialisés, surtout en Chine. Un rapport de 2007 de l’Institut
d’études géologiques des États-Unis explique pourquoi, après 1989,
tous les prix des métaux industriels ont été poussés à la hausse par
l’entrée de la Chine dans le marché mondial36. L’utilisation du nickel
par la Chine est passée de 30 kilotonnes (kt) en 1991 à 60 kt en
2001, puis à 780 kt en 2012. En revanche, sur la même période, la
consommation de nickel et d’autres métaux de la plupart des autres
grands pays industrialisés augmente assez lentement, l’Allemagne
passant de 80 kt à 110 kt*3.

4. Dette publique des pays du G20 en pourcentage du PIB37


Kondratiev n’a pas mesuré la dette publique, mais elle est un bon
indicateur de la santé économique globale d’une société moderne.
Le graphique ci-dessus représente la dette publique des pays du
G20 par rapport à leur PIB annuel. Les effets cumulés de la
répression financière et de l’inflation leur ont permis d’effacer la dette
qu’ils avaient contractée après la guerre en l’espace de vingt-cinq
ans de croissance soutenue. Puis, pour répondre à la crise qui a
commencé à sévir en 1973, les pays développés furent contraints
d’augmenter en permanence leur dette. Malgré trois décennies de
réduction des prestations sociales et de privatisation, la dette a fini
par atteindre près de 100 % du PIB.
5. Argent en circulation
C’est l’exemple le plus parlant des effets de la monnaie fiduciaire,
celle dont la valeur ne repose pas sur l’or. Le début du graphique
correspond au moment où Nixon met fin aux accords de Bretton
Woods en 1971. On peut y voir le volume d’argent en circulation au
sein de quatre-vingt-dix pays et sous différentes formes, à partir des
liquidités, dont les variations sont minimes jusqu’aux crédits et
autres instruments financiers, dont le volume a régulièrement
augmenté avant de complètement s’envoler après les
années 200038.
En abandonnant l’étalon-or, Nixon a provoqué le divorce de
l’argent et du crédit avec la réalité. Bien qu’il fallût des dizaines
d’années pour concevoir un système financier pleinement capable
d’exploiter cette liberté nouvellement trouvée, les résultats de cette
nouvelle politique se sont matérialisés par une hausse spectaculaire
du volume d’argent en circulation vers la fin des années 1990.
6. Inégalités
La ligne noire affiche le revenu réel perçu par les 99 % lors du
quatrième cycle long. Dans la mesure où les ouvriers avaient quitté
leurs champs pour aller travailler dans des usines, il avait déjà
doublé lors de la Seconde Guerre mondiale. Il a de nouveau doublé
entre la guerre et le choc pétrolier. Puis, pour toute la période qui
suit 1989, il augmente très lentement. C’est cependant le contraire
qui se passe à propos des 1 % : la période de décroissance du cycle
se révèle être très lucrative. Alors qu’il avait atteint un plateau au
cours du boom économique et des années de crise, leurs revenus
(courbe grise) se sont envolés au moment où le système
économique du libre marché fut instauré. Il n’est pas très difficile de
voir qui gagne et qui perd39 au sein des pays développés lorsque le
cycle commence à s’inverser.
7. Financiarisation40
Ce graphique montre les bénéfices du secteur financier américain
par rapport à l’ensemble des bénéfices des entreprises. Au cours de
la longue période de croissance, les bénéfices du secteur financier
américain sont faibles. Le changement s’accélère vers le milieu des
années 1980, et, durant les quelques années qui ont précédé
l’effondrement de Lehman Brothers, on voit que les banques, les
fonds d’investissement et les compagnies d’assurances réalisent
plus de 40 % des bénéfices totaux. Cela montre bien qu’une part
croissante des bénéfices amassés par le capitalisme financiarisé est
produite par nos emprunts et notre consommation, tandis que
l’emploi en est une part décroissante. À la veille de la crise, la part
des profits du système financier était de 40 % des bénéfices totaux
aux États-Unis.
8. Flux d’investissements mondiaux
Ce graphique montre de manière explicite la réalité de la
mondialisation. La courbe du haut correspond à la quantité totale
d’investissements étrangers directs (IED) dans le monde entre 1970
et 2012 (en millions de dollars américains et selon les prix et les taux
de change de 2015). La courbe du milieu montre les flux
d’investissements en direction des pays émergents ; celle du bas
montre ceux en direction des anciens pays communistes. L’écart
entre la courbe du haut et celle du milieu marque la quantité
d’investissements étrangers qui circulent entre les
41
pays développés .
La mondialisation a commencé dès lors que le paradigme
keynésien fut abandonné. S’ensuit une forte hausse des
investissements internationaux entre les pays développés, hausse
accompagnée d’un flux d’investissements réguliers vers ce que l’on
appelle le « tiers monde ». Les flux de capitaux vers la Russie et ses
pays satellites sont importants (si l’on considère la taille de leurs
économies), mais peu significatifs dans l’ensemble.

9. PIB par habitant42


Le PIB par habitant est un moyen parmi tant d’autres de se
représenter le progrès de l’humanité, il permet en effet d’estimer le
partage d’une certaine quantité de croissance entre une certaine
quantité d’individus. La courbe du haut montre que le PIB mondial
par habitant a augmenté de 162 % dans le monde entier entre 1989
et 2012. Les anciens pays communistes sont parvenus au même
résultat, même s’il fait suite à douze années de déclin
catastrophique, suivies par une poussée de croissance stimulée par
l’entrée dans l’euro des pays satellites de la Russie et par le profit
qu’a réalisé la Russie grâce au pétrole. Mais c’est la courbe du bas
qui nous intéresse le plus, celle qui montre l’évolution du PIB par
habitant des pays émergents. Il a augmenté de 404 % après 1989.
C’est cette augmentation qui a poussé l’économiste britannique
Douglas McWilliams, à qualifier les vingt-cinq dernières années de
« meilleure période économique dans toute l’histoire de l’humanité »
lors de ses conférences à Gresham College. Le PIB mondial a
augmenté de 33 % au cours du siècle qui a suivi la découverte des
Amériques, tandis que le PIB par habitant a augmenté de 5 %. Dans
les cinquante années après 1820, alors que la révolution industrielle
suivait son cours en Europe et dans les Amériques, le PIB mondial a
augmenté de 60 %, tandis que le PIB par habitant a augmenté de
30 %. Cependant, entre 1989 et 2012, le PIB mondial est passé de
20 milliers de milliards de dollars à 71 milliers de milliards, soit
272 % d’augmentation, et, comme nous l’avons vu, le PIB par
habitant a augmenté de 162 %. Dans les deux cas, la période de
croissance qui suit 1989 surpasse celle d’après-guerre43.

10. Les gagnants de la mondialisation


Lors de la période de croissance d’après-guerre, le capitalisme a mis
fin au développement des pays du Sud. Les moyens employés sont
simples et bien documentés44. L’inégalité des relations commerciales
a forcé une grande partie de l’Amérique latine, la totalité de l’Afrique
ainsi que la plupart des pays asiatiques à adopter des modèles de
développement dont les entreprises occidentales ont pu
énormément profiter et qui ont contribué au développement de la
pauvreté au sein de ces continents. Les pays qui, comme le Chili ou
le Guyana, tentèrent de rejeter ces modèles ont vu leur
gouvernement se faire renverser par des coups d’État organisés par
la CIA. D’autres, comme la Grenade, ont subi des invasions.
Nombre de ces pays ont vu leur économie ravagée par la dette et
par les « plans d’ajustements structurels » imposés par le FMI en
échange de l’annulation de leurs dettes. Étant donné leur faible
empreinte industrielle domestique, le modèle de croissance de ces
pays reposait sur l’exportation de matières premières ; dès lors, le
revenu des plus démunis stagnait.
La mondialisation a tout fait changer. Comme le montre le
graphique, le revenu réel des deux tiers de la population mondiale a
grandement augmenté entre 1998 et 2008. Ce phénomène est
représenté par la bosse à gauche sur le graphique.
En observant la droite du graphique, on peut remarquer que les
1 % ont également vu leurs revenus augmenter de 60 %. Mais, pour
la population qui se trouve entre les 1 % et les populations des pays
développés, c’est-à-dire les ouvriers et les classes moyennes-
basses en Occident (matérialisée par le creux en forme de U sur le
graphique), on constate que celle-ci n’a pratiquement pas vu ses
revenus réels augmenter. Ce creux symbolise le vécu de la majeure
partie de la population aux États-Unis, au Japon et en Europe : elle
n’a pratiquement pas pu profiter du capitalisme lors de ces vingt
dernières années. En fait, certains y ont même laissé quelques
plumes. Le passage en négatif du graphique implique
vraisemblablement les Noirs américains, la population blanche
pauvre de la Grande-Bretagne et la majeure partie de la main-
d’œuvre de l’Europe du Sud.
Branko Milanovic, l’économiste responsable de la préparation de
ces chiffres pour la Banque mondiale, a dit de ce phénomène qu’il
était « probablement le plus profond remaniement mondial de la
position économique des individus depuis la
révolution industrielle45 ».

11. Doubler la main-d’œuvre mondiale


Richard Freeman, l’économiste de Harvard, a calculé qu’entre 1980
et 2000 la main-d’œuvre mondiale a doublé en chiffres absolus,
réduisant de moitié le ratio capital/travail46. La croissance
démographique et les investissements étrangers ont stimulé la main-
d’œuvre des pays en voie de développement, l’urbanisation a créé
une classe ouvrière forte de 250 millions de personnes en Chine,
tandis que la main-d’œuvre des anciens pays du Comecon s’est
subitement ouverte au marché mondial.
Les deux graphiques suivants montrent les limites de ce qui peut
être réalisé uniquement en employant un grand nombre de
travailleurs des pays pauvres à bas salaires.

Tout d’abord, voici ce qu’il est advenu des revenus de la main-


d’œuvre dans les pays développés depuis le début de
la mondialisation.
Il est frappant de constater que le groupe qui gagne entre 4 et
13 dollars par jour est celui qui connaît la croissance la plus rapide :
de 600 millions à 1,4 milliard47 – bien que les démographes les
appellent la « classe moyenne émergente », le seuil de 13 dollars
par jour correspond à peu près au seuil de pauvreté aux États-Unis.
Ce groupe est principalement constitué d’ouvriers. Ils ont accès aux
services bancaires, aux prestations des assurances, possèdent
vraisemblablement une télévision et vivent au sein de petites cellules
familiales ; rien à voir avec les grandes familles intergénérationnelles
des bidonvilles ou avec la solitude des dortoirs. Les trois quarts
travaillent dans l’industrie des services. La croissance des emplois
dans le secteur des services dans les pays en développement
reflète à la fois l’évolution naturelle du mélange d’emplois sous le
capitalisme moderne et la deuxième vague de délocalisation, axée
sur les centres d’appel, les départements informatiques et les
emplois en back-office. Pour résumer, le graphique montre les
limites de ce que la délocalisation peut réaliser. La part croissante
des ouvriers gagnant 13 dollars par jour se rapproche de la tranche
de revenu des ouvriers américains les plus pauvres.
Cela signifie que l’époque des victoires faciles pour les entreprises
qui délocalisent leur production touche à sa fin. Au cours des vingt-
cinq dernières années, une grande partie de l’industrie du Sud a
utilisé des méthodes « extensives », plutôt qu’intensives, pour
stimuler la production. Ce qui veut dire que, si l’on désire doubler la
fabrication de chaussures de sport, on fait construire une deuxième
usine plutôt que de travailler sur des méthodes de production plus
efficaces. Mais cette option n’est plus disponible dès lors que l’on
doit rémunérer nos ouvriers les plus qualifiés au même salaire que
ceux des classes pauvres américaines. En fait, l’impact de la hausse
des salaires dans les pays émergents est apparent lorsque l’on
regarde le deuxième graphique, ci-contre. La réalité des chiffres
montre que l’augmentation initiale de la productivité due à la
délocalisation de centaines de millions d’emplois est terminée.
Regardons les trois courbes. La courbe pointillée, qui représente
les pays développés, baisse jusqu’à atteindre zéro. La contribution
dans la productivité mondiale de leurs ouvriers est quasi nulle. La
courbe pleine, qui correspond aux pays émergents, symbolise
l’énorme contribution de leurs ouvriers à la productivité mondiale lors
des premières années de la mondialisation. Cette contribution s’est
réduite à presque rien au cours des quelques dernières années. Il
est évident qu’une grande partie de l’augmentation de la productivité
due à la mondialisation de la main-d’œuvre est terminée et que le
ralentissement de la croissance dans les marchés émergents, qui
s’étendent de la Chine au Brésil, est sur le point de devenir un
problème d’importance majeure. Ces graphiques nous montrent très
clairement que le scénario type du cycle long a été irréversiblement
interrompu.

Pourquoi le modèle ne fonctionne plus


Lorsque la poussée de croissance s’est essoufflée dans les
années 1960, elle l’a fait pour une raison qui n’aurait pas surpris
Kondratiev : l’obsolescence du modèle qui promouvait une forte
productivité ainsi qu’une hausse des salaires. Cette obsolescence a
débouché sur les fameuses crises intermittentes des années 1960 :
le système international a d’abord forcé les gouvernements à freiner
leur croissance ; s’est ensuivi un effondrement de l’ordre
économique mondial, une inflation élevée, puis une guerre menée
au Viêt Nam par des Américains égocentriques qui subissent encore
les séquelles du choc de leur défaite.
Lors des trois précédents cycles, les ouvriers avaient su résister
aux solutions faciles et déloyales que l’on avait trouvées à la crise :
baisse des salaires, déqualification et réduction des salaires
minimaux. La rupture avec les trois cycles précédents a pour origine
l’échec de la résistance des ouvriers à ces solutions. Nous en
expliquerons les raisons au chapitre 7. C’est cet échec qui a permis
à la totalité de l’économie mondiale de se rediriger vers le capital.
Pendant environ vingt ans, cette redirection de l’économie a
fonctionné, si bien qu’elle a convaincu nombre d’individus sains
d’esprit qu’une nouvelle ère allait débuter. Selon la théorie de
Kondratiev, un ralentissement et une dépression auraient dû se
produire. À l’inverse, cela déboucha sur deux décennies frénétiques
durant lesquelles la hausse des profits s’était accompagnée d’un
effondrement social, de conflits armés, de la recrudescence d’un
taux de criminalité et de pauvreté abjecte important au sein des
groupes sociaux occidentaux, tandis que les 1 % se sont enrichis
davantage.
On ne devrait cependant pas parler d’ordre social, mais plutôt de
désordre ; voilà ce qu’il se produit lorsque l’on associe la transition
depuis une économie de production vers une économie de finance
(ce à quoi Kondratiev aurait pu s’attendre) à une main-d’œuvre à la
fois divisée et désœuvrée ainsi qu’à une élite ultra riche qui vit de
rentes financières.
Nous avons dressé la liste des critères nécessaires à la vie du
néolibéralisme : monnaie fiduciaire, financiarisation, doublement de
la quantité de main-d’œuvre, déséquilibres mondiaux, parmi lesquels
l’effet déflationniste produit par la main-d’œuvre bon marché et la
dépréciation de tout le reste à cause des technologies de
l’information. Chacun de ces critères était comme un passe-droit
permettant de suspendre temporairement les règles de l’économie.
Mais, comme nous l’avons vu, et comme la plupart d’entre nous ont
pu en faire l’expérience, le prix à payer fut très élevé.
Alors, que ressort-il de ce rêve brisé ? Le nouveau système
techno-économique devra être bâti à partir de ce qu’il reste. Nous
savons que cela impliquera d’utiliser les réseaux et le travail
intellectuel, exploiter les sciences appliquées et investir
massivement dans les technologies vertes.
Le tout est de savoir si ce nouveau système pourra être de nature
capitaliste.
PARTIE 2

Nous participons désormais à un grand projet destiné à augmenter,


amplifier, améliorer et étendre les relations et les communications entre
tous les êtres et tous les objets.
Kevin Kelly, 19971
5
Les prophètes du postcapitalisme

Le moteur à réaction a fait partie des technologies clés du cycle long


d’après la Seconde Guerre mondiale. Inventé au cours de la guerre,
le turboréacteur à double flux – pour l’appeler par son vrai nom – est
une technologie mature, et qui ne devrait pas créer de surprises.
Pourtant, si.
Ce moteur fonctionne en aspirant de l’air par l’avant ; l’air est
ensuite chauffé à l’intérieur de façon à provoquer sa dilatation. L’air
ainsi aspiré et dilaté met en mouvement un ensemble de pales qui
transforment la chaleur en énergie. Le fait est que le rendement de
ces turboréacteurs à double flux est très faible. Les premiers
modèles de moteur à réaction convertissaient 20 % de la chaleur en
poussée. En 2001, ils atteignaient 35 %. L’un des plus anciens
constructeurs aéronautiques a prudemment annoncé un rendement
de 55 % « aux alentours de 20251 ».
Pourquoi est-ce important ? Parce que les constructeurs
s’attendent à ce que le nombre d’avions de ligne double d’ici à 2030.
Cela représente 60 000 nouveaux turboréacteurs2. Ces réacteurs
augmenteront fortement l’empreinte environnementale de l’industrie
aéronautique, qui passera de 3,5 % de contribution au
réchauffement climatique en 2005 à environ 5 % en 20503.
L’efficacité d’un turboréacteur à double flux n’est donc pas une
préoccupation de geek, mais bel et bien une question de survie à
l’échelle planétaire.
Au cours des cinquante années de l’existence du réacteur, ses
divers concepteurs ont réussi à augmenter son rendement d’environ
0,5 % par an. Mais, aujourd’hui, ils font des pas de géant en matière
d’innovation : les 65 % de rendement sont à notre portée, et, de
plus, certains nouveaux modèles de moteurs tout à fait
révolutionnaires sont sur le point d’être mis en service. Ce
changement est motivé par un mélange de nouvelles règles en
matière d’émissions de carbone et de prix du carburant. Il est rendu
possible par la technologie clé du cinquième cycle long :
l’information.
Dans le souvenir de ceux qui les fabriquent, les pales des
réacteurs étaient autrefois martelées à partir d’une pièce de métal.
On a commencé à les couler dans les années 1960, c’est-à-dire
qu’elles étaient moulées à l’aide de métal liquide. Le fait est que le
métal coulé comporte des défauts, ce qui rend les pales
particulièrement sujettes à des avaries.
C’est là qu’intervient l’une des solutions d’ingénierie les plus
brillantes jamais trouvées et dont vous n’avez probablement jamais
entendu parler. En 1980, les ingénieurs de l’entreprise de
construction aéronautique américaine Pratt & Whitney ont réussi à
fabriquer une pale de réacteur à partir d’un unique cristal métallique
coulé sous vide4 : le métal ainsi produit possédait une structure
atomique jamais vue auparavant. Ce nouveau modèle de pale
monocristalline offre une bien meilleure résistance mécanique,
notamment par rapport à la vitesse. Les pales en superalliage
supportent une température de l’air plus élevée que leur propre point
de fusion. Aujourd’hui, la feuille de route officielle5 des moteurs
d’avions prévoit l’ajout d’engrenages, le développement d’un
dispositif de moteur ouvert aux pales étrangement profilées, puis,
après 2035, la mise au point d’un moteur autorefroidi dont l’efficacité
thermique avoisinerait les 100 %.
Les technologies de l’information couvrent tous les aspects de
cette évolution. Les moteurs à réaction modernes sont contrôlés par
un ordinateur capable d’analyser leurs performances, de prévoir les
avaries et de gérer la maintenance. Les modèles les plus récents
transmettent leurs données à partir de l’avion en vol jusqu’au QG du
fabricant en temps réel.
Examinons maintenant l’impact des technologies de l’information
sur les méthodes de conception. Certains des appareils encore en
service furent conçus sur papier, soumis à des tests de résistance à
l’aide de règles à calcul et assemblés à partir de modèles en taille
réelle dessinés sur de la soie. Les avions récents sont conçus et mis
à l’essai virtuellement à l’aide d’un superordinateur. Un ingénieur
nous a expliqué : « Lors de la phase de conception de l’aileron
arrière du chasseur Panavia Tornado, nous lui avons fait subir une
douzaine de tests de résistance. Avec son remplaçant, le chasseur
Eurofighter Typhoon, nous en avons réalisé 186 millions. »
Les ordinateurs ont également révolutionné le processus
d’assemblage. Aujourd’hui, les ingénieurs conçoivent chaque
composant de l’avion « virtuellement » à l’aide de maquettes en 3D
et de superordinateurs. Dans ces modèles, chaque vis en laiton a
les propriétés physiques d’une vis en laiton, chaque feuille de fibre
de carbone se plie et se déplie comme si elle était réelle. Toutes les
étapes de construction sont modélisées avant même qu’un seul
élément physique ne soit produit.
Le marché des turboréacteurs à double flux pèse environ
21 milliards de dollars, c’est donc une question à 21 milliards de
dollars qui se pose : quelle fraction de la valeur d’un turboréacteur à
double flux provient des composants physiques utilisés dans son
assemblage, quelle fraction provient de la main-d’œuvre, et quelle
fraction provient de l’information ?
La réponse ne se trouve pas dans la comptabilité : selon les
normes comptables modernes, la propriété intellectuelle est évaluée
au jugé. Une étude réalisée pour l’Institut SAS en 2013 a révélé que,
pour tenter de donner une valeur aux données, ni le coût de leur
collecte, ni leur valeur marchande, ni les revenus futurs qu’elles
pourraient générer ne pouvaient être calculés avec précision. Ce
n’est que grâce à une forme de comptabilité incluant les avantages
et les risques non économiques que les entreprises purent
réellement expliquer à leurs actionnaires la valeur réelle de leurs
données6.
Cette étude a montré que, si la part en capital des « actifs
incorporels » dans les bilans des entreprises américaines et
britanniques était près de trois fois supérieure à celle des actifs
corporels, la part réelle du secteur numérique dans le PIB était
restée stable. Quelque chose ne tient donc plus dans la logique que
nous utilisons pour valoriser la chose la plus importante dans
l’économie moderne.
Cependant, quelle que soit la méthode de calcul utilisée, il est clair
que le mélange des intrants a changé. Les avions de ligne semblent
appartenir au monde d’hier. Mais, à en juger par la structure
atomique des pales, du raccourcissement de la phase de
conception, du flux de données envoyé en retour au QG de la flotte
aérienne, ces avions subsistent grâce à l’information.
Il est possible de constater ce phénomène de fusion du monde
réel avec le monde virtuel dans plusieurs secteurs : l’automobile,
avec des moteurs de voiture dont le comportement sur la route est
dicté par une puce en silicone ; la musique, avec des claviers
capables de proposer des échantillons provenant de pianos réels
selon la pression exercée sur les touches. Aujourd’hui, nous
regardons des films faits de pixels plutôt que de grains de cellulose,
et qui contiennent des scènes avec des images entièrement
générées par ordinateur. Tous les composants d’une ligne de
production automobile ont un code-barres : parmi les sifflements et
les vrombissements des machines, le travail humain est géré et
vérifié par un algorithme informatique. La relation entre le monde
réel et l’information a changé.
Les grandes avancées technologiques du début du e siècle ne
sont pas le fruit de la conception de nouveaux objets, elles tiennent
plutôt dans le fait de rendre les anciens intelligents. Le contenu en
savoir des produits a plus de valeur que les composants physiques
utilisés pour les fabriquer.
Dans les années 1990, alors que l’on commençait à saisir
l’ampleur de l’impact des technologies de l’information, plusieurs
professionnels, venant de plusieurs secteurs, eurent la même idée
en même temps : la transformation du capitalisme est de nature
qualitative.
On a vu naître des expressions phares : l’économie du savoir, la
société de l’information, le capitalisme cognitif. On pensait alors que
ce capitalisme de l’information et le modèle de la libre concurrence
fonctionnaient en tandem ; l’un produisait et renforçait l’autre. Pour
certains, l’ampleur de cette transformation ne fut pas sans rappeler
celle de la transition depuis le capitalisme marchand vers le
e
capitalisme industriel du siècle. Mais, alors que les économistes
s’affairaient à expliquer comment fonctionne ce « troisième type de
capitalisme », ils se heurtèrent à un problème : il ne fonctionne pas.
De plus en plus de preuves montrent que les technologies de
l’information, bien loin d’être à l’origine d’un nouveau modèle de
capitalisme stable, sont en train de le dissoudre : elles rongent les
mécanismes du marché, sapent les droits de propriété et annihilent
l’ancienne relation qu’entretenaient les salaires, le travail et le profit.
Les premiers à l’avoir affirmé constituent un groupe hétéroclite
réunissant des philosophes, des gourous du management et des
juristes.
Dans ce chapitre, nous étudierons et commenterons leurs
principales idées. Puis nous proposerons quelque chose d’encore
plus radical : l’idée que la technologie de l’information nous mène à
une économie postcapitaliste.

Drucker : poser les bonnes questions


En 1993, le gourou du management Peter Drucker a écrit : « La
connaissance est devenue la ressource, plutôt qu’une ressource.
C’est elle qui rend notre société “postcapitaliste”. Elle transforme, et
ce, de manière fondamentale, la structure de notre société. Elle est à
l’origine de nouvelles dynamiques sociales, de nouvelles
dynamiques économiques et de nouvelles politiques7. » À l’âge de
quatre-vingt-dix ans, le dernier survivant des disciples de Joseph
Schumpeter trouvait encore le moyen d’être un peu en avance sur
son temps.
L’argument de Drucker repose sur le fait d’affirmer que les anciens
facteurs de production comme la terre, le travail et le capital
occupent maintenant une place secondaire par rapport à
l’information. Dans son livre Au-delà du capitalisme, Drucker avance
que certaines des normes essentielles au capitalisme étaient en
train d’être remplacées. Avant même que quiconque ait eu la
possibilité de voir un navigateur pour la première fois, Drucker s’était
affairé à observer le capitalisme riche en information des
années 1980 puis à imaginer les grandes lignes de l’économie de
réseau qui allait émerger dans les vingt prochaines années.
Voilà à quoi servent les visionnaires. Tandis qu’une grande partie
de son entourage voyait « les technologies de l’information plus le
néolibéralisme » comme étant le perfectionnement du capitalisme,
Drucker s’était laissé aller à penser que le capitalisme de
l’information allait être une transition vers quelque chose d’autre. Il
avait remarqué que, malgré ce que l’on disait à propos de
l’information, il n’existait aucune théorie montrant comment
l’information se comporte dans un cadre économique. En l’absence
d’une telle théorie, il s’est donc posé une série de questions à
propos des implications d’une économie postcapitaliste.
Il s’est d’abord demandé comment améliorer la productivité de la
connaissance. Étant donné que les précédentes grandes époques
du capitalisme reposaient sur une productivité augmentée de la
main-d’œuvre et des machines, alors les prochaines doivent reposer
sur une productivité dont l’augmentation est permise par le savoir.
Drucker avait imaginé que la solution tenait dans le fait de croiser de
manière innovante les différentes disciplines intellectuelles : « Notre
capacité à connecter les choses est probablement innée et en partie
due à cette chose mystérieuse que l’on appelle génie. Mais, de
manière générale, il est possible d’apprendre à établir des liens, et
ainsi d’augmenter le rendement du savoir existant, que ce soit entre
individus, au sein d’une équipe ou de toute une organisation8. »
Le but était de former des travailleurs intellectuels à établir le type
de connexions que le cerveau d’un Einstein établirait spontanément.
Drucker avait trouvé sa solution dans la théorie de la gestion : une
méthodologie, un plan de projet et une meilleure formation.
L’humanité a proposé une meilleure solution : le réseau. Cette
solution n’était pas le résultat d’un plan centralisé ou la création d’un
groupe de gestion, elle était le fruit de l’interaction spontanée entre
individus qui utilisent des accès à l’information et des méthodes
d’organisation qui n’existaient pas il y a vingt-cinq ans. Quoi qu’il en
soit, mettre l’accent sur la « connexion » et l’utilisation modulaire de
l’information en tant que méthode clé de la productivité témoigne du
génie de Drucker.
La deuxième question qu’il se posait était tout aussi profonde : qui
incarne l’archétype social du postcapitalisme ? Si la société féodale
était incarnée par le chevalier médiéval, et le capitalisme par la
bourgeoisie, alors qui dans l’ordre historique des choses représente
le porteur des rapports sociaux postcapitalistes ? La même question
avait tourné dans l’esprit de Karl Marx, cependant, la réponse
apportée par Drucker allait provoquer le désarroi de la majorité de la
gauche orthodoxe, qui pensait que c’était le prolétariat. Selon
Drucker, il s’agissait de « la personne universelle éduquée ».
Drucker imagina cette personne d’un nouveau genre comme étant
le produit de la fusion entre les classes intellectuelles et les classes
dirigeantes des sociétés occidentales, une personne capable de
combiner la capacité d’un gérant à appliquer son savoir avec la
faculté intellectuelle de traiter des concepts purement abstraits. Un
tel individu serait l’exact opposé du polymathe – ces rares individus
qui sont simultanément experts en mandarin et en physique
nucléaire. Cette personne d’un nouveau genre serait, au contraire,
capable d’assimiler très rapidement le fruit de la recherche
scientifique afférente à quelques domaines spécifiques, et de
l’appliquer de manière générale : par exemple, en appliquant la
théorie du chaos à l’économie, la génétique à l’archéologie, ou
l’extraction de données à l’histoire sociale.
Drucker avait plaidé en faveur de l’apparition d’individus de la
sorte en tant que « groupe dirigeant » de la nouvelle société : « une
force unificatrice […] qui peut orienter des pratiques particulières et
distinctes vers un engagement commun et partagé envers les
valeurs, vers un concept commun d’excellence et vers le
respect mutuel9 ».
Depuis l’époque de ses écrits, nous avons pu constater
l’apparition d’un tel groupe : la technobourgeoisie en T-shirt du début
du e siècle, avec ses informations stockées dans un cloud et ses
comportements ultralibéraux en matière de sexe, d’écologie et de
philanthropie qui constituent la nouvelle norme. Si le principal sujet à
aborder durant les cinquante prochaines années tourne autour d’un
cinquième cycle long du capitalisme de l’information, alors les êtres
d’un nouveau genre que nous a fait miroiter la théorie des cycles
longs sont déjà parmi nous. Le problème est qu’ils ne s’intéressent
pas du tout à la suppression de l’ancien modèle capitaliste, et
encore moins à la politique.
Cependant, si nous parlons de postcapitalisme, alors cette
population de personnes universelles éduquées devrait exister en
grand nombre et poursuivre des intérêts opposés à ceux des
grandes entreprises à caractère hiérarchique qui ont dominé le
e
siècle. Les individus de cette population devraient se battre,
comme l’a fait la bourgeoisie, pour un nouveau modèle économique
et pour incarner ses valeurs à travers leur comportement. Ils
devraient être, selon l’approche matérialiste de l’Histoire, les
précurseurs des nouvelles relations sociales à l’intérieur des
anciennes.
Maintenant, regardez autour de vous.
Nous sommes dans le métro londonien. Dans la rame, tous les
individus âgés de moins de 25 ans portent des fils blancs qui relient
leurs oreilles à un appareil portatif grâce auquel ils écoutent de la
musique téléchargée à l’aide d’un réseau. Même ceux qui occupent
manifestement des postes de direction ou qui travaillent dans les
affaires adoptent une attitude et un style vestimentaire très
informels. Certains, même en l’absence de wifi, consultent leurs e-
mails sur leur Smartphone. Ou peut-être jouent-ils à des jeux, étant
donné que la quantité de mouvements physiques et le niveau de
concentration extrême requis sont les mêmes. Ils ne font qu’un avec
l’information en format numérique, la première chose qu’ils font en
sortant de chez eux est de se connecter au réseau mondial via la
3G. Le reste des occupants de la rame se situe dans une catégorie
démographique datant du e siècle : le couple âgé de classe
moyenne habillé à l’anglaise ; l’ouvrier du bâtiment barbu qui lit son
journal ; le type en costume qui tape sur son ordinateur, bien trop
occupé pour écouter de la musique, mais qui a cependant pris le
temps de polir ses chaussures (c’est-à-dire moi).
Le premier groupe est constitué de ce que les sociologues
appellent « individus connectés », des experts de l’extraction du
savoir à partir d’un système relativement ouvert et mondial. Ils
évoluent de manière connectée, que ce soit dans le cadre du travail,
du consumérisme, de leurs relations ou de leur culture. Trente ans
après la fameuse déclaration de Steward Brand, « l’information veut
être libre », ces individus connectés pensent de manière instinctive
que l’information doit être gratuitement accessible en temps normal.
Ils paieront volontiers leur consommation dans une boîte de nuit,
mais s’offusquent de devoir payer pour télécharger de la musique.
Cette catégorie compte assez d’individus et possède une identité
suffisamment marquée pour que, dans de grandes villes comme
Londres, Tokyo ou encore Sydney, ce soit le groupe social du
e
siècle qui évolue en minorité. Ce second groupe compte des
individus qui utilisent encore des cartes dépliantes plutôt que des
GPS, qui hésitent toujours face au nombre de cafés différents qui
figurent sur la carte de Starbucks et qui sont à la fois choqués et
intrigués par le mode de vie épicurien que le premier groupe
considère comme normal.
Les individus connectés du début du e siècle, les « êtres aux fils
blancs », correspondent parfaitement aux types de personnes que
Drucker s’attendait à voir apparaître : la personne universelle
éduquée. Elle ne se limite plus à une niche technodémographique.
N’importe quel barmaid, employé administratif ou intérimaire
juridique peut, s’il le veut, devenir une personne universelle
éduquée, du moment qu’il est un minimum éduqué et possède un
Smartphone. En fait, avec l’essor de l’Internet mobile, les études les
plus récentes ont montré que même les ouvriers des usines
chinoises sont devenus, malgré une discipline de travail rigoureuse
et un emploi du temps plus que chargé, des individus qui se
connectent avec beaucoup d’enthousiasme lors de leur
temps libre10.
Dès lors que l’on comprend le comportement de l’information en
tant que ressource économique et qui incarne le nouvel archétype
social, on est un peu plus à même de comprendre comment une
transition vers une société postcapitaliste peut se faire. Reste à
savoir si elle doit se faire. Les réponses avancées par Drucker sont
purement spéculatives, mais elles donnent un premier aperçu du
cadre dans lequel devrait s’inscrire une théorie sérieuse du
postcapitalisme.
Drucker divise l’histoire du capitalisme industriel en quatre
phases : une révolution technique qui a duré la plus grande partie du
e
siècle ; une révolution de la productivité avec l’avènement de la
gestion scientifique dans les années 1890 ; une révolution de la
gestion après 1945, conduite par l’application du savoir aux
processus commerciaux ; et enfin une révolution de l’information,
basée sur « l’application du savoir au domaine du savoir ».
Drucker, ancien disciple de Schumpeter, s’était volontairement
servi de la théorie des cycles longs de Kondratiev (même s’il a
combiné la pensée des deux économistes), mais vue à travers les
yeux d’une société individuelle. Ce qui nous mène à l’observation de
Drucker la plus importante : il est impossible de saisir la nature de
tous ces changements sans avoir compris l’économie du travail. Il
affirme que, de Virgile à Marx, personne n’a pris la peine d’étudier le
travail quotidien effectué par le fermier ou l’ouvrier. Ce n’est qu’à la
fin du e siècle que les capitalistes ont pris conscience du travail de
leurs ouvriers et qu’ils ont essayé d’en modifier la nature.
« Il n’existe toujours pas d’histoire du travail », se plaint Drucker.
Vingt-cinq ans plus tard, cette discipline n’a toujours pas fait l’objet
de recherches approfondies. L’économie du marché du travail tourne
toujours autour des taux de chômage et de rémunération, de plus
elle occupe un statut inférieur dans le milieu universitaire. Mais, dès
lors que l’on a compris l’impact de l’information sur le travail, sur la
différence entre travail et temps libre et sur les salaires, l’ampleur du
changement que nous traversons saute aux yeux.
En fin de compte, Drucker aura soulevé plus de questions qu’il
n’aura apporté de réponses. Ces questions étaient pertinentes,
mais, vingt-cinq ans plus tard, aucune théorie globale du capitalisme
de l’information, et encore moins du postcapitalisme, n’a été
développée. Cela étant, les économistes orthodoxes ont failli en
trouver une, bien qu’involontairement.

Les biens de l’information ont tout changé


En 1990, l’économiste américain Paul Romer a fait voler en éclats
l’un des principaux postulats de l’économie moderne et, ce faisant, a
propulsé la question du capitalisme de l’information dans le courant
dominant.
En cherchant un modèle capable de prédire le taux de croissance
d’un pays donné, les économistes dressèrent une liste de plusieurs
facteurs à prendre en compte : l’épargne, la productivité et la
croissance démographique. Ils savaient pertinemment que
l’évolution technologique avait un impact sur ces facteurs, mais,
dans le cadre de leurs recherches, ils considéraient cette évolution
comme étant « exogène », comme si elle n’appartenait pas à leur
modèle et qu’elle était donc hors sujet de l’équation qu’ils essayaient
d’écrire. Dans un article intitulé « Endogenous Technological
Change », Romer entreprit de relancer le débat depuis le début11. Il
a prouvé que, dans la mesure où l’innovation est motivée par les
tendances du marché, elle ne pouvait être considérée comme
fortuite ou externe à la croissance économique ; au contraire, elle
est une composante intrinsèque (« endogène ») de celle-ci.
L’innovation doit être intégrée à la théorie de la croissance : son
impact est prévisible, non pas aléatoire.
Cela étant, en plus d’avoir écrit une série de formules d’algèbre
élégantes reflétant le capitalisme de manière globale, Romer a émis
une idée révolutionnaire spécifique au capitalisme de l’information. Il
a défini l’évolution technologique (en simplifiant volontairement)
comme étant une « amélioration des instructions destinées au
mélange des matières premières ». Autrement dit, il a séparé les
choses et les idées, car, en effet, les idées constituent la véritable
nature de ces « instructions ». Selon Romer, l’information est
comparable à un plan ou à une recette qui sert à fabriquer quelque
chose de physique ou de numérique. Cela nous mène à une
hypothèse qu’il considère comme fondamentale : « Les instructions
destinées au travail des matières premières se différencient
naturellement de tous les autres biens économiques12. »
Un produit de l’information se distingue de toute marchandise
physique produite jusqu’à présent. De plus, une économie qui
s’appuie principalement sur les produits de l’information se comporte
différemment d’une économie de biens et de services. Romer
explique pourquoi : « Une fois que les dépenses liées à la création
d’un nouveau jeu d’instructions ont été engagées, les instructions
peuvent être utilisées à plusieurs reprises sans frais
supplémentaires. Concevoir de nouvelles instructions améliorées
équivaut à engager une dépense fixe13. »
En l’espace d’un paragraphe, Romer a résumé tout le potentiel
révolutionnaire du petit geste que nous venons d’effectuer pour
extraire cette citation à partir d’un .pdf et l’insérer dans ce livre :
copier-coller. Une fois qu’il est possible de copier-coller un
paragraphe, on peut copier-coller de la musique, des films, les plans
d’un turboréacteur à double flux ainsi que la maquette numérique de
l’usine qui va l’assembler.
Dès que l’on peut copier-coller quelque chose, on peut le
reproduire à l’infini. Dans le jargon économique, ce quelque chose a
un « coût marginal nul ».
Pour pallier cela, le capitalisme de l’information a trouvé une
solution : rendre illégale la copie de certaines informations. Par
exemple, même si je peux citer gratuitement Romer dans ce livre,
télécharger le .pdf de son article de 1990 à partir du site de
publications universitaires JSTOR m’a coûté 16,80 $. Si j’essaie de
copier-coller le plan d’un turboréacteur à double flux, je risque de
finir en prison. Mais le droit de la propriété intellectuelle est connu
pour ses particularités. J’ai le droit de copier de la musique que j’ai
achetée sur iTunes sur un CD, mais je n’ai pas le droit de copier un
DVD. Les lois qui régissent ce que l’on a le droit de copier ou non
manquent de clarté. Elles s’appliquent aussi bien socialement que
juridiquement et, tout comme les brevets datant d’avant l’ère du
numérique, elles perdent de leur effet au fil du temps.
Si l’on essaie de « posséder » un bout d’information – que l’on soit
musicien ou fabricant de turboréacteurs à double flux – on se
retrouve confronté d’une part à l’absence d’usure de ce bout
d’information et d’autre part au fait que l’utilisation de ce bout
d’information par un consommateur n’empêche pas à un autre de
l’utiliser. Les économistes appellent cela la « non-rivalité ». On
pourrait plus simplement parler de « partageabilité ».
En ce qui concerne les biens matériels, la consommation d’un
bien par une personne en empêche généralement l’utilisation par
une autre : c’est ma cigarette, ce n’est pas la vôtre. C’est ma voiture
de location, mon cappuccino, ma demi-heure de psychothérapie.
Pas les vôtres. Mais, avec un morceau de musique en format MP3,
c’est l’information qui est le bien. Ce bien existe potentiellement sous
plusieurs formes et à une échelle si petite qu’elle me permet
d’emporter n’importe quel morceau que j’ai acheté dans ma vie
grâce à une clé USB de quelques centimètres à peine, à savoir
l’iPod.
Dès lors qu’un bien est dit « non rival », la seule manière de
garantir son droit de propriété réside dans ce que les économistes
appellent l’« exclusivité ». On peut soit intégrer une instruction dans
le logiciel pour en empêcher sa copie, comme avec les DVD, soit
rendre sa copie illégale. Mais le fait est que, quelle que soit la
manière dont l’information est protégée, les instructions, le cryptage,
l’arrestation du pirate informatique qui copie les DVD et qui les vend
sur un parking, l’information reste en elle-même reproductible et
partageable, et ce, à un coût quasi nul.
Cela implique énormément de choses pour le fonctionnement du
marché.
Les économistes orthodoxes partent du principe que les marchés
favorisent une forme de concurrence symétrique, et que ses défauts,
comme les monopoles, les brevets, les syndicats et les cartels qui
fixent les prix, sont temporaires. Ils partent également du principe
que les individus présents sur le marché disposent d’informations
symétriques. Romer a montré que, lorsque l’économie se compose
de biens de l’information partageables, la concurrence asymétrique
devient la norme.
Une économie dont les racines sont les technologies de
l’information trouve son équilibre dans l’hégémonie des monopoles
et dans l’accès inégal des populations aux informations dont elles
ont besoin pour faire des achats raisonnés. Pour faire court, les
technologies de l’information anéantissent les mécanismes de
fixation des prix traditionnels, mécanismes par lesquels la
concurrence fait baisser les prix vers le coût de production. Héberger
sur un serveur un morceau de musique disponible sur iTunes ne
coûte pratiquement rien à Apple, et il en va de même pour le
téléchargement de ce morceau. Quelles que soient les sommes
avancées par la maison de disque pour la production (en matière de
rémunération de l’artiste et de frais de marketing), on me demandera
toujours 0,99 €, tout simplement, car en faire une copie gratuite est
illégal.
Les interactions entre l’offre et la demande ne font pas les prix
d’un morceau sur iTunes, en effet, la quantité de Love Me Do des
Beatles est inépuisable. Et, contrairement à celui des vinyles, le prix
ne change pas non plus en fonction de la demande. C’est le droit
inaliénable d’Apple de facturer 0,99 € qui fixe les prix.
Pour gérer une entreprise qui pèse plusieurs milliards de dollars et
qui est basée sur l’information, Apple ne s’appuie pas seulement sur
le droit de propriété intellectuelle, mais elle a développé tout un
package technologique de produits coûteux qui ne fonctionnent
qu’ensemble : le Mac, iTunes, l’iPod, l’iCloud, l’iPhone et l’iPad, pour
qu’il nous soit plus facile de respecter la loi que de l’enfreindre. C’est
pourquoi iTunes possède environ 75 % du marché de la musique
disponible en téléchargement14.
Dans le capitalisme de l’information, le monopole est plus qu’un
simple moyen de maximiser ses profits. C’est la seule manière pour
faire tourner une industrie. Le faible nombre de sociétés qui
dominent au sein de chacun des secteurs du marché est édifiant.
Dans les secteurs conventionnels, on trouve habituellement quatre à
six grands noms pour chaque marché : les quatre grandes sociétés
de comptabilité, les quatre ou cinq grands groupes commerciaux
et les quatre principaux fabricants de turboréacteurs. Mais les
géants du numérique aspirent à une domination totale : Google veut
être le premier navigateur sur le marché ; Facebook se doit d’être le
seul endroit dans lequel on construit son identité numérique ; Twitter,
l’unique lieu d’expression ; et iTunes, le seul magasin de musique en
ligne. Il y a, au sein de deux secteurs clés – la recherche en ligne et
le système d’exploitation des téléphones –, une double lutte à mort
entre deux grandes sociétés, et, pour l’heure, Google domine les
deux.
Avant l’apparition des biens de l’information partageables, les lois
les plus sommaires de l’économie voulaient que tout fût disponible
en quantité limitée. L’offre et la demande font la disponibilité.
Maintenant, certains biens sont abondamment disponibles, rendant
les principes d’offre et de demande obsolètes. En fin de compte,
l’offre d’un morceau sur iTunes ne représente pas plus qu’un fichier
stocké sur un serveur à Cupertino, et que n’importe qui peut
théoriquement partager. Seuls le droit de la propriété intellectuelle et
le bout de code dans le morceau trouvé sur iTunes suffisent à
empêcher tout le monde de posséder toute la musique de la planète.
Pour être clair, l’ambition d’Apple est d’empêcher que la musique
abonde.
Ainsi, la théorie de Romer était à la fois de mauvais augure pour
l’économie orthodoxe et de bon augure pour les futurs géants du
capitalisme de l’information. Elle a remédié, en un seul exposé, à de
nombreuses anomalies que l’économie traditionnelle avait eu du mal
à expliquer. Elle a, de plus, justifié de manière tacite la position des
monopoles de la technologie sur le marché. Le journaliste David
Warsch en a dressé le bilan :

« Les critères fondamentaux de l’analyse économique ont cessé d’être,


comme ils l’avaient été pendant deux cents ans, la terre, le travail et le capital.
Cette nomenclature des plus élémentaires a été supplantée par les
personnes, les idées et les choses […] ce principe si familier qu’est la rareté a
été enrichi par l’ajout du principe essentiel de l’abondance15. »

Lors de la publication de l’article de Romer en 1990, le monde de


l’économie avait-il commencé à chanter « Hallelujah » ? La réponse
est non. L’article de Romer avait été reçu avec soit de l’hostilité, soit
de l’indifférence. Les critiques de la pensée économique dominante,
Joseph Stiglitz à leur tête, affirmaient depuis des années que les
hypothèses générales qu’il avait émises à propos de l’information
symétrique et des marchés efficaces étaient fausses. Après avoir
intégré le courant de la pensée économique dominante et adopté
ses méthodes, Romer s’est affairé à démonter les arguments de ses
critiques. En effet, les recherches de Romer ont montré que, une fois
que l’on passe à une économie de l’information, le mécanisme du
marché de fixation des prix fait tendre le coût marginal de certains
biens vers zéro à mesure que le temps passe, érodant les bénéfices
dans le processus.
En résumé, les technologies de l’information corrodent les
rouages du mécanisme des prix et, comme je l’expliquerai par la
suite, les conséquences de ce phénomène n’épargnent rien ni
personne.
S’ils avaient vu le capitalisme comme un système fini, Romer et
ses partisans auraient pu examiner de manière approfondie les
lourdes conséquences de cette idée remarquable, mais ils ne l’ont
pas fait. Ils partaient du principe que l’économie était, comme
indiqué dans tout manuel d’économie, faite de ceux qui établissent
les prix et de ceux qui les acceptent : des individus rationnels
agissant dans leur propre intérêt à travers le marché.
Ceux qui voyaient les choses dans leur ensemble ne se trouvaient
pas dans le monde des professionnels de l’économie, mais parmi les
visionnaires de la technologie. Vers la fin des années 1990, ils
comprirent ce qui avait échappé à Romer : les technologies de
l’information permettent l’existence d’une économie non marchande
et donnent naissance à une population qui agit dans ses propres
intérêts par des décisions non marchandes.

L’essor de l’open source


Vous êtes probablement en train de lire ce livre sur une tablette : une
Kindle, une Nexus ou un iPad. Ces tablettes plantent rarement, et
les programmer ne vous effleurerait même pas l’esprit, mais elles
n’en restent pas moins des ordinateurs. La puce d’un iPad possède
un milliard de transistors, tous montés sur un seul morceau de
silicone ; sa puissance de calcul est égale à celle de
5 000 ordinateurs d’il y a trente ans16.
La souche logicielle nécessaire au fonctionnement d’un iPad est
son système d’exploitation : iOS. Étant donné que l’informatique
nous paraît aujourd’hui si facile à utiliser, nous ne comprenons que
difficilement les défis que les systèmes d’exploitation posaient aux
pionniers de l’informatique des années 1970. Peu après la
naissance de l’informatique, une lutte s’est engagée autour des
systèmes d’exploitation ; un peu plus tard, cette lutte s’est muée en
course à l’information.
Pendant les trente premières années de l’informatique, les
ordinateurs étaient rares et prenaient beaucoup de place. Les seuls
lieux où l’on faisait de l’informatique étaient les entreprises et les
universités. Lorsque les ordinateurs de bureau furent inventés au
milieu des années 1970, ils n’étaient rien de plus qu’un assemblage
de circuits imprimés doté d’un écran. Et ce n’était pas les
corporations qui les fabriquaient, c’était des amateurs.
L’Altair 8800 était une machine révolutionnaire qui était vendue
par le biais de publicités dans des magazines aux membres d’une
sous-culture geek qui voulaient apprendre à programmer. Pour qu’un
ordinateur vous obéisse, vous avez besoin d’un langage de
programmation, et c’est exactement ce que deux gars originaires de
Seattle ont créé : l’Altair BASIC, vendu sur une bande de papier
perforé pour la modique somme de 200 dollars l’unité. Très vite, ils
remarquèrent que ce langage ne se vendait pas aussi rapidement
que l’ordinateur Altair. Les utilisateurs reproduisaient et distribuaient
gratuitement la bande de papier contenant le code. Dans une
« Lettre ouverte » au vitriol, l’auteur du programme avait insisté pour
que les revendeurs de BASIC expulsent les pirates des clubs
d’amateurs d’informatique et les fassent payer : la plupart des
amateurs savaient pertinemment qu’ils volaient le logiciel. Il faut bien
acheter le matériel, mais le logiciel, cela se partage. Qui se soucie
de rémunérer les gens qui ont travaillé pour le produire17 ?
L’auteur de cette lettre était Bill Gates. Il trouva assez rapidement
une solution : posséder à la fois le système d’exploitation et le
langage de programmation. Bill Gates a fini par concevoir Windows,
qui est devenu le système d’exploitation que l’on utilise
traditionnellement sur ordinateur. Windows ne tarda pas à occuper
une place quasi monopolistique sur le marché des parcs
informatiques d’entreprise et à faire la fortune de Bill Gates. Sa
« Lettre ouverte » a fini par devenir le deuxième document le plus
important de l’histoire de l’économie du numérique.
Voici maintenant un extrait de ce que nous considérons comme
étant le plus important de ces documents :

« Si quelque chose mérite d’être récompensé, c’est bien la contribution


sociale. La créativité peut être une contribution sociale, mais seulement tant
que la société est libre de profiter des résultats. Extraire de l’argent aux
utilisateurs d’un programme en limitant son utilisation est destructeur, car ces
restrictions réduisent l’utilité du programme. Ce qui à son tour réduit la
richesse apportée par ce programme à l’humanité18. »

C’est Richard Stallman et son Manifeste GNU qui ont contribué au


lancement du mouvement pour le logiciel libre en 1985. Stallman fut
vivement critiqué, non seulement par Microsoft, mais aussi par des
fabricants d’ordinateurs professionnels bien plus puissants qui
essayaient de « posséder » un système d’exploitation rival appelé
« Unix ». Son objectif était d’écrire une version gratuite du
programme d’Unix, appelée « GNU », de la distribuer gratuitement et
d’inciter les amateurs d’informatique à travailler de manière
collaborative à son amélioration sous la condition que personne ne
puisse posséder le logiciel ou en tirer profit. Ces principes sont à la
base de la philosophie open source.
En 1991, GNU a intégré Linux, une version PC d’Unix sous
licence libre développée par des centaines de programmeurs
travaillant collaborativement et bénévolement.
En 2014, pratiquement 10 % de tous les parcs informatiques
d’entreprise tournent sous Linux. Les dix superordinateurs les plus
puissants du monde tournent sous Linux. Plus important encore, les
outils de base nécessaire au bon fonctionnement d’un site internet –
que ce soit le système d’exploitation, le serveur, la base de données
ou le langage de programmation – sont tous disponibles en open
source.
Firefox, un navigateur open source, possède environ 24 % du
marché des navigateurs19. Un nombre impressionnant de
Smartphones (70 %) tournent sous Android, un système
d’exploitation en théorie open source20. Cela est dû en partie à une
stratégie de Samsung et de Google, qui utilisent ouvertement des
logiciels open source pour saper le monopole d’Apple et maintenir
leur propre position sur le marché, mais toujours est-il que le
Smartphone le plus populaire de la planète fonctionne avec des
logiciels que personne ne peut posséder.
Le succès des logiciels open source est impressionnant. Il prouve
que l’apparition de nouvelles formes de droit de propriété et de
gestion est non seulement possible, mais également nécessaire
dans une économie de l’information. Il montre qu’il existe certains
aspects des biens de l’information que même les monopoles ne
peuvent pas monopoliser.
Selon le modèle économique orthodoxe, un individu comme
Richard Stallman ne devrait pas exister : il n’agit pas dans son
propre intérêt et préfère le sacrifier au profit d’un intérêt commun qui
n’est pas seulement économique, mais également moral. Selon la
théorie du marché, ce sont ceux qui sont motivés par la recherche
de la propriété privée qui devraient être les innovateurs les plus
efficaces. Selon les penseurs du courant économique dominant, les
grandes corporations comme Google devraient faire ce qu’a fait Bill
Gates : s’emparer de tout et détruire le logiciel libre. Aujourd’hui,
Google est une entreprise foncièrement capitaliste aux abois, mais,
dans la poursuite de ses propres intérêts, elle est obligée de se
battre pour que certains standards soient libres et que certains
logiciels soient gratuits. Google n’est pas postcapitaliste, mais, tant
qu’elle conserve le caractère open source d’Android, elle est obligée
d’agir d’une manière qui préfigure des formes de propriété et
d’échange non capitalistes, même si, comme l’UE en fait l’enquête
actuellement, elle utilise cette position pour favoriser son
hégémonie.
La naissance des logiciels libres et la poursuite de projets de
développement de logiciels en collaboration des années 1980
n’étaient que les premiers échanges de tirs d’une guerre toujours
d’actualité et dont le champ de bataille est mouvant. La vague open
source a également donné de l’élan à un mouvement en faveur de
l’accès à l’information, à Wikipédia et à Wikileaks, et a donné
naissance à toute une branche du droit spécialisée dans la rédaction
d’actes juridiques destinés à défendre le libre accès et la
partageabilité.
C’est dans ce milieu, à la fin des années 1990, que l’on a abordé
pour la première fois et de manière méthodique l’une des
questions qui se posaient de manière évidente pour Drucker, mais
pas pour Romer : était-il possible pour une économie de l’information
de créer un mode de production totalement nouveau qui dépasse
celui du capitalisme ?

Sur le fil
Il existe une série de sons, depuis longtemps oubliée, qui restera
gravée dans la mémoire des générations nées avant les
années 1980 : d’abord un bruit à la fréquence très aiguë, puis dont la
hauteur varie avant de se transformer en craquements ponctués de
deux bourdonnements à basse fréquence. C’est le son d’un modem
commuté qui se connecte.
Je l’ai entendu pour la première fois lorsque j’essayais de me
connecter à CompuServe. Compuserve était un réseau privé qui
comptait de nombreux membres et qui intégrait un service de
courrier électronique, de transfert de fichiers et de support
technique. L’univers de CompuServe était uniquement fait de mots
écrits noir sur blanc. Déjà à l’époque il débordait de contenus
haineux, subversifs et pornographiques.
En 1994, j’ai délaissé CompuServe au profit d’Easynet, l’un des
premiers fournisseurs d’accès à Internet : même technologie, autre
paire de manches. Selon la brochure, j’avais désormais accès au
« réseau routier entier, pas seulement à une station-service ». Avec
Easynet, vous aviez accès à tout le Web, un système permettant de
trouver tout ce qui est disponible sur les ordinateurs connectés du
monde entier.
Il n’y avait pas grand-chose, à l’époque. Mon ordinateur était
seulement connecté à ceux du bâtiment de la maison d’édition Reed
Elsevier. Lorsque nous avions essayé d’écrire notre propre page
web, le département informatique a refusé de l’héberger sur « leur »
serveur, qui servait à faire les paies. Impossible d’envoyer des e-
mails ni d’aller sur Internet avec mon Mac. L’usage des ordinateurs
était restreint au traitement des données, et leur mise en réseau se
limitait à des tâches très précises.
En 1997, Kevin Kelly, journaliste américain et visionnaire, écrivit
ces quelques lignes :

« La grande ironie de notre époque tient en ce que l’ère des ordinateurs est
révolue. L’impact des ordinateurs individuels appartient déjà au passé. Les
ordinateurs ont un peu accéléré notre vie, voilà tout. En revanche, toutes les
technologies les plus prometteuses qui font leur apparition aujourd’hui sont
principalement dues à la communication entre ordinateurs, c’est-à-dire aux
effets du réseau plutôt qu’à la puissance de calcul21. »

L’article de Kelly publié dans Wired a provoqué une prise de


conscience chez les individus de ma génération. Tout ce qui a
précédé – les disquettes destinées aux unités centrales des
universités, l’écran vert des premiers Amstrad, les craquements et
les bourdonnements du modem –, tout cela n’était que le début. Une
économie de réseau apparaissait sous nos yeux. Kelly a écrit :
« Je préfère utiliser le terme économie de réseau, car l’information
à elle seule ne suffit pas à expliquer les discontinuités dont nous
sommes les témoins. Au cours du siècle dernier, nous avons été
submergés par une marée d’informations en montée constante […],
mais ce n’est que tout récemment qu’une reconfiguration globale de
l’information a, elle-même, transformé l’économie tout entière22. »
Kelly n’était pas, à proprement parler, un défendeur du
postcapitalisme. En effet, son livre De nouvelles règles pour la
nouvelle économie : 10 stratégies radicales pour un monde connecté
était, aux yeux des anciennes entreprises qui tentaient de s’engager
dans le monde interconnecté, l’équivalent d’un manuel de survie. Le
travail qu’il avait accompli était majeur. C’est à ce moment-là que
nous avons commencé à comprendre que la « machine qui pense »
n’était pas l’ordinateur, mais le réseau ; et que le réseau allait
accélérer le rythme du changement et le rendre imprévisible. Dans
une déclaration qui décrit bien notre époque, Kelly affirme que :
« Nous participons désormais à un grand projet destiné à
augmenter, amplifier, améliorer et étendre les relations et les
communications entre tous les êtres et tous les objets23. »
Les tournants majeurs entre le passé et le présent sont : le
lancement d’eBay (1997), qui est à l’origine de la bulle internet ; le
premier ordinateur portable avec wifi (un Mac) en 1999 ; le
déploiement du haut débit, qui tourne en permanence et qui est dix
fois plus rapide que l’accès commuté (2000) ; l’élargissement des
réseaux 3G après 2001 qui a rendu possible l’utilisation de l’Internet
mobile ; le lancement de Wikipédia en 2001 ; l’apparition soudaine
d’outils numériques bon marché et standardisés, connus sous le
nom de Web 2.0, en 2004.
À ce stade, les programmes et les données commencèrent à être
stockés sur le réseau plutôt que dans les ordinateurs individuels ; les
activités les plus communes étaient la recherche, l’auto-édition et les
échanges, notamment par le biais de jeux en ligne représentant une
valeur de plusieurs milliards de dollars.
Puis vint le lancement des réseaux sociaux comme MySpace
(2003), Facebook (2004) et Twitter (2006) ; et le lancement de
l’iPhone (2007), le premier vrai Smartphone. Dans la même année,
l’iPad et la Kindle ont provoqué une hausse vertigineuse des tirages
en ligne d’e-books, dont la valeur est passée de moins d’un milliard
et demi de dollars en 2009 à 15 milliards dans le monde en 2015.
Les ventes d’ordinateurs portables ont dépassé celles des
ordinateurs de bureau en 2008. Le premier téléphone Android de
Samsung fut lancé en 200924.
Pendant ce temps, du côté des ordinateurs haut de gamme, le
premier modèle à avoir effectué un million de milliards d’opérations
par seconde a été de marque IBM. C’était en 2008. En 2014,
Tianhe-2, un ordinateur chinois sous Linux pouvait en effectuer
33 millions de milliards. En matière de stockage de données, le
volume de données numériques dans le monde a dépassé celui des
données analogiques en 2002. Entre 2006 et 2012, la quantité
d’informations produite par les humains a augmenté d’un
facteur dix25.
Chronologiquement parlant, il est difficile de dire à quelle étape on
se trouve au cours d’une révolution technologique, mais j’ai le
sentiment que l’apparition simultanée des tablettes, de la vidéo et de
la musique diffusée en continu ainsi que l’essor des réseaux sociaux
entre 2009 et 2014 constitue le point culminant de toute cette
effervescence. Avec la mise en réseaux de milliards de machines,
connues sous le nom d’« Internet des objets », qui aura lieu au cours
des dix prochaines années, le réseau informatique mondial
comptera plus d’appareils intelligents qu’il n’y a d’êtres humains sur
Terre.
Être témoin de tout cela est déjà assez exaltant en soi. Ce qui l’est
encore plus, c’est de voir un enfant se procurer son premier
Smartphone et tout trouver dedans : Bluetooth, GPS, 3G, wifi, vidéos
en streaming, photographie à haute résolution et
cardiofréquencemètre.
L’économie de réseau est apparue et s’est sociabilisée. En 1997,
seuls 2 % de la planète avait accès à Internet. À l’heure où j’écris
ces lignes, ce sont 38 % de la planète, et 75 % des pays
développés*1. Sur 100 personnes, 96 ont souscrit un abonnement
téléphonique, et 50 % de la population mondiale possède un
téléphone en réseau 3G (ou supérieur). Dans les faits, le nombre de
lignes téléphoniques fixes par personne diminue en permanence26.
Il n’a pas fallu plus de dix ans pour que le réseau se fasse une
place dans notre vie. L’adolescent moyen qui possède un
Smartphone mène une existence plus connectée socialement
parlant que le plus geek des geeks de l’informatique il y a quinze
ans.
Lorsque Romer et Drucker ont publié leurs travaux au début des
années 1990, la question tournait toujours autour de l’impact des
machines qui pensent. Aujourd’hui, nous comprenons de manière
implicite que le réseau est la machine. Et, à mesure que les logiciels
et les données ont été mis en réseau, le débat sur l’impact
économique des technologies de l’information a également
commencé à se concentrer sur le réseau.
En 1997, Kelly a proclamé l’existence d’un nouvel ordre
économique émergent avec trois caractéristiques principales : « Il
est mondial. Il favorise les choses immatérielles, les idées,
l’information et les relations. Et il est profondément connecté.
Ces trois caractéristiques génèrent un nouveau type de marché et
de société27. »
Kelly considérait comme lieu commun ce que Romer avait vu
comme quelque chose de nouveau il y a sept ans : la tendance des
technologies de l’information à réduire le coût des données et des
biens matériels, de sorte que le coût marginal de leur production
diminue jusqu’à atteindre zéro. Mais, assura-t-il à ses lecteurs, il y a
un pendant à l’offre infinie et à la baisse des prix, à savoir une
demande infinie : « La technologie et le savoir ont fait augmenter la
demande bien plus rapidement qu’ils ne font baisser les prix […]
L’étendue des besoins et des désirs des êtres humains se limite à
leur seule imagination, ce qui signifie qu’en théorie elle est
infinie28. »
La solution, selon Kelly, était d’inventer de nouveaux biens et de
nouveaux services plus vite qu’ils perdaient en valeur. Au lieu
d’essayer de défendre les prix, on part du principe qu’ils chuteront
au fil du temps, et on construit une entreprise qui accumulerait des
profits avant qu’ils ne tombent à zéro. Il fallait, avait-il averti, « jouer
à l’équilibriste », pour exploiter au mieux les connaissances gratuites
transmises par les clients lorsqu’ils interagissent avec les sites
internet. Vers la fin des années 1990, selon les informations
accumulées par ceux qui avaient compris la nature du problème, la
survie du capitalisme était assurée, car l’innovation contrebalançait
la baisse des prix provoquée par les nouvelles technologies. Mais
Kelly ne s’est pas préoccupé de ce qui pourrait se produire si cela
échouait.
Puis vint l’éclatement de la bulle internet. La chute spectaculaire
du Nasdaq en avril 2000 a changé la manière de voir de la
génération qui avait lutté contre les modems à accès commuté et qui
s’était enrichie. De ce désastre, John Perry Barlow, un fervent
défenseur du droit de l’informatique qui avait perdu 95 % de sa
fortune, a tiré les conclusions suivantes : « Tout cet engouement
pour le dot.com constituait une tentative d’application de concepts
économiques des e et e siècles à un environnement dans lequel
ils n’existaient pas. Internet s’est contenté de les ignorer. C’était
comme si un corps étranger avait attaqué Internet avant de se faire
repousser par son système immunitaire. » Il en a profité pour
orienter la suite du débat : « À long terme, la situation pourrait bien
profiter aux communistes du numérique29. »

Un nouveau mode de production ?


En 2006, Yochai Benkler, un ancien professeur de droit à l’Université
de Yale, a affirmé que l’économie de réseau était un nouveau
« mode de production qui apparaissait au sein des économies les
plus développées du monde30 ». Benkler s’est efforcé d’établir un
cadre juridique, que l’on appelle aujourd’hui « licence Creative
Commons » au mode d’édition du mouvement open source. Dans La
Richesse des réseaux, il explique quelles sont les forces
économiques qui nuisent à la propriété intellectuelle et qui
provoquent la propagation des formes de propriétés communes et
des modes de production non supervisés.
Il explique en premier lieu que l’essor de la puissance de calcul
physique bon marché et des réseaux de communication a placé les
moyens de production des biens intellectuels entre les mains de
nombreuses personnes. Les gens peuvent poster des billets de blog,
réaliser des films et les distribuer ou encore s’autoéditer en ligne,
touchant parfois des millions de personnes en matière d’audience,
avant même que les éditeurs traditionnels sachent que l’auteur
existe : « Ainsi, une part bien plus importante de ce que nous
apprécions en tant qu’êtres humains peut désormais être produite
par des individus qui interagissent de manière sociale et humaine,
plutôt qu’en tant qu’acteurs du marché à travers le système des
prix31. »
Selon lui, ce phénomène a conduit au développement des
mécanismes non marchands, parmi lesquels des actions
individuelles menées par les membres d’organisations coopératives
bénévoles. Il est à l’origine de nouvelles formes d’économie « peer-
to peer » au sein desquelles soit l’argent n’existe pas, soit il n’est
pas le principal instrument de mesure de la valeur.
Wikipédia en est le meilleur exemple. Fondée en 2001,
l’encyclopédie collaborative compte, à l’heure où nous écrivons,
26 millions de pages et 24 millions de personnes inscrites qui
participent au projet et révisent les articles, dont environ
12 000 personnes qui révisent régulièrement ces articles et
140 000 personnes qui participent moins assidûment32.
Wikipédia compte 208 salariés33. Les milliers de personnes qui
éditent l’encyclopédie le font gratuitement. Un sondage réalisé
auprès d’utilisateurs a montré que 71 % d’entre eux le font, car ils
apprécient l’idée de travailler bénévolement, tandis que 63 % d’entre
eux estiment que l’information devrait être gratuitement accessible34.
Avec 8,5 milliards de pages consultées par mois, Wikipédia est le
sixième site internet le plus populaire au monde, juste avant
Amazon, l’entreprise d’e-commerce la plus puissante du monde35.
Selon une estimation, si elle était gérée comme un site commercial,
les revenus de Wikipédia pourraient s’élever à 2,8 milliards de
dollars par an36.
Malgré cela, Wikipédia ne génère aucun bénéfice. Et, ce faisant,
Wikipédia empêche quiconque de tirer profit du secteur. En outre,
c’est l’une des ressources pédagogiques les plus précieuses jamais
inventées, et elle a, jusqu’à présent, empêché toutes les tentatives
de censure, de subversion, de trolling ou de sabotage d’aboutir ; et
ce, parce que le pouvoir de dizaines de millions de globes oculaires
humains est plus important que celui des gouvernements,
harceleurs, groupe d’intérêts et autres saboteurs.
Le principe sur lequel repose Wikipédia est le même que celui des
premiers programmateurs de GNU et de Linux, seulement, cette
fois, il est appliqué à un produit de consommation de masse.
Lorsque nous visitons le site d’Amazon et que nous achetons un
livre ou un appareil photo, nos préférences sont sauvegardées et
aident les autres potentiels acheteurs à se décider. En matière
d’économie, on appelle ce phénomène une externalité « positive »,
un bénéfice économique inopiné.
Dans le cas d’Amazon, c’est la société qui rafle le gros de la mise
et qui voit son pouvoir d’achat et de vente augmenter. Pour
Wikipédia, le bénéfice est uniquement humain : plus jamais on ne
verra d’enfant s’asseoir sur les bancs d’une bibliothèque de
bourgade, comme j’ai pu le faire, perdu dans un labyrinthe
de connaissances à la fois pauvres, hasardeuses et gravées à
jamais sur des feuilles de papier et que l’on ne peut pas mettre à
jour ou corriger sans avoir à imprimer tout un nouveau livre.
De ce phénomène économique qu’est Wikipédia, Benkler tire la
leçon suivante : le réseau permet d’organiser la production de
manière décentralisée et collaborative sans devoir passer par le
marché ou la hiérarchie de la gestion.
Les économistes se plaisent à illustrer la nature obsolète de
l’économie planifiée avec des jeux d’esprit tels que « Imaginez
l’Union soviétique essayant de créer Starbucks ». Voilà un autre jeu,
plus intéressant : imaginez comment Amazon, Toyota ou Boeing
auraient essayé de créer Wikipédia.
Sans le travail collaboratif et la philosophie open source, seules
deux solutions s’offrent à nous : soit les voies du marché, soit le
système hiérarchique propre aux grandes corporations. Étant donné
qu’il y a peut-être 12 000 rédacteurs et éditeurs actifs de Wikipédia,
il serait possible d’en employer le même nombre et peut-être de s’en
sortir en embauchant certains d’entre eux parmi la population des
pays dont les économies sont les plus précaires du monde et en
confiant leur responsabilité à une strate hiérarchique mieux payée,
localisée dans la Sun Belt. Ensuite, on pourrait les motiver à rédiger
la meilleure encyclopédie en ligne jamais conçue. On leur donnerait
des quotas et des bonus et l’on encouragerait le travail d’équipe
grâce à des cercles de qualité, etc.
Mais jamais on ne créera quelque chose d’aussi vivant que
Wikipédia. Il serait tout aussi inutile de faire rédiger 26 millions de
pages Wikipédia à une corporation de 12 000 salariés qu’il le serait à
l’Union soviétique de créer sa propre version de Starbucks. Une
fondation de 208 membres le fera toujours plus efficacement. Et,
même si l’on parvenait à créer quelque chose d’aussi performant
que Wikipédia, on se retrouverait face à un gros problème : notre
concurrent principal, Wikipédia, ferait la même chose gratuitement.
Ainsi, au lieu de passer par une entreprise pour forcer la création
de Wikipédia, peut-être pourrait-on exploiter les forces du marché
pour la commercialiser ? Après tout, les écoles de commerce ne
nous apprennent-elles pas que le marché est le plus efficace des
systèmes ?
Peut-être que les clients accepteraient de dépenser un peu
d’argent pour acquérir quelques bouts de connaissance, tout en
admettant l’idée que l’information reste dans le domaine public et
qu’elle est gratuite ? Peut-être que les universitaires, les amateurs et
les passionnés qui rédigent ces pages accepteraient volontiers de
recevoir un peu d’argent pour chacune de leurs participations ?
Ce scénario est déjà un peu plus proche de la réalité, à ceci près
que ce n’est pas de l’argent que les contributeurs échangent. Ce
sont des cadeaux. Et, tout comme les anthropologues l’ont compris
depuis longtemps, le cadeau n’est que la représentation physique de
quelque chose d’immatériel : appelons cela de la bonne volonté, de
la joie.
Tout comme Linux, Wikipédia se distingue de deux manières. La
première tient dans le caractère collaboratif du produit, on peut
l’utiliser gratuitement, mais pas se l’approprier ni l’exploiter. La
seconde se trouve dans la nature collaborative du processus de
production : personne ne décide de ce qui sera écrit dans les pages
de Wikipédia ; les salariés de Wikipédia se contentent de contrôler
les critères de rédaction et d’édition et protègent la totalité de la
plateforme contre les attaques des hiérarchies de propriété et de
gestion.
Benkler a baptisé ce phénomène « production par les pairs sur la
base des biens communs », et ce concept remet grandement en
question les acquis de l’économie orthodoxe. Rien n’a changé dans
la psyché humaine. C’est juste que notre désir humain de nous faire
des amis, de construire des relations basées sur la confiance et
l’obligation mutuelles, de satisfaire nos besoins émotionnels et
psychologiques s’est étendu à la vie économique.
À ce moment précis de l’Histoire, lorsqu’il est devenu possible de
produire quelque chose sans passer par les marchés ou les
entreprises, un nombre croissant d’individus a commencé à le faire.
D’abord, la baisse du coût de la puissance de calcul et de l’accès
au réseau fait que la capacité de produire des biens de l’information
ne se limite plus à quelques individus, mais concerne la majorité.
Ensuite, il faut ce que Benkler appelle la « modularité planifiée »,
c’est-à-dire qu’une tâche doit être divisée en suffisamment de petites
tâches différentes pour que les participants au projet puissent
l’accomplir seuls et soumettre le résultat à un réseau plus large.
Rien de mieux qu’une page Wikipédia pour servir d’exemple : ajouter
un brin d’information ou en supprimer un font partie des tâches
modulaires que l’on peut accomplir depuis le deuxième étage du bus
londonien à l’aide d’un Smartphone, ou sur un ordinateur dans un
web café à Manille.
Donc, selon Benkler, la technologie bon marché et les modes de
production modulaires nous ont rapprochés du travail collaboratif
non marchand. Il affirme qu’il ne s’agit pas d’un phénomène de
mode, mais d’un « mode de production humainement durable ».
Bien qu’il parle de « nouveau mode de production », Benkler ne dit
pas qu’il se distingue des modes de production capitalistiques. Il
affirme au contraire qu’il conduira à une forme de capitalisme
radicalement différente et plus durable. Il prévoit une redistribution
de la richesse et du pouvoir depuis les entreprises et les élites
dominantes vers un mélange plus large d’individus, de réseaux de
pairs et d’entreprises qui seront en mesure de s’adapter au nouveau
contexte.
Le défaut de Benkler est de décrire les nouvelles formes du
capitalisme de l’information sans en expliquer les dynamiques, qui
sont, par défaut, contradictoires.
Les technologies de l’information font sortir la main-d’œuvre du
processus de production, réduisent le prix des biens sur le marché,
détruisent certains modèles commerciaux en plus d’avoir vu naître
une génération d’individus qui ne remettent pas en question la
gratuité de certains biens. Mais, durant la première décennie
complète de leur existence, elles ont contribué à alimenter une crise
mondiale au cours de laquelle les citoyens les plus pauvres des
pays développés ont été réduits à fouiller dans les poubelles, alors
même qu’ils épuisaient leurs derniers centimes de crédit sur leur
téléphone portable.
Le capitalisme de l’information existe bel et bien, mais, si on
l’analyse de manière globale, et que l’on comprend qu’il est la
résultante de la collision entre l’économie néolibérale et la
technologie du réseau, on ne peut pas nier qu’il est en crise.

L’économie de la gratuité
Vers la fin du e siècle, les économistes se sont rendu compte qu’il
n’était pas possible de prendre la pleine mesure de l’impact du
capitalisme rien qu’à travers la vente et l’achat. Étant donné que, à
l’époque, les usines étaient ceintes de terrils, de bidonvilles et de
rivières puantes, il n’était pas très difficile de remarquer que l’impact
du capitalisme se ressentait au-delà du marché. Les économistes
baptisèrent cela des « externalités », et un débat s’engagea sur la
façon d’expliquer ces phénomènes.
Ils ont commencé par se concentrer sur les « mauvaises »
externalités : si j’achète de l’électricité produite grâce au charbon à
un fournisseur d’énergie et que cela pollue l’air, cette pollution est
une externalité. La solution aux mauvaises externalités est simple :
on trouve un moyen de répartir les coûts entre acheteurs et
vendeurs. Donc, dans le cas d’une centrale électrique polluante, on
impose une taxe environnementale.
Il existe néanmoins de « bonnes » externalités, comme la
diminution des frais d’embauche que l’on constate lorsque plusieurs
entreprises du même secteur se réunissent au même endroit. Il est
inutile de trouver des solutions aux bonnes externalités, et elles se
manifestent souvent par une réduction des frais et de l’activité.
Mais, dans une économie de l’information, l’enjeu de ces
externalités est majeur. Dans l’Ancien Monde, les économistes
classaient l’information dans les « biens publics » : le coût de la
recherche scientifique, par exemple, était supporté par la société,
donc tout le monde en bénéficiait. Mais, dans les années 1960, les
économistes ont commencé à considérer l’information comme une
denrée. En 1962, le gourou de l’économie orthodoxe Kenneth Arrow
avait affirmé que, dans un libre marché, on invente des choses pour
créer du droit de la propriété intellectuelle : « C’est précisément dans
la mesure où elle est utile qu’il y a une sous-exploitation de
l’information37. »
En y réfléchissant ainsi, faire breveter le Darunavir, ce
médicament moderne contre le VIH, a pour seul but de maintenir
son prix à 1 095 $ par an, un prix qui est, selon Médecins sans
frontières, « prohibitif ». L’information existe dans le but de faire
prendre le médicament à des millions d’individus, mais elle est sous-
exploitée à cause du brevet. À l’inverse, dans la mesure où l’Inde a
réussi à empêcher les grandes sociétés pharmaceutiques d’imposer
des brevets de vingt ans sur d’autres traitements anti-VIH, leur coût
a diminué depuis les années 2000, ainsi les informations contenant
leur méthode de fabrication furent complètement exploitées.
Dans une économie où l’information est omniprésente, les
externalités le sont aussi. Si l’on se penche sur les géants du
capitalisme de l’information, la quasi-totalité de leurs modèles
commerciaux se base sur l’exploitation d’externalités secondaires.
Par exemple, Amazon fonctionne en proposant à ses clients des
produits basés sur leurs précédents choix, à savoir, de l’information
donnée gratuitement et qu’il n’était pas possible de garder pour soi.
L’intégralité du modèle commercial d’Amazon repose sur
l’exploitation unilatérale des externalités qu’elle peut capturer. Il en
va de même pour les supermarchés : en rassemblant les données
de ses clients et en en empêchant l’utilisation par quiconque, les
grands supermarchés comme Walmart ou Tesco obtiennent un
énorme avantage commercial.
Maintenant, imaginons que Walmart ou Tesco soient prêts à
publier les données de leurs clients (de manière évidemment
anonyme) gratuitement. La société en bénéficierait : tout le monde,
du fermier jusqu’à l’épidémiologiste, pourrait fouiller les données et
prendre des décisions plus sensées ; les clients individuels verraient
en un clin d’œil s’ils ont pris les bonnes ou les mauvaises décisions
en matière d’achat. Mais les supermarchés perdraient leurs
avantages sur le marché : leur capacité à manipuler le
comportement des acheteurs à l’aide des gammes de prix ; les dates
de péremption et les offres « un acheté, un gratuit » seraient
réduites. La raison d’être de tout leur grand système d’e-commerce
repose, comme l’aurait dit Arrow, sur la « sous-exploitation » des
données clients.
Si l’on reformule les conclusions d’Arrow, on constate à quel point
ses idées étaient révolutionnaires : si une économie de libre marché
qui applique la propriété intellectuelle débouche sur la sous-
exploitation de l’information, alors une économie qui repose sur la
pleine utilisation de celle-ci ne peut donner lieu à un libre marché ou
permettre des droits de propriété intellectuelle absolus. Et ce n’est là
qu’une manière différente d’affirmer ce que Benkler et Drucker
avaient compris : les technologies de l’information rongent l’un des
mécanismes fondamentaux du capitalisme.
Mais par quoi est-il remplacé ? Pour que le terme
« postcapitalisme » prenne tout son sens, il faudrait expliquer
précisément comment la technologie du réseau déclenche la
transition vers quelque chose d’autre, et quelles seraient les
dynamiques d’un monde postcapitaliste.
Aucun des auteurs que nous avons étudiés n’a réussi à expliquer
cela, et ce n’est pas pour rien : aucun d’eux n’a travaillé avec une
théorie complète du capitalisme. Et si quelqu’un avait anticipé la
chute du capitalisme sous l’impulsion de l’information ? Et si
quelqu’un avait anticipé de manière correcte la perte de la capacité à
établir des prix après la démocratisation de l’information et de son
intégration aux machines ? Les idées de cette personne seraient
probablement considérées comme révolutionnaires. Le fait est qu’un
tel individu existe. Son nom est Karl Marx.
Le « general intellect*2 »
La scène se déroule en 1858, dans un quartier de Londres appelé
« Kentish Town ». Il est environ 4 heures du matin. Marx est toujours
recherché en Allemagne et vient de passer dix ans à s’enfoncer
davantage dans la dépression tant les probabilités d’une possible
révolution diminuent. Mais voilà que Wall Street s’est effondrée, que
des banques font faillite partout en Europe, et que lui se démène
pour achever un ouvrage d’économie qu’il a longtemps promis. « Je
travaille comme un fou toute la nuit, comme ça, j’aurai au moins bien
défini le contexte avant le déluge38 », confie-t-il.
Les ressources de Marx étaient limitées. Il disposait d’une carte de
bibliothèque qui lui permettait d’accéder aux données les plus
récentes. De jour, il écrivait des articles en anglais pour le New York
Tribune. De nuit, il remplissait les pages de huit carnets avec un
gribouillis allemand pratiquement illisible : des observations à la
volée, des réflexions et des notes personnelles.
Ces carnets, que l’on connaît sous le nom collectif de Grundrisse
(et que l’on pourrait traduire par « Introduction Générale »), seront, à
défaut d’être lus, sauvés par Engels. Ils seront conservés dans le
QG du Parti social-démocrate allemand jusqu’à ce que l’Union
soviétique les achète dans les années 1920. Ils ne seront pas lus en
Europe occidentale avant la fin des années 1960, et pas avant 1973
en ce qui concerne la version anglaise. Lorsqu’ils purent enfin lire ce
qu’avait écrit Marx lors de cette froide nuit de 1858, les intellectuels
avouèrent que cela « remettait en question toutes les interprétations
sérieuses de Marx à ce jour39 ». Ces écrits s’appellent Fragment sur
les machines.
Le Fragment sur les machines commence par l’idée selon laquelle
le développement de la grande industrie transforme le rapport entre
l’homme et la machine. Au début de l’industrie, il n’y avait que
l’homme, l’outil manipulé par l’homme et le produit. Maintenant,
l’homme ne manipule plus l’outil, il « insère le processus de la
nature, transformé en processus industriel, comme un moyen entre
lui et la nature inorganique, en la maîtrisant. Il se place aux côtés du
processus de production au lieu d’en être l’acteur principal40 ».
Marx avait imaginé une économie dans laquelle le rôle principal de
la machine était de produire ; celui des individus, de les superviser. Il
avait été clair : dans une telle économie, l’information est la
principale force de production. Le rendement de machines telles que
la machine à filer le coton automatique, le télégraphe et la
locomotive à vapeur n’avait « aucun rapport avec le temps de travail
immédiatement dépensé pour les produire, mais dépend bien plutôt
de l’état général de la science et du progrès de la technologie,
autrement dit de l’application de cette science à la production41 ».
En d’autres termes, la planification et le savoir contribuent
davantage à la puissance productive que le travail nécessaire à la
fabrication et au fonctionnement des machines.
Étant donné que le marxisme allait devenir une théorie de
l’exploitation basée sur le vol du temps de travail, c’est une idée tout
à fait révolutionnaire. Elle suggère que, au moment où le savoir
devient une force de production à part entière qui dépasse
largement le temps de travail réel consacré à la création d’une
machine, la grande question n’est plus : « Est-ce que les salaires
s’opposent aux bénéfices ? », mais plutôt « À qui appartient le
“pouvoir de la connaissance” ? »
Marx jette ensuite un pavé dans la mare : dans une économie où
la machine effectue la majeure partie du travail, et où le travail
humain se résume à la supervision, à l’entretien et à la conception
des machines, la nature du savoir enfermé dans la machine doit,
selon lui, être « sociale ».
Voici un exemple moderne. Si aujourd’hui une développeuse
utilise un langage de programmation pour écrire un lien entre une
page web et une base de données, alors elle exploite clairement son
intelligence sociale. Je ne parle pas spécifiquement de
programmation open source ici, mais d’un simple projet de logiciel
commercial ordinaire. Chaque étape du processus a été développée
en partageant l’information, en la mettant en commun et en affinant
le code et les interfaces.
Évidemment, la développeuse ne possède pas le code sur lequel
elle travaille ; de la même manière, la société qui l’emploie ne
possède qu’une fraction de celui-ci. Cela étant, la société peut
toujours breveter les bouts de codes que la développeuse écrit ; elle
peut même la contraindre à signer un contrat selon lequel tout ce
qu’elle écrit sur son temps libre appartient à la société, mais le code
contiendra toujours des milliers de morceaux de code
précédemment écrits par d’autres développeurs et qui ne peuvent
être brevetés.
De plus, le savoir nécessaire à la rédaction du code est toujours
stocké dans le cerveau de son programmeur. La développeuse peut,
si les conditions de marché le permettent, changer de lieu de travail
et utiliser la même solution si nécessaire. Avec l’information, une
partie du produit demeure avec le travailleur d’une manière qui
n’existait pas à l’époque industrielle.
Il en va de même pour l’outil qu’elle utilise : le langage de
programmation. Il a été développé par des dizaines de milliers
d’individus partageant leur savoir et leur expérience. Si elle
télécharge une mise à jour, elle contiendra forcément des
modifications basées sur les leçons apprises par tous les autres
utilisateurs du langage.
Pour couronner le tout, les données clients, à savoir
l’enregistrement de toutes les interactions entre les clients et le site,
peuvent être détenues à 100 % par une société. Malgré cela, elle a
une origine sociale : je vous envoie un lien, vous cliquez dessus ou
le retweetez à 10 000 abonnés.
Marx n’aurait jamais pu imaginer un serveur web. Il a cependant
pu étudier les dispositifs télégraphiques. En 1858, le télégraphe, qui
longeait les lignes de chemin de fer du monde entier et se terminait
à chaque gare et siège d’entreprise, était l’élément infrastructurel le
plus important au monde. À elle seule, la Grande-Bretagne était forte
d’un réseau de 1 178 nœuds en dehors de Londres, et des
centaines d’autres reliaient la City, le Parlement et les
docks londoniens42.
Les télégraphistes étaient très qualifiés, mais, comme pour notre
programmeur et ses logiciels, le savoir nécessaire à l’opération d’un
commutateur ne représentait rien par rapport au savoir encapsulé
dans le vaste réseau de machines transfrontalières qu’ils
supervisaient en réalité.
Le souvenir des télégraphistes témoigne bien de la nature sociale
de la technologie. Selon le principe de base, on ne pouvait pas
envoyer d’informations plus vite que la personne à l’autre bout ne
pouvait les recevoir. Mais, avec les systèmes télégraphiques
complexes et les salles pleines d’opérateurs de transmission qui
négociaient l’utilisation de la capacité des lignes, déjà encombrées,
avec des opérateurs éloignés, « la gestion des ego faisait autant
partie du travail d’un opérateur que la gestion d’un commutateur
télégraphique. Les opérateurs prévenants et serviables facilitaient le
travail ; les opérateurs dominateurs, désinvoltes ou satisfaits d’eux-
mêmes rendaient le travail plus difficile43 ». La nature de leur travail
était sociale, et le savoir capturé dans la machine l’était également.
Dans le Fragment sur les machines, ces deux idées selon
lesquelles le moteur de la production est social et le savoir contenu
dans les machines est social ont conduit Marx à conclure de la
manière suivante :
– Premièrement, dans un capitalisme fortement industriel,
augmenter la productivité grâce à de meilleures
connaissances est une source de bénéfices plus intéressante
que l’augmentation de la durée de travail quotidienne ou
l’accélération du rythme de travail : les journées plus longues
demandent plus d’énergie, et les accélérations du rythme de
travail touchent aux limites de l’habileté et de l’endurance
humaine. À l’inverse, une solution basée sur le savoir est peu
coûteuse et ne souffre pas d’une quelconque contrainte.
– Deuxièmement, Marx soutient qu’un capitalisme qui s’appuie
sur le savoir pour fonctionner ne peut supporter de système
de fixation des prix où la valeur des choses est dictée par la
valeur des intrants nécessaires à sa production. Il est
impossible de donner de manière précise la valeur d’un
intrant lorsqu’il vient sous la forme d’intelligence sociale. La
production issue du savoir tend à créer des richesses de
manière illimitée, indépendamment du travail investi. Mais le
système capitalistique traditionnel s’appuie sur la base de prix
déterminés par le coût des intrants et agit en fonction du
principe selon lequel tous les intrants sont disponibles en
quantités limitées.

Pour Marx, le capitalisme fondé sur le savoir est source de


contradiction entre les « forces de production » et les « relations
sociales ». Ces deux entités sont « les conditions matérielles
nécessaires à la destruction des fondements du capitalisme ». De
plus, un capitalisme de ce type ne peut que faire augmenter le
potentiel intellectuel du travailleur. Il tend à réduire le temps de
travail (ou à freiner son augmentation), ce qui laisse aux travailleurs
le temps de se consacrer à des activités intellectuelles ou artistiques
et de développer leurs compétences dans ces domaines,
compétences qui deviennent nécessaires au modèle économique
lui-même. Enfin, Marx introduit une nouvelle idée, qui n’apparaît
nulle part, avant ou après, dans ses écrits : le « general intellect ». Il
explique que, lorsque nous mesurons la portée des progrès
technologiques, nous mesurons au passage la portée de « la
transformation de l’intelligence sociale collective en force de
production sous le contrôle du general intellect44 ».
Les idées introduites dans le Fragment sur les machines
s’écartaient fondamentalement du marxisme traditionnel. Au
e
siècle, la gauche voyait la planification étatique comme la voie
royale pour sortir du capitalisme. Les membres du parti partaient du
principe que les contradictions inhérentes au capitalisme trouvaient
leurs racines dans la nature chaotique du marché, dans son
incapacité à satisfaire les désirs humains et dans sa propension aux
catastrophes.
Dans la version de 1858 du Fragment sur les machines, nous
sommes cependant face à un modèle de transition alternatif : une
sortie du capitalisme basée sur le savoir, dans le contexte de
laquelle la principale contradiction se trouve entre la technologie et
les mécanismes du marché. Selon ce modèle, griffonné sur papier
en 1858, mais inconnu de la gauche pendant plus de cent ans,
l’effondrement du capitalisme est provoqué par son incapacité à
exister parallèlement au partage des connaissances. La lutte des
classes devient une lutte pour plus d’humanité et de savoir acquis
pendant son temps libre.
Pour le gauchiste Antonio Negri, le Fragment sur les machines,
c’était « Marx au-delà de Marx ». Paolo Virno, l’un de ses collègues
penseurs, fait remarquer que ces idées « n’existent nulle part ailleurs
dans ses autres œuvres et semblent s’écarter de la pensée
habituelle de Marx45 ».
La question demeure : pourquoi Marx n’a-t-il pas poussé la
réflexion plus loin ? Pourquoi le general intellect disparaît-il en tant
que concept, exception faite de cette page non publiée ? Pourquoi
ce modèle de mécanisme de marché, dissous par la connaissance
sociale, est-il perdu lors de la rédaction du Capital ?
La réponse la plus évidente, au-delà des explications textuelles,
est qu’à l’époque l’idée ne se concrétisait pas à travers le
capitalisme. Une fois la crise de 1858 passée, la stabilité est
revenue. La socialisation du savoir inhérente au télégraphe et à la
locomotive à vapeur n’a pas suffi pas à détruire les fondations du
capitalisme.
Au cours de la décennie suivante, Marx avait monté une théorie
du capitalisme selon laquelle les mécanismes d’échange ne seraient
pas menacés d’extinction par l’apparition d’un general intellect, et
dans laquelle il ne serait jamais fait mention du fait que la
connaissance est une source indépendante de profit. Autrement dit,
Marx s’est dédouané des idées qu’il avait avancées dans Fragment
sur les machines. La naissance du marxisme du vingtième siècle en
tant que doctrine du socialisme d’État et de la transition basée sur la
crise n’est pas le fruit du hasard ; on la doit au Marx qui a écrit Le
Capital.
Ici, ce n’est pas l’histoire du marxisme qui m’intéresse, mais plutôt
la question suivante : existe-t-il un moyen de parvenir au
postcapitalisme qui pourrait s’appuyer sur l’essor des technologies
de l’information ? Si l’on se base sur le Fragment sur les machines, il
est clair que Marx avait au moins envisagé la possibilité d’une telle
voie.
Il avait imaginé que l’information produite par la société
s’incarnerait dans les machines. Il avait imaginé que cela produirait
une nouvelle dynamique qui détruirait les anciens mécanismes de
création de prix et de profits. Il avait imaginé un capitalisme contraint
de développer le potentiel intellectuel du travailleur. Enfin, il avait
imaginé que l’information serait stockée et partagée dans ce que l’on
appelle un « general intellect » – c’est-à-dire l’esprit de tous les
habitants de la planète, connecté par l’intelligence sociale, et dans
lequel chaque amélioration profite à tous. En somme, il avait imaginé
quelque chose qui se rapproche du capitalisme de l’information dans
lequel nous vivons.
De plus, il avait imaginé le principal objectif de la classe ouvrière,
dans le cas où ce monde verrait le jour : la liberté du travail. Le
socialiste et utopiste Charles Fourier avait prédit que travail et loisir
se confondraient. Marx n’était pas d’accord. Il avait écrit qu’au lieu
de cela le loisir nous libérerait. « Le temps libre transforme
naturellement son possesseur en un sujet différent, et c’est en tant
que tel qu’il entre alors dans le processus de production immédiat
[…] Dans son cerveau existe le savoir accumulé de la société46. »
C’est peut-être l’idée la plus révolutionnaire que Marx ait jamais
eue : que la réduction du temps de travail au minimum puisse
produire une sorte d’être humain capable d’utiliser l’ensemble des
connaissances accumulées par la société ; une personne
transformée par de vastes quantités de connaissances, fruits de
l’intelligence sociale et ayant, pour la première fois dans l’Histoire,
plus de temps libre que de temps de travail. De l’ouvrier nouveau
imaginé dans le Fragment sur les machines à la « personne
universelle éduquée » pensée par Peter Drucker, il n’y a qu’un pas.
Je pense que Marx a abandonné cette idée parce qu’elle n’avait
que peu de pertinence pour la société dans laquelle il vivait. Mais,
pour la nôtre, elle revêt une importance cruciale.

Une troisième sorte de capitalisme ?


Les néolibéraux considéraient l’avènement du capitalisme de
l’information comme leur plus grand succès. La possibilité qu’il
puisse souffrir de défauts ne leur avait même pas effleuré l’esprit. Ils
pensaient que les machines intelligentes favoriseraient la naissance
d’une société postindustrielle dans laquelle tout le monde exercerait
une profession intellectuelle supérieure et tous les anciens conflits
sociaux seraient éteints47. L’information permettrait au capitalisme
utopique des manuels d’économie (caractérisé par la transparence,
la concurrence parfaite et la stabilité) de devenir réalité. Vers la fin
des années 1990, partout dans la littérature de l’économie
orthodoxe, de Wired à la Harvard Business Review, on dressait un
portrait élogieux du nouveau système. Cependant, personne ne
s’inquiétait de savoir comment il fonctionnait.
Ironiquement, c’est à ceux qui avaient redécouvert le Fragment
sur les machines, les disciples d’extrême gauche d’Antonio Negri,
qu’il revint d’établir une première théorie du capitalisme de
l’information, qu’ils ont baptisé « capitalisme cognitif ».
Ses défenseurs affirment que le capitalisme cognitif est une forme
de capitalisme à la fois nouvelle et cohérente : un « troisième
e
capitalisme », qui vient après le capitalisme marchand du et du
e
siècle et le capitalisme industriel de ces deux cents dernières
années. Il repose sur les marchés mondiaux, la financiarisation du
consumérisme, le travail dématérialisé et les capitaux
dématérialisés.
L’économiste français Yann Moulier-Boutang estime que le
capitalisme cognitif dépend de la capture des externalités. Étant
donné que la population se sert d’appareils connectés, elle devient
« coproductrice » des sociétés avec lesquelles elle interagit : ses
choix, ses applications, ses listes d’amis Facebook sont autant de
choses dont les sociétés qui fournissent les services et rassemblent
les informations peuvent tirer profit. Moulier-Boutang écrit que « la
capture des externalités positives devient l’ennemi numéro un de la
valeur48 ».
Selon le modèle du capitalisme cognitif, la nature du travail
change. Le travail manuel et le travail industriel ne disparaissent
pas, mais leur place change dans le paysage économique. Dans la
mesure où le profit provient de plus en plus de la capture de la
valeur gratuite générée par le comportement des consommateurs, et
dans la mesure où une société centrée sur le consumérisme de
masse doit être constamment alimentée en café, en sourires et en
services après-vente, l’« usine » du capitalisme cognitif, c’est la
société elle-même. Pour ces théoriciens, la « société en tant
qu’usine » est une idée fondamentale, elle est nécessaire à la
compréhension non seulement de la nature de l’exploitation
à l’œuvre dans cette société, mais aussi de celle de la résistance à
cette société.
Pour qu’une paire de baskets Nike puisse valoir 179,99 dollars, il
faut que les 465 000 ouvriers travaillant dans les 107 usines
réparties au Viêt Nam, en Chine et en Indonésie adoptent les
mêmes normes. Mais il faut aussi que le consommateur pense que
le logo de Nike fait que ces morceaux de plastique, de caoutchouc et
de mousse valent en effet sept fois le taux horaire moyen aux États-
Unis49. Nike dépense 2,7 milliards de dollars par an rien que pour
nous le faire croire (à comparer aux 13 milliards qui sont investis
dans la fabrication des chaussures et des vêtements), et cet
investissement en marketing génère bien plus de profits que les
publicités diffusées lors du Superbowl.
En fait, depuis que Nike a compris comment fonctionnait le
capitalisme cognitif au début des années 2000, ses dépenses en
publicité à la télévision et dans la presse ont chuté de 40 %. La
marque se concentre maintenant sur les produits numériques :
Nike+, par exemple, qui passe par l’iPod pour enregistrer les
performances des coureurs, a enregistré et transmis à Nike
150 millions de séances de jogging individuelles depuis son
lancement en 200650. Comme toutes les sociétés, Nike est dans sa
phase de transformation effective vers l’« Internet des objets ».
C’est cela que les théoriciens du capital intellectuel entendent par
l’« usine socialisée ». Nous n’évoluons plus dans un monde où la
frontière entre production et consommation est clairement délimitée,
mais plutôt dans un monde où les idées, les comportements et les
interactions des clients avec la marque sont essentiels pour générer
des bénéfices ; un monde où la production et la consommation se
confondent. Cela explique en partie pourquoi la lutte contre le
nouveau capitalisme se concentre souvent sur les questions de
consommation ou les valeurs de marque (par exemple la
responsabilité sociale des entreprises), et pourquoi les manifestants
se comportent davantage comme des « tribus », en matière de
démographie du marketing, que comme un prolétariat unifié. Selon
les théoriciens du capital intellectuel, comme c’est le cas pour
Drucker par exemple, la principale activité de cette main-d’œuvre
nouvelle est « la production du savoir par le savoir51 ».
Mais la théorie du capitalisme cognitif souffre d’un grave défaut.
C’est une chose de dire qu’« une nouvelle sorte de capitalisme de
l’information est née vers la fin du capitalisme industriel », mais les
théoriciens les plus influents du capitalisme cognitif en disent une
autre : nombre d’entre eux pensent que le capitalisme cognitif est un
tout nouveau système qui fonctionne déjà à plein régime. Les usines
de Shenzhen, les bidonvilles de Manille, les ateliers de métallurgie
de Wolverhampton ont beau ne pas avoir changé d’apparence au
cours des dix dernières années, leur fonctionnement économique a,
selon ces théoriciens, déjà changé.
C’est une technique courante dans la pensée spéculative
européenne : inventer une catégorie et l’appliquer à tout, en
reclassant ainsi toutes les choses existantes comme sous-
catégories de cette nouvelle idée. Elle permet de passer outre
l’analyse de réalités complexes et contradictoires.
Elle pousse les théoriciens du capitalisme cognitif à sous-estimer
l’importance de l’essor de la production industrielle à l’ancienne dans
les pays du BRIC (Brésil, Russie, Inde et Chine) et incite certains
d’entre eux à minimiser l’impact de la crise financière de 2008 et de
ses retombées, ou du moins de les voir comme un système
nouveau-né qui fait ses dents.
En fait, le système dans lequel nous vivons ne constitue pas une
forme de capitalisme nouvelle, cohérente et fonctionnelle. Elle est
hétérogène. Son aspect tendu, fébrile et instable vient du fait que
nous vivons à l’ère du réseau qui côtoie la hiérarchie et du bidonville
qui longe le cybercafé ; et, pour comprendre la situation, il faut la
considérer comme une transition incomplète, et non comme un
modèle achevé.
La théorie du postcapitalisme
Dans un sens, le débat sur le postcapitalisme a bien avancé depuis
Peter Drucker, mais, dans un autre, il n’a mené à rien. Il a été
marqué par des spéculations, du verbiage technologique et une
certaine tendance à décréter l’existence de nouveaux systèmes
plutôt qu’à étudier leurs relations avec les anciennes réalités.
Benkler, Kelly et Drucker ont tous fait état de quelque chose qui
ressemble à un « mode de production d’un nouveau genre », mais
aucun n’a su avancer d’explication quant à ses dynamiques. Dans
son livre Cyber-Marx, paru en 1999, l’économiste canadien Nick
Dyer Witheford dresse un bilan théorique raisonnablement élaboré
du communisme de l’information, en plus d’expliquer à quoi il
pourrait ressembler52. On est cependant loin de pouvoir parler de
théorique économique.
Jeremy Rifkin, un conseiller en management influent, a décrit au
mieux la réalité du monde dans le livre The Zero Marginal Cost
Society, qu’il a écrit en 201453. Rifkin affirme que la production entre
pairs et le capitalisme sont deux systèmes fondamentalement
différents ; aujourd’hui, ils coexistent et fonctionnent même en
symbiose, mais, à terme, la production entre pairs réduira la branche
capitaliste de l’économie à quelques niches seulement.
Rifkin avait réussi à prendre la pleine mesure du potentiel de
l’Internet des objets. Les agences de consulting les plus prolifiques,
McKinsey pour n’en nommer qu’une, avaient estimé que l’impact de
cette technologie allait peser jusqu’à six mille milliards de dollars par
an, principalement dans les domaines de la santé et de l’industrie.
Cela étant, la majeure partie de ces six mille milliards de dollars
provient de la réduction des coûts et de l’augmentation de la
productivité : autrement dit, la technologie de l’Internet des objets
contribue à réduire le coût marginal des biens matériels et des
services de la même manière que la fonction copier-coller réduit le
coût des biens dématérialisés. Rifkin affirme que le fait de connecter
tout le monde et tous les objets à un réseau intelligent pourrait avoir
un effet exponentiel. Cette connexion pourrait faire rapidement
baisser le coût marginal de l’énergie et des biens matériels, comme
le fait Internet avec les biens numériques.
Malgré cela, tout comme les livres qui se retrouvent au rayon
économie des boutiques que l’on trouve dans les gares, l’ouvrage de
Rifkin n’évoque pas la dimension sociale de sa théorie. Il a
clairement compris qu’un monde de gratuité ne pouvait pas être
capitaliste et que cette gratuité commençait à se répandre dans le
monde physique ainsi que dans le monde du numérique.
Cependant, Rifkin réduit la lutte entre les deux systèmes à une lutte
qui oppose les modèles commerciaux aux bonnes idées.
Mené parmi les sociologues, les juristes et les visionnaires de la
technologie, le débat sur le postcapitalisme se poursuit dans un
monde parallèle à celui de la crise du néolibéralisme, mené par les
économistes ; ainsi qu’à celui qui porte sur les débuts hasardeux du
cinquième cycle long, mené cette fois par les historiens.
Pour avancer, nous devons comprendre comment la nouvelle
économie née des technologies de l’information, la période qui suit
la crise immobilière de 2008 et la théorie des cycles longs
interagissent. Ce qui suit est une première proposition d’explication.
Ce n’est rien de plus qu’une théorie, mais elle s’appuie sur des
preuves, et il est possible de la confronter à la réalité.
Depuis le milieu des années 1990, une révolution dans la façon
dont nous traitons, stockons et communiquons les informations a
créé les prémices d’une économie de réseau. Cette économie de
réseau a commencé à éroder les rapports de propriété
capitalistiques orthodoxes de plusieurs manières.
Elle a entraîné la rouille du mécanisme de fixation des prix des
biens numériques, au sens où l’entend l’économie orthodoxe, en
poussant le coût de reproduction des biens de l’information vers
zéro.
Elle ajoute une quantité non négligeable d’information aux biens
matériels, les entraînant dans la même spirale de coût nul dans
laquelle sont emportés les biens de l’information pure. De la même
manière qu’avec la paire de baskets, elle rend souvent leur valeur
plus sujette à des conceptions sociales artificielles (les marques)
qu’à des coûts de production physique.
Elle rend la financiarisation nécessaire, en créant deux flux de
bénéfices destinés au capital et qui proviennent de la population :
l’un venant des travailleurs qui produisent des biens, proposent des
services et diffusent du savoir ; l’autre, des emprunteurs qui paient
des intérêts. Ainsi, même s’il est correct d’affirmer que « toute la
société est devenue une usine », les mécanismes de l’exploitation
demeurent en premier lieu les salaires, le crédit et enfin le fait
d’accepter de manière inconsciente d’attribuer de la valeur à une
marque, ou encore le fait de faire don d’externalités aux entreprises
technologiques.
Dans la mesure où le nombre de machines interconnectées par le
biais d’Internet augmente, jusqu’à dépasser celui des liens sociaux
entre personnes physiques, l’économie de réseau est en train de
révolutionner la productivité des objets physiques, des procédés et
des réseaux d’énergie.
Là où l’information réduit petit à petit la valeur, les corporations
réagissent selon trois stratégies différentes : la création de
monopoles de l’information et la protection vigoureuse de la
propriété intellectuelle ; l’adoption de la stratégie de l’équilibriste, qui
consiste à progresser tant bien que mal malgré une offre qui ne
cesse d’augmenter et des prix qui chutent ; et enfin l’appropriation
des informations produites par la société, à savoir les données des
consommateurs, ou encore les morceaux de code écrit par des
ingénieurs informatiques durant leur temps libre et qu’ils sont
contractuellement obligés de céder à l’entreprise qui les embauche.
Cela étant, en plus des stratégies d’adaptation des entreprises,
force est de constater une augmentation de la production non
commerciale : des réseaux de production entre pairs distribués
horizontalement qui ne font pas l’objet d’un management centralisé
et qui produisent des biens, soit totalement gratuits, soit qui, étant
open source, ont une valeur commerciale très limitée.
En matière de distribution, les biens gratuits issus de la production
entre pairs surpassent ceux de la production commerciale. Wikipédia
est un secteur dans lequel le commerce ne peut s’exercer ; Linux et
Android sont effectivement sujets à une forme d’exploitation
commerciale, mais elle se borne à des produits dérivés et ne repose
pas sur l’appropriation du produit original. Il devient alors possible
d’être à la fois producteur et consommateur.
En réponse, le capitalisme commence à se remodeler tel un
mécanisme de défense contre la production par les pairs en
occupant des positions monopolistiques sur l’information, en
autorisant une certaine asymétrie dans les relations salariales et en
cherchant à élaborer de nouveaux modèles économiques à forte
empreinte carbone.
Les formes de production et d’échange non marchandes
exploitent la tendance humaine fondamentale à collaborer, à
échanger des cadeaux de valeur immatérielle – tendance qui a
toujours existé, bien qu’en marge de la vie économique. Il ne s’agit
pas d’un simple rééquilibrage entre les biens publics et les biens
privés : c’est une chose à la fois entièrement nouvelle et
révolutionnaire. La multiplication de ces activités économiques non
marchandes permet l’apparition d’une société coopérative et
socialement juste.
L’évolution rapide de la technologie modifie la nature du travail,
elle rend la frontière entre travail et loisirs plus floue et nous oblige à
participer à la création de la valeur tout au long de notre vie, et pas
seulement sur notre lieu de travail. Cela nous donne des
personnalités économiques multiples qui constituent la base
économique sur laquelle un nouveau type de personne, aux
personnalités multiples, a vu le jour54. C’est cette personne d’un
genre nouveau, l’individu connecté, qui porte en elle les prémices
d’une société postcapitaliste. L’orientation technologique de cette
révolution est en contradiction avec son orientation sociale. Sur le
plan technologique, nous nous dirigeons vers des biens à prix zéro,
un travail non quantifiable, un accroissement exponentiel de la
productivité et une automatisation poussée des processus
physiques. Sur le plan social, nous sommes piégés dans un monde
de monopoles, de gaspillage, de ruines d’un libre marché dominé
par la finance et de prolifération des « boulots foireux ».
Aujourd’hui, la principale contradiction du capitalisme moderne se
situe entre la possibilité de disposer de biens libres, abondants et
socialement produits, et un système de monopoles, de banques et
de gouvernements luttant pour maintenir le contrôle sur le pouvoir et
l’information. C’est-à-dire que tout est dominé par une lutte entre le
réseau et la hiérarchie.
Cela se produit maintenant parce que l’essor du néolibéralisme a
perturbé les cycles de cinquante ans que traversait le capitalisme.
C’est une autre façon de dire que le cycle de vie de deux cent
quarante ans du capitalisme industriel touche peut-être à sa fin.
Deux possibilités s’offrent donc à nous. Ou bien une nouvelle
forme de capitalisme cognitif, basée sur un nouveau mélange
d’entreprises, de marchés et de collaboration en réseau apparaît et
se stabilise, et les vestiges du système industriel trouvent une place
adéquate au sein de ce troisième capitalisme ; ou bien le réseau
sape le fonctionnement et la légitimité du système de marché, un
conflit éclate, et le système de marché est supprimé avant d’être
remplacé par un système postcapitaliste, système qui pourra revêtir
plusieurs formes.
Nous saurons que cela s’est produit lorsqu’un grand nombre de
biens deviendront bon marché ou gratuits, mais que les gens
continueront à les produire sans tenir compte des forces du marché.
Nous saurons que cela se produit lorsque la relation déjà floue entre
le travail et le loisir, et donc, entre les heures et les salaires, sera
placée sous le contrôle des autorités publiques.
Puisque l’abondance lui est nécessaire, le postcapitalisme
apportera spontanément une certaine forme de justice sociale, mais
les formes et les priorités de cette justice sociale seront négociables.
Alors que les sociétés capitalistes ont toujours eu à choisir entre
« les armes et le beurre », les sociétés postcapitalistes risquent de
devoir choisir entre la croissance et la durabilité, ou de lutter pour le
respect des délais de réalisation des objectifs sociaux
fondamentaux, ou encore de relever des défis tels que l’immigration,
la libération des femmes et le vieillissement de la population.
Il est donc nécessaire de créer cette transition vers un système
postcapitaliste. Étant donné que la plupart des théoriciens du
postcapitalisme se sont contentés d’affirmer son existence ou l’ont
prédite comme une fatalité, peu d’entre eux se sont penchés sur les
problèmes de la transition. L’une de nos premières tâches consiste
donc à définir et à tester une série de modèles montrant comment
une telle économie de transition peut fonctionner.
Aujourd’hui, nous avons l’habitude d’entendre le mot « transition »
pour parler des tentatives à petite échelle de construction d’une
économie à faible émission de carbone ; les monnaies locales, les
banques du temps, les « villes en transition » et autres. Mais, ici, la
transition est un projet de plus grande ampleur.
Pour y parvenir, nous devons tirer profit des leçons de l’échec de
la transition en URSS. Après 1928, l’Union soviétique a tenté de
forcer le passage au socialisme par une planification centralisée.
Cette tentative s’est soldée par un échec et a conduit à quelque
chose de pire que le capitalisme, même si l’on refuse
catégoriquement d’aborder le sujet parmi la gauche de nos jours.
Si nous voulons créer une société postcapitaliste, nous devons à
la fois comprendre tout ce qui a mal tourné et ce qui différencie de
manière fondamentale les formes spontanées non marchandes que
j’ai décrites ici des plans quinquennaux de Staline.
Pour avancer, nous avons besoin d’apprendre au mieux comment
les biens d’information corrodent les mécanismes du marché ; ce qui
pourrait se passer si cette tendance était encouragée au lieu d’être
freinée ; et quel groupe social pourrait profiter de la transition. Nous
avons besoin, en somme, d’une meilleure définition de la valeur et
d’un historique plus détaillé du travail. C’est ce que je me propose de
fournir dans ce qui suit.
6
Vers la machine gratuite

Il y avait un campement, une foule bruyante, des nuages de gaz


lacrymogène et un petit tas de choses gratuites : voilà à quoi
ressemblait Gezi Park durant les manifestations qui ont secoué
Istanbul en 2013. Le camp permettait à des gens de vivre comme ils
l’entendaient pendant quelques jours ; les dons, eux, matérialisaient
un ultime geste d’espoir.
Au premier jour, le tas était modeste : des paquets de salami, des
briques de jus, quelques cigarettes et de l’aspirine. Au dernier jour,
ce petit tas s’était transformé en une gigantesque pyramide faite de
tout : de la nourriture, des vêtements, des médicaments et du tabac.
Quelques jeunes en prenaient le plus possible avant de faire le tour
du camp et de distribuer ces produits aux manifestants en insistant
pour qu’ils se servent. Bien évidemment, rien de tout cela n’était
réellement gratuit. Tout avait été acheté avant d’être donné. Cela
étant, ce geste symbolisait une volonté de vivre dans une société où
certaines des commodités les plus simples sont partagées.
Et ce désir n’est pas nouveau. Au cours des premières décennies
du e siècle, prisonnière d’un système fermement décidé à mettre
un prix sur toute chose, la gauche a commencé à former des
groupes sociaux utopistes fondés sur le partage, l’entraide et le
travail collaboratif. Ces tentatives connurent surtout l’échec, pour la
simple et bonne raison que tout était rare.
Aujourd’hui, on trouve pratiquement de tout en abondance. La
capacité des habitants d’une ville comme Istanbul à créer une
montagne de nourriture gratuite en témoigne. Les déchetteries
européennes en témoignent tout autant : des gens qui s’y
débarrassent de vêtements encore utilisables, de livres propres et
de composants électroniques en bon état, des objets qui autrefois
avaient de la valeur en sont maintenant dépourvus et sont voués à
être recyclés ou donnés. Sans grande surprise, l’énergie reste une
denrée rare, et, à vrai dire, ce sont les énergies fossiles auxquelles
nous sommes accros qui se font les plus rares. Mais l’information –
denrée la plus importante du e siècle – est loin d’être rare ; bien
au contraire, elle abonde.
Cette transition, de l’état de pénurie à celui d’abondance, marque
une progression significative dans l’histoire de l’humanité, elle est
aussi la plus grande réussite du quatrième cycle long du capitalisme.
Elle reste cependant un défi majeur de la théorie économique. Le
capitalisme nous a fait considérer le mécanisme des prix comme
étant l’un des éléments les plus organiques, spontanés et
granulaires de la vie économique. Nous avons maintenant besoin
d’une théorie de son extinction.
Nous avons besoin de voir plus loin que la question de l’offre et de
la demande. Le principe de l’offre et de la demande fonctionne, c’est
évident : si d’autres usines textiles ouvrent au Bangladesh, les
vêtements bon marché deviennent encore moins chers. Si les
policiers arrêtent un dealer avant l’ouverture des clubs, l’ecstasy
devient plus chère. Cela étant, l’offre et la demande n’expliquent rien
de plus que la fluctuation des prix. Lorsque l’offre et la demande
s’équilibrent, pourquoi le prix des choses n’est-il pas nul ?
Évidemment, cela est impossible. Dans une économie capitaliste
traditionnelle, basée sur le travail et la rareté des biens, un prix
intrinsèque autour duquel le prix de vente évolue à la hausse ou à la
baisse doit exister quelque part. Mais qu’est-ce qui détermine ce
prix-là ?
Au cours des deux derniers siècles, deux réponses complètement
différentes ont été proposées. Il n’y a qu’une seule bonne réponse
possible. Malheureusement, ce n’est pas celle que l’on donne lors
des cours d’économie.
Dans ce chapitre, je défendrai ardemment ce que l’on appelle la
« théorie de la valeur-travail ». Elle n’est pas très populaire dans
la mesure où elle n’aide pas vraiment à calculer et à prédire les
mouvements au sein d’un marché stable et fonctionnel. Mais, face à
l’essor du capitalisme de l’information, qui corrode le mécanisme des
prix, la propriété et le lien entre travail et salaire, la théorie de la
valeur-travail est la seule qui tient la route. C’est la seule théorie qui
nous permet de savoir précisément à quoi l’on peut attribuer de la
valeur dans une économie du savoir. La théorie de la valeur-travail
nous explique comment déterminer la valeur dans une économie au
sein de laquelle il est possible de construire des machines à la fois
gratuites et éternelles.

Le travail comme source de la valeur


Parmi les enseignes vides des quartiers défavorisés de Kirkcaldy en
Écosse se tient une des filiales de Gregg’s. Gregg’s est une chaîne
de boulangeries qui vend des produits bon marché à forte teneur en
lipides, c’est également l’un des rares endroits à être les plus
fréquentés à l’heure du déjeuner. Il suffit d’un rapide coup d’œil à la
carte des zones de pauvreté de l’Écosse pour saisir le contexte : la
ville est criblée de zones d’extrême pauvreté et d’urgence sanitaire1.
Sur la façade de Gregg’s, une plaque indique l’endroit où Adam
Smith a écrit La Richesse des nations. Personne ne la remarque,
habituellement. C’est pourtant ici que, en 1776, les principes
économiques du capitalisme furent établis pour la première fois. Je
ne suis pas sûr que Smith apprécierait de voir sa ville natale dans
son état actuel, gangrenée par la désindustrialisation, les faibles
salaires et la maladie. Il en aurait cependant compris les causes.
Selon Smith, la source de toutes les richesses est le travail.
« Ce n’est point avec de l’or ou de l’argent, c’est avec du travail
que toutes les richesses du monde ont été achetées
originairement », écrit Smith. Il ajoute que « leur valeur pour ceux qui
les possèdent et qui cherchent à les échanger contre de nouvelles
productions est précisément égale à la quantité de travail qu’elles les
mettent en état d’acheter ou de commander2 ». C’est la théorie de la
valeur-travail par excellence : elle dit que le travail nécessaire à la
confection d’un produit détermine sa valeur.
En cela, il y a une sorte de logique implacable. Si vous observez
un moulin à eau assez longtemps, vous commencerez à
comprendre les principes physiques derrière le mouvement de ses
aubes. Si, comme l’a fait Smith, vous regardez des ouvriers travailler
treize heures par jour dans un atelier d’usine, vous comprendrez que
ce sont ces ouvriers, pas les machines, qui génèrent de la
valeur ajoutée3.
Dans les manuels d’économie classique, on vous dira que Smith
considérait que sa théorie ne s’appliquait qu’aux sociétés primitives,
et que, lorsque l’on parlait de capitalisme, la « valeur » résultait de
l’addition des salaires, du capital et des terres. C’est faux4. La
théorie de Smith manquait de cohérence, mais, en lisant bien La
Richesse des nations, on y voit plus clair dans ce qu’affirme Smith :
le travail est la source de la valeur, mais le marché ne peut refléter
cela que partiellement, à travers ce que Smith appelle « le
marchandage et la négociation ». Ainsi, dans une économie
pleinement capitaliste, la loi opère discrètement. Les bénéfices et les
loyers sont des déductions faites sur la valeur générée par le travail5.
David Ricardo, l’économiste le plus influent du début du e siècle,
a créé un modèle plus élaboré. Publiés en 1817, ses travaux sur la
théorie de la valeur-travail se sont aussi bien ancrés dans
l’imaginaire collectif que l’offre et la demande le sont aujourd’hui.
Ricardo, qui a pu témoigner de l’essor de l’industrialisation, a nié
l’idée selon laquelle les machines sont une source d’accroissement
des richesses. Il affirme que les machines ne font que transférer leur
valeur au produit, et que seul le travail en ajoute.
Le potentiel des machines réside dans l’augmentation de la
productivité6. Si vous avez besoin de moins de main-d’œuvre pour
produire, alors le produit devrait à la fois coûter moins cher et
générer plus de bénéfices. Il écrit que, si l’on réduit la quantité
d’ouvriers nécessaires à la production de chapeaux, « leur prix finira
par tomber à leur nouveau prix naturel, quoique la demande puisse
doubler, tripler, ou quadrupler7 ».
Après Ricardo, la théorie de la valeur-travail est devenue l’idée
dominante du capitalisme industriel. On s’en est servi pour justifier
les bénéfices qui récompensaient le travail du propriétaire de moulin,
pour mettre à mal l’aristocratie foncière qui vivait de rentes au lieu de
travailler et pour opposer une résistance aux ouvriers qui exigeaient
toujours moins d’heures de travail et toujours plus de droits. Accéder
aux volontés des ouvriers ferait monter le coût de la main-d’œuvre à
des niveaux « artificiels », à savoir, au-dessus du minimum
nécessaire pour satisfaire les besoins en alimentation, en vêtement
et en logement d’une famille active.
Cela dit, malgré sa logique ultracapitaliste, la théorie de la valeur-
travail s’est révélée plutôt subversive. Elle a alimenté un débat à
propos de qui obtient quoi, débat que les propriétaires d’usines ont
immédiatement perdu. Au milieu de la lueur des chandelles
accrochées aux murs des pubs, là où se rassemblaient les membres
des tout premiers syndicats, David Ricardo a soudainement trouvé
un tout nouveau groupe de partisans de sa théorie.
Les intellectuels des années 1820 avaient saisi le caractère
révolutionnaire de la théorie de la valeur-travail : si la source de
toutes les richesses est le travail, il est légitime de se demander
comment cette richesse doit être distribuée. Tout comme il est facile
de prouver que l’aristocratie rentière parasite l’économie productive,
il n’est pas difficile d’assimiler les capitalistes à des organismes qui
parasitent le travail des autres. Leur travail est nécessaire, mais le
système industriel semble conçu pour les récompenser de manière
abusive.
« Le savoir, les compétences et la main-d’œuvre nécessaires [au
bon fonctionnement d’une usine] sont les seuls éléments sur
lesquels le capitaliste peut s’appuyer pour prétendre à une part
quelconque de la production », écrit en 1825 Thomas Hodgskin, un
lieutenant de la marine devenu socialiste8.
À mesure que les syndicats clandestins répandaient la doctrine du
socialisme ricardien, la théorie de la valeur-travail devenait de moins
en moins populaire auprès des propriétaires d’usines. Après la
victoire du Parti whig aux élections générales britanniques de 1832,
ses membres n’eurent plus besoin de justifier l’existence du
capitalisme à l’aide d’une quelconque théorie. Les salaires, les prix
et les bénéfices n’étaient plus l’affaire des sociologues, ils étaient là,
tout simplement, à attendre d’être quantifiés et expliqués. Ricardo
avait été effacé de l’équation, et tout ce qui suivit ne fut que
désordre théorique9.
Même si, en fin de compte, l’économie du milieu du e siècle se
résumait à « décrire et quantifier », il est tout de même possible de
faire un parallèle avec les sciences naturelles. Charles Darwin avait
déposé sa théorie de la sélection naturelle en 1844, Alfred Russel
Wallace fit de même trois ans plus tard. Pourtant, les implications
étaient telles (principalement la destruction du mythe de la Création)
que les deux hommes durent se soumettre à une routine consistant
à « collecter, nommer et catégoriser » leurs spécimens jusqu’en
1858, date à laquelle ils s’étaient soudainement empressés de
publier une théorie qui fit trembler les fondations du monde.
En économie, c’est Marx qui a fait trembler le monde. On dit
souvent que Marx s’est servi des théories de Smith et de Ricardo.
En fait, il les a démolies. Il dit de son projet qu’il est une critique de
l’économie politique, des travaux de Smith, de Ricardo, des
socialistes ricardiens, des moralistes libéraux et des comptables. Il
avait affirmé, bien avant que les économistes orthodoxes ne le
fassent dans les années 1870, que la théorie de la valeur-travail de
Ricardo avait été bâclée et qu’il fallait la réécrire depuis le début.
Malgré tous ses défauts, Marx avait trouvé quelque chose dans la
théorie de la valeur-travail qui pourrait expliquer comment le
capitalisme fonctionne et pourquoi il pourrait un jour cesser de
fonctionner. La version qu’il en a produite est cohérente et a survécu
à l’épreuve du temps. Des milliers de professeurs des universités,
dont certains des plus cités au monde, affirment qu’elle est correcte.
Le problème est que bien peu d’entre eux ont le droit d’enseigner
l’économie.

La théorie de la valeur-travail en chiffres


Lorsqu’un acheteur de chez Primark signe un contrat d’achat de
100 000 T-shirts avec une usine basée au Bangladesh, on parle de
« transaction ». Lorsqu’une ouvrière bangladaise vient travailler tous
les matins à cette usine et qu’elle attend en retour du temps investi
l’équivalent de 68 dollars mensuels, on parle également de
« transaction »10. Lorsqu’elle dépense environ un cinquième de son
salaire quotidien pour acheter un kilo de riz, ça aussi, c’est une
transaction11. Lorsque l’on réalise une transaction, on se fait une
idée plus ou moins précise de ce que vaut la chose que l’on achète.
Si la théorie de la valeur-travail est correcte, quand on achète ou
que l’on fait appel à des services, on juge de manière inconsciente la
valeur du bien ou du service en fonction de la quantité du travail
effectué par quelqu’un d’autre pour produire le bien ou fournir le
service.
Ce qui suit est une version simplifiée de la théorie de la valeur-
travail. D’autres versions plus complètes et plus complexes existent,
mais, pour comprendre le fonctionnement du postcapitalisme, les
bases suffisent.
La valeur d’une marchandise est déterminée par la moyenne du
nombre d’heures de travail nécessaires à sa production12.
Cependant, ce n’est pas le nombre d’heures de travail exact qui
détermine la valeur, mais plutôt le nombre socialement acceptable
d’heures de travail qui a été défini dans toutes les industries et dans
l’économie. L’unité de mesure que nous utiliserons ici se borne au
« nombre d’heures de travail socialement acceptables ». Si l’on
connaît le coût basique d’une heure de travail (au Bangladesh, le
salaire minimum équivaut à environ 28 centimes de dollars de
l’heure), on peut l’exprimer en termes d’argent. Ici, nous
continuerons de nous exprimer en heures.
Deux choses contribuent à la valeur d’une marchandise : (a) la
quantité de travail effectuée lors du processus de production (ce qui
comprend le marketing, la recherche, la conception, etc.), et (b) tout
le reste (les machines, les usines, les matières premières, etc.). Ces
deux choses peuvent être mesurées en termes de nombre d’heures
de travail qui leur ont été consacrées.
Selon la théorie de la valeur-travail, les machines, l’énergie et les
matières premières représentent du « travail fini » dont la valeur est
transférée au nouveau produit. Donc, s’il a fallu 30 minutes de temps
de travail pour faire pousser, tourner, tisser et transporter le coton
nécessaire à la confection d’un vêtement, la valeur représentée par
ces 30 minutes de temps de travail sera transférée au produit final.
Cela étant, dans le cas des machines et d’autres biens
d’investissement d’importance, le processus est plus long, ces
machines et autres biens transfèrent leur valeur par fragments. Donc
si une machine nécessite un million d’heures pour être fabriquée, et
qu’au cours de sa durée de vie elle produit un million d’objets,
chaque objet incorporera à sa valeur finale la valeur d’une heure de
temps passé à fabriquer la machine.
Dans le même temps, nous considérons la véritable quantité de
travail réalisée au sein de l’usine lors du processus de production
comme de la valeur nouvelle, valeur ajoutée par ce que Marx
appelle « travail vivant ».
Ce processus sous-jacent – le calcul du montant de la valeur
nouvelle par le temps de travail – s’opère à un niveau profond, loin
des salariés, des gérants, des acheteurs en gros et des clients
Primark. Lorsque l’on négocie un prix, celui-ci est influencé par un
certain nombre de facteurs : l’offre, la demande, l’utilité à
court terme, l’occasion que l’on rate si l’on n’achète pas, l’argent qui
a été dépensé au lieu d’avoir été économisé ; en somme, tout ce
qu’a résumé Adam Smith dans le terme évocateur de « pari ».
Globalement, le coût de tous les biens vendus et les services fournis
dans une économie donnée ne sont rien de plus que l’expression
monétaire de la quantité de travail nécessaire à leur production.
Seulement, ce n’est qu’après avoir réalisé la transaction que nous
savons si celle-ci valait le coup. Le marché agit comme une
gigantesque calculatrice qui récompense celles et ceux qui ont su
estimer avec justesse le coût socialement acceptable de tel bien ou
tel service, et qui pénalise celles et ceux qui, au contraire, ont
surestimé leurs besoins en temps de travail.
Ainsi, les prix diffèrent toujours de la valeur sous-jacente des
choses, mais, en fin de compte, ils sont invariablement déterminés
par celle-ci. Et la valeur est déterminée par la quantité de travail
nécessaire à la réalisation de la marchandise.
Mais qu’est-ce qui détermine la valeur du travail ? Assez
logiquement, la réponse est : le travail des autres, c’est-à-dire la
quantité moyenne de travail qu’il a fallu accomplir pour que les
ouvriers viennent travailler à l’usine. Cela comprend le travail qui a
été fourni pour produire la nourriture qu’ils consomment, l’électricité
qu’ils utilisent, les vêtements qu’ils portent et, à mesure que la
société évolue, le nombre d’heures d’éducation, de formation, de
soin et de loisir nécessaires à l’ouvrier pour qu’il puisse travailler.
Bien évidemment, le coût d’une heure de travail change d’un pays
à l’autre. C’est l’une des raisons pour lesquelles les entreprises
délocalisent leur production. Au Bangladesh, la garde d’enfants
assurée par une crèche subventionnée sur le lieu de travail
représente l’équivalent de 38 centimes de dollars américains par
jour, tandis qu’à New York une nounou coûte 15 dollars de l’heure13.
Au cours de la dernière décennie, les grandes chaînes de production
mondiale ont délocalisé les emplois qu’ils avaient créés en Chine au
Bangladesh, car les salaires chinois avaient augmenté, et ce, malgré
le fait que la productivité bangladaise soit moindre. Pendant un
moment, le coût de la main-d’œuvre au Bangladesh a été si bas qu’il
contrebalançait le manque de productivité du pays14.
Alors, d’où vient le profit ? Selon la théorie de la valeur-travail, le
profit n’est pas du vol, du moins il n’est pas synonyme d’arnaque. En
moyenne, le salaire mensuel d’un travailleur reflétera toujours la
quantité de travail effectuée par les autres pour produire la
nourriture, l’énergie et les vêtements qui lui sont nécessaires. Mais
l’employeur, lui, s’en tirera toujours avec un extra. Mon patron est en
mesure de me rémunérer à hauteur de la valeur réelle des huit
heures de travail que je viens d’effectuer. Mais cette valeur réelle
peut tout à fait correspondre à quatre heures de travail.
Ce déséquilibre entre les intrants et les extrants du travail humain
est au cœur de la théorie. Voici un exemple :
Nazma, l’ouvrière de l’usine de tee-shirts bangladaise accepte de
travailler en échange d’un salaire qui semble à peu près suffisant
pour payer un mois de nourriture, de loyer, de loisirs, de transport,
d’énergie, et ainsi de suite, et qui en plus permet d’en économiser
une partie. Elle aimerait bien gagner plus, mais la fourchette des
salaires des ouvriers est relativement étroite, elle a donc une idée
assez précise des taux horaires existants par rapport à ses
compétences.
Mais son employeur n’achète pas le travail proprement dit, mais
plutôt sa capacité à travailler.
Si on laisse de côté l’aspect monétaire et que l’on mesure tout en
termes de « nombre d’heures de travail nécessaires », on comprend
d’où viennent les bénéfices. Si le fait de faire venir Nazma à l’usine
six jours par semaine représente trente heures de travail effectuées
par d’autres salariés présents partout dans la société (pour produire
sa nourriture, ses vêtements, son énergie, la garde de ses enfants,
son logement, etc.), et qu’elle travaille soixante heures par semaine,
son travail rapporte le double d’extrants par rapport aux intrants.
Tout le bénéfice revient à l’employeur. Une transaction tout à fait
équitable débouche sur quelque chose qui ne l’est pas. Marx appelle
cela la « plus-value ». C’est l’ultime source de bénéfices.
Une autre manière de formuler l’idée serait de dire que la main-
d’œuvre est unique. De toutes les choses que nous achetons et
vendons, la main-d’œuvre est la seule qui puisse générer de la
valeur ajoutée. Le travail ne représente pas seulement la mesure de
la valeur, c’est la source de tous les bénéfices.
Observer les capitalistes et leur tendance à tirer un profit immédiat
de la main-d’œuvre disponible gratuitement, comme dans le
système carcéral américain ou dans les camps de la mort de
l’Allemagne nazie, suffit à prouver cette théorie. Autre indice :
lorsqu’ils doivent payer leur main-d’œuvre avec un salaire inférieur à
sa valeur moyenne réelle, comme cela a pu se produire lors de
l’essor de l’exportation chinoise, les chefs d’entreprise ont recours à
une fourniture d’intrants de nature collective – dortoirs, uniformes et
cantines. Le coût du travail effectué par une main-d’œuvre logée
dans un dortoir est inférieur à celui de la moyenne sociale, qui est
basée sur le coût de la vie d’une famille qui possède son propre
logement ; de plus, il est bien évidemment plus facile de discipliner
des salariés logés dans un dortoir.
Mais, puisque la valeur hebdomadaire réelle de mon travail
représente trente heures de travail effectuées par quelqu’un d’autre,
pourquoi devrais-je travailler soixante heures ? La réponse est :
parce que le marché du travail n’est jamais gratuit. Il est fondé sur la
coercition et est sans cesse remodelé à coups de lois, de
règlements, d’interdictions, de sanctions économiques et de
précarité.
À l’aube du capitalisme, les journées de travail de quatorze heures
ou plus étaient obligatoires, pas seulement pour les adultes, mais
aussi pour les enfants, et ce, dès l’âge de huit ans. Un système
rigide de chronométrage avait été mis en place : limitation du temps
passé aux toilettes, retards, vice de fabrication ou bavardage
sanctionnés par des amendes, horaires de début de travail
imposés ; et dates limites non négociables. Partout où
l’industrialisation apparaît, que ce soit dans le Lancashire dans les
années 1790 ou au Bangladesh au cours des vingt dernières
années, ces règles sont appliquées.
Même dans les pays développés, le marché est ouvertement
construit sur la coercition. Il suffit d’écouter n’importe quel politicien
prononcer un discours à propos des aides sociales : la réduction des
prestations de chômage et d’invalidité vise à obliger les gens à
accepter des emplois à des salaires qui ne leur permettent pas de
vivre. Le marché du travail est le seul secteur dans lequel le
gouvernement nous force à participer ; personne ne dira : « Vous
devez aller faire du patin à glace ou la société va s’effondrer. » Le
pilier du système, c’est le travail rémunéré. Nous l’acceptons, car,
comme nos ancêtres l’ont appris à la dure, si l’on n’obéit pas, on ne
mange pas.
Notre travail est donc précieux. Si jamais vous en doutez,
regardez ce qui se passe dans le centre de traitement d’un détaillant
de commerce électronique, ou dans un centre d’appel, ou encore sur
le planning de travail d’une auxiliaire de vie à domicile. Vous
constaterez que le temps de travail est minuté et planifié comme si
chaque minute était un grain de poussière d’or. Cela dit, c’est
effectivement le cas pour les employeurs. Bien entendu, ni le temps
ni la discipline ne sont des instruments de coercition au niveau des
emplois hautement qualifiés et bien rémunérés ; ce sont plutôt les
objectifs et le contrôle qualité qui jouent ce rôle.
On pourrait continuer sur la théorie de la valeur-travail, mais
arrêtons-nous un instant. Nous en savons déjà bien assez pour
commencer à nous y attaquer avec les outils des manuels
disponibles dans la section « économie » de n’importe quelle
bibliothèque.

Des objections pertinentes…


Voilà pourquoi j’aime la théorie de la valeur-travail. Elle part du
principe que le profit naît sur le lieu de travail, et non sur le marché.
De plus, elle considère le travail – l’une des choses les plus simples
que nous accomplissons chaque jour – comme vital pour l’économie.
Mais il existe beaucoup de contre-arguments tout à fait pertinents
face à la théorie de la valeur-travail :
Q : Pourquoi avons-nous besoin d’une « théorie » ? Pourquoi ne
pouvons-nous pas nous contenter des faits, comme les chiffres du
PIB, les livres de comptes des entreprises, la Bourse, etc. ?
R : Parce que nous voulons savoir pourquoi les choses changent.
En sciences, nous exprimons le désir de voir au-delà d’une rangée
bien ordonnée de papillons épinglés et mis en vitrine ; nous avons
besoin d’établir une théorie qui explique pourquoi chaque espèce est
différente. Nous voulons être en mesure d’expliquer pourquoi, au
cours des millions de répétitions de leur cycle de vie, de petites
transformations se produisent avant qu’un changement majeur ne
survienne.
Les théories nous permettent d’expliquer des réalités invisibles.
De plus, elles nous donnent la possibilité de simuler l’avenir. Toutes
les formes d’économie sont compatibles avec ce besoin que nous
avons d’expliquer les choses par des théories. Mais, face aux
difficultés qu’ils eurent à en trouver une et à accepter ce qu’elle
e
impliquait, les économistes de la fin du siècle délaissèrent la
méthode scientifique.
Q : Pourquoi ne puis-je pas « voir » la valeur, la valeur ajoutée et
le temps de travail ? Puisque ces éléments sont absents des livres
de comptes des entreprises et que les économistes professionnels
les ignorent, ne sont-ils pas qu’une simple vue de l’esprit ?
R : Une manière plus élaborée de formuler l’idée serait de dire,
comme l’a fait Joan Robinson, une économiste diplômée de
Cambridge dans les années 1960, que la théorie de la valeur-travail
relève de la métaphysique, que c’est une vue de l’esprit dont
l’existence ne saurait être réfutée. Pour faire bonne mesure, elle en
a dit de même à propos de « l’utilité », idée phare de l’économie
orthodoxe, mais elle avait admis que parler de métaphysique était
mieux que rien15.
Cela étant, la théorie de la valeur-travail dépasse la méta-
physique. Alors oui, elle n’est pas dénuée d’abstraction ; c’est-à- dire
que certains éléments de la réalité sont négligés. On peut par
exemple citer le fait qu’elle développe un modèle de capitalisme pur,
dans lequel tout le monde effectue un travail salarié : pas d’esclaves,
de fermiers, de mafieux, ni de mendiants. Elle fait le détail d’un
procédé qui opère « derrière le dos » des acteurs de l’économie :
personne n’est en mesure d’estimer si oui ou non il ou elle a
dépensé trop ou trop peu de temps de travail nécessaire, même si
en faire une estimation précise est devenu vital dans la gestion de la
productivité.
Selon la théorie de la valeur-travail, le marché est le mécanisme
par lequel les résultats visibles de ce procédé discret et inconnu sont
transmis. Seul le marché est en mesure de communiquer et
d’agréger toutes les décisions économiques prises individuellement ;
seul le marché est capable de nous dire à combien s’élève le temps
de travail socialement acceptable. En ce sens, la théorie de la
valeur-travail est la plus grande théorie du marché qui ait jamais été
écrite. Elle attribue au marché – et seulement au marché – les
mécanismes de la réalisation des processus qui se déroulent hors
de notre portée.
Certes, elle est abstraite, mais pas plus que le concept de la
« main invisible » que l’on doit à Adam Smith, ou encore la théorie
de la relativité générale, qu’Albert Einstein a proposée en 1916, mais
qui n’a pas pu être vérifiée de manière empirique avant les
années 1960.
Une question demeure : est-il possible de la vérifier ? Sommes-
nous en mesure de confronter la théorie de la valeur-travail, selon
ses propres termes, à la réalité ? Pourrait-elle passer avec succès le
test du philosophe Karl Popper, test selon lequel si l’un des faits
contredisant la théorie se vérifie, alors c’est toute la théorie qui est
fausse ?
La réponse est oui, pour peu que l’on ait compris l’ensemble de la
théorie. Si l’on est en mesure d’affirmer que « le capitalisme ne
souffre d’aucune crise », la théorie de la valeur-travail est fausse. De
la même manière, si l’on peut prouver que le capitalisme est éternel,
elle est fausse, car, comme nous allons le voir, la théorie de la
valeur-travail décrit à la fois un procédé cyclique récurrent et un
procédé qui mène à l’effondrement sur le long terme.
Q : Pourquoi un tel niveau d’abstraction ? Pourquoi nous est-il
impossible de bâtir la théorie sur des données qui auraient été
collectées puis traitées ? Pourquoi laisser la réalité aux mains de
l’économie orthodoxe ?
R : Pour répondre à la dernière question, non, il ne faudrait pas
laisser la réalité aux mains des penseurs économiques dominants.
Marx avait en effet affirmé que, pour son propre bien, la théorie de la
valeur-travail devait être en mesure d’expliquer ce qu’il se passe en
réalité. Il avait tenté de bâtir un modèle plus concret de l’économie
en partant de celui, plus abstrait, de la théorie. Pour ce faire, Marx
eut à introduire un modèle bisectoriel de l’économie (consommation
et production) dans le deuxième volume de son Capital, ainsi qu’un
modèle de système bancaire dans le troisième. En plus de cela, il a
tenté d’expliquer comment les valeurs sous-jacentes se
transformaient en prix dans la réalité.
La manière selon laquelle il a développé son « théorème marxien
fondamental » souffrait d’incohérences, ce qui a lancé un débat qui a
duré cent ans pour savoir si sa théorie tenait la route. Dans la
mesure où j’essaie d’appliquer l’ensemble de la théorie à un
problème spécifique et non de donner un cours sur le marxisme, je
ne parlerai pas de ce débat, je me contenterai de dire que ce débat
sur le théorème de Marx a trouvé consensus (pour mon plus grand
bonheur) grâce à un groupe d’universitaires connus sous le nom de
temporal single system school*1.
Toujours est-il que, même dans sa forme la plus rigoureuse, la
théorie de la valeur-travail ne nous aide pas à mesurer et prédire les
fluctuations des prix. Elle sert à comprendre ce que sont ces
fluctuations. Elle appartient à cette classe d’idées qu’Einstein appelle
« principes théoriques » : ce sont des théories dont le but est de
capturer toute l’essence d’une réalité dans une simple proposition et
qu’il est possible d’éliminer de nos expériences quotidiennes.
Einstein a écrit que l’objectif de la science était de saisir les liens
entre toutes les données expérimentales « dans leur ensemble », et
de le faire « à l’aide d’un minimum de concepts et de corrélations
simples ». Il a insisté sur le fait que plus ces concepts simples sont
clairement et logiquement mis en relation, plus ils s’éloignent de ce
que révèlent les données16.
Einstein était convaincu que la véracité d’une théorie tenait, à
coup sûr, dans sa capacité à prédire de manière exacte l’occurrence
du phénomène qu’elle décrit. Cependant, la relation entre une
théorie et les phénomènes qu’elle prédit ne peut être comprise
qu’intuitivement.
Pour des raisons que j’expliquerai plus loin, l’économie orthodoxe
est devenue une pseudoscience qui doit se contenter d’observations
formulées après traitement des données. Il en résulte une série bien
ordonnée de manuels, qui tiennent la route individuellement, mais
qui n’ont de cesse de faire des prédictions erronées et qui échouent
en permanence à expliquer ce qu’il se passe dans les faits.
Q : N’est-ce pas trop idéologique, tout cela ? La théorie de la
valeur-travail n’est-elle pas trop hostile envers le capitalisme pour
être légitimement exploitée ?
R : Oui, et c’est problématique. Les conflits idéologiques des
penseurs économiques qui ont commencé dans les années 1870 ont
laissé place à un dialogue de sourds. Il en résulte que nous devons
aujourd’hui trouver remède aux défauts de la pensée économique
dominante et au manque de concret dont souffre le marxisme.
Vous entendrez souvent les économistes de gauche dire que la
pensée économique dominante « ne vaut rien », ce n’est pas le cas.
En fait, dès que l’on a pris conscience de ses limites, la théorie des
prix s’applique très bien à ce qu’explique de manière superficielle la
théorie de la valeur-travail.
Le problème est que l’économie orthodoxe n’a pas conscience de
ses propres limites. Plus elle devenait une discipline académique
décrivant une réalité abstraite, statique et immuable, moins elle
percevait le changement. Pour comprendre pourquoi, nous allons
maintenant étudier la principale source de changement dans le
système capitaliste, la force qui rend les choses onéreuses plus
abordables et qui a commencé à en rendre certaines gratuites : la
productivité.

La productivité, selon la théorie de la valeur-travail


Selon la théorie de la valeur-travail, le gain que l’on tire de la
productivité est double. Le premier gain se traduit par une
augmentation de la qualification du travailleur. Ainsi, le travail
accompli par un opérateur de presse à métaux formé vaut plus que
celui d’un débutant, soit parce qu’il est capable de fabriquer un
produit quelconque plus rapidement et de meilleure facture, soit
parce qu’il est capable de créer un produit de qualité exceptionnelle,
que son collègue moins qualifié ne pourra pas fabriquer.
Mais, en général, un ouvrier qualifié coûte plus cher pour
l’entreprise, et ce, proportionnellement à sa qualification : son travail
vaut plus, car il faut fournir plus de travail pour l’éduquer et le former.
Par exemple, les revenus moyens des diplômés des pays de l’OCDE
valent plus du double de ceux qui n’ont qu’une formation de base, et
sont 60 % plus élevé que ceux qui n’ont pas fait
d’études supérieures17.
Le deuxième type de gain que l’on tire de la productivité est créé
soit par l’acquisition de nouvelles machines, soit par une
réorganisation des méthodes de production, soit par l’innovation
technologique. C’est le scénario le plus fréquent ; Marx l’avait étudié
de la manière suivante.
Une heure de temps de travail ajoute toujours son équivalent en
valeur au produit qui vient d’être créé. Donc l’impact d’une
augmentation de la productivité se traduit par une baisse de la
valeur incorporée à chaque produit.
Imaginons qu’une usine fabrique 10 000 vêtements par jour.
Mettons que la main-d’œuvre compte 1 000 salariés capables de
travailler 10 heures par jour. Ainsi, 10 000 heures de travail
« vivant » sont incorporées au rendement journalier. Ajoutons à cela
que 10 000 heures de travail « fini » sont également intégrées au
rendement journalier, ces 10 000 heures, représentent l’utilisation
des machines et leur usure, l’énergie, le tissu et les autres matières
premières utilisées, les frais de logistique, etc. Le rendement
journalier total de l’usine en termes d’heures de travail effectuées est
donc de 20 000, la moitié étant effectuée par les salariés et l’autre
moitié par le reste. Ainsi, chaque vêtement produit compte pour
2 heures de temps de travail. Sur le marché, on devrait échanger ce
vêtement contre de l’argent équivalent à deux heures de temps de
travail.
Maintenant, supposons qu’une nouvelle méthode de production
soit introduite et qu’elle permette de doubler la productivité de la
main-d’œuvre. Pour chaque lot de 10 000 vêtements, la quantité de
travail fini reste la même (10 000 heures, selon cet exemple). Mais le
nombre d’heures de travail effectuées par la main-d’œuvre vivante
est réduit de moitié. Ainsi, chaque vêtement compte quatre-vingt-dix
minutes de temps de travail.
Voilà comment le marché nous récompense. Si notre usine est la
première à adopter cette nouvelle méthode de production, le
vêtement produit est vendu dans un marché pour lequel le temps de
travail nécessaire à sa confection est toujours de deux heures. Voilà
le prix que l’on peut espérer en tirer sur ce marché. Alors que, en
fait, il nous aura fallu une heure et demie pour le fabriquer. C’est
comme ça que le propriétaire de l’usine rafle les gains de la
productivité, sous forme de bénéfices supplémentaires. Le patron de
l’usine peut réduire les prix et augmenter sa part de marché, ou
empocher les bénéfices générés par la différence qui existe entre
deux heures et quatre-vingt-dix minutes. À terme, toute l’industrie
adoptera le même processus de fabrication, et le nouveau prix du
vêtement correspondra à quatre-vingt-dix minutes de temps de
travail.*2
Ce qui nous amène à l’idée principale. Pour augmenter la
productivité, nous augmentons la part de la « valeur machine » dans
le travail effectué par la main-d’œuvre humaine que nous
employons. On élimine la composante humaine du processus de
production, et, à court terme, les bénéfices augmentent à l’échelle
de la branche ou du secteur. Mais, puisque la main-d’œuvre est la
seule source de valeur ajoutée, dès lors qu’une invention est mise
en œuvre à travers tout un secteur donné et qu’une nouvelle norme
sociale plus basse est établie, la composante machine du travail
augmente au détriment de la composante humaine ; la valeur
ajoutée, fruit de cette composante, diminue ; sans compter que cette
composante machine pourrait provoquer une baisse des taux de
profit dans le secteur concerné si son contrôle nous échappait.
L’innovation, qui est motivée par la nécessité de minimiser les
coûts, de maximiser la production et d’exploiter les ressources,
apporte effectivement une richesse matérielle croissante. Elle
permet également la hausse des bénéfices. Cela étant, une fois
mise en service, elle provoque une « tendance à la baisse des taux
de profit » si elle n’est pas compensée par d’autres facteurs.
Malgré le caractère sinistre de cette sentence marxiste qui parle
de « tendance à la baisse des taux de profit », elle ne présage pas
de catastrophe pour le capitalisme. Comme nous l’avons vu au
chapitre 3, des facteurs de compensation suffisent généralement à
contrebalancer les effets de la baisse du contenu en travail humain,
notamment par la création de nouveaux secteurs qui nécessitent des
intrants de plus grande valeur, soit sous la forme de marchandises
physiques de plus grande valeur, soit par la création de secteurs de
services.
Ainsi, selon le modèle traditionnel du capitalisme conçu par Marx,
la recherche de la productivité fait augmenter la richesse matérielle ;
cependant, cette quête de productivité engendre des crises répétées
à court terme et entraîne de grandes transformations qui
contraignent le système à augmenter volontairement la valeur de la
main-d’œuvre. Si le système n’est pas capable d’enrichir
suffisamment ses travailleurs pour qu’ils achètent tous les biens, ou
qu’il n’est pas en mesure de créer de nouveaux marchés, et donc de
trouver de nouveaux consommateurs, l’augmentation cumulée de la
composante machine par rapport à la composante humaine
provoque une baisse des taux de profit.
Et c’est à cela que ressemblaient les crises à l’époque de la
pénurie : à cause d’un effondrement de la rentabilité, des millions de
personnes se retrouvaient sans emploi et beaucoup d’usines étaient
abandonnées. Tous ces phénomènes trouvent leur explication dans
la théorie de la valeur-travail.
On peut aussi s’appuyer sur la théorie de la valeur-travail pour
expliquer autre chose, à savoir ce qu’il se passe lorsqu’il est possible
de concevoir de nouveaux produits et de nouveaux procédés sans
aucun travail humain.
Avant de développer, il nous faut d’abord étudier l’autre théorie
des prix avancée par l’économie orthodoxe : la théorie de l’« utilité
marginale ».

Le refus des « choses du futur »


Tout comme Marx, les fondateurs de l’économie orthodoxe
commencèrent par démonter les arguments de Ricardo. Selon eux,
la théorie de la valeur avancée par Ricardo était fausse, et rien ne
permettait de la sauver. Pour résoudre le problème de la théorie de
Ricardo, il fallait, toujours selon eux, se concentrer sur des aspects
plus tangibles de l’économie, comme la fluctuation des prix, de l’offre
et de la demande, des loyers, des impôts et des taux d’intérêt par
exemple.
Ils donnèrent ainsi naissance à la théorie de l’utilité marginale, une
théorie économique selon laquelle rien ne possède de valeur
intrinsèque, exception faite du prix d’achat d’un bien payé par un
acheteur à un moment donné. Léon Walras, l’un des fondateurs de
l’école marginaliste, affirme que : « Le prix de vente des produits se
détermine sur le marché des produits […] en raison de leur utilité et
de leur qualité. Il n’y a pas d’autres conditions à considérer ; ce sont
des conditions nécessaires et suffisantes18. »
On considérait que cette « théorie de l’utilité » était obsolète
depuis Adam Smith. L’événement majeur ayant permis sa
réhabilitation fut l’adjonction du concept de marginalité. « Le montant
de la valeur n’est pas déterminé par l’utilité moyenne, mais par
l’utilité finale ou marginale », écrit William Smart, un économiste
écossais et vulgarisateur de la théorie19. Par marginalité, on entend
la valeur qui se trouve dans le « petit plus » que l’on veut acheter,
pas dans le produit en lui-même. C’est pourquoi la dernière tablette
d’ecstasy que l’on a achetée en boîte de nuit vaut plus que toutes
les autres.
Selon les marginalistes, toutes les opérations de jugement que
l’on effectue lorsque l’on achète quelque chose peuvent se résumer
à la question suivante : « Est-ce que j’ai plus besoin d’acheter ce
truc en plus (une pinte de bière, des cigarettes, des préservatifs, du
rouge à lèvres, ou encore un trajet en taxi) que j’ai besoin de garder
ce billet de 10 € dans ma poche ? »
William Stanley Jevons, l’un des cofondateurs de l’école
marginaliste avait réussi à prouver qu’en principe ces
questionnements autour de l’utilité (qui, selon lui, marquent des
choix entre le plaisir et la peine) peuvent être modélisés à l’aide de
calculs. Il considérait que cette échelle variable des prix pratiqués de
manière instantanée était la seule chose nécessaire à la régulation
de l’offre et de la demande. Pour lui, la seule définition que l’on
pouvait retenir du mot valeur était « rapport d’échange » ; Jevons
avait d’ailleurs proposé de supprimer le mot valeur.
À première vue, les marginalistes essayaient d’éliminer le
caractère philosophique de l’économie. Selon Walras, défendre le
capitalisme en prétendant que c’est un phénomène « naturel » est
impossible. La seule manière de justifier le capitalisme serait de dire
que c’est à la fois un système efficace et porteur de richesses.
Cependant, la pensée marginaliste est profondément marquée
d’idéologie, car elle postule que le marché est « rationnel ». Walras
était révolté par l’idée selon laquelle les lois du marché opèrent
indépendamment de toute volonté humaine. Cela revient à comparer
l’économie à la zoologie, et l’espèce humaine à des animaux. Il écrit
qu’« à côté des nombreuses forces aveugles et inéluctables de
l’univers, il existe une force consciente et indépendante, à savoir la
volonté de l’homme20 ». Walras prétend que la nouvelle pensée
économique doit partir du principe que le marché n’est que
l’expression de notre volonté rationnelle collective. Cette volonté doit
s’exprimer mathématiquement, elle doit aussi s’affranchir de son
passé éthique et philosophique à l’aide de modèles abstraits et en
appréhendant tous les scénarios possibles dans leur forme idéale.
L’exploit réalisé par le marginalisme fut de prouver que les
marchés régis par une concurrence à la fois libre et parfaite doivent
atteindre un certain « équilibre ». C’est à Walras que l’on doit la
transformation de cette idée en une loi économique qui se vérifie :
puisque tous les prix sont le résultat d’un choix formulé par un
individu sensé (acheter le rouge à lèvres, ou garder les 10 €), dès
lors que l’offre d’un produit donné disparaît, le choix le plus sensé
est d’arrêter d’essayer d’en acheter. En revanche, si l’offre de
quelque chose augmente, il devient logique pour n’importe qui de
commencer à vouloir acheter et de décider quel sera le prix à payer.
Selon la théorie marginaliste, l’offre crée sa propre demande : un
marché opérant librement se « ventilera » jusqu’à ce que la
demande corresponde à l’offre, avec toutes les fluctuations des prix
que cela implique.
Tout comme Marx, Walras versait dans l’abstrait. Sa théorie part
du principe que tous les agents économiques sont parfaitement
informés, que l’avenir est tout tracé et qu’aucun facteur extérieur ne
vient perturber le marché (comme les monopoles, les syndicats, les
droits d’importation, etc.). Ces idées abstraites ne sont pas à jeter
tant que nous ne partons pas du principe qu’elles font état de faits
réels. La question qui se pose maintenant, c’est : fallait-il vraiment
partir du principe abstrait qu’est l’utilité marginale ?
La manière dont les marginalistes étudiaient les crises fut parmi
les premiers indices à prouver que non. Ils avaient tellement foi en la
capacité du capitalisme à tendre vers l’équilibre qu’ils partaient du
principe que les crises étaient provoquées par des facteurs non
économiques. Jevons avait suggéré le plus sérieusement du monde
que la Grande Dépression de 1873 n’était rien de plus que la
dernière des fluctuations récurrentes causées par « un phénomène
récurrent de grande ampleur qui joue sur la météo », c’est-à-dire,
par les taches solaires21.
L’économie classique est aujourd’hui fondée sur les découvertes
de l’école marginaliste. Mais, durant leur quête de suprématie des
mathématiques sur « l’économie politique », les marginalistes
donnèrent naissance à une discipline qui ignore totalement le
processus de production, qui réduit la psychologie de la transaction
à un dilemme qui oppose peine et plaisir, qui n’attribue aucune place
à la main-d’œuvre*3 ; qui rejette la possibilité que les lois
économiques opèrent à un niveau profond et de manière invisible,
indépendamment de toute volonté humaine et rationnelle ; et enfin,
qui considère que seuls les traders sont des agents économiques, et
qui, ce faisant, ignore les classes et les autres rapports
hiérarchiques.
Dans sa forme la plus pure, le marginalisme nie non seulement la
possibilité de l’exploitation, mais aussi celle du profit en tant que
phénomène unique. Selon la pensée marginaliste, le profit n’est rien
de plus que ce qui vient récompenser l’utilité de quelque chose
vendu par le capitaliste, c’est-à-dire le savoir-faire. Dans des
versions postérieures de la théorie, c’est l’abstinence qui est
récompensée, c’est-à-dire la « peine » endurée lors de
l’accumulation du capital. En somme, le marginalisme était fortement
empreint d’idéologie. La théorie marginaliste a donné lieu à un biais
cognitif qui continue de nuire aux professionnels de l’économie, en
ce sens qu’elle les empêche de considérer les problèmes de
distribution et de classes, en plus de les désintéresser de ce qui se
passe sur le lieu de travail.
Le marginalisme est apparu parce que les chefs d’entreprise et les
politiciens avaient besoin d’un type de discipline économique qui
allait au-delà de la simple comptabilité, sans toutefois tendre vers la
théorie historique ; cette discipline devait entrer dans les détails du
fonctionnement du système de prix, et ce, de manière à ignorer la
dynamique des classes ou la justice sociale.
Dans une critique des théories de Smith et Ricardo, l’économiste
autrichien Carl Menger fait la synthèse des facteurs psychologiques
qui ont motivé la formation de l’école marginaliste. Smith et Ricardo
étaient obsédés par « le bien-être abstrait de l’homme, à propos de
choses lointaines, des choses qui n’existaient pas encore, des
choses du futur. Dans leur démarche [ils] […] sont passés outre les
intérêts réels et légitimes du présent ». Selon Menger, les sciences
économiques devraient avoir pour but d’étudier la réalité que le
capitalisme produit spontanément et de le défendre contre « la
frénésie unilatérale et rationnelle de l’innovation » qui,
« contrairement à l’intention de ses représentants, conduit
inexorablement au socialisme22 ».
L’obsession du marginalisme pour le moment présent et son
hostilité aux choses futures en ont fait un cas d’école classique qui
permet de comprendre des formes de capitalisme qui ne changent
pas, ne mutent pas et ne meurent pas.
Malheureusement, ces formes de capitalisme n’existent pas.

L’importance du débat
Pourquoi, à l’ère du big data, de Spotify et du trading haute
fréquence, devrions-nous déterrer un débat qui date de la moitié du
e
siècle ?
Pour la simple et bonne raison qu’il permet de comprendre
pourquoi les économistes d’aujourd’hui font preuve d’autant de
pugnacité face aux dangers qui menacent le système. Le professeur
d’économie Steve Keen affirme que la pensée marginaliste actuelle,
en ramenant tout à la doctrine de l’« efficience des marchés
financiers », a, dans les faits, contribué à l’effondrement. Toujours
selon Keen, les penseurs de l’économie dominante « ont fait empirer
l’état d’une société déjà malade, en créant toujours plus d’inégalités,
plus d’instabilité et en nuisant à la productivité23 ».
Il y a aussi une deuxième bonne raison, qui concerne la manière
dont nous expliquons les dynamiques du capitalisme de
l’information. L’essor des biens de l’information bouleverse la pensée
marginaliste parce qu’elle est bâtie sur le principe de rareté des
biens, tandis que ceux de l’information, eux, sont abondants. Walras
était catégorique : « Il n’existe pas de produits que l’on puisse
multiplier sans limites. Toutes les choses qui font partie de la
richesse sociale […] n’existent qu’en quantité limitée24. »
Allez dire ça aux réalisateurs de Game of Thrones : la version
piratée de l’épisode 2 de la première saison a été téléchargée
illégalement par un million et demi d’individus moins d’une journée
après sa diffusion25.
Les biens de l’information sont disponibles en quantités quasiment
illimitées, et, lorsque c’est effectivement le cas, leur véritable coût
marginal de production est nul. Cerise sur le gâteau, le coût marginal
de certains produits physiques issus des technologies de
l’information (le stockage de la mémoire, ou encore le wifi) est en
train de s’effondrer. Dans le même temps, le contenu en information
d’autres biens matériels explose, ce qui expose davantage de
produits de base à une baisse vertigineuse de leur coût de
production. Tous ces phénomènes minent le mécanisme des prix, si
bien défini par la pensée marginaliste.
Aujourd’hui, l’économie est faite d’autant de marchandises rares
que de biens abondants ; notre comportement reflète un mélange de
dilemme marginaliste, de partage et de travail collaboratif, ce qui,
aux yeux de ces penseurs, n’est rien de plus que du sabotage.
Mais, dans une économie de l’information totale, où la majeure
partie de l’utilité vient de l’information et où les biens matériels
abondent, le mécanisme des prix tel que proposé par la pensée
marginaliste s’effondre. Puisque l’école marginaliste ne jure que par
les prix, il lui est impossible de concevoir un monde caractérisé par
des biens dont le prix est nul, un espace économique commun, des
organisations à but non lucratif ainsi que des produits que l’on ne
peut pas détenir.
La théorie de la valeur-travail, elle, le peut. La théorie de la valeur-
travail prédit et réunit, elle-même, les conditions de sa propre
disparition. C’est-à-dire qu’elle prédit un conflit entre les différents
acteurs sociaux qui dirigent la productivité et la productivité elle-
même.
Selon Marx, la théorie de la valeur-travail prédit que
l’automatisation engendrerait une baisse de la part nécessaire de
travail humain à une valeur telle que le travail deviendrait bientôt
obsolète. Selon cette théorie, des objets utiles dont la fabrication
exige une part de travail humain minimale finiront par être
disponibles gratuitement, partagés et possédés de tous. Et c’est vrai.

Karl Marx et les machines de l’information


Rappelons la « théorie de la valeur » de Marx. Dans l’économie, le
prix de toute marchandise reflète la quantité de travail nécessaire à
sa confection. Les gains en productivité viennent des nouveaux
procédés, des machines et des restructurations ; et chacun de ces
éléments coûte quelque chose, notamment en termes de temps de
travail nécessaire à leur réalisation. En pratique, le capitalisme
s’affranchit de la tendance de l’innovation à réduire la part de travail
humain dans l’économie, et donc à réduire la source ultime de profit,
car il crée de nouveaux besoins, de nouveaux marchés et de
nouvelles industries où le coût du travail est élevé, de sorte qu’il y a
plus de salaires pour stimuler la consommation.
Les technologies de l’information ne sont que le résultat d’un
processus novateur qui a duré deux cent cinquante ans. Mais
l’information fait naître de nouvelles dynamiques dans l’économie,
car elle permet de construire des machines qui ne coûtent rien, ne
tombent jamais en panne et ont une durée de vie illimitée.
Si quelqu’un tentait de vendre une machine à coudre dont la durée
de vie est illimitée à un directeur d’usine bangladais, il est fort
probable qu’il s’étoufferait avec son thé. En revanche, acheter des
logiciels ne lui posera aucun problème. Un logiciel est une machine
qui, une fois développée, ne disparaîtra jamais. Certes, un logiciel
peut devenir obsolète suite au développement d’une nouvelle
version, mais on trouve pléthore de vieux logiciels dans le monde qui
pourraient tourner sans jamais s’arrêter, pourvu que l’on possède le
matériel adéquat.
Une fois les frais de développement avancés, le coût de
production du logiciel revient au coût du périphérique de stockage
sur lequel la copie est sauvegardée : le disque dur ou le réseau en
fibre optique. Ça, plus les coûts de mise à jour et de maintenance.
Ces coûts baissent de manière exponentielle. Il y a dix ans, graver
un million de transistors sur une puce électronique coûtait 1 dollar,
contre 6 centimes aujourd’hui. Sur la même période, le coût de
stockage d’un gigabit d’information est passé d’1 dollar à
3 centimes ; le coût d’une connexion à haut débit d’un mégabit par
seconde est passé de 1 000 dollars en 2000 à 23 dollars aujourd’hui.
Deloitte, qui a fait ces calculs, estime que la chute du prix des
technologies de l’information de base est exponentielle : « Le rythme
actuel du progrès technologique est sans précédent dans l’Histoire
et ne montre aucun signe de stabilisation comme l’ont fait d’autres
innovations technologiques historiques, telles que l’électricité26. »
Il est devenu commun de penser que l’information est un bien
« dématérialisé ». Norbert Wiener, l’un des fondateurs de la théorie
de l’information affirme que : « L’information, c’est de l’information,
pas de la matière ni de l’énergie. Aucun courant de pensée
matérialiste qui refuse de comprendre cela ne peut survivre, de nos
jours27. »
Mais c’est complètement faux. En 1961, Rolf Landauer, un
physicien ayant travaillé pour IBM, a réussi à prouver de manière
logique que l’information est physique28. Selon lui, « l’information
n’est pas une entité abstraite dépourvue d’enveloppe charnelle ; elle
est invariablement reliée à une représentation physique. Ainsi, la
manipulation de l’information dépend des possibilités offertes et des
limites imposées par notre monde physique, ses lois de la physique
et ses entrepôts de pièces détachées29 ».
Il a notamment montré que le traitement des données consommait
de l’énergie et qu’il était possible de mesurer la quantité d’énergie
utilisée pour supprimer un bit d’information. En 2012, une équipe de
chercheurs a mis au point un petit modèle physique qui prouve la
« théorie de Landauer30 ».
L’information est donc un produit qui nécessite de l’énergie pour
sa production et qui existe en tant que matière. Les bits sont bien
réels : ils consomment de l’électricité, dégagent de la chaleur et
doivent être stockés quelque part. Le fameux « cloud » de Google
est, en fait, une ferme climatisée de serveurs qui s’étendent à perte
de vue.
Mais Wiener a eu raison de penser que le produit d’un processus
informatique est qualitativement différent des autres produits
physiques.
Le véritable pouvoir de l’information ne réside pas dans sa nature
dématérialisée, mais plutôt dans sa capacité à éliminer le besoin en
main-d’œuvre à une échelle jamais observée. L’information est
capable de faire tout ce qu’une machine fait : elle remplace la main-
d’œuvre peu qualifiée par de la main-d’œuvre qualifiée ; elle
supprime carrément le besoin en main-d’œuvre en fonction de
certaines tâches et elle permet de réaliser de nouvelles opérations
qu’aucune catégorie antérieure de main-d’œuvre n’aurait pu
effectuer. L’information nouvellement produite par un ordinateur
possède une valeur d’utilisation, ou d’utilité, qui excède grandement
celle de ses composants.
Le montant de la valeur-travail contenue dans les produits de
l’information est cependant négligeable. De plus, dès lors que le
savoir devient vraiment collectif, comme l’a pensé Marx avec son
concept d’« intellect général », une part de la valeur est gratuitement
contribuée, et ce, de la manière suivante :
– Les biens de l’information tirent naturellement parti des
connaissances scientifiques générales.
– Leurs utilisateurs fournissent en temps réel des données qui
permettent de les améliorer gratuitement.
– Les données de n’importe quelle avancée technologique ou
intellectuelle réalisée n’importe où peuvent être intégrées
sans délai à toutes les machines mises en service partout
dans le monde.
Par exemple, le protocole internet, qui a été conçu en 1974,
constitue une « norme », pas un produit. Cette norme n’a cependant
rien à voir avec les normes de sécurité qu’une usine textile est
censée adopter. Elle ressemble plutôt au réseau électrique dont
l’usine tire son électricité : son utilité est matérielle. Et elle est
gratuite.
Maintenant, que se passe-t-il lorsque l’on essaie d’intégrer un peu
de ces machines et de leur gratuité dans la théorie de la valeur-
travail ? Le fait est que Marx avait envisagé cette possibilité.
Dans son Introduction générale à la critique de l’économie
politique, Marx dit que, si la fabrication d’une machine coûte
l’équivalent de 100 jours de temps de travail et que sa durée de vie
est de 100 jours, cette machine n’améliore pas la productivité. Une
machine dont la fabrication coûte 100 jours de temps de travail, mais
dont la durée de vie est de 1 000 jours nous serait bien plus utile.
Plus une machine dure dans le temps, plus la part de sa valeur qui
est intégrée à chaque produit est faible. Si l’on pousse la réflexion à
l’extrême, l’idéal serait de posséder une machine dont la durée de
vie est illimitée ou qui ne coûte rien à faire remplacer. Marx avait
compris qu’il en allait de même en économie : « Que se passerait-il
si le capital pouvait s’approprier des moyens de production
gratuitement ? La plus-value [augmenterait] sans qu’il lui en coûte
quoi que ce soit. » Marx liste deux façons dont, même au e siècle,
le capitalisme tirait profit de ce scénario : par la réorganisation du
flux de travail et par les progrès scientifiques. Marx ajoute ensuite :
« Si les machines avaient une durée de vie illimitée, si elles n’étaient
pas elles-mêmes constituées d’un matériau transitoire qui doit être
remplacé […] alors elles correspondraient tout à fait à ce
concept31. »
« La forme idéale d’une machine est celle d’un matériau qui ne
s’use pas et qui ne coûte rien. » Nous devrions frémir d’admiration
devant cette idée révolutionnaire, écrite à la lumière d’une lampe à
gaz en 1858. Marx ne parle pas ici des choses immatérielles, mais
des matériaux non transitoires, c’est-à-dire qui ne se dégradent pas.
Les machines dont certaines parties de la valeur sont apportées
gratuitement par le fruit de l’intelligence collective et la science ne
sont pas étrangères à la théorie de la valeur-travail. Elles y sont au
cœur. Mais, comme il l’affirme dans le Fragment sur les machines,
Marx pensait que si ces machines existaient en grand nombre, elles
provoqueraient la destruction du système basé sur la valeur ajoutée
par la main-d’œuvre.
L’exemple concret que Marx utilise dans son Introduction générale
à la critique de l’économie politique le montre clairement : une
machine qui ne casse jamais ou qui peut être fabriquée sans main-
d’œuvre ne peut ajouter d’heures de travail à la valeur des produits
qu’elle fabrique. Si une machine est éternelle, elle transfère
éternellement une valeur de travail proche de zéro au produit, la
valeur de chaque produit étant ainsi réduite.*4
Évidemment, les machines physiques ont une durée de vie
limitée, mais nous avons vu naître au cours des quinze dernières
années des machines dont l’utilité découle des informations utilisées
pour les faire fonctionner, les concevoir ou les fabriquer. Et seule la
théorie de la valeur-travail nous permet de comprendre les enjeux
économiques d’un monde dans lequel les objets physiques
s’animent grâce à l’information.

Quand les machines pensent


En 1981, j’ai travaillé quelques mois en tant qu’opérateur de presse
dans une petite usine de métallurgie située à côté du fleuve Mersey.
L’emboutisseuse fonctionnait grâce à l’électricité et à l’air comprimé :
lorsque l’on poussait un levier, elle faisait marteler un outil sur un
disque de métal et lui donnait sa forme. Mon travail consistait à
mettre le disque sur le moule, à pousser un levier et à retirer mes
doigts avant que la grille de sécurité ne s’abaisse. C’était un travail
qui ne nécessitait pas de qualification, la machine opérait dix fois par
minute, et un grand nombre de disques étaient défectueux.
L’emboutisseuse n’intégrait aucun système de retour d’information,
et rien n’était automatique, sauf son seul mouvement de martelage.
Mes supérieurs étaient deux ouvriers semi-qualifiés qui
s’occupaient d’installer, de régler et de réaligner à intervalles
réguliers les outils dans la machine. Dans la pièce d’à côté, on
trouvait les ouvriers qualifiés qui fabriquaient les outils. Ils ne nous
ont jamais parlé. Cependant, nous avions en commun deux choses
dont l’usine ne pouvait pas faire l’économie : des mains expertes, et
un œil exercé, capable de repérer le moindre défaut, danger ou
processus défaillant.
Aujourd’hui, les emboutisseuses sont pratiquement toutes
automatisées. On commence par simuler le processus avec un
ordinateur ; ce faisant, on s’appuie sur des milliers de données de
référence à propos du métal que l’on a mathématiquement modélisé
et sur lequel on va exercer des contraintes. Ensuite, on intègre un
modèle 3D à l’ordinateur qui contrôle la machine. Souvent, les
moules et les machines-outils sont bien plus élaborés que ceux que
j’ai utilisés en 1981. De nos jours, on effectue les réglages avec des
lasers, qui sont bien plus précis. Si quelque chose se passe mal,
l’ordinateur qui contrôle la machine le sait. Lorsque le produit sort de
la machine, il est collecté par un robot, analysé et positionné
exactement là où il doit être pour la prochaine opération. Lorsqu’il
faut changer d’outil, c’est un bras robotisé qui le fait.
Ces machines effectuent l’équivalent d’une journée de travail en
une heure, sans défauts ni bouts de doigts accidentellement laissés
par terre, sans grande surprise, car ce sont des robots. Bon nombre
d’applications propres aux technologies de l’information rendent tout
cela possible : l’analyse informatique et la modélisation 3D lors de la
phase de conception, le retour d’information en temps réel et les
analyses lors du processus de fabrication, et enfin la collecte de
données, qui s’inscrit dans une démarche d’amélioration des
processus. Le but des chercheurs est maintenant de trouver un
moyen d’automatiser la production des outils eux-mêmes, voire de
rendre leur développement plus simple à l’aide de modèles
informatiques.
Ainsi, toute la machine prend vie grâce à l’information. Il en va de
même pour le produit : les usines automatisées exigent que même
les plus petits composants soient identifiables individuellement, que
ce soit par des étiquettes ou des numéros. Il est possible de le faire
avec une emboutisseuse.
Le travail du métal – l’une des opérations les plus basiques du
capitalisme industriel – a connu une véritable révolution. Mais
personne n’a pris la peine d’en faire la théorie ; la littérature
scientifique qui tourne autour des emboutisseuses automatiques
relève du domaine de l’ingénierie, pas de l’économie32.
Cela parce que, comme nous l’avons vu, personne n’est capable
de mesurer en termes économiques la valeur de l’information. Il est
possible de voir l’impact de l’achat d’une emboutisseuse
automatique sur les résultats nets d’une entreprise ; on peut donner
une valeur chiffrée aux conceptions 3D et aux programmes
développés sur mesure en tant qu’actifs, mais, comme l’ont montré
les ingénieurs du SAS Institute, ce ne sont que des estimations.
Grâce à la théorie de la valeur-travail, on peut aller au-delà de ces
estimations. Elle nous permet de voir les logiciels comme des
machines, de voir l’information (conceptions 3D, programmes,
rapports d’analyse) comme du travail fini, à la manière des outils et
des moules. Et elle nous permet de retracer le processus par lequel
l’effet de « coût marginal nul » des biens de l’information purs se
propage dans le monde des produits physiques et des machines qui
les fabriquent.
Au début des années 1980, mon atelier d’emboutisseuses
comptait vingt-cinq employés. Aujourd’hui, moins de cinq ouvriers
suffisent pour effectuer le même travail. La différence fondamentale
tient dans l’utilisation de logiciels, de capteurs laser et de robots.
La valeur de ce logiciel industriel dépend entièrement des lois sur
la propriété intellectuelle, qui nous empêchent de l’utiliser et de le
reproduire gratuitement. Même si ce logiciel est plus difficile à pirater
qu’un DVD, par exemple, le principe reste le même : le coût de
reproduction d’un logiciel est nul ; la valeur ajoutée tient dans le
travail effectué pour l’intégrer à certaines machines et certains
processus.
Bien que l’odeur et le bruit d’un atelier d’usinage soient les mêmes
qu’il y a trente ans, cet atelier est tout aussi différent de celui dans
lequel j’ai travaillé qu’un morceau de musique sur iTunes l’est d’un
disque vinyle.
Machines gratuites et économie mixte
Nous avons vu ce qu’il se passe lorsque l’on introduit des
marchandises dont le coût marginal est nul dans la théorie des prix :
elle ne tient plus. Nous devons maintenant nous demander ce qu’il
advient lorsque l’on introduit des machines gratuites dans le cycle
des investissements en capital.
Par souci de clarté, je présenterai un modèle extrêmement simple,
avec tous les dangers de simplification excessive que cela implique.
Prenons une feuille de calcul avec quatre lignes qui représentent
les intrants d’une économie en termes de valeur-travail. On pourrait
représenter cette valeur en millions d’heures de travail. Admettons
que la valeur-travail transférée au produit fini durant la première
période se compose comme suit :
– capital : 200
– énergie : 200
– matières premières : 200
– main-d’œuvre : 200

Selon la théorie de la valeur-travail, la ligne indiquant le capital ne


sera jamais la même, dans la mesure où les machines transfèrent
leur valeur au produit sur plusieurs années, tandis que les trois
autres lignes indiquent des valeurs qui reflètent la consommation au
cours de la période actuelle. Ainsi, la ligne du capital pourrait par
exemple correspondre à des machines dont la durée de vie est de
cinq ans, qui coûtent 1 000 unités et qui soustraient 200 unités de
valeur-travail de la production totale annuelle.
Maintenant, partons du principe que la ligne du capital correspond
à une unique machine dont la durée de vie est illimitée. Selon la
théorie de la valeur-travail, une telle machine réduirait la valeur
transférée au produit indiquée par la ligne qui correspond au capital
à zéro, et ce, pour toujours. Peu importe le montant de la dépense
initiale (en termes de temps de travail dédié à la fabrication de la
machine), si cette machine n’est jamais remplacée, elle ne transfère
pratiquement pas de valeur, tout simplement parce que même un
milliard divisé par « l’infini » donne zéro.
Le nombre total d’heures de travail transférées par tous les
facteurs de production au produit final tombe à 600 heures (les
marxistes les plus aguerris remarqueront que je n’intègre pas le taux
de profit au modèle, mais ce n’est pas tout).
Avançons un peu dans le temps pour arriver à la deuxième
période. Les effets du coût marginal nul se font sentir : le nombre
d’heures de travail transférées au produit final diminue, car les
heures de travail nécessaires à la reproduction du travail diminuent.
Si l’on continue à appliquer ce modèle sans rien faire pour
contrecarrer la tendance à la baisse du facteur travail, d’une part les
dépenses en capital deviennent très vite nulles, d’autre part les frais
en main-d’œuvre et en matières premières diminuent à une vitesse
vertigineuse. Évidemment, aucune machine n’est éternelle dans le
contexte d’une économie réelle. Mais, dans la mesure où elles
contiennent de plus en plus d’information, une partie du temps de
travail nécessaire à leur fabrication ne circule plus comme avant
dans l’économie. La valeur disparaît.
Amenons cette feuille de calcul à son état final : après plusieurs
périodes, la valeur du capital et du travail tend vers des coûts
marginaux de reproduction nuls. Le travail accompli tourne
maintenant autour de la fourniture d’énergie et des matières
premières physiques. Si cela venait à se réaliser, et dans la mesure
où les mécanismes de la théorie de la valeur fonctionnent de
manière invisible, il est tout à fait possible pour le système des prix
de maintenir un fonctionnement normal et de continuer d’estimer
l’utilité marginale de toute marchandise. À mesure que les prix
diminuent, les grandes corporations peuvent réagir en essayant
d’exercer un monopole sur les prix de sorte à empêcher que la
valeur représentée par la machine et son produit tombe à zéro. Les
économistes orthodoxes en resteraient bouche bée. Cela reviendrait
à « s’approprier » des pans entiers de l’activité économique qui
appartiennent normalement au marché.
Et, bien que nous soyons à des années-lumière d’une économie
de l’information telle que grossièrement représentée ici, certains de
ses effets commencent à se faire sentir dans la réalité : partout, des
monopoles voient le jour et s’efforcent d’empêcher que les logiciels
ou les biens de l’information deviennent gratuits. En outre, les
normes comptables deviennent de plus en plus complexes à mesure
que les sociétés ont recours à des estimations. On cherche à
stimuler la croissance des salaires, alors que la plupart des intrants
destinés à l’accomplissement du travail peuvent désormais être
produits avec moins de main-d’œuvre.
Selon la première grande étude macroéconomique sur Internet
menée par l’OCDE en 2013, « alors que l’impact d’Internet sur les
transactions effectuées au sein du marché et sur la valeur ajoutée a
sans doute été important à grande échelle, ses effets sur les
interactions non marchandes […] sont d’autant plus importants. Ces
interactions, qui ont lieu en ligne, sont en majeure partie
caractérisées par l’absence d’un mécanisme de compensation des
prix et du marché ». Le marginalisme ne propose ni métrique ni
modèle nous permettant de comprendre comment une économie de
prix devient une économie d’absence de prix. Comme l’affirme
l’équipe d’analystes de l’OCDE : « Si les interactions non
marchandes n’ont pas retenu l’attention, c’est parce
qu’aucune méthode de calcul qui soit à la fois rigoureuse et légitime
n’a été communément adoptée33. »
Admettons, dans ce cas, que seul le marginalisme nous permet de
construire des modèles de prix dans une société capitaliste où tout
est rare. Mais n’oublions pas ceci : seule la théorie de la valeur-
travail nous permet de bâtir des modèles dans lesquels les effets
des coûts marginaux nuls commencent à sortir du cadre de
l’information pour s’étendre aux machines et aux produits, avant
d’exercer une influence sur les coûts de la main-d’œuvre.
À partir du moment où l’on introduit des machines gratuites et des
produits gratuits dans un modèle capitalistique, si grossier soit-il, on
commence à ressentir la même chose que lorsque l’on se met à
parler de zéro en mathématiques.
La feuille de calcul à quatre lignes développée plus haut manque
cruellement d’une cinquième ligne dédiée aux bénéfices, sans
compter que, au lieu de décliner, chaque valeur indiquée est censée
augmenter d’environ 3 % pour refléter le taux de croissance annuel
du PIB. Et si les bénéfices et le PIB avaient été ajoutés ? Dès que
les effets du coût marginal nul se font sentir, seuls d’énormes
bénéfices ainsi qu’un taux de croissance extrêmement élevé
pourraient en atténuer l’impact éventuel sur les coûts de la main-
d’œuvre. Autrement dit, il faudrait qu’une révolution industrielle se
produise tous les quinze ans, que la croissance nominale soit très
élevée, et que les monopoles ne cessent de grandir.
Seulement, c’est impossible.
Le capitalisme a fonctionné aussi longtemps que le capital pouvait
se déplacer (lorsque les innovations technologiques provoquaient
une diminution des coûts dans un secteur) vers des secteurs où les
salaires sont plus élevés, les bénéfices plus importants et les
intrants plus coûteux. Le capitalisme ne peut pas continuer de cette
manière lorsque le résultat se traduit par un coût nul.
Ce modèle simplifié nous permet de comprendre au mieux
comment l’économie d’une société à coût de production nul se
tourne rapidement vers l’énergie et les matières premières : elles
deviennent, en effet, le secteur où la rareté règne en maître. Nous
verrons plus loin comment la modélisation de la disparition de la
valeur-travail pourrait se traduire par la conception de stratégies de
transition et comment les questions énergétiques s’y intègrent. Pour
l’instant, examinons comment le capitalisme est susceptible
d’évoluer pour relever ces défis économiques.

À quoi ressemblerait un capitalisme


de l’information ?
L’essor de l’information et des machines gratuites est un phénomène
nouveau. Cependant, réduire le coût des intrants en augmentant la
productivité est une méthode aussi ancienne que le capitalisme lui-
même. Le capitalisme ne doit sa survie qu’à la création de nouveaux
marchés, de nouveaux besoins, et à l’augmentation du temps de
travail socialement acceptable nécessaire pour répondre à ces
besoins (s’habiller à la mode plutôt qu’en haillons, regarder la
télévision plutôt que lire des magazines) ; augmentation qui, à son
tour, fait monter la quantité de temps de travail transférée dans
chaque machine, chaque produit et chaque service.
Si ce réflexe inné fonctionnait correctement et nous permettait de
faire face à la révolution de l’information, nous serions déjà dans
l’ère du capitalisme de l’information. Seulement, plusieurs conditions
nécessaires au bon fonctionnement de ce capitalisme doivent être
réunies.
Le prix des biens de l’information ne doit plus baisser. La solution
consiste à imposer un monopole sur les prix : pensez à Apple,
Microsoft ou Nikon/Canon, mais sous stéroïdes. Les entreprises de
ce système doivent être capables de capturer un maximum
d’externalités. Toutes les interactions – que ce soit entre producteur
et consommateur, entre consommateurs ou encore entre amis –
doivent être passées à la loupe afin de voir si elles contiennent de la
valeur. Selon la théorie de la valeur-travail, toutes nos activités non
marchandes doivent devenir du travail que l’on effectue gratuitement
au bénéfice des entreprises. Pour qu’il soit prospère, le capitalisme
de l’information doit se fixer comme objectif de maintenir les prix de
l’énergie et des matières premières physiques à un niveau
artificiellement élevé par le biais de la thésaurisation, entre autres
pratiques monopolistiques, afin que leur coût se répercute sur le
temps de travail moyen nécessaire à la reproduction du travail. Plus
important encore, ce capitalisme de l’information doit aller plus loin
que la production et être en mesure de créer de nouveaux marchés
dans le secteur des services. Les deux cent cinquante ans d’histoire
du capitalisme n’ont consisté qu’à introduire les lois du marché dans
des secteurs où elles n’existaient pas encore. Dans le capitalisme de
l’information, il faudrait introduire encore plus loin ces lois du marché
dans le secteur privé et ainsi créer de nouvelles formes de
microservices à la personne, que l’on rémunérerait à coups de
micropaiements.
Enfin, pour que le capitalisme de l’information réussisse, il doit
permettre aux millions d’individus dont l’emploi a été automatisé de
retrouver du travail. Dans la majorité des cas, ces nouveaux emplois
devront être hautement rémunérés, car une augmentation des coûts
de la main-d’œuvre est nécessaire à la survie du système : notre
existence en tant qu’êtres humains doit gagner en complexité, donc
nécessiter plus de main-d’œuvre, pas l’inverse (c’est exactement ce
qui s’est passé lors des quatre périodes de croissance qui se sont
produites lors des précédents cycles longs).
Si toutes ces conditions sont réunies, le capitalisme de
l’information peut voir le jour. Ces conditions, elles existent dans
notre économie : Apple est l’exemple parfait de la société qui impose
son monopole sur les prix, le modèle commercial d’Amazon reprend
tous les principes élémentaires d’une stratégie de capture des
externalités ; la spéculation est le premier facteur d’augmentation
des coûts de l’énergie et des matières premières au-dessus de leur
valeur ; tandis que l’essor des microservices à la personne (garde de
chiens, salons de manucure, concierges personnels et autres)
montre que le capitalisme commercialise des activités que nous
avions l’habitude de fournir par bonté de cœur ou de manière
informelle.
Pourtant, le capitalisme de l’information fait face à certains
obstacles.
Premièrement, la solution de repli habituelle – la création de
nouvelles technologies coûteuses destinées à remplacer les
technologies de l’information – ne fonctionne plus. L’information n’est
pas une technologie au hasard qui est apparue du jour au lendemain
et qui peut être abandonnée comme l’a été la machine à vapeur. Elle
inscrit toute innovation future dans la dynamique du prix zéro :
biotechnologies, voyages dans l’espace, reprogrammation du
cerveau, nanotechnologies, ainsi que des choses que nous ne
pouvons même pas imaginer. La seule manière de supprimer les
effets de l’information sur ces technologies à venir serait, comme
dans Dune, le roman de science-fiction de Frank Herbert, d’interdire
les ordinateurs et de les remplacer par des êtres humains experts en
mathématiques qui coûteraient cher à employer.
Deuxièmement, l’échelle de la transformation de la main-d’œuvre.
À l’époque de Marx, il y avait 82 000 employés de bureau aux États-
Unis, cela représentait 0,6 % de la main-d’œuvre. En 1970, à la
veille de la révolution des technologies de l’information, il y en avait
14 millions, soit presque un salarié américain sur cinq34. Aujourd’hui,
malgré l’automatisation et la disparition de plusieurs catégories de
professions intellectuelles – comme employé de banque,
sténodactylographe, mécanographe et assimilés – les emplois « de
bureau et d’assistance administrative » constituent toujours la
catégorie d’emploi la plus importante aux États-Unis et représentent
16 % de la main d’œuvre35. Le secteur des « ventes » représente
11 %.
En 2013, une étude menée par l’unité de recherche de la Oxford
Martin School a montré que 47 % de la totalité des emplois aux
États-Unis sont susceptibles d’être automatisés. Parmi ces 47 %, les
emplois administratifs et commerciaux étaient les plus vulnérables.
Les scientifiques ayant mené cette étude ont annoncé qu’il y aurait
deux vagues d’informatisation au cours des vingt prochaines
années : « Nous avons conclu qu’au cours de la première vague, la
plupart des travailleurs dans le domaine des transports et de la
logistique, ainsi que la majeure partie des employés de bureau et
des employés administratifs, en plus des travailleurs du domaine de
la production, sont susceptibles d’être remplacés par du
capital informatique36. »
Lors de la deuxième vague, tous les emplois nécessitant une
certaine dextérité, une capacité d’observation et de retour
d’expérience ou encore une tolérance au travail dans un espace
réduit seront remplacés par des robots. L’équipe de chercheurs a
conclu que les emplois les moins susceptibles d’être automatisés
sont les emplois de service nécessitant une profonde
compréhension des interactions sociales (comme les soins
infirmiers, par exemple) ainsi que les emplois qui demandent une
certaine créativité.
L’étude a provoqué un tollé sur le modèle habituel de la crainte de
la sous-consommation : les robots vont tuer le capitalisme parce
qu’ils vont créer du chômage de masse et que la consommation va
s’effondrer. Ce danger est bien réel. Pour y faire face, le capitalisme
n’a d’autre choix que d’étendre la portée du secteur des services à la
personne. Ce qu’hier nous faisions de bon cœur devra devenir du
travail salarié. En plus des travailleurs et travailleuses du sexe, on
pourrait voir apparaître des travailleurs et travailleuses du « bien-
être » (affection work) : la petite amie à louer, la femme de ménage,
le jardinier, le traiteur et le concierge personnel. Les riches
s’entourent déjà de ces servants post-modernes, mais remplacer
ainsi 47 % de tous ces emplois exigerait la commercialisation de
masse de la vie quotidienne.
Et c’est précisément ici que l’on se retrouverait face au troisième
obstacle, ce que le philosophe André Gorz appelle « les limites de la
rationalité économique37 ». Vient un moment où les interactions et la
vie sociales échappent à l’influence de la commercialisation. Une
économie au sein de laquelle un grand groupe d’individus se livrent
à des microservices à la personne peut exister, mais, en tant que
modèle capitaliste, cette économie serait profondément inefficace et
intrinsèquement pauvre en valeur.
On pourrait tout à fait rémunérer les tâches ménagères ou encore
transformer les relations sexuelles en travail salarié ; par ailleurs, les
mères avec leurs nouveau-nés qui se promènent au parc pourraient
tout à fait demander chacune un euro lorsque vient leur tour de
pousser la poussette. Cependant, ce genre d’économie s’inscrirait
dans une démarche de révolte contre le progrès technologique.
Pour inciter la population à travailler dans les usines, le
capitalisme avait rendu illégal une grande partie du mode de vie non
marchand : lorsqu’on perdait son emploi, on était arrêté, car on était
considéré comme vagabond. Si l’on se mettait à braconner, comme
l’ont fait nos ancêtres, on encourait la peine de mort. Aujourd’hui,
l’équivalent se traduirait par non seulement le fait d’introduire la
commercialisation dans tout ce qui fait de nous des êtres humains,
mais aussi par le fait de rendre toute résistance à cette
commercialisation illégale. Cela reviendrait à assimiler un couple qui
s’embrasse en toute gratuité à un braconnier du e siècle. C’est
totalement impossible.
De ce fait, le plus grand danger de l’automatisation dépasse de
loin le chômage de masse : il réside dans la perte de la capacité
vieille de deux cent cinquante ans du capitalisme à créer de
nouveaux marchés en remplacement des anciens.
Un autre obstacle se dresse sur la route du capitalisme de
l’information : la propriété privée. Pour capturer les externalités d’une
économie dont la raison d’être est l’information, le capital doit
étendre l’influence de ses droits de propriété à de nouveaux
secteurs ; il doit posséder des droits sur nos selfies, nos playlists et
non seulement sur les articles scientifiques que nous avons publiés,
mais aussi sur les recherches que nous avons menées pour les
écrire. Mais la technologie elle-même nous donne les moyens de
résister à cette tentative d’appropriation, en plus de pouvoir nous en
préserver sur le long terme.
Résultat, on se retrouve avec un capitalisme de l’information qui
lutte pour sa survie. Nous devrions être en pleine troisième
révolution industrielle, mais celle-ci fut interrompue. Ceux qui
attribuent son échec à de mauvaises décisions politiques, à des
stratégies de financement erronées et à l’outrecuidance de la
finance confondent les symptômes avec la maladie. Ceux qui
essaient en permanence d’imposer des normes juridiques
collaboratives sur les structures du marché passent à côté de
l’essentiel.
Une économie basée sur l’information, avec sa tendance aux
produits à coût zéro et au faible pouvoir des droits de propriété, ne
saurait être une économie capitaliste.
En tenant compte de tout cela, la théorie de la valeur-travail
prouve toute sa pertinence : elle nous permet de mesurer la
production marchande et non marchande d’une manière que les
économistes de l’OCDE ne pourraient utiliser. Elle nous permet
surtout de concevoir le processus de transition de façon à savoir ce
que nous essayons de créer : un monde de machines gratuites, de
biens de base à prix zéro et un minimum de temps de travail
nécessaire.
La prochaine question qui se pose est : qui va faire en sorte que
cela soit possible ?
7
De sacrés fauteurs de troubles

En 1980, l’intellectuel français André Gorz avait annoncé la mort de


la classe ouvrière. En tant que groupe social, elle avait
définitivement perdu sa cohésion et son identité culturelle, en plus
de son rôle d’acteur du progrès social.
Gorz n’aurait pas pu choisir pire moment pour partager cette
pensée. Aujourd’hui, la main-d’œuvre compte deux fois plus
d’individus qu’autrefois. La délocalisation, la mondialisation et
l’entrée d’anciens pays communistes dans le marché mondial ont
contribué à l’augmentation spectaculaire du nombre de travailleurs
salariés, qui sont maintenant plus de trois milliards1. Ce faisant, la
définition même du salarié a radicalement changé. Pendant environ
cent cinquante ans, le terme « prolétariat » désignait la main-
d’œuvre principalement composée d’hommes blancs qui résidait
dans les pays développés. Trente ans plus tard, ce que l’on nomme
« prolétariat » désigne une main-d’œuvre multiethnique
principalement constituée de femmes majoritairement originaires du
Sud.
D’une certaine manière, Gorz avait raison. Au cours des trente
dernières années, nous avons pu constater une baisse du nombre
de travailleurs syndiqués, du pouvoir de négociation des syndicats
dans les pays développés ainsi qu’une diminution de la part des
salaires dans le PIB. Voici les causes principales du problème
déploré par Thomas Piketty : l’incapacité des travailleurs à défendre
leur part du PIB, et l’augmentation des inégalités2.
Outre un faible pouvoir de négociation, les mouvements syndicaux
ont vu leur idéologie s’écrouler, et cela se ressent tout aussi bien
dans les usines de Nairobi et de Shenzhen que dans les villes des
rust belt européennes et américaines. L’échec politique de la gauche
après 1989 fut tel que, comme l’écrit le philosophe Fredric Jameson,
il était devenu plus facile de s’imaginer la fin du monde que celle du
capitalisme3. De manière plus crue, il est devenu impossible de
concevoir que cette classe ouvrière en particulier, totalement
désorganisée et en proie au consumérisme et à l’individualisme,
puisse un jour renverser le capitalisme.
Ces vieilles images de grèves massives, de barricades et de
gouvernements prolétaires et soviétiques semblent tout droit sorties
d’une utopie dans un monde où le facteur clé – la solidarité sur le
lieu de travail – a complètement disparu.
Les plus optimistes parmi la gauche répliquèrent en affirmant que
les échecs étaient cycliques. L’argument était plausible : on discerne
des périodes de formation et de dissolution des mouvements
syndicaux à travers l’Histoire, des périodes qui ressemblent à s’y
méprendre aux cycles longs de Kondratiev.
Mais ils avaient tort. Le changement est d’une tout autre ampleur.
Ceux qui s’accrochent à l’idée que le prolétariat est la seule force
capable de faire progresser la société au-delà du capitalisme
passent à côté de deux caractéristiques fondamentales du monde
d’aujourd’hui : d’une part, effectuer la transition vers le
postcapitalisme nécessitera de recourir à des méthodes nouvelles,
d’autre part, il est probable que l’acteur du changement ne soit rien
de moins que l’ensemble de la population mondiale.
La nouvelle main-d’œuvre des usines bangladaises et chinoises
est née d’un processus tout aussi violent que celui qu’ont subi les
travailleurs anglais il y a de cela deux cents ans. En effet, comment
oublier les contrats que l’on faisait signer en 2010 dans les usines
Foxconn d’Apple en Chine qui obligeait les travailleurs à promettre
de ne pas se suicider à cause du stress ?4
Cela dit, dans notre cas, l’industrialisation échoue à balayer les
tissus sociaux et idéologiques de l’ère préindustrielle. Les conflits
ethniques, le village connecté, le fondamentalisme religieux ainsi
que le crime organisé sont autant d’obstacles que les syndicalistes
du Sud rencontrent souvent, et échouent à franchir. En plus de cela,
un autre problème se pose : j’ai nommé « l’empreinte élargie de
l’individu », ou la capacité d’un individu en réseau d’endosser
plusieurs identités5.
Et, bien que cette main-d’œuvre nouvelle ait été créée il y a vingt-
cinq ans pour servir de périphérie par rapport à la main-d’œuvre
centrale du capitalisme occidental, elle est aujourd’hui trop divisée
entre son centre et sa périphérie. Une étude menée par l’OIT portant
sur la répartition de la main-d’œuvre du Sud en fonction des revenus
a révélé que chaque classe de revenus (de 2 à 5 dollars par jour)
comptait le même pourcentage de travailleurs d’usine, ce qui signifie
que le secteur industriel contemporain comprend à la fois des
travailleurs pauvres et précaires, mais aussi des personnes ayant un
meilleur statut et des revenus plus élevés. Les usines du Nigeria
comptent autant de catégories de revenus que celles de Cologne ou
de Nashville.
La cohésion sociale permettait l’épanouissement des mouvements
syndicaux. C’est au sein d’économies locales qui reposaient sur
l’industrie et parmi les communautés dont les traditions politiques
survivaient aux progrès technologiques qu’ils prospéraient le plus.
Le néolibéralisme a fini par provoquer la division de ces
communautés des pays développés, et a rendu leur création difficile
au sein du monde extérieur.
Entre le travail précaire, l’extrême pauvreté, les travailleurs
immigrés et les conditions de vie des bidonvilles, impossible de
développer dans le Sud quoi que ce soit qui corresponde à la
cohésion et à la lucidité du mouvement ouvrier occidental à son
apogée. Ce n’est que lorsqu’elle bénéficie d’une base solidement
ancrée au sein des mouvements syndicaux qu’une élite peut
prétendre exercer la même influence dont elle a pu jouir au
e
siècle. On peut citer l’Argentine et les Kirchner par exemple, ou
encore l’Afrique du Sud et le Congrès national africain. Pendant ce
temps, dans les pays développés, bien qu’un noyau de militants
syndicaux s’accroche aux anciennes méthodes et à leur culture, un
groupe social émergent constitué de jeunes travailleurs précaires a
constaté, comme à Athènes en décembre 2008, qu’il était plus facile
de squatter des bâtiments et de faire des émeutes que d’adhérer à
un syndicat.
André Gorz, qui avait tort sur bien des choses, en avait bien saisi
les causes. Le travail – l’activité par excellence du capitalisme –
n’est plus au cœur du système, aussi bien en termes d’exploitation
que de résistance.
Selon Gorz, à cause de l’énorme gain en productivité que l’on doit
aux ordinateurs et à l’automatisation, les luttes sociales ne se jouent
plus sur le lieu de travail, mais en dehors. Toutes les utopies
ouvrières sont condamnées, affirme-t-il, le marxisme en tête. Elles
devront être remplacées par d’autres utopies, pour lesquelles il
faudra se battre hors du cadre rassurant des références historiques
et sans l’aide d’une classe désignée comme étant l’instrument
inconscient de la libération. Voilà un présage des plus funestes et
dénués de sens pour ces syndiqués qui se serraient les bras sur les
piquets de grève dans les années 1980. Aujourd’hui, la pensée de
Gorz se fonde sur quelque chose de bien plus tangible que les
désillusions.
Comme nous l’avons vu, les technologies de l’information
éliminent la main-d’œuvre des chaînes de production, détruisent les
mécanismes des prix et favorisent des formes d’échange non
marchandes. À terme, elles briseront le lien entre la main-d’œuvre et
la valeur.
Si tel est le cas, c’est parce que l’un des facteurs du déclin actuel
du travail syndiqué n’est pas purement cyclique ou encore le résultat
d’un échec, mais plutôt aussi ancien que son apparition il y a deux
siècles. Si le capitalisme doit avoir un début, un milieu et une fin, il
doit en aller de même pour l’histoire du travail syndiqué.
Comme toute chose de la nature, et selon la logique dialectique, la
fin est généralement un moment de « sublation » – un concept qui
combine la destruction de quelque chose et sa survie par sa
transformation simultanée en autre chose. Bien qu’elle n’ait pas
encore disparu, la classe ouvrière traverse une période de sublation.
Elle survivra sous une forme si différente qu’elle ressemblera
probablement à tout autre chose que ce que l’on connaît maintenant.
En tant que sujet historique, elle se verra remplacée par une
population diversifiée et mondialisée dont le champ de bataille est
constitué de tous les secteurs de la société et dont le mode de vie
ne relève pas de la solidarité, mais plutôt de son caractère
éphémère.
Ceux qui furent parmi les premiers à déceler ces individus
connectés les ont pris à tort pour des nihilistes qui ne pourraient
jamais faire changer les choses. Bien au contraire, j’affirme (dans
Why It’s Kicking Off Everywhere, paru en 2012) que la nouvelle
vague de luttes qui a débuté en 2011 prouve que ces individus
connectés se battent réellement et personnifient des valeurs
communes déterminées par la technologie, et ce, partout où ils
descendent dans la rue.
Si tout ceci est vrai, alors il devient nécessaire d’affirmer quelque
chose que les gauchistes auront du mal à entendre : Marx s’est
trompé à propos de la classe ouvrière. Le prolétariat était la chose
qui se rapprochait le plus d’un sujet historique à la fois uni et instruit
que la société humaine ait jamais produite. Mais deux siècles
d’expérience nous ont prouvé que le prolétariat était plus préoccupé
par le fait de « vivre malgré le capitalisme » plutôt que de le
renverser.
Face aux crises sociales et politiques souvent causées par les
guerres et les répressions, les travailleurs n’avaient pas d’autre
choix que se révolter. Les rares fois où ils obtinrent le pouvoir, ils
n’ont pu empêcher son usurpation par des élites agissant sous une
fausse bannière. La Commune de Paris en 1871, Barcelone en
1937, ou encore les révolutions russes, chinoises et cubaines
suffisent à le prouver.
La littérature de gauche n’a de cesse de se justifier de ces deux
siècles de défaite : l’État était trop fort, les chefs étaient trop faibles,
l’« aristocratie ouvrière » trop influente, le stalinisme a assassiné les
révolutionnaires et fait taire la vérité. En fin de compte, toutes ces
excuses se résument à un contexte peu favorable ou à de mauvais
chefs.
Les mouvements syndicaux représentaient – au sein d’un système
inhumain – un espace de liberté dans lequel les valeurs humaines
pouvaient s’exprimer. Parmi les profondeurs de la misère, ils ont
donné naissance aux créateurs de ce que nous appelons aujourd’hui
le « joyeux bordel » : martyrs, autodidactes et saints séculiers. Mais,
loin d’être le porteur latent du socialisme, le prolétariat était très au
fait de ce qu’il désirait, et il l’exprimait à travers ses créations. Il
aspirait à un capitalisme qui tolérerait mieux sa survie.
Ce n’était pas là le produit d’un cerveau arriéré. C’était une
stratégie pleinement assumée, basée sur une idée que la pensée
marxiste n’a jamais pu s’approprier : la persistance de la
compétence, de l’autonomie et du statut dans la vie de la classe
ouvrière.
Une fois que nous avons compris ce qui est réellement arrivé au
travail au cours des quatre cycles longs du capitalisme industriel,
l’importance de sa transformation dans le cinquième cycle saute aux
yeux. Les technologies de l’information peuvent nous permettre de
supprimer le travail. La seule chose qui l’empêche, c’est cette
structure sociale que nous appelons « capitalisme ».

1771-1848 : la manufacture comme champ


de bataille
La première vraie manufacture fut construite en Angleterre à
Cromford, en 1771. Le socle en pierre sur lequel la première
machine avait été installée est toujours là. Pour n’importe quel
humaniste, ce hall de pierre froid et humide est une terre sacrée.
C’est l’endroit même où la justice sociale a cessé d’être un rêve et
est devenue, pour la première fois dans l’histoire de l’humanité,
quelque chose pour laquelle on pourrait se battre et triompher.
Dans les années 1770, la pièce était pleine de femmes et
d’enfants qui, au milieu d’une épaisse couche de poussière de
coton, s’affairaient sans dire un mot devant des métiers à tisser
complexes, conduits par des hommes adultes connus sous le nom
de « tourneurs ». Tous les ouvriers de la manufacture n’avaient pas
eu d’autre choix que d’adopter cette nouvelle culture d’entreprise :
suivre l’horloge du patron plutôt que celle du corps ; focaliser toute
son attention sur la tâche à accomplir ; obéir au doigt et à l’œil, et ne
pas hésiter une seconde à se mettre en danger treize heures par
jour. Les autres groupes sociaux avaient leurs propres racines, leur
propre culture et leurs propres traditions, mais pas la main-d’œuvre
des manufactures, la faute à son caractère innovant et singulier. Au
cours des trente premières années, cette absence totale d’identité a
permis au système de fonctionner tout en faisant abstraction des
vies qu’il détruisait implacablement.
Mais les travailleurs ont riposté. Ils se sont organisés ; ils ont bâti
une culture fondée sur l’apprentissage autonome, puis, au moment
où la croissance économique a commencé à s’essouffler, en 1818-
1819, ils se sont lancés dans des grèves de masse qui ont établi le
lien entre les questions salariales et les questions démocratiques.
Pour la Grande-Bretagne, c’était le début d’une crise politique
longue de vingt années marquée par des violences révolutionnaires
répétées.
Marx et Engels, qui ont commencé à coucher leur pensée sur
papier plus de vingt ans après le début de ce mouvement, c’est-à-
dire au début des années 1840, ont vu dans la classe ouvrière une
solution toute faite à une certaine question philosophique. La classe
moyenne allemande de gauche avait adopté une forme de
communisme exubérant : elle aspirait à une société sans classe,
fondée sur l’absence de propriété, de religion, et désirait s’affranchir
du travail une bonne fois pour toutes. Marx avait soudainement
découvert dans la classe ouvrière une force qui pouvait faire advenir
cela.
Marx avait affirmé que c’était l’extrême négativité de la vie des
travailleurs qui leur avait donné leur destinée. Selon la pensée
marxiste, l’absence de propriété, de métier, de savoir-faire, de
religion et de vie de famille ainsi que leur mise à l’écart définitive de
toute société respectable ont fait du prolétariat les porteurs d’un
nouveau système social. Il lui faudrait tout d’abord prendre
conscience de la réalité des classes et ensuite prendre le pouvoir
pour mettre un terme à la propriété et à l’aliénation du travail, avant
d’instaurer le communisme.
Une meilleure manière de résumer la relation du prolétariat avec
la destinée serait : c’est compliqué.
Les travailleurs prirent bel et bien conscience de leurs intérêts
collectifs. Le contexte très difficile des années 1810 ne les a pas
empêchés d’être à l’origine de quelque chose de très positif : non
pas une « conscience socialiste », mais plutôt un mouvement
républicain révolutionnaire qui portait en lui les principes de savoir,
d’humanité et de solidarité.
En 1818, la plupart des tourneurs de coton de Manchester se
mirent en grève. Au cours de l’année 1819, dans tout le nord de
l’Angleterre, des travailleurs organisèrent des cours du soir et des
clubs, menèrent des débats politiques, élurent des délégués aux
comités municipaux et formèrent des collectifs en faveur des
femmes. Fruit de ces réunions, un mouvement de grande ampleur
en faveur de la démocratie fut lancé à l’été 1819 : des
rassemblements publics non officiels furent organisés pour élire des
membres non officiels du Parlement. Le 16 août 1819,
100 000 travailleurs s’étaient illégalement rassemblés à St Peter’s
Field à Manchester pour manifester, ce à quoi le gouvernement
répondit en faisant charger la cavalerie.
Le massacre de Peterloo marqua le véritable commencement du
mouvement syndical des manufacturiers. Il a également déclenché
la première tentative de résolution des conflits sociaux par
l’automatisation.
En théorie, seuls des hommes pouvaient exercer le métier de
tourneur, car la machine à filer, connue sous le nom de mule-jenny,
nécessitait une grande force pour pousser et tirer d’avant en arrière
et quatre fois par minute l’ensemble de fuseaux dont elle était dotée.
En pratique, les femmes étaient assez fortes pour le faire. La vraie
raison était d’ordre social : il était plus facile d’imposer de la
discipline dans les manufactures par la création d’une classe
ouvrière constituée d’hommes bourrus qui étaient mieux payés qu’en
s’attaquant directement aux femmes et aux enfants6.
Dès que ces hommes se mirent à militer dans les années 1820,
l’unique solution qui restait était de les éliminer en les remplaçant
par des machines. En 1824, le brevet d’une mule automatique fut
déposé, et, bientôt, des milliers d’exemplaires furent utilisés. Les
directeurs d’usines avaient affirmé que, dans le futur, les machines
seraient entièrement contrôlées par des femmes et des enfants
puisque « les préposés n’ont rien d’autre à faire que de surveiller
leurs mouvements7 ».
C’est l’inverse qui s’est produit.
En réponse à l’emploi des femmes, les filateurs se mirent en grève
plusieurs fois après 1819. Ils refusèrent de former des femmes aux
métiers qui leur permettraient de se qualifier davantage et firent
pression pour que ce soient leurs propres fils qui soient
sélectionnés. Au cours des années 1820 et 1830, la minorité de
femmes qui avaient conservé des emplois dans la filature en fut
chassée ; dans les années 1840, l’hégémonie masculine était totale.
Et, comme l’a montré l’historienne Mary Friefeld, les nouvelles
machines n’ont pas éliminé la demande en main-d’œuvre hautement
qualifiée ; elles ont simplement remplacé un savoir-faire ancien par
un nouveau : « Une tâche hautement complexe a été remplacée par
une autre, tandis que les notions de contrôle qualité et de
concentration sont restées les mêmes8. »
J’ai pris le temps de bien décrire ce qu’il s’est passé à l’époque,
car l’Histoire s’est répétée au cours des deux siècles qui ont suivi.
On ne peut pas résumer l’histoire du travail à la combinaison de
l’économie et de la technologie ; cette histoire porte en elle les
interactions entre la technologie et les organisations créées par les
travailleurs ; elle implique également le développement d’un rapport
de force basé sur l’âge, le genre et l’ethnie.
Plus précisément, cette étude de cas fait voler en éclats un des
passages du Capital les plus chers aux lecteurs de Marx, car il
s’était servi, alors qu’il rédigeait son livre dans les années 1850, de
la mule-jenny comme principal exemple de la tendance du
capitalisme à déqualifier le travail pour supprimer la main-d’œuvre. Il
écrit que la machine, la mule automatique en tête de liste, devient
l’arme de guerre la plus irrésistible pour réprimer les grèves9.
Nous pouvons faire remonter la source de la confusion jusqu’à
son collaborateur, Frederick Engels. Lorsqu’Engels est arrivé à
Manchester en 1842, la totalité de la main-d’œuvre de la ville était
en grève et avait subi une défaite. Avec l’aide de sa compagne
ouvrière, Mary Burns, Engels, alors âgé de 22 ans, fit le tour des
manufactures, des bidonvilles et des bourses du coton en quête de
preuves tangibles qui l’aideraient à rédiger la première étude
sérieuse de sociologie matérialiste : La situation de la classe
ouvrière en Angleterre en 1844.
En tant qu’anthropologue, Engels avait eu raison sur beaucoup de
choses : la réalité des bidonvilles, l’absence quasi totale de
pratiques religieuses et de respect parmi les travailleurs, leur
addiction à la boisson, à l’opium et aux aventures sans lendemain.
Ce qu’il n’a pas réussi à saisir, c’est l’impact de la mule automatique.
Selon lui :
« Tous les perfectionnements rejettent de plus en plus sur la
machine le véritable travail, le travail fatigant, transformant ainsi le
travail des adultes en une simple surveillance que peut tout aussi
bien assumer une faible femme, voire un enfant, ce qu’ils font
effectivement pour le tiers ou la moitié du salaire de l’ouvrier […] les
hommes adultes sont de plus en plus écartés de l’industrie et ne
sont plus réemployés10. »
À sa décharge, Engels s’était appuyé sur des éléments de preuve
que leur avaient fourni des filateurs radicaux qui, dans un contexte
économique défavorable et en proie au désarroi après la grève de
1842, avaient été émis au chômage. Cependant, l’impact à long
terme de l’automatisation s’est finalement traduit par un
renforcement de la position des fileurs masculins qualifiés et une
augmentation de leur nombre11. De nombreuses études, notamment
celles du professeur William Lazonick de l’université du
Massachusetts, montrent que le savoir-faire, la domination
masculine ainsi qu’une structure de pouvoir complexe au sein des
travailleurs masculins avaient survécu à l’arrivée de la
mécanisation12.
Ainsi, le premier contact entre le marxisme et la classe ouvrière
syndiquée fut à l’origine d’un énorme malentendu, non seulement à
propos du savoir-faire, mais aussi à propos du type de prise de
conscience politique qu’elle adopte.
Marx partait du principe que les travailleurs désiraient mettre un
terme à la propriété parce qu’ils ne pouvaient pas y accéder, ils
voulaient également en finir avec la division des classes sociales,
car ils ne pouvaient pas en bénéficier, et ça, ils le feraient sans avoir
besoin de développer une économie alternative au sein du vieux
système.
Pourtant, l’histoire du mouvement ouvrier anglais d’avant 1848 ne
le confirme pas. C’est une histoire de positivité, de préservation et
d’amélioration du savoir-faire, de grands rassemblements sur les
collines, de cercles d’études et de coopératives. C’est une histoire
qui, au-delà de ça, a produit une culture ouvrière vivante de
musique, de poésie, de folklore, de journalisme et de librairies. En
somme, ce que la pensée marxiste estimait vide de tout était, en fait,
plein de vie.
Quiconque veut défendre la pensée matérialiste à propos de
l’Histoire doit pleinement accepter ce que cela signifie : Marx s’est
trompé à propos de la classe ouvrière. Il a eu tort de penser que
l’automatisation allait détruire le savoir-faire ; tort d’affirmer que le
prolétariat n’était pas en mesure de produire une culture durable au
sein d’un système capitaliste. Une telle culture avait vu le jour dans
le Lancashire avant même qu’il sorte de l’université.
En tant que disciple de Hegel, Marx avait toujours insisté sur le fait
que le sujet des sciences sociales devait être « la chose dans son
ensemble » : la chose dans un processus de devenir et de mourir ;
la chose dans ses contradictions ; la chose officielle, mais aussi la
chose sous-jacente, cachée. Il avait rigoureusement suivi cette
méthode en étudiant le capitalisme. Avec la classe ouvrière, cette
rigueur lui avait fait défaut.
Le caractère anthropologique de la pensée d’Engels à propos de
la classe ouvrière de 1842 est élaboré, rigoureux et bien défini. La
théorie marxiste du prolétariat ne l’est pas : elle réduit toute une
classe sociale à une idée philosophique. Et elle était sur le point
d’être totalement réfutée.

1848-1898 : l’homme contre la machine


e
À la fin du siècle, les syndicats avaient tissé des liens
permanents avec le secteur industriel. La plupart de ces syndicats
étaient menés par des ouvriers qualifiés aux tendances politiques
modérées, cependant, ils défendaient ardemment leur autonomie
sur leur lieu de travail.
Il a fallu attendre 1892 pour que l’ouvrage d’Engels à propos de la
classe ouvrière britannique soit publié ; au moment de sa parution,
ce livre appartenait déjà au passé. La préface de son œuvre en fait
mention et se pose à la fois comme un bon exemple de réflexion à
propos de la nature adaptative du capitalisme et de jugement erroné
quant aux facteurs de modération politique des ouvriers.
En Grande-Bretagne, après l’effondrement du mouvement radical
républicain en 1848, la classe ouvrière s’est rassemblée et
organisée par le biais des syndicats, qui étaient alors conduits par
les ouvriers qualifiés. Partout où l’industrialisation voyait le jour,
notamment dans les secteurs de la métallurgie et de l’ingénierie, le
principe de l’ouvrier qualifié et autonome devenait la norme. Le
radicalisme et le socialisme utopique furent mis sur la touche.
Engels a tout d’abord tenté de trouver une explication dans
l’économie. Après 1848, il avait vu dans les nouveaux marchés, les
nouvelles technologies et l’accroissement du volume d’argent en
circulation, les prémices d’« une nouvelle époque industrielle » (ce
que Kondratiev a appelé « second cycle de longue durée ») qui
prendrait fin dans les années 1890. Il a retenu un élément essentiel
de ce paradigme technologique : la synergie du capital et de la main-
d’œuvre.
Le système était tellement rentable que les patrons britanniques
n’avaient plus besoin de recourir à des méthodes dignes de celles
d’Oliver Twist. Le temps de travail était limité à dix heures par jour, la
part du travail des enfants était moindre, et l’urbanisme avait
contribué à l’éradication des maladies en ville. Désormais, affirme
Engels, les industriels étaient en mesure d’« éviter des conflits
inutiles et de s’accommoder de l’existence et de la puissance des
Trade-Unions13 ».
La quantité de main-d’œuvre n’a pas cessé d’augmenter, jusqu’à
inclure des millions d’ouvriers non qualifiés, pauvres et précaires.
Cela étant, Engels avait décelé une « amélioration permanente »
chez deux groupes spécifiques : les ouvriers d’usine et ceux des
« grands syndicats », c’est-à-dire les emplois qualifiés
majoritairement occupés par des hommes adultes.
Engels affirme que les ouvriers étaient politiquement modérés, car
ils « pouvaient profiter des effets de l’hégémonie britannique ». Il n’y
avait pas que les ouvriers qualifiés – qu’Engels avait regroupés dans
une catégorie sociale qu’il avait appelée « aristocratie de la main-
d’œuvre » – qui bénéficiaient de la chute des prix réels provoquée
par l’influence de l’Empire britannique : la population générale avait,
elle aussi, pu en récolter les fruits. Cependant, il estimait que
l’avantage concurrentiel de la Grande-Bretagne était temporaire, et
que les privilèges dont jouissait la main-d’œuvre qualifiée l’étaient
tout autant.
Dans le même temps, chez les travailleurs des autres pays
développés, il n’avait vu que des débuts de volonté de rébellion ainsi
que des niveaux d’aliénation similaires à ceux d’avant 1848. C’est
ainsi que, vers la fin des années 1880, Engels essaie pour la
deuxième fois d’expliquer l’absence d’apparition d’un communisme
ouvrier : la Grande-Bretagne avait acheté ses travailleurs en
exploitant sa puissance impériale, mais, lorsque le reste du monde
rattrapera la Grande-Bretagne, la tendance politiquement modérée
des ouvriers disparaîtra.
Engels n’avait pratiquement rien compris à la situation. Le savoir-
faire, la passivité et la modération politique étaient omniprésents
chez l’ensemble de la main-d’œuvre des pays développés au cours
de la seconde moitié du e siècle. Nous pourrions nous inspirer d’un
grand nombre d’études de cas, certaines des plus détaillées ayant
été menées au Canada.
Le récit de Gregory Kealey sur les fabricants de tonneaux de
Toronto montre comment, dans chaque atelier, le syndicat fixait le
prix de la main-d’œuvre. Les salaires n’étaient pas négociés. Les
tonneliers se rassemblaient, proposaient une liste de prix, puis soit
les patrons les acceptaient, soit ils se mettaient en grève. À
l’exemple des ouvriers qualifiés du monde entier, et bien que la
semaine de travail comptât six jours, les tonneliers avaient pour
habitude de prendre leur lundi, jour surnommé Blue Monday, un jour
de repos non officiel au lendemain d’une soirée de beuverie.
Ces tonneliers jouissaient d’un droit de regard total sur leur travail.
Ils possédaient leurs propres outils, d’ailleurs, le terme utilisé pour
désigner une action de grève était « retirer ses outils de l’atelier ». Ils
exerçaient un contrôle étroit sur l’accès à l’apprentissage. Ils
limitaient la production pendant les périodes de ralentissement
économique afin de maintenir les salaires à un niveau élevé. Ces
conditions, c’est à des réunions secrètes, des poignées de mains
maçonniques, des serments, des rituels ainsi qu’à leur solidarité
sans faille qu’ils les doivent.
Le syndicat n’était que la première strate d’un système fait de
nombreuses institutions aux relations complexes. « La culture de
l’ouvrier du e siècle, écrit Bryan Palmer dans une étude sur les
travailleurs de Hamilton, en Ontario, est caractérisée par une riche
vie associative qui avait été institutionnalisée à travers une société
conviviale, un institut de mécanique, des communautés sportives,
des compagnies de pompiers [c’est-à-dire des brigades de pompiers
volontaires] et des clubs d’ouvriers. À ces relations formelles
s’ajoutent les liens, moins structurés, mais tout aussi tangibles, du
voisinage, du lieu de travail ou de la parenté, qui se manifestent
dans l’intimité d’une table de bar ou lors du rituel du charivari et des
spectacles de marionnettes Punch & Judy14. »
Sur le lieu de travail, ce type de contrôle informel exercé non
seulement sur les salaires, mais aussi sur le travail lui-même,
touchait jusqu’aux secteurs industriels les plus récents15.
Cet extraordinaire niveau de contrôle informel exercé par les
travailleurs n’était pas la conséquence d’un événement passé, il
avait été rendu possible par les progrès technologiques du milieu du
siècle. Les technologies clés du deuxième cycle long, le télégraphe,
les locomotives à vapeur, l’impression, le fer et l’industrie lourde,
relevaient principalement du travail manuel. Cela signifiait que
disposer d’une main ferme associée à un cerveau affuté pesait
beaucoup sur la balance. L’une des formules qui reflétaient au mieux
cette réalité disait : « Le cerveau du responsable sous la casquette
de l’ouvrier ». Pour éviter que le savoir-faire ne dépasse
constamment l’automatisation, les patrons auraient besoin d’une
« machine à penser », avertit le chef du syndicat des tonneliers de
Toronto16. Mais cela n’arriverait pas avant cent ans.
Lors de la période de décroissance du deuxième cycle long
d’après 1873, les industriels avaient essayé d’imposer les emplois
peu qualifiés et l’automatisation, mais ils échouèrent. Comme le
souligne Kealey à propos de la main-d’œuvre qualifiée de Toronto
dans les années 1890 : « Ils se sont confrontés à la machine et ont
triomphé17. » Dans les années 1890, l’existence d’une catégorie de
travailleurs qualifiés, privilégiés et syndiqués est devenue une
caractéristique générale du capitalisme, et non le produit de
l’avantage concurrentiel d’une nation.
Les effets combinés de l’autonomie qualifiée, de la « vie
associative riche » et de la croissance des partis sociaux-
démocrates ont forcé le capitalisme à s’adapter de nouveau. Après
avoir « rencontré la machine et triomphé », le travailleur syndiqué
e
allait, dans la première moitié du siècle, rencontrer le
responsable scientifique, le bureaucrate et, finalement, le gardien de
camp de concentration.

1898-1948 : « Ramasse une gueuse et marche ! »


En 1898, alors qu’il était ingénieur en chef à la gare de fret de la
Bethlehem Steel Corporation en Pennsylvanie, Frederick Winslow
Taylor trouva une solution au problème de l’autonomie des ouvriers
qui se posait depuis un siècle.
« Ramasse une gueuse et marche ! » disait Taylor à ses ouvriers,
une gueuse étant un morceau de fer dont le poids était d’environ
40 kg. En tenant compte non seulement du temps qu’il leur fallait
pour transporter le fer, mais aussi des gestes qu’ils effectuaient,
Taylor avait réussi à démontrer qu’il était possible de modulariser les
étapes du travail à l’usine. Les tâches pouvaient être divisées en
tâches plus petites et faciles à apprendre, avant d’être attribuées à
des ouvriers moins qualifiés que ceux qui les effectuaient déjà.
Les résultats de la méthode de Taylor furent surprenants : la
productivité a pratiquement quadruplé. Taylor motivait ses ouvriers
en augmentant leur salaire, qui était passé de 1,15 $ par jour à
1,85 $18. Cette « science », selon les termes employés par Taylor,
impliquait l’affectation d’un chef à la stricte surveillance des temps
de repos des ouvriers, voire de leur vitesse de marche. Taylor disait
à propos des hommes adaptés à ce type de travail qu’ils étaient
« tellement stupides et flegmatiques qu’ils se rapprochent
mentalement plus du bovin que d’autre chose ». C’est sur la base de
cette pensée qu’est née l’organisation scientifique du travail. Bientôt,
Taylor appliquerait ses méthodes dans d’autres lieux de travail. Il
avait complètement revu les procédés de fabrication d’une usine de
production de roulements à billes, permettant ainsi de réduire la
main-d’œuvre, faisant passer son effectif de 120 à 35 personnes
sans faire baisser la production et en augmentant la qualité du
produit fini. Selon lui : « Cela impliquait de licencier un grand nombre
de femmes parmi les plus intelligentes, les plus travailleuses et les
plus dignes de confiance, tout simplement parce qu’elles ne
possédaient pas la capacité de percevoir rapidement les choses et
de réagir tout aussi rapidement19. »
À première vue, le taylorisme n’était qu’une question de temps et
de gestes. Mais son véritable objectif était de diviser et stratifier la
main-d’œuvre : on choisissait certains ouvriers parmi les plus
éduqués et on les affectait à l’encadrement, l’organisation et la
formation des strates inférieures de la main-d’œuvre, puis on
imposait une forme extrêmement rigide de contrôle de gestion.
Taylor se vantait de « rendre impossible toute forme de conflit social
ou de grève20 ». L’ensemble du projet avait été conçu pour
contrebalancer l’autonomie dont jouissaient les ouvriers les plus
qualifiés. Le but était d’écarter le plus possible le travail intellectuel
du travail manuel.
Bien qu’il n’ait jamais entendu parler de Taylor, Henry Ford mit en
œuvre en 1913 la deuxième grande innovation nécessaire à
l’introduction du travail semi-spécialisé : la chaîne de production.
Chez Ford, tout comme chez la Bethlehem Steel Corporation, les
salaires avaient été augmentés en échange d’une obéissance
absolue. Une politique d’embauche antisyndicaliste des plus rigides
permettait un contrôle de gestion sans failles. Les trois quarts de la
main-d’œuvre originale de Ford étaient constitués d’immigrants de la
première génération, la plupart étaient jeunes.
Taylor, Ford, ainsi que tous ceux qui suivirent ont effectivement
transformé la classe ouvrière. La strate composée d’ouvriers
manuels qualifiés a survécu, les fabricants de machines-outils en
tête de liste. Mais la classe ouvrière comptait désormais une élite en
col blanc dans ses rangs. Ces employés de bureau devaient leur
salaire plus élevé au nouveau système, qui faisait la part belle à la
gestion. Il était possible d’intégrer cette élite au mérite, et non plus
seulement grâce au pistonnage ou aux programmes d’apprentissage
longs de sept ans, comme ce fut le cas pour les ingénieurs et les
filateurs ; d’ailleurs, certains secteurs facilitaient l’accès des femmes
à ces professions intellectuelles.
Les travailleurs semi-qualifiés avaient contribué au processus
d’innovation d’une manière unique : ils adaptaient leurs
compétences aux nouvelles machines sans subir les restrictions
imposées par les syndicats professionnels. Il y avait toujours besoin
d’ouvriers peu qualifiés, mais la demande avait tendance à se
polariser vers les travailleurs manuels semi-qualifiés.
Bien que tout le système fût conçu dans le but d’induire une
certaine forme de passivité, il demeure un échec. Personne n’aurait
pu anticiper une telle restructuration de la classe ouvrière, qui était
mieux éduquée, avant de se politiser et d’adopter des tendances
radicales. Les « bovins stupides » de Taylor avaient appris à lire, pas
seulement des romans de gare, mais aussi de la philosophie. Les
secrétaires et autres standardistes en col blanc deviendraient bientôt
les agitateurs et les éducateurs des grandes réunions socialistes.
La dure réalité de l’élan syndical des années 1900 est frappante.
En 1903, la percée électorale du SPD allemand lui permit d’obtenir
31 % des voix. Dans l’empire tsariste de 1905, un mouvement
ouvrier clandestin s’était constitué par le biais de conseils ouvriers
(soviets) et de milices armées. En 1905 et 1906, l’industrie française
avait été paralysée par des grèves, tandis que les effectifs syndicaux
avaient doublé en une décennie. Aux États-Unis, le taux de
syndicalisation avait triplé en dix ans, alors que la population active
augmentait de 50 %21.
Les villes ouvrières étaient devenues les plaques tournantes d’une
culture moderne, de clubs, de bibliothèques, de chorales et de
crèches, de distinction du mode de vie ouvrier et, surtout, de la
résistance au sein des murs de l’usine.
De 1910 à 1913, les travailleurs peu qualifiés déclenchèrent une
série de grèves qui se sont propagées dans le monde entier, connue
sous le nom de « Grande fièvre ouvrière » et dont l’enjeu principal
était le pouvoir. Le syndicat des mineurs gallois avait défini une
stratégie qui fut mise en œuvre partout : « Tous les ouvriers d’une
industrie doivent s’organiser de manière à pouvoir se battre, à
prendre le contrôle de cette industrie et à en assurer la gestion […]
en laissant aux hommes le soin de déterminer les conditions et la
méthode selon lesquelles le travail doit être effectué22. »
C’était comme si, à travers leur offensive sur les anciens modes
de gestion artisanaux du lieu de travail, Taylor et Ford avaient créé
une demande plus élaborée de contrôle démocratique parmi les
travailleurs.
La Grande fièvre ouvrière prit fin à cause des effets combinés de
la récession économique qui avait commencé en 1913 et d’une
répression sévère. Lorsque la guerre fut déclarée en août 1914, on
aurait dit que tout ceci n’avait été qu’un rêve. Avant de se pencher
sur ce qui se passe après, demandons-nous comment les marxistes
de l’époque ont perçu cette restructuration de la classe ouvrière.
Pour faire court, ils n’ont rien compris.

Lénine et les aristocrates


En 1902, le révolutionnaire russe en exil Vladimir Lénine écrit un
pamphlet qui, bien qu’il n’eût que peu d’impact à l’époque, allait
s’inscrire comme élément majeur de la pensée d’extrême gauche du
e
siècle. Dans Que faire ? Lénine affirme, à tort, que les travailleurs
sont incapables de comprendre le rôle qui leur a été donné dans le
projet marxiste. La conscience politique socialiste « ne peut être
apportée à l’ouvrier que de l’extérieur. L’histoire de tous les pays
atteste que, par ses seules forces, la classe ouvrière ne peut arriver
qu’à la conscience syndicale23 », écrit-il. Il est nécessaire, selon lui,
de « dévier » les mouvements syndicaux de leur caractère
spontanément modéré, et de les orienter vers une volonté de prise
de pouvoir. C’est complètement à l’opposé de ce que pensait Marx à
propos de la classe ouvrière. Selon Marx, la classe ouvrière est un
acteur de l’Histoire indépendant ; selon Lénine, c’est plutôt un réactif
qui a besoin de ce catalyseur qu’est le parti avant-gardiste dirigé par
des intellectuels pour déclencher le processus historique.
En 1914, Lénine devait faire face à un nouveau problème :
pourquoi les travailleurs – qui défendaient si ardemment leurs
salaires et la démocratie durant la Grande fièvre ouvrière – étaient
enthousiasmés ou, au contraire, paralysés par le patriotisme qui
avait vu le jour au déclenchement de la guerre ?
Pour expliquer ce phénomène, Lénine s’est appuyé sur la théorie
de l’« aristocratie ouvrière » d’Engels et l’a complètement inversée.
Au lieu de supprimer l’élite constituée d’ouvriers qualifiés qui s’était
formée en Grande-Bretagne, dit Lénine, la ruée vers les colonies à
laquelle ont participé tous les pays industriels a fait de l’aristocratie
ouvrière la caractéristique permanente du capitalisme moderne. Ces
colonies étaient la source de patriotisme et de modération politique
qui polluaient les mouvements syndicaux. Heureusement, un plus
grand réservoir de travailleurs peu qualifiés demeurait et fournissait
les matières premières de la révolution. Lénine affirme que la rupture
politique entre les réformes et les révolutions était le résultat concret
du processus de stratification de la classe ouvrière.
À ce stade, Lénine s’éloignait définitivement de la pensée de Marx
et d’Engels. Marx considère que la classe ouvrière est en mesure
d’adhérer spontanément au communisme ; Lénine pense que non.
Selon Marx, le savoir-faire est voué à disparaître au profit de
l’automatisation ; selon Lénine, le fait de pouvoir jouir de privilèges
grâce au savoir-faire sur son sol natal est l’un des effets permanents
du colonialisme.
On ne trouve chez Lénine aucune base économique ou
technologique qui puisse expliquer les privilèges dont jouissait la
strate composée des ouvriers qualifiés : c’est comme si les
capitalistes leur accordaient simplement des salaires plus élevés par
principe. En fait, et comme nous l’avons vu, la politique réelle des
capitalistes était axée sur la destruction des privilèges et de
l’autonomie des travailleurs qualifiés.
En 1920, Lénine reformule la théorie de l’aristocratie ouvrière et
affirme que ses membres sont les « véritables agents de la
bourgeoisie au sein du mouvement ouvrier […] de véritables
propagateurs du réformisme et du chauvinisme24 ». Mais écrire une
telle chose en 1920 relevait du délire. Cela faisait en effet quatre ans
que la classe ouvrière était engagée dans une vague de luttes
révolutionnaires menées par les ouvriers qualifiés. Entre 1916 et
1921, la classe ouvrière a lancé une attaque frontale sur le principe
du contrôle de la gestion. Elle avait atteint des proportions
révolutionnaires en Allemagne, en Italie et en Russie, ainsi que des
niveaux prérévolutionnaires en Grande-Bretagne, en France et dans
certaines parties des États-Unis. Chaque fois, ces luttes avaient été
menées par la prétendue « aristocratie ouvrière ».
Je répugne à soutenir la pensée anti-léniniste. Lénine est un
révolutionnaire habile, ignorant, dans la pratique, bon nombre des
restrictions de sa propre théorie. Cependant, la théorie aristocrate
ouvrière du réformisme ne vaut rien. La source de tout patriotisme
est, malheureusement, le patriotisme, et cela, car, tout comme les
classes sont bien réelles, les nations le sont aussi. Le communiste
italien Antonio Gramsci avait écrit dans l’un de ses Cahiers de prison
que les sociétés capitalistes développées possédaient plusieurs
niveaux de mécanismes de défense. Selon lui, l’État n’était qu’« une
tranchée avancée ; derrière elle se trouvait une succession de
forteresses et de places fortes ». Et l’une de ces places fortes recèle
la capacité qu’a le capitalisme à engager des réformes25.
Cependant, la théorie de 1902 possède un brin de vérité, bien
qu’elle ne soit pas au goût de la plupart des marxistes. Pour en saisir
toute la portée, nous devons assister au déroulement d’un drame à
l’échelle mondiale sans précédent.
Une beauté terrible : 1916-1939
En 1916, la machine de guerre commençait à s’essouffler. En
Irlande, l’insurrection de Pâques menée par une alliance entre les
socialistes et les nationalistes fut un échec complet. Elle a
cependant marqué le coup d’envoi de cinq années d’instabilités
mondiales. Le poète Yeats a su percevoir la portée mondiale de cet
événement à travers un poème qu’il a écrit à propos des individus
tout à fait ordinaires qui l’ont menée : « Tout est changé, changé du
tout au tout : une beauté terrible est née26. »
Le 1er mai 1916, les ouvriers des usines berlinoises organisent
une grève contre la guerre et affrontent la police sous la direction
d’un nouveau type de militant syndical : le délégué syndical, qui est
élu par les membres du syndicat, généralement indépendant des
dirigeants syndicaux favorables à la guerre, et plutôt socialiste de
gauche. À Glasgow, les membres d’un autre groupe d’élus délégués
syndicaux, le Comité de travail de Clyde, furent arrêtés par la police
après avoir mené une grève en faveur de la gestion ouvrière dans le
secteur de l’armement27.
En 1917, une vague de grève qui s’est étendue dans toutes les
usines d’armement de Petrograd en Russie s’est transformée en
révolution à l’échelle du pays, contraignant le tsar à abdiquer et
permettant ainsi l’arrivée au pouvoir d’un gouvernement provisoire
composé de libéraux et de socialistes modérés (Kondratiev était
alors ministre de l’Agriculture). Les ouvriers russes créèrent deux
nouvelles formes de syndicat : le comité d’usine et le soviet, ce
dernier étant un conseil constitué d’ouvriers et de soldats élus
localement. En outre, les instabilités mondiales commencèrent à
s’autoalimenter à cause du télégraphe, du téléphone et même des
signaux radio de l’armée. En mai 1917, une mutinerie eut lieu dans
l’armée française. Sur 113 divisions, 49 furent démantelées, et 9
furent mises hors de combat.
Ces événements furent déclenchés par l’apparition d’une nouvelle
forme de sociologie du lieu de travail et d’une nouvelle forme de
conflit. De Seattle à Petrograd, tandis que les hommes partaient au
front, les industriels employèrent des femmes et des adolescents
peu qualifiés dans leurs chantiers navals et leurs usines de
production, et les firent travailler avec des hommes suffisamment
qualifiés pour ne pas être enrôlés de force.
Dans la mesure où les syndicats soutenaient l’effort de guerre et
s’opposaient aux grèves, il n’était pas surprenant de voir des
délégués syndicaux apparaître partout : ces délégués étaient
principalement des ouvriers qualifiés dont le rôle était de recruter au
sein de « syndicats industriels » des femmes et des adolescents
venant de toutes les couches hiérarchiques. Lorsque les révolutions
éclataient, c’était les délégués syndicaux qui prenaient la tête des
groupes révolutionnaires.
Dans le même temps, une autre forme de radicalisation adoptée
par de jeunes individus qui avaient découvert l’horreur de la guerre à
une échelle industrielle se développait dans les tranchées. Ils
avaient été témoins de la destruction des notions de courage, de
patriotisme et de « virilité » – des notions tout à fait centrales dans
la culture du travail d’avant 1914.
L’ordre qui régnait sur le lieu de travail avait été réduit à néant. En
juin 1917, Petrograd comptait 367 comités d’usines qui
représentaient 340 000 ouvriers. À l’atelier de mécanique Brenner, le
comité a pris une décision : « Face au refus de la direction de
poursuivre la production, le comité des travailleurs a décidé, lors
d’une assemblée générale, d’exécuter les commandes et de
poursuivre le travail28. » Aucun programme bolchévique n’exigeait la
gestion ouvrière. Lénine s’en méfiait : il a d’abord tenté de le
présenter comme « un veto ouvrier sur la gestion », avant de
l’interdire, comme nous le verrons.
L’autre grande puissance qui n’allait pas tarder à s’effondrer était
l’Allemagne ; la classe ouvrière, qui avait tenté sans succès
d’empêcher la guerre, allait maintenant mettre un terme au conflit.
En novembre 1918, des activistes de gauche de la marine impériale
allemande organisèrent une mutinerie qui, en l’espace de vingt-
quatre heures, a contraint les capitaines des navires allemands de
retourner aux ports. Des milliers de mutins ont ensuite traversé
l’Allemagne à toute vitesse avec des camions armés. Parmi leurs
principaux objectifs figurait une tour de radio à Berlin, d’où ils
voulaient communiquer avec les marins révolutionnaires de
Kronstadt, en Russie.
Partout en Allemagne, des comités d’usine et des conseils de type
soviet se formaient. Quarante-huit heures après la mutinerie, les
activistes forcèrent la signature d’un armistice, l’abdication du Kaiser
et l’instauration d’une république. Ce n’est qu’en rejoignant la
révolution au dernier moment que les dirigeants modérés du Parti
socialiste dominant ont pu éviter une révolution similaire à celle qui
s’est produite en Russie.
En 1919, une grève de masse organisée par les ouvriers italiens a
provoqué l’arrêt simultané de la production automobile des usines de
Turin, Milan et Bologne. Ces ouvriers occupèrent les usines et, plus
particulièrement à Turin, essayèrent de maintenir la production,
selon leurs propres termes, à l’aide de certains techniciens qui
s’étaient ralliés à leur cause.
Sociologiquement parlant, ces événements sont bien plus riches
que ce qu’avait proposé Lénine. D’abord, les ouvriers qualifiés
jouèrent un rôle crucial. Ils avaient adopté une manière de lutter pour
le contrôle à la fois nouvelle et singulière. En observant ce
phénomène à l’œuvre en Grande-Bretagne, le sociologue du travail
Carter Goodrich lui a donné le nom de « contrôle viral » :
« L’ancien modèle de contrôle artisanal dépend presque
entièrement de petits groupes d’ouvriers qualifiés ; les partisans du
contrôle viral sont pour la plupart soit des membres de syndicats
industriels, soit de fervents défenseurs du syndicalisme industriel ;
l’esprit des anciens artisans est monopolistique et conservateur ;
celui des nouveaux est propagandiste et révolutionnaire29. »
Autrement dit, la strate des ouvriers qualifiés avait définitivement
dépassé le « syndicalisme pur ». Ils restèrent tout de même méfiants
à l’égard de ceux qui prônaient les révolutions politiques façon « tout
ou rien ». Leur objectif consistait à prendre le contrôle du lieu de
travail et à créer une société parallèle au sein du capitalisme.
Au cours des vingt années qui suivirent, ces délégués syndicaux
devinrent les éternels électeurs indécis de l’extrême gauche,
toujours à la recherche d’une alternative à l’insurrection comme à la
réforme. En vivant avec eux, ils ont compris que la majorité des
travailleurs n’était pas prête à adhérer au communisme dans l’heure,
que beaucoup de sociétés occidentales étaient dotées d’une
certaine résilience politique inconnue de Lénine, et qu’eux-mêmes
auraient besoin de développer des stratégies de survie : renforcer
l’autonomie de la classe ouvrière, améliorer son identité culturelle et
défendre ses acquis sociaux.
L’histoire des factions de la plupart des partis communistes lors de
l’entre-deux-guerres est celle d’un affrontement récurrent entre les
léninistes, qui tentent d’imposer des plans, des tactiques et un
langage moscovite à ces traditions, et les délégués syndicaux
militants qui tentent de créer une société alternative depuis
l’intérieur.
Et voici le brin de vérité contenu dans Que faire ? : Lénine avait eu
tort d’affirmer que les travailleurs ne pouvaient pas dépasser
spontanément le syndicalisme réformiste pur. Il avait eu raison
d’affirmer que le communisme révolutionnaire n’était pas l’idéologie
à laquelle ils adhéraient spontanément. Leur idéologie – celle qu’ils
épousaient volontiers – était marquée par le contrôle, la solidarité,
l’apprentissage autonome et la volonté de créer un monde parallèle.
Seulement, le capitalisme ne le permettrait pas : bientôt, le
troisième cycle long entamerait sa période de récession, qui allait se
montrer spectaculaire. Après le krach boursier de Wall Street en
1929, la classe ouvrière allait subir les effets du chômage de masse,
de la réduction des prestations sociales et de la baisse des salaires
qui avaient été imposés par les gouvernements du monde entier. Là
où les enjeux étaient les plus élevés et la classe ouvrière trop
influente, les autorités publiques décidaient qu’elle devait être
réprimée.
Les conditions étaient ainsi réunies pour que se produise le
moment clé des deux siècles d’histoire du travail syndiqué : la
suppression du mouvement ouvrier allemand par le fascisme.
Le nazisme était la solution finale du capitalisme face au risque posé
par la puissance du travail syndiqué : en 1933, les syndicats furent
interdits, et les partis socialistes démantelés. La catastrophe se
répandit à d’autres pays. En 1934, le mouvement syndical autrichien
fut réduit à néant à l’issue d’une guerre civile qui avait duré quatre
jours. En Espagne, le général Franco a mené une guerre totale entre
1936 et 1939 contre le travail syndiqué et la paysannerie radicale,
faisant 350 000 morts. En Grèce, la dictature de Metaxas de 1936 a
interdit non seulement les partis socialistes et les syndicats, mais
aussi la musique folklorique associée à la culture ouvrière. Les
mouvements ouvriers polonais, hongrois et baltiques, et notamment
l’important mouvement ouvrier juif, ont d’abord été réprimés par les
gouvernements de droite, puis anéantis pendant l’Holocauste.
Ce n’est que dans trois économies avancées que les
organisations syndicales ont survécu et ont pu se développer durant
les années 1930 : la Grande-Bretagne et son Empire, la France et
les États-Unis. Lors des années 1936-1937, ces deux derniers pays
furent témoin d’une vague d’occupations d’usines qui traduisait la
volonté des ouvriers d’en prendre le contrôle.
Les travailleurs qui ont combattu le fascisme composaient la
génération la plus consciente des classes, la plus altruiste et la plus
instruite de toute l’histoire du prolétariat depuis deux cents ans. Cela
étant, la première moitié du e siècle a rudement mis à l’épreuve la
théorie marxiste de la classe ouvrière ; avant qu’elle ne soit réfutée.
Les ouvriers désiraient bien plus que le pouvoir, ils voulaient prendre
le contrôle. Et le quatrième cycle long allait momentanément le leur
donner.

Le massacre des illusions


En 2012, je me suis rendu dans un cimetière de Valence pour visiter
les fosses communes des victimes de Franco. Dans les années qui
suivirent la chute de Franco, leurs familles avaient érigé de petites
pierres tombales individuelles contenant des photographies en sépia
des personnes qui avaient été assassinées. Quand j’ai essayé de
prendre une photo avec mon iPhone, l’application de l’appareil photo
avait « compris » que les visages étaient ceux d’êtres humains et les
avait encadrés d’un petit carré vert.
Il y avait surtout des hommes et des femmes d’âge mûr : des
conseillers, des avocats, des commerçants. La plupart des jeunes
avaient été tués ou exécutés sur le champ de bataille. Les fosses
communes étaient destinées à ceux qui restaient, tués en masse
entre 1939 – date de la fin de la guerre civile – et 1953, date à
laquelle il n’y avait plus personne à assassiner.
George Orwell, qui a combattu à leurs côtés, avait été hanté par
leurs visages, déformés par l’idéalisme. Ils incarnaient, écrit-il, « la
fine fleur de la classe ouvrière européenne, harcelée par la police de
tous les pays […] aujourd’hui, plusieurs millions d’entre eux
pourrissent dans des camps de travail forcé30 ». Difficile de faire
mieux comme euphémisme. Les goulags soviétiques comptaient
1,4 million de prisonniers, dont 200 000 périssaient chaque année.
Au moins 6 millions de Juifs perdirent la vie dans les camps de
concentration nazis, et l’on estime à 3,3 millions le nombre de
prisonniers de guerre russes morts dans les camps entre 1941 et
1945. La guerre d’Espagne a provoqué la mort de
350 000 personnes environ31.
L’ampleur de la tragédie de la Seconde Guerre mondiale est
difficile à appréhender. Ainsi, son impact sur la politique et la
sociologie de la classe ouvrière fait l’objet d’un silence horrifié. Il est
temps de le briser. La majorité des Juifs tués en Europe de l’Est
étaient issus de communautés ouvrières politisées. Beaucoup
d’entre eux étaient soit partisans des Soviétiques, des partis
sionistes de gauche ou du parti antisioniste Bund. L’Holocauste a
réduit à néant toute une tradition politique appartenant au
mouvement syndical mondial en l’espace de trois ans.
En Espagne, les syndicats, les coopératives et les milices de
gauche disparurent à cause des meurtres de masse, leurs traditions
cessèrent d’exister jusque dans les années 1970. Pendant ce temps,
en Russie, les membres des classes politiques ouvrières
clandestines étaient soit envoyés au goulag, soit exécutés en
masse.
Ce qu’Orwell appela « la fine fleur de la classe ouvrière
européenne » avait été décimé. Même s’il ne s’agissait que d’une
question de chiffres, ce massacre délibéré de travailleurs politisés,
ajouté aux dizaines de millions de personnes tuées par la main des
militaires, a marqué un tournant dans l’histoire du travail syndiqué.
Les illusions aussi furent massacrées. À l’approche de la Seconde
Guerre mondiale, l’extrême gauche (les trotskystes et les
anarchistes) avait essayé de sauvegarder le vieux modèle de
politique internationale : ne pas soutenir les guerres entre
puissances impérialistes et maintenir la lutte des classes à l’intérieur
du pays. Mais, en mai 1940, la guerre occupait une place plus
importante que la lutte des classes.
À mesure que les puissances alliées s’effondraient et avec
l’émergence d’importantes factions pronazies au sein des classes
dirigeantes des Pays-Bas, de la France et de la Grande-Bretagne, il
devenait clair pour n’importe quelle famille de la classe ouvrière
dotée d’une radio que la survie même de leur culture était liée à la
défaite militaire de l’Allemagne. La politique de la classe ouvrière
dépendait de la victoire militaire des Alliés. Les survivants de la
guerre, qui étaient conscients de l’effondrement imminent du
mouvement syndical, cherchaient maintenant un compromis d’ordre
politique.

1948-1989 : le travail devient « absurde »


La Seconde Guerre mondiale fut ponctuée de révoltes ouvrières,
mais d’un genre qui se démarque de celles de 1917-1921. Ces
révoltes commencèrent par la grève générale néerlandaise en 1941
et atteignirent leur paroxysme avec les grèves qui firent tomber
Mussolini, en 1943 et 1944 ; ces grèves n’étaient pas des actions
anticapitalistes, mais antifascistes. Là où les révoltes ouvrières
menaçaient les plans des Alliés – comme cela a pu se produire à
Varsovie et à Turin en 1944 –, les généraux immobilisaient leurs
forces le temps que la Wehrmacht fasse son travail. Après cela, les
partis communistes sont intervenus pour limiter toute action à la
seule restauration de la démocratie.
Ce qui s’est passé entre 1917 et 1921 ne s’était pas reproduit.
Mais la crainte d’une telle répétition de l’Histoire avait contribué à
relever le niveau de vie des travailleurs et à faire pencher la balance
de la répartition des richesses en faveur de la classe ouvrière.
Lors de la période de croissance d’après-guerre, la rapide
élimination des femmes de la main-d’œuvre industrielle, comme le
montre le film documentaire The Life and Times of Rosie the Riveter
(1980), avait permis une augmentation du salaire des hommes,
diminuant ainsi l’écart salarial entre les ouvriers et les classes
moyennes. Le sociologue C. Wright Mills a écrit qu’en 1948, tandis
que le salaire des employés de bureau avait doublé en dix ans, celui
des ouvriers avait été multiplié par trois32.
En outre, les Alliés imposèrent la mise en place d’un État-
providence, la promotion de droits syndicaux et l’adoption d’une
constitution démocratique à l’Italie, à l’Allemagne et au Japon, afin
de punir leurs élites et d’empêcher leur réémergence en tant que
puissances fascistes.
La démobilisation a vu naître une strate de fils d’ouvriers qui ont
pu bénéficier de l’enseignement supérieur et d’une prise en charge
de leur éducation. Les politiques mises en œuvre pour favoriser le
plein emploi ainsi que les bourses du travail gérées par l’État, les
commissions de formation et les règles de délimitation des emplois
ont davantage accru le pouvoir de négociation des travailleurs.
Résultat, lorsque la croissance s’est envolée dans les années 1950,
la part des salaires dans le PIB de la plupart des pays a dépassé les
taux d’avant-guerre, tandis que les impôts prélevés sur les classes
supérieures et moyennes furent augmentés de manière à financer
les programmes de santé et de protection sociale.
Mais à quel prix ? Les travailleurs abandonnèrent les idéologies
de résistance qui les avait animés lors du troisième cycle long. Le
communisme, la social-démocratie et le syndicalisme étaient
devenus, quelle que soit la manière dont on les abordait, des
idéologies de coexistence avec le capitalisme. Dans beaucoup de
secteurs, les responsables syndicaux faisaient maintenant partie de
la direction.
C’est là que commence la mémoire des travailleurs des pays
développés d’aujourd’hui : avec la protection sociale, la santé, la
prise en charge de l’éducation par l’État, les projets de logements
publics et les droits du travail communs à tous les salariés inscrits
dans la loi. Lors de la première phase du quatrième cycle long, de
grands progrès ont été réalisés, des progrès dont les générations
précédentes ne pouvaient que rêver.
Mais, pour les survivants de la période d’avant-guerre, c’était
comme se réveiller dans un cauchemar. En 1955, le sociologue
américain Daniel Bell a affirmé que « le prolétariat se fait remplacer
par le salariat, ce qui entraîne au passage un changement important
dans la psychologie du travailleur ». En constatant l’augmentation
importante du nombre d’employés de bureau par rapport aux
ouvriers, Bell, gauchiste à l’époque, avertit que « ces groupes de
salariés ne parlent pas le langage du travail, impossible également
de les mobiliser selon les anciens termes de la conscience de
classe33 ». Le sociologue Herbert Marcuse a constaté en 1961 que
les nouvelles technologies, les biens de consommation et la
libération sexuelle avaient définitivement réduit l’écart entre le
prolétariat et le capitalisme : « Dans le nouveau monde
technologique du travail, l’attitude négative de la classe ouvrière
s’affaiblit. La classe ouvrière n’est plus la contradiction vivante de la
société établie34. »
En Italie, des travaux de recherche innovants menés par le militant
syndical Romano Alquati ont permis de découvrir que les nouveaux
niveaux d’automatisation du travail avaient éloigné les travailleurs de
l’usine en tant que lieu d’expression politique. Aux yeux de la
génération qui avait renversé Mussolini, l’usine était devenue un lieu
d’affrontement emblématique. Mais, au sein des jeunes populations,
le mot « absurde » était le terme le plus souvent utilisé pour décrire
les processus de production. Elles se plaignaient d’un « sentiment
de ridicule entourant leur vie35 ».
L’effet le plus tangible de cette nouvelle sociologie du travail s’est
traduit par le déclin à l’échelle mondiale des modèles de vote basés
sur la classe sociale, un phénomène rendu célèbre par
l’indice Alford36. L’historien Eric Hobsbawm, qui a étudié le
processus plus tard, a affirmé que « l’évolution de la main-d’œuvre »
s’était arrêtée au début des années 1950. Il évoque notamment la
disparition d’un « mode de vie prolétarien commun », l’augmentation
sans précédent du nombre de femmes qui travaillent et le
remplacement des grandes structures de travail par une longue
chaîne de production composée de plus petits sites de travail. En
outre, Hobsbawm a noté que les nouvelles technologies ayant vu le
jour dans les années 1950 et 1960 avaient non seulement provoqué
un épaississement de la strate composée des employés de bureau,
mais aussi complètement dissocié les hauts salaires des
compétences relevant du travail manuel. En occupant deux emplois,
en faisant beaucoup d’heures supplémentaires ou en délivrant des
résultats exceptionnels au travail payé à la pièce, un ouvrier semi-
qualifié pouvait gagner presque autant qu’un électricien ou un
ingénieur chevronné37.
L’effet cumulé de ces changements, qui se sont étendus de la fin
de la guerre à la fin des années 1960, s’est traduit par une
transformation des luttes ouvrières. Comme s’en est plaint Alquati,
ces luttes sont devenues « toujours conformes au système. Toujours
divisées, toujours aveugles38 ». Gorz, pessimiste, écrit que le lieu de
travail d’après-guerre « n’engendrera jamais cette culture ouvrière
qui, coïncidant avec l’humanisme du travail, était la grande utopie
des mouvements socialistes et syndicaux jusque dans les
années 192039 ».
Il est frappant de constater combien de théoriciens du « déclin de
la classe ouvrière » portaient en eux une expérience personnelle du
mouvement lorsqu’il était à son apogée avant la guerre. Marcuse
avait été élu à un soviet de soldats à Berlin en 1919 ; Hobsbawm
avait rejoint le Parti communiste allemand via sa branche scolaire en
1932 ; Bell avait rejoint les jeunes socialistes dans les bidonvilles de
New York la même année ; Gorz fut témoin d’une révolte ouvrière à
Vienne. Leur désillusion avait été le fruit d’un savoir empirique à long
terme.
Avec le recul, nous sommes en mesure de mieux identifier les
changements auxquels ils réagissaient.
Premièrement, la classe ouvrière s’est élargie. Une grande partie
du salariat est composée d’employés subalternes moins bien payés
que les ouvriers et soumis à un protocole disciplinaire inutile, sans
parler de la routine. Les cols blancs demeuraient, malgré tout, des
travailleurs. Leur degré d’éloignement a bien été rendu par les
romans populaires des années 1950 : Billy le menteur met en scène
un employé de bureau dans une entreprise de pompes funèbres ; et
Joe Lampton, le personnage principal du roman Les Chemins de la
haute ville, est fonctionnaire-comptable.
Deuxièmement, la stratification a joué sur la conscience de cette
classe ouvrière élargie. Les cols blancs, même syndiqués ou
aliénés, ne pensent pas et n’agissent pas comme des ouvriers. Les
jeunes ouvriers, eux-mêmes de plus en plus éloignés du travail et de
la culture qui l’entoure, ont également manifesté un autre type de
conscience aux tendances rebelles, phénomène parfaitement illustré
dans Samedi soir, dimanche matin, un autre roman populaire des
années 1950.
L’accès aux biens de consommation n’a pas fait reculer le
militantisme. Ce fut un changement majeur, mais tout à fait
maîtrisable dans la culture ouvrière. L’automatisation a, quant à elle,
déclenché un processus de changement d’ordre psychologique à
long terme. Si le travail semblait « absurde, ridicule et ennuyeux »
aux yeux des employés de Fiat qu’Alquati avait interviewés au début
des années 1960, c’était pour une raison bien précise. Les niveaux
d’automatisation de l’époque étaient rudimentaires, mais
suffisamment avancés pour illustrer ce que serait l’avenir du travail.
Bien que la réalité d’une usine gérée par un ordinateur ne se
concrétisât pas avant quelques dizaines d’années, sans parler de la
robotisation, qui arriverait encore plus tard, les travailleurs avaient
parfaitement compris qu’il ne s’agissait plus de science-fiction, mais
de possibilités tout à fait envisageables. Viendrait un moment où l’on
n’aurait plus besoin d’avoir recours au travail manuel.
La définition du mot « travailleur » avait subtilement changé. Selon
Gorz, la chose que les jeunes travailleurs des années 1950 avaient
en commun était la manière dont ils se détachaient du travail :
« Bref, pour la masse des travailleurs, l’utopie directrice n’est plus le
“pouvoir des travailleurs”, mais de pouvoir ne plus fonctionner
comme travailleurs ; l’accent porte moins sur la libération dans le
travail et davantage sur la libération du travail40. »
Dès le déclenchement de la crise de la fin des années 1960, des
grèves eurent lieu dans la strate prolétarienne élargie du secteur des
services, mais elles n’ont presque jamais atteint les niveaux de
blocage total qu’il était possible de réaliser dans les usines, les ports
et les mines. Le cas échéant, ces grèves dégénéraient en
affrontements avec l’État, affrontements que la majorité des salariés
du secteur des services n’étaient pas prêts à mener à terme.
Les théoriciens du déclin n’ont pas eu de chance. Daniel Bell est
devenu néoconservateur. Marcuse, Mills et Gorz ont plaidé en faveur
d’une « nouvelle gauche » fondée sur les luttes menées par les
groupes opprimés, pas par les travailleurs. Voilà où nous en
sommes : deux décennies de lutte entre théoriciens du déclin et
cette nouvelle classe ouvrière prompte au soulèvement ont mené
certaines parties du monde développé au bord du chaos.
Nous, les militants du milieu des années 1970 et 1980, avons
raillé ceux qui avaient déclaré la mort des anciennes formes de lutte
de la classe ouvrière. Le fait est qu’ils avaient raison.

1967-1976 : dix ans d’instabilité


Dans les pays capitalistes occidentaux, les années qui s’étendent de
1967 à 1976 furent synonymes de crise et de grèves sauvages
d’une ampleur inégalée. Malgré leurs voitures, leurs télévisions,
leurs prêts hypothécaires et leurs vêtements onéreux, les travailleurs
descendirent dans les rues. Les partis sociaux-démocrates virèrent à
gauche, et les groupes révolutionnaires prirent pied dans les usines,
où ils recrutèrent des milliers de membres.
Les dirigeants politiques craignaient sérieusement une révolution
ouvrière, notamment en France et en Italie, mais aussi, et c’est ce
qu’ils redoutaient le plus, en Grande-Bretagne et dans les villes
noires des États-Unis. Nous savons comment cela s’est terminé,
dans la défaite et la division, mais il nous faut encore savoir
pourquoi. Je commencerai par une anecdote personnelle.
En 1980, le Congrès des syndicats britanniques publia un album
de photographies d’archives41. Je l’ai apporté chez moi et l’ai montré
à ma grand-mère. L’une des photographies a totalement capté son
attention, elle tremblait. La photographie montrait une fille nue dans
une baignoire en fonte, c’était avant 1914. « Tu n’es pas obligé de
me parler de ça, dit-elle, j’ai vécu trois mois pendant la grève de 26
et je me suis mariée pendant celle de 1921. » Elle ne nous avait
jamais dit qu’elle avait connu ces deux grandes grèves de mineurs.
Elle n’en avait jamais parlé à mon père. La vue de cette baignoire en
fonte avait ravivé chez elle des souvenirs de pauvreté, souvenirs qui
lui avaient rappelé l’année 1926, année durant laquelle une grève
générale de neuf jours s’était transformée en grève de mineurs
longue de trois mois durant laquelle, comme elle nous l’a appris, elle
avait connu la faim.
Elle avait enfoui au plus profond de sa mémoire tout ce qui s’était
passé avant 1939 : les épreuves, les humiliations, les violences, les
fausses couches, les dettes et les deux grandes grèves, qu’elle avait
essayé d’oublier. C’était pire qu’un traumatisme que l’on essayait de
refouler. J’ai acquis la certitude, alors que nous feuilletions ensemble
les photographies de marches de la faim, de barricades et de mines
de charbon occupées, que ces images la touchaient plus que moi.
Née en 1899, elle avait connu deux guerres mondiales, la Grande
Dépression et les plus beaux jours du « mode de vie prolétarien
commun ». Mais, au-delà de ses souvenirs, elle ne savait rien de
ces événements et n’en comprenait pas la portée. Elle était pourtant
habitée par un sentiment de rébellion. Selon elle, la conscience de
classe ne pouvait s’acquérir que par l’expérience : en parlant, en
écoutant et en observant. Les discussions au pub, les slogans écrits
à la craie et les actions étaient tous autant d’éléments importants
dans cette prise de conscience. Les villes ouvrières étaient tellement
éloignées du monde dans lequel les journaux étaient écrits et les
bulletins radiodiffusés que l’idéologie bourgeoise les touchait à
peine.
La logique et le détail n’avaient d’importance que pour les choses
pratiques : comment tailler un rosier, dresser un chien, assembler un
obus de mortier (ce qu’elle m’avait appris à faire à l’âge de cinq ans
avec un obus qu’elle avait volé quand elle travaillait dans une usine
d’armement). Mais la conscience de classe se manifestait hors de
toute logique et de manière implicite. Elle était véhiculée par des
dictons, des chansons, des soupirs, du langage corporel et des
actes de solidarité répétés à très petite échelle. Cette solidarité avait
été transmise de génération en génération, et fut préservée grâce à
une stabilité géographique et industrielle.
Ma grand-mère connaissait l’histoire de sa famille grâce aux noms
inscrits au dos de sa Bible, qui remontaient à 1770. Toutes et tous
étaient des tisserands de soie ou de coton, même sa propre mère,
qui ne s’était jamais mariée. Tous habitaient à moins de dix
kilomètres de leur lieu de naissance. Au cours de sa vie, elle n’avait
déménagé que trois fois, et jamais à plus de deux kilomètres de son
ancien logement.
Donc, lorsque les sociologues s’interrogent sur l’importance du
« mode de vie prolétarien commun » et de sa géographie physique
pour la conscience de classe d’avant 1945, je leur répondrais qu’elle
a été décisive.
Même si les jeunes travailleurs des années 1960 avaient
l’impression de vivre dans un cadre culturel stable vieux de deux
siècles, ses fondations évoluaient si rapidement que, lorsqu’ils
essayaient de tirer les ficelles traditionnelles de la solidarité et des
luttes sociales (comme ils l’ont fait dans les années 1970 et 1980),
ils se retrouvaient dos au mur.
Le changement fondamental, comme Richard Hoggart l’a
brillamment documenté dans son étude de 1957 intitulée La culture
du pauvre, réside dans l’injection de connaissances formelles
(l’information, la logique et la capacité à tout remettre en question)
dans la vie de la classe ouvrière. La complexité intellectuelle n’était
plus l’apanage de l’instituteur s’inscrivant dans la pensée de la
Fabian Society ou de l’agitateur communiste avec son journal riche
en parler moscovite. Elle était l’apanage de tous42.
En ce qui concerne la génération de mon père, le savoir s’était
diffusé au sein de la communauté ouvrière de l’après-guerre, non
seulement par le biais du système éducatif, qui s’était démocratisé,
et des bibliothèques publiques ; mais aussi par la télévision, les
journaux à sensation, les films, les livres de poche et les paroles de
chansons populaires, qui, à la fin des années 1950, avaient
commencé à s’apparenter à de la poésie ouvrière.
Et ce savoir portait sur un monde qui s’était soudainement
complexifié. La mobilité sociale s’était davantage fluidifiée. La
mobilité géographique aussi. Le sexe, alors sujet de discussion
tabou parmi la classe ouvrière d’avant-guerre, était omniprésent. Et
c’est à ce moment-là, à la veille de la crise, que l’innovation
technologique la plus importante fut commercialisée : la pilule
contraceptive, prescrite pour la première fois en 1960 et dont l’usage
par les femmes célibataires fut autorisé vers la fin des années 1960,
avait produit ce que les économistes Akerlof, Yellen et Katz ont
appelé un « choc dans les techniques de procréation43 ». La part des
femmes dans l’enseignement supérieur a bondi : en 1970, 10 % des
étudiants en droit aux États-Unis étaient des femmes ; dix ans plus
tard, elles représentaient 30 %. Maintenant qu’il leur était possible
de planifier la naissance de leurs enfants, les femmes pouvaient
occuper une part plus importante de la main-d’œuvre44.
En somme, un nouveau type de travailleur était apparu. La
génération qui allait mener la lutte des classes dans les
années 1970 a commencé avec des revenus plus élevés, jouissait
de plus de libertés individuelles, fragmentait ses liens sociaux et
disposait d’un bien meilleur accès à l’information. Contrairement à ce
que pensent les théoriciens du déclin, rien de tout cela ne les
empêcherait de se battre. Mais voilà pourquoi ils perdirent, en fin de
compte.
Le modèle libéral post-industriel qui a détruit leur pouvoir
économique et qui a fait taire le discours traditionnel à propos du
travail s’est effondré. Une nouvelle approche capitaliste fut adoptée.
On a également assisté à l’émergence d’un nouveau type de
sentiment de rébellion, qui n’était plus négative, spontanée ou non
informée, mais fondée sur des connaissances formelles et
davantage dépendante des canaux de communication de masse
contrôlés par l’élite. En plus de cela, nous devons prendre en
compte le poids mort des politiques staliniste et social-démocrate
dont les objectifs, pendant les révoltes des années 1970, étaient
d’orienter la lutte des classes vers le compromis et la politique
parlementaire. Enfin, le souvenir de l’échec des révolutions des
années 1920 et 1930 et le fait de penser que seul le capitalisme
démocratique pouvait vaincre le fascisme bridaient l’élan des
travailleurs.
Tous les pays dont l’économie est développée ont pu témoigner
de violents épisodes de lutte des classes entre la fin des
années 1960 et le milieu des années 1970. Nous nous pencherons
sur le cas de l’Italie, pays dont l’Histoire est l’une des mieux
documentées et des plus sujettes à discussion. En outre, l’Italie est
l’un des tout premiers pays dont la capacité à surmonter une défaite
a fait l’objet d’études.

Italie : un contrôle d’un nouveau genre


En 1967, le miracle économique italien avait attiré 17 millions de
travailleurs originaires des régions agricoles pauvres du Sud vers les
villes industrielles du Nord. Faute de logements sociaux, beaucoup
de ces travailleurs immigrants furent contraints de s’entasser dans
des taudis et de dormir parfois à six ou sept dans la même pièce,
sans compter que la capacité des installations publiques était
largement dépassée. Mais les usines, elles, étaient à la fois
modernes et dotées d’une technologie de pointe ; y travailler était
motivant.
Entre 1950 et 1960, les salaires réels ont augmenté de 15 %45.
Les géants de l’industrie avaient considérablement investi dans les
cantines, les associations sportives et les foyers sociaux ainsi que
dans les fonds d’aide sociale et les bleus de travail de bonne facture.
Au niveau du secteur entier, les syndicats et les dirigeants se
mettaient d’accord sur les salaires, le rythme de production et les
conditions de travail. À l’échelle de l’usine, et selon une étude,
« l’absolutisme du management était la règle46 ».
La hausse des salaires et les conditions de vie insalubres
matérialisaient le premier impact de l’essor économique. Le second
impact se traduisit par une hausse importante du nombre
d’étudiants. En 1968, on en comptait 450 000, soit le double de la
décennie précédente. La plupart étaient issus de familles ouvrières
défavorisées et n’avaient pas d’argent. Ils intégraient des universités
pleines de livres inutiles et de règles archaïques. Selon l’historien
Paul Ginsborg : « Le fait d’autoriser l’accès à un système
universitaire aussi grossièrement inadéquat revenait tout simplement
à y poser une bombe à retardement47. » Parler de « détonateur »
aurait été plus correct. Les étudiants commencèrent par occuper les
universités vers la fin de l’année 1967, avant de descendre dans les
rues l’année suivante. Dans le même temps, une vague de grèves
avait été déclenchée par les ouvriers, elle atteignit son point
culminant à l’automne 1969.
Chez Pirelli-Bicocca à Milan, les travailleurs en grève constituèrent
un « comité de base unitaire », totalement indépendant du syndicat.
Au fur et à mesure que l’idée du comité de base se répandait, de
nouveaux types d’actions syndicales se développaient : des grèves
séquentielles d’une heure dans différents départements, des grèves
sur le tas, des arrêts de travail spécialement organisés pour réduire
la productivité, et des grèves que les ouvriers menaient en marchant
d’un département à l’autre en formant un « serpent ». Un ouvrier de
Fiat témoigne : « Quand nous sommes partis, il n’y avait que nous
sept. Au moment où nous sommes arrivés au siège social, là où tout
le personnel se trouvait, nous étions environ sept mille ! La
prochaine fois, on commencera avec sept mille et on finira avec
soixante-dix mille, et ce sera la fin de Fiat48. »
Le parti communiste italien entreprit de créer des comités de
négociation locaux, mais, dans de nombreuses usines, les
travailleurs les rejetèrent et noyèrent les communistes sous les
chants syndicaux en scandant : « Nous sommes tous des
délégués ! »
Dans un bar situé à l’extérieur de l’usine Fiat-Mirafiori à Turin, des
étudiants lancèrent une « assemblée de travailleurs et d’étudiants ».
Le 3 juillet 1969, l’augmentation des loyers leur fit quitter l’usine et
les amena à combattre les forces de l’ordre pied à pied en répétant
un slogan qui résumait parfaitement le nouvel état d’esprit général :
« Que veut-on ? Tout ! »
Le groupe de gauche Lotta Continua avait ainsi résumé le ressenti
des grévistes : « Lentement, ils commencent à se libérer. Ils mettent
fin à l’autorité qui s’était constituée au sein des usines49. »
Si ces développements s’étaient limités à quelques quartiers
chauds au sein d’un pays en agitation perpétuelle, on s’en serait
intéressé par curiosité, sans plus. Mais la crise italienne était
symptomatique d’un changement qui se produisait dans l’ensemble
des pays développés ; 1969 marquait le début d’une période de
conflits économiques qui se répandaient comme une traînée de
poudre, débordaient continuellement sur des conflits politiques et
allaient déclencher une refonte totale du modèle économique
occidental.
Dans la mesure où les ouvrages de vulgarisation tendent à
résumer la fin du keynésianisme à un seul moment clé, il est crucial
de bien saisir l’ordre dans lequel les événements se sont déroulés.
En 1971, la période de croissance d’après-guerre s’est essoufflée.
Toutefois, la suppression des taux de change fixes a
paradoxalement donné à chaque pays la possibilité de « résoudre »
certains problèmes afférents aux salaires et à la productivité en
laissant l’inflation s’envoler. Puis, avec la hausse du prix du pétrole
de 1973, qui a provoqué une inflation à deux chiffres, l’ancienne
relation entre les salaires, les prix et la productivité s’est
soudainement rompue.
Dans les pays de l’OCDE, les paiements redistributifs –
compléments de revenu familial, prestations sociales et autres – qui
représentaient en moyenne 7,5 % du PIB pendant les années de
prospérité, avaient atteint 13,5 % au milieu des années 1970. Les
dépenses publiques, qui représentaient en moyenne 28 % du PIB
dans les années 1950, atteignaient désormais 41 %50. La part de la
quantité totale des liquidités consacrées aux bénéfices industriels
avait diminué de 24 %51.
Pour faire face au militantisme syndical, les autorités publiques
augmentèrent les minima sociaux à des niveaux records et firent
entrer les représentants des travailleurs au gouvernement. En Italie,
cela s’est fait dans le contexte du « compromis historique » de 1976,
qui a mis fin à la période d’agitation, en liant le parti communiste et
ses syndicats à un gouvernement dirigé par les conservateurs. La
même méthode simpliste avait été employée dans le cadre du pacte
espagnol de la Moncloa de 1978, du « contrat social » des
gouvernements Wilson-Callaghan (1974-1979) et des nombreuses
tentatives des syndicats américains de conclure un accord politique
avec l’administration Carter.
À la fin des années 1970, tous les acteurs de l’ancien système
keynésien (le travailleur syndiqué, le directeur paternaliste, le
politicien de l’État-providence et le patron de l’entreprise d’État)
s’étaient réunis pour tenter de sauver le système économique.
Le processus de production standardisé d’après-guerre ainsi que
les contrôles de gestion scientifique stricts sur lesquels il s’était
appuyé avaient fini par créer une main-d’œuvre qu’il ne pouvait pas
contrôler. Le simple fait que les actions de type « grève du zèle »
soient devenues la forme la plus efficace de sabotage en dit long.
C’étaient les travailleurs qui contrôlaient réellement le processus de
production. Tous les projets visant à résoudre les crises
macroéconomiques sans leur consentement étaient voués à l’échec.
Pour sortir de cette impasse, un tout nouveau groupe de
politiciens conservateurs décida qu’il fallait démanteler le système.
Le second choc pétrolier, qui s’était produit après la révolution
iranienne de 1979, leur en avait donné l’occasion. Il avait déclenché
une nouvelle récession de grande ampleur, et, cette fois-ci, les
travailleurs s’étaient retrouvés devant des entreprises et des
politiciens prêts à recourir à de nouvelles méthodes : chômage de
masse, fermetures d’usines, baisse des salaires et réductions des
dépenses publiques.
Ils furent également confrontés à une difficulté à laquelle ils ne
s’étaient pas suffisamment préparés pendant leur période de
radicalisme : une partie de la main-d’œuvre était maintenant prête à
se ranger du côté des politiciens conservateurs. Les travailleurs
blancs du Sud installèrent Reagan au pouvoir ; de nombreux
travailleurs qualifiés britanniques, fatigués de tout ce chaos, se
tournèrent vers les conservateurs en 1979 et permirent à
Mme Thatcher de rester dix ans au pouvoir. Le conservatisme de la
classe ouvrière n’a jamais totalement disparu : ce que voulait la
classe ouvrière, c’était l’ordre et la prospérité, et, en 1979, elle
considérait que le modèle keynésien n’était plus en mesure de les lui
apporter.
De 1965 à 1980, la classe ouvrière des pays développés, sortie de
son état de passivité, entreprit des actions de grève et prit part à des
luttes semi-révolutionnaires avant de finir sur une défaite.
Le capitalisme occidental, qui avait été façonné par le travail
syndiqué avant de coexister pendant près de deux siècles, n’était
plus compatible avec une culture de solidarité et de résistance de la
classe ouvrière. Cette culture, de même que les délocalisations, les
désindustrialisations, les lois antisyndicales et autres guerres
idéologiques allaient provoquer sa disparition.

Rebelles numériques, esclaves analogiques


Après plus de trente ans de fuite et de division, la classe ouvrière a
survécu, bien que fondamentalement transformée.
Au sein des pays développés, le modèle centre-périphérie
initialement mis en place au Japon est devenu la norme et a pris la
place du vieux modèle de division entre les ouvriers les plus qualifiés
et les moins qualifiés de la classe ouvrière. La main-d’œuvre
centrale a pu conserver des emplois stables et à durée
indéterminée, en plus de pouvoir profiter d’avantages en nature. La
main-d’œuvre périphérique a dû se résoudre à l’intérim ou à la sous-
traitance. Cependant, le centre s’est rétréci : sept ans après le début
de la crise de 2008, le contrat à durée indéterminée assorti d’un
salaire décent est devenu un privilège inaccessible à de nombreux
travailleurs. Le fait d’appartenir au « précariat » est un phénomène
bien trop réel pour près d’un quart de la population.
Pour les deux groupes sociaux, l’adaptabilité est devenue une
compétence clé. Parmi les travailleurs qualifiés, une grande part de
la valeur est attribuée à la capacité de chacun à se réinventer, à
s’aligner sur les objectifs à court terme d’une société, à oublier
d’anciennes compétences pour en assimiler de nouvelles, à être
présent sur le réseau et, par-dessus tout, à réaliser le rêve de la
société pour laquelle ils travaillent. Ces qualités sont devenues
essentielles depuis les années 1990, en tout cas pour quiconque
désire conserver sa place au cœur du système.
Pour les travailleurs de la périphérie, l’adaptabilité dépend surtout
du caractère général et abstrait du travail qu’ils accomplissent. Dans
la mesure où pratiquement tout est automatique, le travailleur doit
être capable d’apprendre un processus automatisé et d’appliquer
une méthode, même si cela implique souvent un travail manuel,
ennuyeux et salissant, comme les soins personnels à domicile
effectués selon une liste de contrôle stricte par tranches de quinze
minutes pour le salaire minimum par exemple. À l’extrême, le
travailleur doit être capable de faire abstraction de son
comportement et de ses propres émotions – le tout, au profit de la
discipline. Chez Pret A Manger, on demande à l’équipe d’être
souriante et chaleureuse, on encourage par ailleurs ses membres à
« maintenir un contact physique ». La liste officielle des activités
interdites inclut notamment le fait de travailler « pour l’argent » ou
encore de « rendre les choses plus compliquées ». Un employé
raconte qu’« après une journée de travail, vos collègues évaluent
votre performance et font un vote ; si vous manquez de dynamisme,
on vous renvoie chez vous avec quelques livres sterling52 ».
La main-d’œuvre de tous les pays développés est désormais
fortement tributaire des services. Ce n’est que chez les géants de
l’exportation (Allemagne, Corée du Sud et Japon) que la main-
d’œuvre industrielle avoisine les 20 % de l’ensemble ; pour le reste
des pays économiquement avancés, elle se situe entre 10 et 20 %53.
Même au sein des pays en voie de développement, seuls 20 % de
la main-d’œuvre travaillent dans le secteur industriel54. Dans la
mesure où la main-d’œuvre mondiale compte environ 3 milliards
d’individus et qu’en Asie et en Amérique latine les gens travaillent le
plus souvent au sein de vastes unités de production, il est illusoire
de penser que la mondialisation a simplement déplacé le modèle
fordiste/tayloriste vers le Sud.
La part des salaires dans le PIB mondial est en baisse. Aux États-
Unis, elle avait atteint 53 % en 1970, elle est aujourd’hui tombée à
44 %. Bien que l’effet soit moindre dans les pays dont le modèle est
orienté vers l’exportation, l’impact social se traduit par une incitation
de la main-d’œuvre à adopter un comportement financiarisé. En
outre, comme nous l’avons vu dans la première partie, la part des
bénéfices réalisés par la consommation et les emprunts de la classe
ouvrière a augmenté proportionnellement à celle produite par le
travail55.
Costas Lapavitsas, professeur d’économie de la School of Oriental
and African Studies (École des études orientales et africaines, une
école constituante de l’université de Londres), nomme cela
« l’expropriation financière », phénomène dont l’impact sur l’image
que la classe ouvrière a d’elle-même est profond56. Bon nombre de
travailleurs entretiennent une relation physique et idéologique avec
le capital à travers la consommation et l’emprunt plutôt que le travail.
La nature de leur relation met en lumière la tendance, observée
depuis longtemps, du capitalisme d’après 1989 à brouiller les
frontières entre travail et loisir. Dans divers secteurs, dont certains
ne sont pas à forte valeur ajoutée, un compromis apparaît de plus en
plus souvent entre le respect de l’objectif d’un projet et l’observation
d’une marge de manœuvre dédiée à l’activité personnelle au travail
(commerce électronique, réseaux sociaux, rencontres). Pour pouvoir
s’adonner à ces activités, l’employé doit accepter de répondre à des
courriels à la maison, de travailler alors qu’il est en vacances et être
prêt à faire de longues heures hors temps de travail pour atteindre
les objectifs.
Dans le secteur informatique, et encore plus avec l’apparition des
Smartphones, la frontière entre temps de travail et temps libre
n’existe pratiquement plus. Cela a permis, sur une période
relativement courte, de desserrer le lien entre les salaires et le
temps de travail. En somme, le travailleur à forte valeur ajoutée est
payé pour exister, pour apporter ses idées à son entreprise et pour
atteindre des objectifs.
Parallèlement, la géographie de la vie ouvrière s’est transformée.
Les longs allers-retours depuis les banlieues, dont la culture n’a pas
de rapport spécifique avec le travail, sont devenus normaux. À
l’origine, les déplacements domicile-travail obligeaient les gens à
recréer activement une communauté physique par le biais
d’organisations non professionnelles : le gymnase, la crèche, le
bowling, etc. Avec l’essor des technologies de l’information, une
partie de cette activité de création de communautés s’est déplacée
en ligne, ce qui favorise encore plus l’isolement physique. Résultat :
l’ancienne solidarité, selon laquelle les relations entre collègues
étaient renforcées par une communauté sociale stable, apparaît de
manière beaucoup plus sporadique qu’à n’importe quel autre
moment de l’histoire du capitalisme.
Pour les membres de la jeune main-d’œuvre précaire, la proximité
urbaine est vitale. Ceux-ci tendent à se rassembler dans le centre-
ville, acceptant de sacrifier leur espace de vie en contrepartie de la
proximité physique du réseau de contacts nécessaires pour trouver
des partenaires, du travail intermittent et des loisirs. Leurs luttes,
menées dans des endroits comme Exharcheia à Athènes ou dans le
contexte du soulèvement étudiant de Londres en 2010, ont tendance
à se concentrer sur l’espace physique.
En cherchant à comprendre ces transformations qualitatives de la
vie professionnelle, les sociologues se sont d’abord intéressés à cet
espace physique. Barry Wellman a documenté la transition des
communautés depuis le groupe vers le réseau physique puis
numérique, qualifiant ce qui en a résulté
57
d’« individualisme connecté » et le liant explicitement à une plus
grande flexibilité de l’emploi. Richard Sennett, professeur à la
London School of Economics, a, quant à lui, commencé à étudier les
nouvelles caractéristiques de la main-d’œuvre de
58
haute technologie . Selon Sennett, si le travail récompense le
détachement et la conformité superficielle, valorise l’adaptabilité
plutôt que la compétence et le travail en réseau plutôt que la loyauté,
il donne naissance à un nouveau type de travailleur. Celui-ci se
focalise sur le court terme, dans la vie comme dans le travail, et
manque d’engagement envers les hiérarchies et les structures, tant
au travail que dans l’activisme.
Sennett et Wellman ont tous deux remarqué la tendance des
personnes adaptées à ce mode de vie en réseau à adopter des
personnalités multiples, aussi bien en ligne que dans la réalité.
Selon Sennett, dans le cadre temporel du nouveau capitalisme, un
conflit est apparu entre le personnage et l’expérience, l’expérience
d’un temps décousu menaçant la capacité des gens à constituer
leurs personnages dans des récits à long terme59.
Le travailleur de l’ère keynésienne incarnait un personnage
unique : au travail, au bar du coin, dans le club social, dans les
tribunes des stades de football, il restait fondamentalement lui-
même. L’individu connecté est à l’origine d’une réalité plus
complexe : il/elle mène plusieurs existences parallèles au travail, au
sein de communautés culturelles alternatives et aussi en ligne.
Recenser ces changements est une chose ; arriver à comprendre
leur impact sur la capacité de l’humanité à résister à l’exploitation et
à l’oppression en est une autre. Michael Hardt et Antonio Negri en
ont brillamment fait la synthèse dans Déclaration, leur livre de 2012.
« Le centre de gravité de la production capitaliste n’est plus situé
dans l’usine, il est sorti de ses murs. La société est devenue une
usine […]. Avec ce déplacement, l’accord fondamental entre le
capitaliste et le travailleur change également […]. Aujourd’hui,
l’exploitation ne repose plus sur l’échange (égal ou inégal), mais sur
la dette.60 »
Si, dans les années 1970, Negri ainsi que la gauche italienne
avaient prématurément annoncé la « mort » du lieu de travail en
temps qu’épicentre de la lutte des classes et que c’était l’« ensemble
de la société » qui en était le nouveau, ils auraient aujourd’hui raison
de l’affirmer.
Si le capitalisme de l’information continue sur sa lancée, quel
avenir y a-t-il pour la classe ouvrière ?
En premier lieu, l’actuelle division de la main-d’œuvre mondiale ne
peut être considérée que comme transitoire. La main-d’œuvre du
Sud aura tôt ou tard accès à de meilleures conditions de vie ;
viendra un moment où le capital réagira en introduisant toujours plus
d’automatisation et en cherchant à produire toujours plus au sein
des pays émergents. Ainsi, les travailleurs chinois et brésiliens iront
dans la même direction que la main-d’œuvre des pays développés,
dominée par les services et divisée en deux catégories (la main-
d’œuvre centrale et le précariat). Les membres de ces deux
catégories verront alors le lien entre travail et salaire partiellement
rompu. En outre, selon les scientifiques de la Oxford Martin School,
les emplois de services peu qualifiés sont les plus à même d’être
totalement automatisés au cours des deux prochaines décennies. La
classe ouvrière mondiale n’est pas destinée à rester éternellement
divisée entre les ouvriers d’usine en Chine et les développeurs de
jeux aux États-Unis.
Cependant, la lutte sur le lieu de travail n’est plus la seule ni la
plus importante.
Dans beaucoup de villes industrielles et commerciales du monde,
l’individu connecté n’est plus une curiosité sociologique, il en est
devenu l’archétype. Toutes les qualités que les sociologues des
années 1990 avaient relevées chez la main-d’œuvre des industries
de la haute technologie (la vivacité, le réseautage spontané, les
personnalités multiples, le peu de liens, le détachement et une
apparente soumission cachant un violent ressentiment) sont
devenues les qualités essentielles du jeune individu
économiquement actif.
Et, malgré les conditions de travail oppressantes, on en trouve
même en Chine, dont la main-d’œuvre industrielle est censée
constituer l’alter ego du consommateur occidental insouciant. À
partir du milieu des années 2000, des cybercafés dotés de centaines
d’écrans se sont ouverts dans les quartiers ouvriers des villes
tournées vers l’exportation. Les sociologues qui ont interrogé les
jeunes travailleurs migrants à l’époque ont constaté qu’ils utilisaient
le Web pour deux choses : créer des liens avec d’autres travailleurs
de leur ville d’origine, et se défouler en jouant. Pour des jeunes qui
n’avaient jamais dormi que dans une ferme ou dans un dortoir
d’usine, le cybercafé était une véritable révolution. « Notre
contremaître est un dur à cuire. Mais, quand je le rencontre dans le
cybercafé, je n’ai pas peur de lui, avoue une travailleuse aux
chercheurs en 2012. Il n’a pas le droit de me contrôler, ici. C’est un
utilisateur. Moi aussi61. »
On se croirait revenus à la Préhistoire. Les Smartphones ont fait
entrer le cybercafé dans la poche de tous les travailleurs chinois. Le
nombre de connexions à l’Internet mobile a dépassé celui des
connexions depuis les ordinateurs de bureau en Chine en 2012, et
est désormais accessible à 600 millions de personnes. Et qui dit
Internet mobile dit réseaux sociaux. En 2014, 30 000 ouvriers de
l’usine de chaussures Yue Yuen située à Shenzhen organisèrent une
grande grève en utilisant, pour la première fois de l’Histoire, la
messagerie de groupe et le microblogage. Les réseaux villageois,
qui, sous forme analogique, servaient à recruter et à répartir les
salariés de manière informelle dans une seule et même usine,
étaient désormais utilisés pour passer en revue les taux horaires et
les conditions de rémunération ainsi que pour diffuser des
informations dans des industries entières.
Ce qui terrifie les autorités chinoises, c’est que les ouvriers de
l’usine de Shenzhen utilisent la même technologie que les étudiants
libéraux en réseau qui, en 2014, ont organisé une manifestation à
Hong Kong en faveur de la démocratie, connue sous le nom
d’Occupy Central.
Si l’on admet que la principale ligne de faille du monde moderne
se situe entre les réseaux et les hiérarchies, alors la Chine se trouve
juste au-dessus. Et les travailleurs chinois, qui font pour l’instant
figure de rebelles numériques et d’esclaves analogiques, sont au
cœur du phénomène de rébellion en réseau. Ces mouvements en
ligne témoignent de l’existence d’un nouveau sujet historique. Il ne
s’agit pas seulement d’une classe ouvrière qui a pris une autre
forme, mais de l’humanité qui s’est connectée.
C’est également le remède au pessimisme de la génération de
Gorz. Selon lui, la mort de la « vraie » classe ouvrière a fait
disparaître le vecteur principal de l’anticapitalisme. Si l’on veut que le
postcapitalisme devienne une réalité, il faut le voir comme une
utopie : une bonne idée, réalisable ou non, et dont aucun acteur
majeur de la société ne pourra incarner les valeurs.
Ces vingt dernières années, le capitalisme a fait se rassembler
une nouvelle force sociale qui en sera le fossoyeur, tout comme il a
e
rassemblé le prolétariat des usines du siècle. Ce sont les
individus connectés qui ont campé sur les grandes places des villes,
bloqué les lieux de forage, joué du punk rock sur les toits des
cathédrales russes, brandi des canettes de bière en défiant
l’islamisme sur l’herbe du parc Gezi, attiré un million de personnes
dans les rues de Rio et de São Paulo, et organisé des grèves de
masse dans le sud de la Chine.
Ils sont la classe ouvrière après « sublation », améliorée et
remplacée. Comme les ouvriers du e siècle, ils ignorent peut-être
tout de la politique, mais ils ne sont plus sous l’emprise du système.
Ils en sont extrêmement dégoûtés. Il s’agit d’un groupe dont les
intérêts divers convergent vers la nécessité de faire du
postcapitalisme une réalité, d’orienter la révolution des technologies
de l’information vers la création d’un nouveau type d’économie, où
un maximum de choses sont produites gratuitement, pour un usage
commun et collaboratif, inversant ainsi la tendance à l’inégalité. Le
néolibéralisme ne peut leur offrir qu’un monde de croissance
stagnante et de faillite au niveau des États : l’austérité jusqu’à la
mort, mais avec une version améliorée de l’iPhone mise sur le
marché tous les deux ans. Et la liberté qu’ils chérissent est sans
cesse brimée par l’État néolibéral, qu’il s’agisse des techniques de
surveillance de masse de la NSA ou des agissements de la police
chinoise sur Internet. Au-dessus de leurs têtes, la politique de
nombreux pays est devenue infestée par une mafia kleptocratique,
dont la stratégie consiste à assurer la croissance au prix de la
suppression des libertés et de l’accroissement des inégalités.
Cette nouvelle génération de personnes connectées a compris
qu’elle vivait une troisième révolution industrielle, mais elle
commence à peine à comprendre pourquoi elle est au point mort : le
système de crédit étant défaillant, le capitalisme ne peut pas
soutenir l’effort d’automatisation qu’il est possible de réaliser, et ne
peut pas contrebalancer la destruction des emplois provoquée par
l’apparition de nouvelles technologies.
L’économie produit et reproduit déjà un mode de vie et une
conscience en réseau en contradiction avec les hiérarchies du
capitalisme. Le désir d’un changement radical de l’économie se fait
clairement sentir.
La question est : comment faire pour y parvenir ?
PARTIE 3

Mais il était aussi évident qu’un accroissement général de la richesse


menaçait d’amener la destruction ‒ était vraiment, en un sens, la
destruction ‒ d’une société hiérarchisée.
Emmanuel Goldstein, 1984, George Orwell1
8
Sur les transitions

Au risque d’en choquer certains, le capitalisme n’a pas toujours


existé. Les économistes affirment que « le marché » représente
l’humanité à son état naturel. Dans les documentaires, les
pyramides égyptiennes et les grandes villes comme Pékin à
l’époque des grands empires chinois sont reproduites de manière
extrêmement détaillée, mais jamais on ne parle des systèmes
économiques, fondamentalement différents, qui ont permis leur
érection. « On est pareils », affirment en toute confiance les pères à
leurs fils alors qu’ils déambulent dans le British Museum et visitent
l’exposition d’Herculanum, jusqu’à ce qu’ils tombent sur la statue de
Pan en train de violer une chèvre, ou encore sur la fresque sur
laquelle on voit un couple en action lors d’un plan à trois avec un
esclave.
Lorsqu’on réalise que le capitalisme n’existait pas autrefois – que
ce soit en tant que système économique ou de valeurs –, une
nouvelle idée nous vient, plus choquante encore : le capitalisme
pourrait bien compter ses derniers jours. Si tel est le cas, nous
devons nous pencher sur le concept de transition, et ce, en nous
posant les questions suivantes : qu’est-ce qui constitue un système
économique, et comment un système cède-t-il sa place à un autre ?
Dans les chapitres précédents, j’expliquais comment l’essor des
technologies de l’information marquait la rupture avec les institutions
fondamentales du capitalisme : les prix, la propriété et les salaires.
J’affirmais que le néolibéralisme était une fausse bonne idée ; que la
crise qui avait suivi l’éclatement de la bulle immobilière était le
produit des défauts existant au sein d’un modèle économique qui
empêche l’exploitation des nouvelles technologies et qui empêche le
cinquième cycle de démarrer.
Tous ces facteurs font que le postcapitalisme est à notre portée,
mais nous manquons de modèle de transition. Le stalinisme est
l’exemple parfait de ce qu’il ne faut pas faire ; le mouvement Occupy
a proposé quelques bonnes idées ; le système d’échange dit P2P
(peer-to-peer) a fait évoluer les modèles de collaboration à petite
échelle ; les écologistes ont ouvert la voie à la transition vers une
économie sans carbone, mais ils ont tendance à la considérer
comme distincte de la survie du capitalisme.
Donc, lorsqu’il s’agit d’organiser la transition d’un système
économique à un autre, nous ne pouvons que nous appuyer sur
l’expérience tirée de deux événements totalement différents : l’essor
du capitalisme, et l’effondrement de l’Union soviétique. Dans ce
chapitre, je me concentrerai sur les leçons que l’on peut retenir de
ces événements, puis, dans la dernière partie de ce livre, je tenterai
d’appliquer ces leçons lors de la conception d’un « plan de projet »
visant à faire sortir l’économie du capitalisme.
La manière dont nous percevions le changement a été mise à mal
par vingt-cinq années de néolibéralisme. Mais, si l’on a suffisamment
de cran pour imaginer pouvoir sauver la planète, on devrait aussi
imaginer pouvoir nous sauver d’un système économique qui ne
fonctionne pas. Le fait est que cette phase de conception est
cruciale.

Un bolchévique sur Mars


Dans le roman de science-fiction vintage L’Étoile rouge, écrit par
Alexander Bogdanov et paru en 1909, le protagoniste, un militant du
Parti bolchévique russe, est emmené sur Mars en vaisseau spatial.
La modernité des usines martiennes l’impressionne, mais rien ne
l’avait préparé à ce qui se trouve dans la salle de contrôle : d’heure
en heure, les écrans indiquent le nom des secteurs et des usines qui
souffrent de pénurie de main-d’œuvre et ceux et celles dont la main-
d’œuvre est excédentaire. Le but est d’amener les travailleurs à aller
d’eux-mêmes là où l’on a besoin d’eux. Dans la mesure où les biens
abondent, la demande ne fait pas l’objet d’une quelconque mesure.
L’argent n’existe pas non plus : le guide martien explique que
« chacun prend ce dont il a besoin, dans la quantité qu’il veut ». Les
ouvriers – qui contrôlent, mais ne touchent jamais les machines
géantes – fascinent également notre Terrien : « Leurs visages
étaient empreints d’une sérénité concentrée ; ils semblaient n’être
que des observateurs savants, en dehors de tout ce vacarme […]
L’attitude des monstres d’acier devant les petits êtres qui les
observaient devenait compréhensible ; c’était la condescendance
des forts pour les plus faibles. Pour une personne extérieure, les
liens unissant les cerveaux délicats des hommes avec les organes
monstrueux de mécanisme restaient dans l’ombre1. »
Dans L’Étoile rouge, Bogdanov ne s’est pas contenté d’imaginer le
fonctionnement d’une économie postcapitaliste, il s’est également
demandé à quoi ressemblerait l’individu nécessaire à son bon
fonctionnement : des travailleurs de l’information dont le cerveau est
connecté à quelques discrets mécanismes. Mais, en imaginant le
futur communisme, il remettait en question les conventions de son
époque : la pensée des différentes branches du socialisme était bien
trop pragmatique. Mais ce n’était pas qu’une simple fantaisie.
Bogdanov, avant tout docteur, avait également été l’un des vingt-
deux membres fondateurs du bolchévisme. Il fut emprisonné et exilé,
il a dirigé le soviet de Petrograd, a édité son journal, géré ses fonds
et organisé leur collecte par des braquages de banques. C’est
Bogdanov que nous voyons jouer aux échecs avec Lénine sur la
célèbre photographie prise à Capri en 1908 à l’école du parti2. Mais,
moins d’un an après cette photographie, Bogdanov fut expulsé du
parti dirigé par Lénine. Il s’était opposé à Lénine en se basant sur
des désaccords qui préfigurèrent la tragédie qui était sur le point de
se produire.
Selon Bogdanov, la révolution de 1905 suffit à prouver que les
travailleurs n’étaient pas assez matures pour diriger la société. Il
avertit que, dans la mesure où une société postcapitaliste doit être
une société du savoir, essayer d’instaurer un tel système par le biais
d’actions révolutionnaires menées à l’aveugle ne pourrait qu’amener
une élite technocrate au pouvoir. Pour empêcher cela, il faudrait,
selon lui, « diffuser une culture prolétarienne parmi les masses,
développer une science prolétarienne et créer une
3
philosophie prolétarienne ».
Cela était inacceptable pour Lénine. Le marxisme était devenu
une doctrine d’éclatement imminent et de révolution, selon laquelle
les travailleurs se révolteraient malgré leurs idées et leurs préjugés.
Bogdanov avait été suffisamment téméraire pour affirmer que le
marxisme devait s’adapter à de nouveaux modèles de pensée
scientifique. Il avait anticipé le remplacement du travail manuel par le
travail intellectuel, c’est-à-dire que la nature même du travail
deviendrait technologique. Passé ce remplacement, notre
compréhension du monde doit aller au-delà des méthodes
dialectiques de pensée que Marx a héritées de la philosophie.
Bogdanov avait affirmé que la science remplacerait la philosophie et
que nous serions amenés à voir la réalité comme un « réseau
d’expériences connectées ». Les grands domaines scientifiques
individuels feraient alors partie d’une « science universelle de
l’organisation », connue sous le nom de « théorie des systèmes ».
Pour être devenu le premier vrai théoricien des systèmes, et aussi
pour sa vision prophétique des mauvais événements à venir en
Russie, Bogdanov fut expulsé lors d’une discussion houleuse dans
l’appartement parisien de Lénine en 1909. En l’espace de quelques
mois, son roman fut publié et largement diffusé au sein de la main-
d’œuvre russe. À la lumière des événements qui se sont produits
sous l’ère du stalinisme, la manière dont il aborde le principe
d’économie postcapitaliste est tout à fait révolutionnaire.
Dans ce roman, le communisme martien repose sur l’abondance :
tout existe en quantité plus que suffisante. La production suit son
cours selon un calcul transparent des besoins en temps réel de la
demande. On consomme gratuitement. Le système fonctionne, car
les travailleurs agissent sous l’influence d’une doctrine de
coopération de masse qui repose sur leur haut niveau d’éducation et
sur la nature intellectuelle de leur travail. Ils passent du genre
masculin au genre féminin en un tournemain, conservent tout leur
calme et leur altruisme face au stress et au danger, en plus de
mener une existence culturellement riche et pleine d’émotions.
Les grandes lignes de l’histoire de Bogdanov se veulent tout aussi
provocatrices : grâce au capitalisme, l’industrialisation de Mars a pu
se concrétiser, puis une lutte pour le contrôle industriel s’est
engagée, suivie par une révolution majoritairement pacifique dans la
mesure où elle avait été menée par des ouvriers plutôt que par des
paysans. S’ensuit une période de transition longue d’un siècle durant
laquelle la nécessité de travailler a progressivement disparu : petit à
petit, le nombre d’heures que comptait la journée de travail
obligatoire était passé de six à zéro.
Quiconque possède des connaissances à propos du marxisme
orthodoxe saura lire entre les lignes de L’Étoile rouge. Bogdanov
s’est servi de son roman pour esquisser les traits d’une solution
alternative complète aux idées qui deviendraient le courant de
pensée dominant de l’extrême gauche au e siècle. Il prône la
maturité technologique comme condition préalable à la révolution, le
renversement pacifique des capitalistes par le biais de compromis et
de contreparties, le recours à la technologie comme moyen de
réduire le travail au minimum, et insiste sur le fait que c’est
l’humanité elle-même qui doit être transformée, et pas seulement
l’économie. En outre, l’un des thèmes majeurs de L’Étoile rouge
tourne autour de la nécessité pour une société postcapitaliste d’être
écologiquement viable. Les Martiens se suicident s’ils pensent que
la planète n’a plus assez de ressources pour tous les accueillir. En
outre, à mesure que leurs ressources naturelles s’épuisent, ils
abordent la question brûlante de la colonisation de la Terre.
Si vous vous demandez à quoi aurait ressemblé la Russie si
Lénine s’était fait renverser par un tram en allant à la réunion durant
laquelle Bogdanov fut expulsé, vous n’êtes pas le premier à le faire.
Des flots d’encre ont coulé à propos de Bogdanov et des diverses
tournures qu’aurait pu prendre sa vie, et ce, à juste titre. Même s’il
n’aurait jamais pu imaginer un ordinateur, il avait tout de même
réussi à imaginer le genre de communisme que pourrait produire
une société fondée sur le travail intellectuel, la durabilité et la pensée
en réseau.
Après 1909, Bogdanov s’est retiré de l’activisme et a consacré dix
ans de sa vie à la rédaction d’un ouvrage précurseur de la théorie
des systèmes. Peu après la naissance de l’Union soviétique, il
monta une organisation culturelle ouvrière de masse, le Proletkult,
qui fut dissoute après s’être alliée à un groupe d’opposition prônant
le contrôle ouvrier4. Il est ensuite retourné à la médecine, avant de
mourir en 1928 après s’être lui-même soumis à une expérience de
transfusion sanguine5.
Lorsqu’ils commencèrent à instaurer le socialisme par diktat dans
les années 1930, les planificateurs soviétiques se plaisaient à citer
L’Étoile rouge comme source d’inspiration6. Sauf que, à ce moment-
là, l’écart entre utopie et réalité s’était creusé.

Le cauchemar russe
La révolution russe a déraillé selon un ordre bien précis. Dans le
contexte de la guerre civile de 1918-1921, les banques et les
grandes industries furent nationalisées, la production dirigée par des
commissaires (les syndicats étant soumis à une certaine discipline
militaire), les comités d’usines interdits, et les récoltes purement et
simplement réquisitionnées auprès des paysans. Résultat : la
production est descendue à 20 % de son niveau d’avant-guerre, la
famine a fait des ravages à travers le pays, et le rouble s’est
effondré ; certaines entreprises eurent recours au troc et durent
payer les salaires de leurs ouvriers en nature.
En mars 1921, l’URSS fut contrainte d’adopter une forme de
socialisme de marché connu sous le nom de « nouvelle politique
économique ». Laisser les paysans garder leurs récoltes et les
vendre avait relancé l’économie, mais cela avait aussi créé deux
dangers que les révolutionnaires, qui rencontraient alors quelques
difficultés, avaient du mal à cerner. Premièrement, l’argent affluait
vers les plus fortunés des paysans, que l’on appelait en argot
« koulak », ce qui dotait de facto le secteur agricole d’un pouvoir de
veto économique sur le rythme de la croissance du secteur
industriel, phénomène qui a été résumé dans le slogan « le
socialisme à pas de tortue ». Deuxièmement, la position de la
bureaucratie dans la direction des usines, des organes de
distribution, de l’armée, de la police secrète et des différentes
branches du gouvernement a été d’autant plus confortée.
Face aux riches paysans et aux bureaucrates, la classe ouvrière
russe exigeait plus de démocratie, l’accélération de l’industrialisation
à l’aide d’une planification centralisée et la suppression de la
spéculation. Bientôt, cette lutte tripartite qui divisait la société se
refléterait au sein du Parti communiste lui-même.
Une querelle de factions éclata entre une opposition de gauche
dirigée par Trotsky, qui plaidait pour plus de démocratie et plus de
planification, une branche promarché dirigée par Boukharine, qui
voulait retarder l’industrialisation en disant aux paysans :
« Enrichissez-vous ! » et Staline lui-même, au centre, qui défendait
les intérêts de la bureaucratie.
En novembre 1927, lors d’une parade célébrant l’anniversaire de
la révolution, environ 20 000 partisans de l’opposition de gauche
brandirent des bannières appelant à la suppression des koulaks, des
spéculateurs et des bureaucrates par le parti. Lorsque les ouvriers
de certaines usines moscovites sortirent pour les rejoindre, les
forces de l’ordre chargèrent, et des combats de rue s’ensuivirent.
Staline expulsa Trotsky et les chefs de la gauche avant de les
exiler de force. Puis, dans l’une de ces volte-face qu’Orwell
parodierait plus tard dans 1984, Staline mit en œuvre le programme
de la gauche, mais sous une forme extrême, en multipliant les
recours à la violence. En 1928, ce fut au tour de Boukharine de se
faire éliminer, ainsi que l’ensemble de la droite libérale du parti. Les
koulaks furent « liquidés » dans le cadre d’un programme de
collectivisation forcée de leurs fermes. Les estimations varient, mais
la famine combinée aux exécutions de masse qui eurent lieu dans
l’arrière-pays tua environ huit millions d’individus sur une période de
trois ans7.
Toute l’ambition que Staline projetait dans son premier plan
quinquennal avait été capturée dans l’une de ses déclarations les
plus célèbres : « Nous retardons de cinquante à cent ans sur les
pays avancés. Nous devons parcourir cette distance en dix ans. Ou
nous le ferons, ou nous serons broyés8. »
Les chiffres officiels font état d’une croissance extrêmement
importante de la production lors du premier plan quinquennal : la
production de charbon, d’acier et de pétrole avait doublé, et
d’énormes projets infrastructurels furent terminés en avance. Mais,
contrairement au monde de science-fiction dépeint dans L’Étoile
rouge, les planificateurs durent faire face à deux obstacles majeurs.
D’une part, l’économie demeurait profondément agricole ; d’autre
part, les bases techniques du secteur industriel étaient faibles et
avaient été minées par dix ans de tensions. Bien que le contexte ne
le permît pas, Staline n’avait pas hésité à imposer sa politique de
planification à une société caractérisée par un niveau extrême de
pénurie et un système agricole semi-féodal. Progresser signifiait
parfois recourir à des méthodes de réaffectation radicales : de
l’agriculture vers l’industrie, et de la production de biens de
consommation à la production d’engins de chantier. Les objectifs
industriels furent atteints, mais au prix de famines sévères,
d’exécutions de masse, de conditions de travail esclavagistes sur de
nombreux lieux de travail et, finalement, d’une nouvelle
crise économique9.
L’URSS n’a pas rattrapé l’Occident en dix ans. Cela étant, en
1977, son PIB par habitant représentait 57 % de celui des États-
Unis – ce qui le plaçait au même niveau que l’Italie. Selon une
enquête menée par la CIA, la croissance moyenne en URSS était de
4,2 % entre 1928 et le début des années 1980. Les analystes de la
RAND Corporation ont reconnu que l’« on pouvait clairement parler
de record de croissance soutenue10 ».
Cependant, la croissance de l’URSS n’a jamais été due à une
meilleure productivité. Une étude de la RAND a révélé que seul un
quart de la croissance de l’URSS était dû à l’amélioration des
technologies, le reste relevant de l’augmentation des intrants :
machines, matières premières et énergie. Après 1970, la productivité
n’a pas progressé du tout : pour doubler le nombre de clous
produits, il fallait construire une nouvelle usine de clous à côté de
l’ancienne ; la productivité n’était pas à l’ordre du jour.
Les économistes appellent cela « croissance extensive », par
opposition à la croissance intensive qui accroît la richesse réelle. À
moyen terme, un système basé sur une croissance extensive ne
peut survivre. Il est probable que, avec la stagnation de la
productivité, le système soviétique se serait effondré à un moment
donné à cause de ses propres défauts, et ce, même s’il n’avait pas
été confronté à la pression qu’avait exercée l’Occident dans les
années 1980.
L’une des leçons – énoncée à l’avance par les anarchistes, les
socialistes agraires comme Kondratiev et les marxistes dissidents
comme Bogdanov – était la suivante : « Ne prenez pas le pouvoir
dans un pays arriéré. » En voici une deuxième : acceptez le fait que
la planification est un exercice d’approximation. Comme l’a montré
l’économiste Holland Hunter en analysant les données soviétiques,
les objectifs du premier plan quinquennal n’auraient jamais pu être
atteints sans une chute de 24 % de la consommation11. Les
planificateurs soviétiques volaient à l’aveugle : ils faisaient d’un
objectif leur priorité, conservaient un minimum d’optimisme pour
maintenir la pression sur leurs subordonnés et, en cas d’échec,
s’efforçaient de remédier à la situation ou de la dissimuler. Ils
refusèrent de reconnaître que même les économies en transition ont
des lois objectives : des forces qui agissent dans le dos des acteurs
économiques et à l’encontre de leur volonté. « Il est impossible
d’étudier l’économie soviétique en adoptant la causalité comme axe
de travail », pouvait-on lire dans le manuel d’économie du parti au
milieu des années 192012. Dans le monde fantasque du stalinisme,
même la cause et l’effet furent négligés.
La croissance soviétique ayant dépassé celle de l’Occident
pendant un certain temps, les penseurs de l’économie keynésienne
donnèrent du crédit à l’économie planifiée. Les prophètes du
néolibéralisme, Mises et Hayek, avaient dès le début prédit sa fin
tragique. Si nous voulons concevoir un projet de transition vers le
postcapitalisme aujourd’hui, nous devons prendre au sérieux les
critiques de Hayek et de Mises. Ils ne se contentaient pas de
critiquer la réalité soviétique ; ils insistaient sur le fait que, même
dans un pays développé, toutes les formes de planification échouent
inéluctablement.

La question du calcul économique


Aussi étrange que cela puisse paraître, la viabilité d’un modèle
socialiste était l’un des thèmes principaux de l’économie orthodoxe.
Puisque les marginalistes pensaient du marché qu’il était
l’expression parfaite de la rationalité humaine, ils n’avaient rien –
tant que cela n’allait pas plus loin que la théorie – contre l’idée d’un
État omniscient tout aussi performant qu’un marché parfait. « Les
deux systèmes revêtent une forme similaire et produisent le même
résultat, écrit l’économiste italien Vilfredo Pareto dans un ouvrage
fondateur, le résultat est extrêmement remarquable13 ».
En 1908, son collègue Enrico Barone fit le compte rendu détaillé
des possibilités pour un État socialiste de parvenir, à l’aide de
calculs, à produire des résultats similaires à ceux produits
aveuglément par le marché. Barone a montré qu’il était possible de
trouver la forme de production, de consommation et d’échange la
plus efficace grâce aux équations linéaires. Selon lui, « c’est un
travail d’une ampleur colossale, mais ce n’est pas irréalisable14 ».
Pour les marginalistes, c’était comme une profession de foi : en
théorie, un plan parfait, conçu par un État omniscient capable
d’opérer des calculs en temps réel, valait autant qu’un marché
parfait.
Mais il y avait un truc. Tout comme le marché, l’État ne peut pas
anticiper la demande à l’aide de calculs. Chaque plan annuel revêt
donc un caractère expérimental, non pas à petite échelle, mais à
très grande échelle. Le marché se régule en temps réel, un plan
souffre de latence. Selon Barone, un régime collectiviste serait tout
aussi anarchique que le marché, mais à une plus grande échelle.
Dans la pratique, un État n’est jamais omniscient ni ne peut effectuer
des calculs suffisamment rapidement. La question demeure
purement théorique.
Ce sont les bouleversements de la période 1917-1921 qui ont fait
du problème du « calcul économique sous un régime socialiste »
une question bien réelle pour les économistes. En 1919, l’Allemagne
et l’Autriche concrétisèrent leurs malheureuses campagnes de
« socialisation », les débuts de l’économie de guerre soviétique
furent encensés comme une forme de communisme, et, dans
l’éphémère république soviétique de Bavière, on envisagea
sérieusement de supprimer la monnaie sans délai. L’économie
planifiée ne relevait plus du simple jeu d’esprit, c’était désormais une
réalité qui allait bientôt voir le jour et qui était poursuivie avec un
certain fanatisme.
Tel était le contexte de la rédaction du livre Le Calcul économique
en régime socialiste, écrit par Ludwig von Mises et paru en 1920. Le
marché est, selon Mises, une calculatrice : les gens font des choix,
achètent et vendent des articles à des prix donnés, et le marché
estime la validité de leurs choix. Ce principe garantit, sur la durée, la
distribution la plus rationnelle possible des ressources les plus rares.
Lorsque l’on supprime la propriété privée et que l’on introduit la
planification, la calculatrice cesse de fonctionner : « Sans calcul
économique, pas d’économie. Dans une collectivité socialiste, il ne
peut y avoir aucune économie dans le sens que nous donnons à ce
terme, puisque le calcul économique y est impossible15. »
De plus, en ce qui concerne la volonté de l’extrême gauche de
supprimer la monnaie, Mises a expliqué que c’était inutile. Si l’on
continue d’utiliser la monnaie tout en passant outre le marché grâce
à la planification, on réduit la capacité de la monnaie à transmettre
les signaux émis par les prix. Mais, si l’on supprime la monnaie, on
supprime également l’instrument de mesure de l’offre et de la
demande : la distribution devient un exercice de spéculation. Selon
Mises, « dans la collectivité socialiste où toutes les modifications
économiques se transforment ainsi en une entreprise dont il est
impossible d’apprécier à l’avance ou d’établir plus tard
rétrospectivement le résultat, on ne fait que tâtonner dans les
ténèbres16 ».
Mises avait identifié trois défauts majeurs dans la pratique de la
planification : l’État ne peut pas calculer aussi rapidement que le
marché ; l’État ne peut pas récompenser l’innovation ; et, lorsqu’il
s’agit de distribuer le capital parmi les secteurs majeurs, l’opération
devient hasardeuse et complexe en l’absence de système financier.
Il avait également prédit qu’en fin de compte la planification
conduirait au chaos, notamment par la surproduction de biens de
mauvaise qualité dont personne ne voudrait. La planification
fonctionnerait pendant un certain temps dans la mesure où le
« souvenir » des prix adaptés resterait gravé dans la mémoire du
système, mais, dès lors que ce souvenir s’efface, le système
s’effondre. Dans la mesure où ses prédictions se sont vérifiées, tant
par l’existence que par la mort de l’économie soviétique, son
ouvrage est considéré comme la bible de la droite libérale. Mais, à
l’époque, son influence était limitée.
Ce n’est que dans les années 1930, dans un contexte de
dépression, de fascisme et de deuxième plan quinquennal
soviétique, que la question du calcul économique dans un régime
socialiste a vraiment pris de l’importance. Selon Friedrich Hayek,
disciple de Mises, l’inefficacité de l’URSS tient dans les raisons que
l’on cite habituellement : pas de choix pour le consommateur,
mauvaise distribution des ressources et manque de récompense
pour l’innovation. Mais Hayek ne soutenait pas l’argument principal
de Mises, à savoir l’incapacité de l’État à calculer aussi bien que le
marché. Un état socialiste pourrait imiter efficacement le marché,
comme Barone l’avait affirmé, s’il disposait de la bonne information.
Le problème étant qu’il ne pourrait jamais calculer assez rapidement.
Harold Robbins, un professeur de la London School of Economics
et collaborateur de Hayek, avait affirmé que réussir à calculer
correctement le plan nécessiterait d’« établir des millions d’équations
sur la base de millions de données statistiques fondées sur plusieurs
millions de calculs individuels. Au moment où les équations seraient
résolues, les informations sur lesquelles elles étaient basées
seraient devenues obsolètes et elles devraient être calculées à
nouveau17 ».
L’échange qui en découla fut animé. L’économiste polonais de
gauche Oskar Lange avait fait remarquer qu’Hayek et Robbins
avaient effectivement fait une grande concession à la gauche18.
Lange était membre d’une école de socialistes modérés qui
rejetaient le marxisme et pensaient que le socialisme pouvait être
instauré à l’aide des principes de la théorie de l’utilité marginale. Il
avait montré que, si l’on conserve un marché de consommation, en
laissant les gens choisir leur lieu de travail, mais que l’on planifie la
production de tous les biens, alors le processus d’essai et d’erreur
appliqué à une économie socialiste ne diffère fondamentalement pas
de celui qui fonctionne par le biais des prix. Au lieu d’être signalés
par la fluctuation des prix, les besoins non satisfaits de l’économie
se matérialiseraient par des ruptures et des surabondances de
biens. L’organisme d’approvisionnement central n’aurait alors qu’à
se contenter de réorganiser les quotas de production en
conséquence.
La plupart des observateurs indépendants estiment que Lange a
fait ses preuves. Après la guerre, même les spécialistes de
l’économie soviétique de la CIA étaient convaincus : « Bien sûr
qu’un régime socialiste peut fonctionner […]. Sur ce point, Lange est
très convaincant.19 »
Cela étant, il nous faut rouvrir la question du calcul économique
pour une raison des plus évidentes : aujourd’hui, la technologie
érode le mécanisme des prix, sans l’essor en parrallèle d’une
économie planifiée. Les superordinateurs et le big data mettent à
portée de main le type de calculs en temps réel que Robbins pensait
impossibles. Robbins demandait un million de millions de millions.
Cela correspond exactement à un pétaoctet, qui se trouve être
l’unité que nous utilisons pour mesurer les performances d’un
superordinateur : des pétaoctets d’instructions par seconde. Cela a
ravivé l’idée chez certains gauchistes que « la planification peut
fonctionner » si l’on peut résoudre le problème du calcul par la
technologie. Cependant, le problème du calcul ne se pose pas dans
une économie postcapitaliste, et ce, pour une raison qui avait été
suggérée par Mises en 1920.
Lorsque le débat sur le « calcul économique » faisait rage dans
les années 1930, la gauche et la droite rejetaient la théorie de la
valeur-travail. Lange le socialiste et Hayek l’ultracapitaliste pensaient
tous deux que l’utilité marginale était la seule explication tangible à
la création de la valeur. Ainsi, pour la gauche comme pour la droite,
l’idée de la transition – selon laquelle un système basé sur la pénurie
laisse sa place à un système basé sur l’abondance – n’a jamais été
approfondie. Si le capitalisme et le socialisme d’État ne sont que
deux façons différentes de répartir les biens de manière rationnelle
jusqu’à ce que l’on atteigne l’équilibre, la transition entre les deux se
résume à un défi technologique ; elle ne vaut pas une révolution.
Mais, comme l’avait déjà fait remarquer Mises, si la théorie de la
valeur-travail se vérifie, le problème du calcul ne se pose même pas.
Les problèmes de répartition des biens, de définition des priorités et
de récompense des personnes qui innovent peuvent tous être
appréhendés dans un système basé sur la valeur du travail, car tout
peut être mesuré à l’aune d’un même critère. Le régime socialiste
est une réalité plausible, admettait Mises, mais seulement s’il existe
une « unité de valeur reconnaissable, qui permettrait le calcul
économique dans une économie où il n’y aurait ni monnaie ni
échange, et seul le travail peut être considéré comme tel20 ».
Malgré cela, Mises n’adhérait pas à la théorie de la valeur-travail
pour les raisons qui avaient été communément admises à Vienne
dans les années 1920 : impossible de s’en servir pour mesurer les
différences de niveau de qualification, ni pour donner une valeur
marchande aux ressources naturelles. Ces deux objections sont
faciles à contourner ; il s’agit en fait de malentendus sur la théorie de
Marx. Marx a clairement démontré que le travail hautement qualifié
pouvait être mesuré comme un multiple du travail peu qualifié, et
que la valeur du travail contenue dans les matières premières
équivalait simplement au travail nécessaire pour les extraire et les
transporter.
De plus, les travaux de Mises à propos de la question du calcul
offrent une autre idée des plus pertinentes : ce n’est pas le
commerce entre entreprises qui est le véritable médiateur de l’offre
et de la demande dans une économie de marché, c’est le système
financier, qui fixe un prix au capital. Son intuition avait été
remarquablement perspicace, en plus de conserver toute sa
pertinence aujourd’hui : si nous voulons une économie
postcapitaliste, il nous faut non seulement trouver quelque chose de
mieux que le marché pour répartir les biens, mais aussi quelque
chose de mieux que le système financier pour répartir le capital.

Les transitions ont leur propre dynamique


L’opposition russe de gauche – et par-dessus tout Evgeny
Preobrazhensky, son économiste le plus éminent – avait saisi toute
l’importance de la théorie de la valeur-travail dans le processus de
transition. Selon eux, l’objectif de la transition était simplement
d’augmenter l’offre en marchandises gratuites et abondantes, et de
diminuer la quantité de « travail nécessaire » comme critère
d’échange. Tout comme dans L’Étoile rouge, les premiers
planificateurs soviétiques s’étaient donné comme objectif de
produire le plus possible, de manière à rompre la relation entre le
travail, le salaire et le pouvoir d’achat. En termes marxistes, cela
revenait à « supprimer la loi de la valeur ».
Mais la seule manière pour la gauche de parvenir à tout cela était
de favoriser l’industrie lourde et le contrôle étatique. Au début des
années 1920, la pénurie était généralisée : produire des biens de
consommation signifiait recourir aux industries lourdes et à
l’électrification ; nourrir la population nécessitait l’industrialisation de
l’agriculture. La gauche accéléra donc la concentration des
ressources vers les secteurs qui deviendraient plus tard les icônes
de la propagande soviétique : centrales électriques, ateliers de
métallurgie, engins de chantier. Elle avait cependant fait preuve de
clairvoyance et savait pertinemment que l’équilibre ne serait jamais
atteint et que la planification serait chaotique.
En matière d’économie, la chose la plus importante que les
trotskystes russes nous ont léguée est certainement l’idée qu’une
phase de transition engendre sa propre dynamique ; elle ne se limite
jamais au simple remplacement d’un système par un autre.
Trotsky affirmait que la première phase de transition soviétique
nécessitait de ne pas supprimer le secteur des entreprises privées ni
celui des consommateurs. Penser que le régime pouvait à ce stade
faire mieux en matière de distribution que le marché des biens de
consommation, c’était faire preuve d’orgueil. De plus, le rouble
devait rester échangeable sur le marché mondial. En outre, tous les
plans n’avaient pas encore dépassé le stade théorique. Selon
Trotsky, « le plan se vérifie et, dans une large mesure, se réalise à
travers le marché21 ».
Même les ajustements les plus infimes nécessitent des retours
d’information en temps réel. Mais, dans une société majoritairement
bureaucratique, où toute dissidence était synonyme d’aller simple
pour le goulag, on avait tendance à taire ce genre de retour
d’information, d’où l’accent mis par Trotsky sur un retour de la
démocratie sur le lieu de travail. On avait besoin d’un plan évolutif
combinant les principes de la planification et du marché et dans le
cadre duquel la monnaie sert de moyen d’échange et de réserve de
valeur. On avait aussi besoin de démocratie ouvrière.
Selon Preobrazhensky, l’argent fonctionnerait normalement dans
les secteurs non planifiables, tandis que, dans les secteurs planifiés
de l’économie, l’argent commencerait à fonctionner comme un outil
de comptabilité. Et, si l’objectif est que le plan s’impose face au
marché, on peut s’attendre à ce que le marché vienne en
permanence « contaminer » le plan.
Dans un de ses passages les plus mémorables et les plus
pertinents aujourd’hui, Trotsky écrit :
« S’il existait un esprit universel […] capable d’enregistrer
simultanément tous les processus de la nature et de la société, de
mesurer la dynamique de leur mouvement, de prévoir les résultats
de leurs interactions, un tel esprit, bien sûr, pourrait a priori élaborer
un plan économique parfait et complet, depuis le nombre d’acres de
blé jusqu’au dernier bouton d’un gilet.22 »
L’absence d’un tel « esprit universel », avait-il dit, exige plutôt la
promotion de la démocratie ouvrière, qui avait été supprimée. Ce
n’est que si les êtres humains, avec leur liberté d’expression,
deviennent les capteurs et les mécanismes de retour d’information
du système de planification que cette grossière calculatrice peut
fonctionner.
Preobrazhensky, Trotsky et leurs collaborateurs furent les derniers
marxistes à détenir un tant soit peu de pouvoir politique qui
percevaient la transition à travers le prisme de la valeur-travail.
Preobrazhensky fut exécuté en 1936, et Trotsky assassiné en 1940.
Dans le monde d’aujourd’hui, leurs idées ont toute leur importance.
Sous l’effet du néolibéralisme, le secteur du marché est devenu
bien plus complexe qu’il ne l’était dans les années 1920 et 1930. En
1933, les États-Unis étaient très différents de la Russie, mais ces
pays se ressemblaient nettement plus que l’Amérique d’aujourd’hui
ne ressemble à celle d’il y a trente ans. Le secteur de la
consommation ne s’est pas seulement étendu, il s’est aussi bien
plus fractionné. La production et la consommation se confondent, et
l’économie intègre déjà des biens de l’information dont le coût de
production marginal est nul.
Puis il y a l’« usine sociale » de Negri : une société de
consommation hautement financiarisée et granulaire, dans laquelle
ce que nous achetons est devenu une question d’identité.
Leçon no 1 : le marché est bien plus complexe, donc bien plus
difficile à reproduire ou à améliorer par la planification. Vient ensuite
le secteur public. En tant que prestataire de service, l’État pèse
infiniment plus lourd que n’importe quel État capitaliste des
années 1930. Qu’il dépense ses impôts dans des services fournis
par des entreprises privées ou par lui-même, l’État cloisonne la
véritable économie privée (les entreprises privées produisant pour
des personnes employées par des particuliers) dans un espace plus
restreint. De plus, l’économie peer-to-peer est vaste, mais n’est pas
mesurée en termes de profit ni de PIB. Leçon no 2 : toute tentative
de dépassement du marché commencera à partir d’un cadre
différent de ce qu’il aurait pu être dans les années 1930.
Il nous est cependant possible de tirer les leçons de la question du
calcul économique et des experts planificateurs de la gauche russe,
pourvu que nous le fassions intelligemment. Mais, avant cela, nous
devons comprendre que, même avec le meilleur des
superordinateurs et avec toutes les données du monde, la
planification n’est pas la seule solution pour sortir du capitalisme.

L’attaque des cyberstalinistes


Au cours des vingt dernières années, Paul Cockshott et Allin Cottrell
– un informaticien et un professeur d’économie – ont travaillé sans
relâche sur un problème que nous pensions ne pas avoir : comment
planifier une économie. Bien que l’on n’en entende pas beaucoup
parler, leurs travaux sont à la fois rigoureux et précieux : ils
expliquent précisément ce que l’on ne doit pas faire.
Cockshott et Cottrell affirment que l’amélioration de la puissance
des ordinateurs, associée à l’application des mathématiques
avancées et de la théorie de l’information, élimine (en principe)
l’objection Hayek/Robbins, qui veut que le planificateur ne dispose
jamais de meilleures informations en temps réel que le marché. De
plus, contrairement à la gauche sur la question du calcul
économique, ils affirment que le modèle informatique dont nous
aurions besoin pour planifier la production doit intégrer la théorie de
la valeur-travail et ne pas essayer de simuler les résultats de l’offre
et de la demande.
Nous sommes à des années-lumière des travaux de Lange.
Cockshott et Cottrell ont compris que la théorie de la valeur-travail
nous donne les moyens de mesurer et de comparer les interactions
marchandes et non marchandes entre elles, en plus de nous
permettre de configurer les paramètres de la transition. Ils assimilent
le processus de planification à un programme informatique
modulable. Un programme qui centraliserait les exigences des
consommateurs et des producteurs déterminerait les coûts et les
ressources nécessaires pour y répondre, établirait des objectifs,
calculerait à l’avance les conséquences en termes de ressources,
vérifierait la faisabilité du plan, puis donnerait les instructions
nécessaires à la réalisation des objectifs aux producteurs et aux
prestataires de services23.
Mais, à la différence de la gauche russe des années 1920,
Cockshott et Cottrell ne considèrent pas le plan comme provisoire,
ou comme quelque chose qu’il appartient au seul secteur public
d’exécuter ; il doit être élaboré et testé en détail, jusqu’au niveau de
l’entreprise et des produits individuels.
Selon eux, dès lors que l’on supprime le marché, le directeur
d’une usine, d’une maison de soins ou d’un café ne peut plus
s’appuyer sur un quelconque signal pour poursuivre son activité. Il
doit savoir précisément ce qu’il doit produire. En d’autres termes,
leur méthodologie est celle d’un plan complètement normatif, tel
qu’imaginé (et ridiculisé) par Trotsky dans les années 1930.
Historiquement, l’Union soviétique n’aurait évidemment jamais pu
atteindre un tel niveau de modernité dans sa planification : dans les
années 1980, l’URSS comptait 24 millions de produits différents,
mais l’ensemble du dispositif de planification ne pouvait suivre le prix
et la quantité que de 200 000 d’entre eux ; et le plan central
proprement dit, de seulement 2 000. De ce fait, les usines
atteignaient les objectifs correspondant au petit nombre de produits
qu’elles étaient censées fabriquer et répondaient à toutes les autres
demandes de manière chaotique, voire pas du tout24.
Dans le modèle de Cockshott et Cottrell, l’argent existe sous la
forme de « jetons de travail » qui sont payés à chacun en fonction de
la quantité de travail qu’il effectue, déduction faite d’un impôt
forfaitaire servant à financer les services publics. Cela permet au
consommateur de choisir. Quand l’offre et la demande d’un produit
dérapent, les planificateurs centraux ajustent les prix de façon à
trouver un équilibre à court terme. Ensuite, sur une période plus
longue, ils comparent les prix demandés par un secteur ou une unité
de production par rapport à la quantité réelle de travail effectué.
Dans la phase suivante du plan, ils augmentent la production dans
les zones où les prix sont supérieurs à la main-d’œuvre utilisée, et
les réduisent là où ils sont inférieurs. La planification devient
« itérative », elle est constamment ajustée. Ce type de planification
dépasse de loin le tâtonnement : Cockshott et Cottrell pensent que
les entrées et les sorties peuvent être calculées à l’avance, ils ont
d’ailleurs proposé un algorithme complexe conçu à cet effet.
Le défi informatique qui se pose consiste tout d’abord à calculer la
valeur d’une heure de travail. C’est-à-dire quelle quantité de travail
est intégrée à chaque produit, tel qu’il figure sur une feuille de calcul
géante. Les chercheurs affirment qu’il est possible de réaliser cette
opération à l’aide d’un superordinateur, mais seulement s’il intègre
des techniques de traitement des données qui priorisent les
informations les plus pertinentes.
Pour Cockshott et Cottrell, la question qui se pose est : à combien
évalue-t-on une heure de travail ? En lui-même, le plan (donc la
répartition des ressources) se calcule plus facilement dans la
mesure où l’on ne fait pas tourner le programme au hasard. Il suffit
de lui demander quelle quantité d’un produit sera vendue dans
l’année, quelle quantité des différents intrants nous devons utiliser,
quelle est la variation saisonnière, quelle est la demande attendue,
quelle quantité nous devrions commander en nous appuyant sur les
limites des expériences passées, etc. Selon Cockshott et Cottrell :
« Avec les ordinateurs d’aujourd’hui, on pourrait envisager de traiter
quotidiennement une liste actualisée des différentes valeurs-travail,
ce qui nous permettrait de préparer un plan prospectif chaque
semaine et d’aller un peu plus vite qu’une économie de marché en
termes de réactivité25. »
Suivant une volonté d’application ambitieuse de ces principes,
Cockshott et Cottrell proposèrent un prototype d’économie planifiée
au sein de l’Union européenne. Ils expliquèrent non seulement
comment calculer le plan, mais aussi comment restructurer
l’économie pour le mettre en œuvre. C’est là que les présupposés
qui sous-tendent leur méthodologie se révèlent au grand jour :
malgré toute leur aversion pour ce qui a mal tourné dans les
années 1930, il s’agit toujours d’une forme de cyberstalinisme.
Selon leur modèle, la démarchandisation de l’Europe ne serait pas
effectuée par la nationalisation, mais plutôt par une réforme du
système monétaire visant à ce que la monnaie reflète enfin la valeur
du travail26. Selon cette réforme, les billets de banque indiqueraient
en surimpression un « chiffre équivalant au temps de travail »,
permettant aux individus de constater le décalage entre ce qu’ils
reçoivent pour leur travail et ce qu’ils payent pour leurs produits. Les
auteurs s’attendent à ce que, au fil du temps, la population s’oriente
vers des produits plus proches de leur valeur réelle ; le choix du
consommateur devient un mécanisme permettant d’extraire les
bénéfices du système. Une loi interdisant l’exploitation permettrait
aux travailleurs de réclamer des indemnités en cas de profit
excessif, l’objectif final étant l’éradication complète de celui-ci. Les
pratiques bancaires comme moyen de constitution du capital
seraient supprimées par l’État à l’aide de la fiscalité directe.
L’industrie financière disparaîtrait complètement.
L’énorme service que Cockshott et Cottrell rendent ici n’est
pourtant pas celui qu’ils veulent rendre. Ils montrent que, pour
planifier pleinement une économie développée du début du
e
siècle, il faudrait la rendre beaucoup plus simple, supprimer
complètement la finance et imposer un changement de
comportement radical au niveau de la consommation, de la
démocratie au travail et de l’investissement.
Cela étant, Cockshott et Cottrell ne s’intéressent pas aux vecteurs
des innovations et des dynamiques de ce modèle, ni même à
l’impact du secteur culturel, qui s’est considérablement élargi. En
fait, les chercheurs sont convaincus que, du fait de sa moindre
complexité, une économie planifiée nécessiterait moins de calculs
qu’une économie de marché.
Cependant, tout le problème est là. Pour que le plan fonctionne, la
société doit redevenir « planifiable ». Les travailleurs interagissent
avec tous les aspects du plan de Cockshott et Cottrell par
l’intermédiaire de « leur » lieu de travail. Qu’advient-il alors du
travailleur précaire qui a trois emplois, ou de la mère célibataire qui
se prostitue par webcam ? Pas de place pour eux. De même, la
complexité financière qui caractérise désormais la vie moderne doit
disparaître d’un coup. Pas de place pour les cartes de crédit dans ce
monde, ni pour les prêts sur salaire ; en outre, le secteur du
commerce électronique se ferait probablement beaucoup plus
discret. Et, bien évidemment, aucune structure de réseau ni de
choses gratuites issues de la production en peer-to-peer ne sont
intégrées dans ce modèle.
Bien que les chercheurs dénoncent l’idiotie dogmatique de la
planification soviétique, leur vision du monde reste celle d’une
société hiérarchisée, pleine de produits physiques et bâtie autour
d’un système simple où le rythme du changement est lent. À ce jour,
le modèle qu’ils ont conçu illustre au mieux les raisons de l’échec
inévitable du recours à la planification étatique et à la suppression
du marché comme voie de transition vers le postcapitalisme.
Heureusement, une autre solution s’offre à nous. Pour l’exploiter
au mieux, il nous faut tirer profit d’un microprocessus à la fois
granulaire et spontané, pas d’un plan. Notre solution doit s’adapter
facilement à un monde de réseaux, de biens de l’information, de
complexité et de changements au rythme exponentiel.
Bien évidemment, la transition vers le postcapitalisme ne se fera
pas sans planification. Certains grands secteurs du monde
capitaliste font déjà l’objet d’une planification, depuis les projets de
conception et de construction urbaine jusqu’aux chaînes
d’approvisionnement intégrées d’un grand supermarché. Ce sont les
progrès effectués en matière de puissance de calcul ainsi que
l’utilisation du big data et du suivi numérique des objets et
composants individuels à l’aide de codes-barres ou d’étiquettes
RFID qui rendent cela possible. Grâce à ces avancées
technologiques, la partie de notre projet qui nécessite de recourir à
la planification disposera de tous les outils nécessaires.
Mais la nature de la société moderne influence la nature du
problème. Dans une société complexe et mondialisée, où le
travailleur est aussi le consommateur de services financiers et de
microservices d’autres travailleurs, le plan ne peut pas surpasser le
marché, à moins de renoncer à la complexité et de revenir à la
hiérarchie. Même s’il effectuait tous ses calculs selon la valeur-
travail, un plan automatisé pourrait faire en sorte que l’industrie de la
chaussure produise des chaussures, mais ne pourrait pas dire à
Beyoncé de produire un album-surprise commercialisé uniquement
via les réseaux sociaux, comme elle l’a fait en 2013. Le plan ne
toucherait pas non plus à la chose la plus intéressante de notre
économie moderne : la gratuité. Un tel plan reviendrait à considérer
le temps passé à entretenir une page Wikipédia ou à mettre à jour
Linux exactement de la même manière que le marché le voit :
gaspillé et incalculable.
Si l’essor de l’économie en réseau commence à faire disparaître la
loi de la valeur, la planification doit être l’adjuvant de quelque chose
de plus global.
André Gorz avait écrit que le capitalisme devait sa supériorité par
rapport au socialisme soviétique à son « instabilité, à sa diversité
[…] à sa multiformité complexe, comparable à celle d’un
écosystème, qui fait éclater continuellement de nouveaux conflits
entre forces partiellement autonomisées et qui ne se laisse ni
contrôler ni mettre une fois pour toutes au service d’un
ordre stable27 ».
Ce que nous essayons de bâtir devra être encore plus complexe,
plus autonome et plus instable.
Seulement, passer d’un système économique à un autre prend du
temps. Si la théorie du postcapitalisme se vérifie, ce que nous
sommes sur le point de vivre ressemblera beaucoup plus à la
transition du féodalisme au capitalisme qu’à celle envisagée par les
planificateurs soviétiques. Le processus sera long, confus et nous
amènera à redéfinir le concept même de « système économique ».
Et c’est pourquoi, chaque fois que je veux m’empêcher de songer
à l’avenir selon une approche excessivement marxiste, je pense à
Shakespeare.

Changement majeur : Shakespeare vs Marx


Si l’on pouvait assister aux pièces historiques de Shakespeare l’une
après l’autre, en commençant par La Vie et la Mort du roi Jean et en
terminant par Henri VIII, on aurait à première vue l’impression de
regarder une série dramatique sans scénario principal produite par
Netflix : des meurtres, des guerres et du chaos, le tout dans un
contexte de querelle apparemment insignifiante entre rois et ducs.
Mais, dès lors que l’on a saisi la notion de « mode de production »,
tout s’éclaire. On assiste à la fin du féodalisme et aux débuts du
capitalisme.
Le mode de production est l’un des concepts les plus importants à
retenir de l’économie marxiste. Il a influencé bon nombre
d’historiens, et en est venu à modifier notre vision du passé. Tout a
commencé à partir de la question suivante : sur quoi le système
économique dominant est-il fondé ?
Le féodalisme était un système fondé sur l’obligation : les paysans
étaient tenus de remettre une partie de leur production au
propriétaire terrien et d’effectuer un service militaire pour lui ; celui-ci
était à son tour tenu de verser des impôts au roi et de fournir des
soldats à la demande. Dans l’Angleterre des pièces historiques de
Shakespeare, la raison d’être de ce système ne tient plus. Tandis
que Richard III massacrait ses rivaux dans la vie réelle, le réseau de
pouvoir fondé sur l’obligation était corrompu par l’argent : fermages
payés en argent et non plus en nature, service militaire payé en
argent, guerres menées grâce à un réseau bancaire transfrontalier
s’étendant jusqu’à Florence et Amsterdam. Les rois et les ducs de
Shakespeare s’entretuaient parce que l’argent avait rendu tout
pouvoir fondé sur l’obligation susceptible d’être renversé.
Shakespeare avait réussi à en saisir l’essence bien avant que les
mots « féodalisme » et « capitalisme » ne soient inventés. La grande
différence entre ses pièces historiques et ses comédies et tragédies
est que ces dernières dépeignent la société contemporaine dans
laquelle vit son public. Dans les comédies et les tragédies,
l’immersion dans un monde de banquiers, de marchands,
d’entreprises, de soldats mercenaires et de républiques est
immédiate. Le cadre typique de ces pièces est une ville commerciale
prospère, et non un château. Le héros typique est un personnage
dont les caractères bourgeois et autodidacte font sa grandeur, soit
par le courage (Othello), la philosophie humaniste (Prospero) ou la
culture juridique (Portia dans Le Marchand de Venise).
Mais Shakespeare n’avait aucune idée d’où cela allait mener. Il
avait vu comment cette économie d’un nouveau genre jouait sur la
nature humaine : elle renforçait nos connaissances, mais nous
laissait en proie à la cupidité, à la passion, au doute ainsi qu’à une
folie des grandeurs d’une tout autre échelle. Il faudra cependant
attendre encore cent cinquante ans pour que le capitalisme
marchand, fondé sur le commerce, la conquête et l’esclavage, ouvre
la voie au capitalisme industriel.
Si l’on interroge Shakespeare à travers ses textes et qu’on lui
demande : « Qu’existe-t-il entre le passé et l’époque à laquelle vous
vivez ? » il répondra implicitement « des idées et des
comportements ». Les êtres humains se valorisent davantage les
uns les autres ; l’amour est plus important que le devoir familial ; les
valeurs humaines comme la vérité, la rigueur scientifique et la justice
valent la peine de mourir pour elles, bien plus que la hiérarchie et
l’honneur.
Shakespeare est le témoin par excellence d’une époque durant
laquelle un mode de production s’efface au profit d’un autre. Mais
c’est sans compter sur Marx. D’un point de vue matérialiste de
l’Histoire, la différence entre féodalisme et capitalisme naissant ne
se limite pas aux idées et aux comportements. Les changements qui
s’opèrent dans le système socio-économique ont toute leur
importance. Et, à la base, ce changement est provoqué par les
nouvelles technologies.
Selon Marx, un mode de production décrit un ensemble de
relations économiques, de lois et de traditions sociales constituant la
« norme » sous-jacente d’une société. À l’époque du féodalisme,
l’idée de pouvoir souverain était omniprésente. À l’ère du
capitalisme, ce sont le marché, la propriété privée et les salaires qui
sont partout. Une autre question que l’on pourrait se poser, si l’on
souhaite comprendre ce qu’est un mode de production, serait :
« Qu’est-ce qui se reproduit spontanément ? » Dans le féodalisme,
ce sont les idées de fidélité et d’obligation ; dans le capitalisme, c’est
le marché.
Et c’est là que l’idée de mode de production pose problème : les
changements sont si importants que nous comparons toujours
l’incomparable. Ainsi, nous ne devrions pas attendre du système
économique qui remplacera le capitalisme qu’il soit basé sur quelque
chose de purement économique comme le marché, ni sur quelque
chose d’aussi ouvertement coercitif que le pouvoir féodal.
Selon Marx, cette idée des modes de production entraîne une
stricte séquence d’événements historiques : il y a d’abord diverses
formes de sociétés précapitalistes, où les riches s’enrichissent en
pratiquant la violence de manière tout à fait légale ; vient ensuite le
capitalisme, où les riches s’enrichissent par l’innovation
technologique et le marché ; enfin, il y a le communisme, où
l’humanité entière s’enrichit parce qu’il y a abondance au lieu de
pénurie. On peut critiquer cette séquence selon deux arguments.
Premièrement, on peut la lire comme un récit quasi mythologique : le
destin de l’humanité semble prédéfini, il doit se dérouler en trois
étapes. Deuxièmement, cette séquence pourrait amener les
historiens à catégoriser très simplement des sociétés qui se
révéleraient pourtant très complexes, ou à leur attribuer des
schémas économiques qui n’existaient tout simplement pas.
Mais, si l’on s’affranchit du mythe de l’inévitabilité et que l’on
affirme tout simplement que « viendra un moment où, par opposition
à la pénurie qui a présidé tous les modèles économiques jusque-là,
une abondance somme toute relative devra s’imposer », alors Marx
ne faisait que dire la même chose que Keynes au début des
années 1930 : un jour, il y aura assez de biens pour tout le monde,
et le problème économique sera résolu. Selon Keynes, « pour la
première fois depuis sa création, l’homme fera face à son problème
véritable et permanent : comment employer la liberté arrachée aux
contraintes économiques ? Comment occuper les loisirs que la
science et les intérêts composés auront conquis pour lui, de manière
agréable, sage et bonne ?28 »
En fait, cette vision en trois phases de l’histoire mondiale est
étayée par les données que nous possédons aujourd’hui (et que
Marx et Keynes n’avaient pas) sur la population et le PIB. Jusqu’en
1800 environ, seule l’Europe occidentale a vu son PIB par habitant
augmenter de manière tangible, surtout après la conquête des
Amériques ; puis, avec la révolution industrielle, la croissance par
habitant a connu un essor spectaculaire en Europe et en Amérique
jusqu’en 1950 environ, date à laquelle son rythme s’est à nouveau
accéléré. Aujourd’hui, comme le montre le graphique ci-dessous, les
taux de PIB par personne augmentent dans le monde entier. Le
stade où toutes les lignes se rapprochent de la verticale est celui
que Keynes et Marx se sont permis d’imaginer, et nous devrions en
faire autant29.
Les moteurs de la transition
Qu’est-ce qui a provoqué la fin de la féodalité et l’essor du
capitalisme ? Voilà le genre de question qui est naturellement
débattue entre historiens. Mais, si nous pensons que la transition
vers le postcapitalisme sera d’une ampleur similaire, alors il y a des
leçons à tirer de l’interaction entre les facteurs internes et externes,
du rôle de la technologie par rapport à l’importance des idées, et de
la raison pour laquelle les transitions sont si difficiles à comprendre
lorsqu’on est en plein milieu.
Forts de nouvelles connaissances tirées des progrès de la
génétique et de l’épidémiologie, ainsi que de l’Histoire et de la
sociologie, nous pouvons lister quatre causes probables de la fin de
la féodalité.
Jusqu’à environ 1300, le secteur de l’agriculture féodale a été
particulièrement dynamique, faisant augmenter le PIB par habitant
en Europe occidentale plus rapidement que partout ailleurs. Mais les
famines, qui avaient commencé dans les années 1300, marquèrent
le déclin de l’efficacité des systèmes féodaux d’exploitation des
terres : la productivité ne pouvait plus suivre la croissance
démographique. Puis, en 1345, le roi anglais Édouard III ne pouvait
plus payer les dettes de son pays, ce qui entraîna la ruine des
banquiers florentins qui lui avaient prêté de l’argent. Bien qu’il fût
possible de les contenir, ces dettes n’avaient été que le symptôme
d’un malaise général, et un avertissement que la crise qui sévissait
dans une partie de l’Europe féodale pourrait s’étendre à son
ensemble.
En 1347, le bacille Yersinia pestis atteignit l’Europe. En 1353, la
peste noire a tué au moins un quart de la population européenne30.
Celles et ceux qui ont vécu cette expérience en sont ressortis
spirituellement transformés : après tout, c’était comme assister à la
fin du monde. Son impact sur l’économie fut sévère : l’offre en main-
d’œuvre s’est effondrée. Du jour au lendemain, les fermiers, pourtant
tout en bas de l’échelle sociale, étaient en mesure d’exiger de
meilleurs salaires.
Une fois la peste passée, une vague de conflits économiques
déferla : révoltes paysannes en France et en Angleterre, rébellions
ouvrières dans les principales villes manufacturières telles que Gand
et Florence. Les historiens appellent cela la « crise de la fin du
Moyen Âge ». Malgré l’échec des révoltes, l’équilibre économique
penchait désormais en faveur de l’ouvrier urbain et du paysan. Selon
l’historien David Herlihy, « les rentes agricoles se sont effondrées
après la peste noire et les salaires dans les villes ont été multipliés
par deux, voire trois, par rapport à leur niveau antérieur31 ».
Les prix de la laine étant élevés, de nombreux propriétaires
fonciers ont abandonné les cultures au profit des pâturages pour les
moutons : contrairement au blé, la laine était destinée au commerce
et non à la consommation. L’ancienne tradition qui consistait à
obliger les paysans à effectuer leur service militaire fut
progressivement remplacée par du mercenariat. Et, comme les
travailleurs se faisaient rares, on se mit à inventer des dispositifs
permettant d’économiser sur la main-d’œuvre.
En somme, le rat qui avait amené la peste noire à Cadix en 1347
a déclenché un choc externe qui a contribué à l’effondrement d’un
système affaibli de l’intérieur.
Le développement du secteur bancaire constitue le deuxième
moteur du changement. Le monde bancaire était déjà devenu le
moyen le plus sûr d’amasser une fortune de manière discrète parmi
les classes officielles de la féodalité : nobles, chevaliers, aristocratie,
clergé, etc. Au e siècle, les Médicis fondèrent une vaste entreprise
internationale. Plus tard, et alors qu’ils avaient perdu de leur
influence, ils furent dépassés par la famille Fugger, implantée à
Augsbourg.
Le système bancaire n’a pas seulement injecté systématiquement
du crédit dans la société féodale, il a également créé un réseau
sous-jacent, fort d’un certain pouvoir et recelant de multiples secrets.
Les familles Fugger et Médicis exerçaient une certaine pression sur
les rois par le biais des affaires, alors même que leurs activités
étaient considérées comme posant problème aux conceptions
chrétiennes. Toutes les personnes impliquées avaient participé à la
création d’une forme implicite de capitalisme au sein d’une économie
officiellement féodale.
Le troisième grand moteur de l’essor du capitalisme fut la
conquête et le pillage des Amériques, à partir de 1503. Cela a
permis l’ouverture d’un flux de capitaux vers les non-aristocrates
bien supérieur à tout ce qui était généré en interne par le marché qui
se développait de manière organique vers la fin du Moyen Âge. En
un seul raid, les conquistadors volèrent 1,3 million d’onces d’or au
Pérou. L’énorme quantité de richesses importées vers l’Europe du
début de l’époque moderne a stimulé les secteurs du marché, de
l’artisanat et de la banque. Cette énorme quantité de richesses a
également renforcé le pouvoir des États monarchiques sur les
anciennes villes indépendantes et sur les ducs ruinés qui vivaient
seuls dans leurs grands châteaux.
Vint enfin la presse à imprimer. Gutenberg mit la première en
service en 1450. Au cours des cinquante années qui suivirent,
huit millions de livres furent imprimés, soit plus que ce que tous les
scribes de la chrétienté avaient réussi à produire depuis l’époque
romaine. Elizabeth Eisenstein, la grande historienne de l’imprimerie,
a insisté sur la nature révolutionnaire de l’imprimerie : elle a réuni
des érudits, des prêtres, des auteurs et des métallurgistes dans un
environnement commercial qu’aucun autre contexte social du
féodalisme n’aurait pu créer. Le fait d’imprimer des livres nous a
permis de vérifier la paternité d’un ouvrage et de contrôler le savoir.
Ces livres ont contribué à l’essor du protestantisme, des révolutions
scientifiques et de l’humanisme. Même si les cathédrales
médiévales, ces véritables encyclopédies gravées dans la pierre,
étaient porteuses de sens, l’imprimerie les a rendues obsolètes.
L’imprimerie a modifié la manière de penser des êtres humains32. Le
philosophe Francis Bacon a écrit en 1620 que l’imprimerie, la poudre
à canon et la boussole « ont changé l’apparence et la nature des
choses du monde entier33 ».
Si l’on reconnaît les quatre facteurs présentés ci-dessus comme
cause de la fin de la féodalité, on admet qu’elle ne constitue pas
seulement une histoire de progrès technologique. Il s’agit plutôt d’un
ensemble d’interactions entre une économie mourante et quelques
chocs externes. Ces nouvelles technologies auraient été inutiles
sans l’apparition d’un nouveau mode de pensée et l’occurrence des
perturbations externes qui ont permis à de nouveaux comportements
de voir le jour.
Lorsque nous envisageons la possibilité d’une transition vers le
postcapitalisme, nous devons nous attendre à voir se produire des
interactions complexes et similaires entre la technologie, les conflits
sociaux, les idées et les chocs extérieurs. Mais notre esprit est
déconcerté par son ampleur, tout comme il l’est lorsqu’on lui montre
la taille de notre galaxie dans l’univers. Nous avons une tendance
maladive à vouloir catégoriser le plus simplement possible les
dynamiques de la transition et à les faire entrer dans des chaînes de
cause à effet rudimentaires.
L’explication marxiste classique de la fin de la féodalité tient dans
« ses contradictions » : le conflit social entre paysans et nobles34.
Cependant, les historiens partisans du matérialisme historique qui
succédèrent à Marx mirent l’accent sur l’échec et la stagnation de
l’ancien système, qui auraient donné lieu à une « crise générale ».
Perry Anderson, un historien de la Nouvelle Gauche, en avait tiré un
constat général significatif : le symptôme clé d’une transition de
mode de production n’est pas l’apparition brutale d’un nouveau
modèle économique.
« Au contraire, les forces de production ont généralement
tendance à s’arrêter et à reculer dans les relations de production
existantes35. »
Quelles autres leçons pourrions-nous encore tirer ?
D’abord, que les différents modes de production sont organisés
autour de différentes choses : la féodalité était un système
économique structuré par des coutumes et des lois sur l’obligation.
Le capitalisme était organisé par quelque chose de purement
économique : le marché. À partir de cela, on peut affirmer que le
postcapitalisme, dont la condition préalable est l’abondance, n’est
pas seulement la version revisitée d’une société de marché
complexe. Mais nous ne pouvons que commencer à nous projeter
dans des visions positives de ce que ce sera.
Ce n’est pas de la lâcheté : les paramètres économiques
généraux d’une société postcapitaliste en 2075, par exemple, seront
expliqués dès le prochain chapitre. Mais, si une telle société
s’organise autour de la libération humaine, et non de l’économie, des
choses imprévisibles commenceront à la façonner. Par exemple, la
chose la plus évidente pour le Shakespeare de 2075 sera peut-être
le bouleversement total des relations entre les sexes, ou des
domaines de la sexualité, ou de la santé. Peut-être n’y aura-t-il
même plus de dramaturges : peut-être que le tissu même des
médias que nous utilisons pour raconter des histoires changera,
comme ce fut le cas pour la génération de Shakespeare lorsque les
premiers théâtres publics furent construits.
Le marxisme, en insistant sur le prolétariat comme moteur du
changement, a eu tendance à ignorer la question suivante :
comment les humains devront-ils changer pour que le
postcapitalisme apparaisse ? Pourtant, si nous étudions la transition
du féodalisme au capitalisme, le problème devient des plus évidents.
Pensez à la différence entre, par exemple, Horatio dans Hamlet
de Shakespeare et un personnage comme Daniel Doyce dans
La Petite Dorrit de Dickens. Tous deux sont des personnages
secondaires qui mettent en exergue le rôle du héros, tous deux
portent en eux une obsession caractéristique de leur époque :
Horatio est obsédé par la philosophie humaniste, Doyce est obsédé
par le brevetage de son invention. Il ne peut y avoir de personnage
comme Doyce dans Shakespeare ; au mieux obtiendrait-il un petit
rôle en tant que personnage comique de la classe ouvrière.
Pourtant, au moment où Dickens décrit Daniel Doyce, tous ses
lecteurs se rendent compte qu’ils connaissent quelqu’un comme lui.
Tout comme Shakespeare n’aurait pas pu imaginer Doyce, nous ne
pouvons pas non plus imaginer le type d’êtres humains que la
société produira lorsque l’économie ne sera plus au centre de la vie.
Rappelons ce que nous savons sur la façon dont s’est déroulée la
dernière transition, et faisons des parallèles.
Le modèle agricole féodal s’est d’abord heurté aux limites de
l’environnement, puis à un choc extérieur majeur : la peste noire.
Vint ensuite un choc démographique : trop peu de travailleurs pour
la terre, ce qui a fait augmenter les salaires et rendu impossible
l’application de l’ancien système d’obligation féodale. La pénurie de
main-d’œuvre a également rendu l’innovation technologique
nécessaire. Les nouvelles technologies qui ont sous-tendu l’essor du
capitalisme marchand sont celles qui ont stimulé le commerce
(l’imprimerie et la comptabilité), la création de richesses
échangeables (l’exploitation minière, la boussole et les navires
rapides) et la productivité (les mathématiques et la méthode
scientifique).
Dans tout ce processus, quelque chose d’accessoire dans l’ancien
système (l’argent et le crédit) va devenir la base du nouveau
système. De nombreuses lois et coutumes étaient en fait bâties
autour de la mise à l’écart de l’argent ; dans le haut Moyen Âge, le
crédit est considéré comme un péché. Ainsi, quand l’argent et le
crédit franchissent les frontières et créent un système de marché, le
phénomène prend des allures de révolution. Ensuite, ce nouveau
système accélère d’autant plus grâce à la découverte d’une source
quasi illimitée de richesses gratuites dans les Amériques.
La combinaison de tous ces facteurs a permis à un groupe de
personnes persécutées ou marginalisées par la féodalité
(humanistes, scientifiques, artisans, juristes, prédicateurs radicaux et
dramaturges bohèmes comme Shakespeare) d’être à la tête d’une
transformation sociale. À certains moments clés, et bien que
timidement au début, l’État a cessé d’entraver le changement pour le
favoriser.
Les parallèles avec la transition vers le postcapitalisme sont
grossiers, mais ils sont là.
La chose qui mine le capitalisme et qui est à peine rationalisée par
l’économie dominante, c’est l’information. Les technologies de
l’information et leurs retombées sur tous les autres types de
technologie – de la génétique aux soins, en passant par l’agriculture
et le cinéma – sont l’équivalent de la presse à imprimer et de la
méthode scientifique.
L’équivalent moderne de la longue stagnation de la fin du Moyen
Âge est le cinquième cycle, interrompu, de Kondratiev : au lieu
d’automatiser rapidement le travail jusqu’à le faire disparaître, nous
en sommes réduits à créer des bullshits jobs (« jobs à la con ») à
bas salaire, sans compter que de nombreuses économies stagnent.
Quel serait l’équivalent des sources de richesses gratuites ? On
ne peut pas vraiment parler de richesses, plutôt d’externalités : la
gratuité et le bien-être générés par les interactions en réseau. Il
s’agit de l’essor de la production non marchande, de l’information
non propriétaire, des réseaux peer-to-peer et des entreprises sans
managers. Selon l’économiste français Yann Moulier-Boutang,
Internet est « à la fois le navire et l’océan » de la conquête moderne
d’un nouveau monde. En fait, il est à la fois le navire, le compas,
l’océan et l’or.
Les chocs externes actuels sont évidents : épuisement des
ressources énergétiques, changement climatique, vieillissement des
populations et migrations. Ils transforment les dynamiques du
capitalisme et le rendent inapplicable à long terme. Ils n’ont pas
encore eu le même impact que la peste noire, mais tout
effondrement financier pourrait facilement causer des ravages dans
les sociétés urbaines très fragiles que nous avons créées. Comme
Katrina l’a démontré dans la Nouvelle-Orléans en 2005, pas besoin
de la peste bubonique pour détruire l’ordre social et les
infrastructures fonctionnelles d’une ville moderne.
Dès lors que l’on arrive à voir la transition sous cet angle, on
comprend qu’un plan quinquennal calculé à la virgule près est inutile
et que l’on a besoin d’un projet progressif, itératif et adaptable. Ce
projet doit avoir pour objectif de développer les technologies, les
modèles commerciaux et les attitudes qui font disparaître les forces
du marché, éliminent le besoin de travailler et font progresser
l’économie mondiale vers l’abondance. Cela ne veut pas dire que
nous ne pouvons pas prendre des mesures urgentes pour limiter les
risques ou remédier à des injustices flagrantes. Mais cela signifie
que nous devons comprendre la différence entre les objectifs
stratégiques et les actions à court terme.
Notre stratégie doit consister à orienter la fin du processus qui a
commencé spontanément vers son irréversibilité et vers la
production de résultats socialement justes aussi rapidement que
possible. Cela implique un mélange de planification, d’action
publique, de marchés et de production peer-to-peer. Mais il faudra
aussi laisser de la place aux équivalents modernes de Gutenberg et
de Colomb. Et de Shakespeare.
e
La plupart des gauchistes du siècle pensaient qu’ils ne
pouvaient pas profiter d’une transition dirigée. Pour eux, le fait que
rien du système à venir ne pouvait exister dans l’ancien était un acte
de foi, même si, comme je l’ai montré, les travailleurs ont toujours eu
le désir de créer une vie alternative en dépit du capitalisme. En
conséquence, une fois que la possibilité d’une transition de type
soviétique a disparu, la gauche moderne s’est simplement
préoccupée de s’opposer à certaines choses : la privatisation des
soins de santé, la réduction des droits syndicaux, le forage – la liste
est longue.
Aujourd’hui, nous devons réapprendre à faire des choses
positives : offrir de nouvelles alternatives au sein du système ;
utiliser les pouvoirs publics de manière radicale et innovante ; et
concentrer toutes nos actions sur la voie de la transition, et non sur
la défense sporadique d’éléments aléatoires de l’ancien système.
e
Les socialistes du début du siècle étaient absolument
convaincus que rien de préliminaire n’était possible dans l’ancien
système. Preobrazhensky avait été catégorique : « Il est impossible
d’instaurer un système socialiste de manière fragmentaire dans le
monde du capitalisme36. »
La chose la plus courageuse qu’une gauche adaptative puisse
faire est d’abandonner cette conviction. Il est tout à fait possible de
construire les éléments du nouveau système, morceau par morceau,
au sein de l’ancien. Ces éléments existent déjà dans les
coopératives, les caisses de crédit, les réseaux peer-to-peer, les
entreprises non gérées et les économies parallèles et les cultures
alternatives. Il faut arrêter de les considérer comme de simples
expériences ; il faut les soutenir par un régime juridique aussi
vigoureux que celui que le capitalisme a exploité pour chasser les
e
paysans des terres ou pour détruire l’artisanat au siècle.
Enfin, nous devons apprendre à identifier l’urgence et
l’importance, et accepter que, parfois, elles ne coïncident pas.
Si nous n’étions pas confrontés à des chocs externes au cours
des cinquante prochaines années, nous pourrions nous permettre de
prendre notre temps : l’État, dans un contexte de transition bénigne,
serait le principal facilitateur du changement par le biais des lois.
Mais l’énormité des chocs externes implique que certaines des
mesures que nous prendrons devront être immédiates, centralisées
et radicales.
9
De bonnes raisons de s’inquiéter

Partout où je vais, je pose des questions à propos de l’économie, et,


chaque fois, on me répond en citant le climat. En 2011, j’ai rencontré
des fermiers aux Philippines privés de terres qui vivaient dans des
bidonvilles. Que s’était-il passé ? « Les typhons. S’ils sont plus
fréquents, le riz ne pousse pas comme il faut. Il n’y a pas assez de
jours ensoleillés entre la plantation et la récolte. »
En Chine, dans la province de Ningxia – une région séparée du
désert de Gobi par des montagnes arides –, j’ai rencontré des
éleveurs de moutons qui dépendaient désormais des granulés
chimiques parce que les prairies mouraient autour d’eux. Après
s’être aventurés dans les montagnes en 2008 pour découvrir ce qui
était arrivé aux 144 sources et rivières de la région, les scientifiques
ont tiré les conclusions suivantes : « À cause du changement
climatique et de la destruction de l’environnement, les régions
montagneuses du Sud ont vu leurs sources et leurs
rivières disparaître1. »
En 2005, à La Nouvelle-Orléans, j’ai vu l’ordre social déjà fragilisé
d’une ville moderne située dans le pays le plus riche du monde se
désintégrer. La cause immédiate avait été imputée à un cyclone ; le
problème sous-jacent tenait dans l’incapacité de l’infrastructure de la
ville à faire face à un changement de régime météorologique ainsi
que dans l’incapacité des structures sociales et ethniques les plus
démunies à survivre au choc.
Les économistes et les écologistes se disputent en vain pour
savoir quelle crise est la plus importante : celle de l’écosphère ou
celle de l’économie ? D’un point de vue matérialiste, nous dirons que
leur destin est lié. Ce n’est que par les interactions avec notre milieu
naturel et par la transformation de celui-ci que nous le connaissons ;
la nature nous a donné vie de la même manière. Même si, comme le
soutiennent certains partisans de l’« écologie radicale », la terre irait
mieux sans nous, c’est à nous qu’incombe la tâche de la sauver.
Dans le monde des cols blancs et des sommets sur le climat
règne un calme des plus complaisants. L’accent est mis sur les
scénarios « futurs », c’est-à-dire ceux qui touchent à la catastrophe
climatique qui nous attend si nous laissons la température mondiale
augmenter de plus de deux degrés Celsius par rapport aux niveaux
préindustriels. Mais, dans les coins les plus reculés du monde, la
catastrophe est déjà en train de se produire. Si nous écoutions ceux
dont les vies sont détruites par les inondations, la déforestation et la
désertification, nous pourrions mieux comprendre ce qui nous
attend : un bouleversement à l’échelle du globe.
Le cinquième rapport du GIEC, publié en 2013, est catégorique :
la planète chauffe. Selon les climatologues les plus respectés du
monde, « depuis les années 1950, beaucoup de changements
observés sont sans précédent depuis des décennies, voire des
millénaires. L’atmosphère et l’océan se sont réchauffés, la
couverture de neige et de glace a diminué, le niveau des mers s’est
élevé et les concentrations des gaz à effet de serre ont augmenté2 ».
Le GIEC est convaincu que ce phénomène est principalement dû à
l’exploitation du carbone par l’être humain dans le but d’alimenter la
croissance économique. Le rapport indique que cette exploitation a
fait passer de « probable » à « très probable » le fait que
les températures plus élevées, la répétition des jours de chaleur et
les vagues de chaleur plus fréquentes soient causés par l’homme.
Ce ne sont pas des termes que les scientifiques utilisent au hasard ;
ces termes sont l’équivalent d’une augmentation qualitative de leur
degré de certitude.
L’écosystème étant très complexe, nous ne pouvons pas attribuer
chaque perturbation du climat à une cause humaine avec une
certitude absolue. Mais nous pouvons, selon le GIEC, être à peu
près certains que la fréquence des phénomènes météorologiques
extrêmes (ouragans, inondations, typhons, sécheresses)
augmentera dans la seconde moitié du siècle.
Dans un nouveau rapport écrit en 2014, le GIEC lance un
avertissement sans équivoque : si l’on ne parvient pas à stopper la
hausse des émissions de carbone, la probabilité d’impacts « graves,
généralisés et irréversibles sur les populations et les écosystèmes »
augmentera. Encore une fois, ce rapport a été écrit par des
scientifiques, qui n’emploient pas des mots comme « graves,
généralisés et irréversibles » à la légère.
Un économiste classique considérerait les événements à venir
comme des chocs exogènes, c’est-à-dire l’apparition de sources de
perturbations supplémentaires dans une situation déjà chaotique.
Pour les paysans des Philippines, les Afro-Américains de Louisiane
et les habitants de la province de Ningxia, le choc s’est déjà produit.
Les responsables des politiques climatiques et les ONG ont établi
de nombreux scénarios visant à atténuer ce choc. Mais, alors qu’ils
modélisent la terre comme un système complexe, ils affichent une
tendance à modéliser l’économie comme une machine simple, avec
des intrants et des extrants, un besoin en énergie et un dispositif de
contrôle rationnel : le marché. Selon eux, la « transition » consiste
en une évolution progressive de la politique énergétique vers une
réduction de la consommation de carbone par l’exploitation d’un
mécanisme de marché modifié.
Mais l’économie aussi est complexe ; tout comme la météo durant
la saison cyclonique, elle est sujette à des réactions qui s’accélèrent
de manière incontrôlée et à des boucles de rétroaction difficiles à
appréhender. Tout comme le climat, l’économie évolue à coup de
cycles longs et de cycles courts. Mais, comme je l’ai montré, ces
cycles conduisent à des transformations et finalement à un
effondrement qui se produisent sur des échelles de temps allant de
cinquante à cinq cents ans.
Dans ce livre, je me suis retenu d’amener « petit à petit » la
question du changement climatique, jusqu’à maintenant. J’ai voulu
montrer comment le choc entre les technologies de l’information et
les structures du marché nous conduit, à lui seul, à un tournant
majeur de l’Histoire. Même si l’état de l’écosphère se maintenait,
notre technologie nous forcerait à aller plus loin que le capitalisme.
Mais le capitalisme industriel a, en l’espace de deux cents ans,
réchauffé le climat de 0,8 °C, et il est certain qu’il dépassera de 2 °C
la moyenne préindustrielle d’ici 2050. Tout bon projet de transition
vers le postcapitalisme se doit d’aborder en priorité la question
brûlante du changement climatique. Soit nous nous y attaquons dès
aujourd’hui et de manière relativement méthodique, soit nous ne
faisons rien, et nous courons à la catastrophe.
Rire des absurdités des négationnistes du changement climatique
est devenu pratique courante, mais leurs actions ne sont pas
dénuées de sens. Ils savent pertinemment que la climatologie mine
leur influence, leur pouvoir et leur monde économique. Ils ont, d’une
certaine manière, compris que la réalité du changement climatique
signerait l’arrêt de mort du capitalisme.
Les vrais détracteurs du changement climatique ne sont pas les
négationnistes, mais les politiciens et les économistes qui croient dur
comme fer que les mécanismes de marché existants sont capables
d’enrayer le changement climatique, que le marché doit fixer les
limites de l’action climatique et qu’il est possible de l’organiser pour
permettre la réalisation du plus grand projet de réorganisation que
l’humanité ait jamais tenté.
En janvier 2014, John Ashton, diplomate de carrière et ancien
représentant spécial du gouvernement britannique sur le
changement climatique, s’était adressé aux 1 % sans prendre de
gants : « Livré à lui-même, le marché ne réorganisera pas le
système énergétique ni l’économie en l’espace d’une seule
génération3. »
Selon l’Agence internationale de l’énergie (AIE), même si tous les
plans de réduction des émissions annoncés, toutes les taxes sur le
carbone et tous les objectifs en matière d’énergies renouvelables
sont atteints, c’est-à-dire si les consommateurs ne se soulèvent pas
face à des impôts toujours plus élevés et si le monde ne se
démondialise pas, les émissions de CO2 augmenteront encore de
20 % d’ici 2035. Au lieu de limiter le réchauffement de la planète à
2 °C, la température augmentera de 3,6 °C4.
Face à la réalité du dérèglement climatique d’une planète vieille
de 4,5 milliards d’années, les dirigeants ont décidé que la solution
tenait dans une doctrine économique vieille de vingt-cinq ans. Ils
encouragent une utilisation moindre du carbone en le rationnant, en
l’imposant et en subventionnant des solutions énergétiques
alternatives. Dans la mesure où le marché est la forme d’expression
ultime de la rationalité humaine, ils pensent qu’il favoriserait la
répartition la plus précise des ressources nécessaires à l’atteinte de
l’objectif de deux degrés qu’ils se sont fixé. Cette doctrine est
purement idéologique, tous ses arguments ont été démontés.
Pour rester en dessous du seuil des 2 °C, la population mondiale
ne doit pas brûler plus de 886 milliards de tonnes de carbone entre
2000 et 2049 (selon l’AIE). Mais les compagnies pétrolières et
gazières mondiales ont déclaré l’existence de 2 800 milliards de
tonnes de réserves de carbone, et leurs actions sont évaluées
comme si ces réserves étaient exploitables. Les membres du think
tank Carbon Tracker avaient pourtant prévenu les investisseurs :
« Ils doivent comprendre que 60 à 80 % des réserves de charbon,
de pétrole et de gaz des entreprises cotées en bourse ne peuvent
être brûlées5 », c’est-à-dire que, si nous les brûlons, l’atmosphère se
réchauffera de manière catastrophique.
Cela étant, la hausse des prix de l’énergie fait partie des signaux
que nous envoie le marché. Ces signaux indiquent aux entreprises
du secteur de l’énergie qu’investir dans des moyens plus coûteux et
novateurs de trouver du carbone est une bonne idée. En 2011, elles
ont investi 674 milliards de dollars dans l’exploration et le
développement des combustibles fossiles : sables pétrolifères,
forage et gisements de pétrole en eaux profondes. Puis, alors que
les tensions mondiales s’intensifiaient, l’Arabie saoudite décida de
faire s’effondrer le prix du pétrole dans le but de détruire les
nouvelles industries américaines des hydrocarbures et, ce faisant,
de mettre en faillite la Russie de Poutine.
Cela aussi avait été un message pour les automobilistes
américains : achetez plus de voitures et faites plus de kilomètres. En
tant que dispositif de signalisation, le marché a clairement mal
fonctionné.
Considérons cela comme un problème d’investissement : soit les
entreprises pétrolières et gazières mondiales valent vraiment
beaucoup moins que ce que le cours de leurs actions indique, soit
tout le monde pense que nous allons maintenir notre consommation
de carbone. La valorisation boursière des 200 principaux brûleurs de
carbone s’élève à 4 000 milliards de dollars ; une grande partie de
cet argent pourrait disparaître si nous nous persuadons d’arrêter de
brûler du carbone. On est loin de la tendance alarmiste des ONG les
plus déchaînées. En 2014, le gouverneur de la Banque d’Angleterre,
Mark Carney, avait averti les géants mondiaux de l’assurance que, si
l’on dépassait de loin les deux degrés, cela « menacerait la viabilité
de votre modèle économique6 ».
La leçon à tirer est la suivante : une stratégie de lutte contre le
changement climatique axée sur le marché relève de l’utopie.
Quels sont les obstacles à une stratégie non axée sur le marché ?
En premier lieu, le lobbying exercé par les brûleurs de carbone.
Entre 2003 et 2010, les lobbys négationnistes du changement
climatique ont reçu 558 millions de dollars sous forme de don aux
États-Unis. Parmi les principaux donateurs, Exxon Mobil et
l’entreprise ultraconservatrice Koch Industries figuraient en tête de
liste, jusqu’en 2007 où, sous l’influence des médias, on a remarqué
que les dons se faisaient maintenant par le biais de tiers anonymes7.
Résultat ? On estime que le monde dépense 544 milliards de dollars
pour financer l’industrie des combustibles fossiles8.
Mais ce n’est que la partie la plus évidente de la folie climatique.
Après l’échec de l’accord mondial sur l’objectif des 2 °C au sommet
de Copenhague en 2009, les entreprises du secteur de l’énergie ont
réorienté leurs efforts de manière à faire pression sur les
gouvernements pour obtenir certains résultats, toujours dans le but
de ralentir l’introduction des objectifs en matière de carbone ou d’en
exempter certaines entreprises.
Ce n’est pas pour autant qu’une action forte et positive ne peut
pas fonctionner. En Allemagne, l’arrêt soudain du programme
nucléaire en 2011 après Fukushima, combiné à d’importants
investissements dans les énergies renouvelables, a eu sur les
compagnies d’électricité le même effet que toute application stricte
des objectifs en matière de carbone aurait sur les forces du marché.
Il les a détruites.
Dans le système allemand, les producteurs d’énergie éolienne,
solaire et autres énergies renouvelables sont les premiers à pouvoir
fournir de l’énergie. S’il y a du soleil et que le vent souffle bien,
comme ce fut le cas le 16 juin 2013, ils sont en mesure de répondre
à la moitié de la demande. Ce jour-là, les producteurs de gaz et de
charbon, qui ne sont pas en capacité d’ajuster facilement la
production de leurs centrales électriques et qui ne peuvent que les
allumer et les éteindre, ont été contraints de payer aux
administrateurs du réseau électrique allemand 100 euros par
mégawatt d’électricité dont ils voulaient se débarrasser. Le prix de
l’énergie fossile était passé sous la barre du zéro. Selon un article du
magazine The Economist : « Pour les entreprises existantes […]
c’est un désastre […] il est impossible de faire fonctionner une
entreprise normale, dans laquelle les clients paient pour des
services en fonction de leur consommation, si les prix deviennent
négatifs9. »
Dans de nombreux pays, la politique énergétique est paralysée,
non seulement par les lobbys du pétrole et du gaz, mais aussi par la
difficulté que l’on a à inciter la population à changer ses habitudes
énergétiques à l’aide des forces du marché, par exemple avec des
prix plus élevés, plutôt qu’en opérant une réorganisation rationnelle
de l’ensemble du système.
Pour les partisans de l’écocapitalisme, il est plus facile d’imaginer
la fin du monde que d’imaginer une économie non marchande et à
faible émission de carbone.
C’est pour cela qu’il nous faut redoubler d’imagination.

Comment éviter une catastrophe climatique


Selon les climatologues, si l’on veut que le réchauffement climatique
ne dépasse pas ces fameux 2 °C, nous devons réduire de moitié la
quantité de CO2 que nous émettrons d’ici 2050. L’AIE insiste sur
l’importance de cette date : « Si les émissions de CO2 n’atteignent
pas leur maximum vers environ 2020 et ne diminuent pas
régulièrement par la suite, il sera beaucoup plus coûteux d’atteindre
l’objectif de 50 % de réduction des émissions d’ici 2050. Il est même
possible que nous ne puissions plus saisir cette chance10. » Les
émissions ont atteint leur maximum, le plus dur reste de les réduire
de moitié.
Pour résoudre ce point, certaines campagnes et unités de
recherche ont élaboré des scénarios visant à montrer comment
réduire nos émissions de 50 % grâce à la technologie. Bien que ces
scénarios diffèrent dans l’utilisation qu’ils font des énergies
alternatives ainsi que dans leur manière de modéliser l’efficacité
énergétique, ils ont tous un point commun : presque tous ces
scénarios parviennent à la conclusion qu’il serait moins coûteux à
long terme d’adopter une forme d’énergie à faible teneur en carbone
que de ne rien faire.
Selon le scénario Blue Map de l’AIE, qui prévoit une réduction de
moitié des émissions de CO2 d’ici à 2050, le monde dépenserait
46 000 milliards de dollars de plus en investissements énergétiques
que si rien n’était fait. Mais, dans la mesure où ce scénario implique
d’émettre moins de CO2, même les estimations les plus prudentes
chiffrent le montant économisé à 8 000 milliards de dollars.
Greenpeace, dont le scénario de révolution énergétique est
considéré comme une référence dans le débat sur le réchauffement
climatique au sein du secteur industriel, désire atteindre cet objectif
sans avoir recours à la construction de nouvelles centrales
nucléaires et en mettant moins l’accent sur le captage et le stockage
du carbone, de sorte que, d’ici 2050, 85 % de l’énergie totale soit
produite à partir des technologies éoliennes, houlomotrices, solaires
et de biomasse. En fin de compte, même avec des coûts
d’investissement initiaux beaucoup plus élevés et une transformation
d’ordre social plus importante, tout le monde économise de
l’argent11. Dans tous les scénarios où les émissions de carbone sont
réduites de moitié, les retombées sont positives, et ce, parce que la
transition énergétique est à l’origine de nouveaux emplois.
Construire et entretenir des machines pour produire de l’électricité à
partir de l’énergie des vagues, du vent et du soleil est une solution
technologiquement plus avancée que la combustion du gaz ou du
charbon.
Sauver la planète est donc technologiquement faisable et
économiquement rationnel, même lorsqu’on le mesure en termes
monétaires. Ce qui fait obstacle, c’est le marché.
Cela ne veut pas dire que nous n’avons rien fait. Si l’on exclut la
Chine, qui a faussé les chiffres mondiaux en construisant des
centaines de centrales électriques au charbon dans les
années 2000, la capacité de production mise en service à partir des
énergies renouvelables a dépassé celle des combustibles fossiles
en 2009. Cela prouve clairement que l’interventionnisme de l’État,
par le biais d’incitatifs financiers favorisant les énergies
renouvelables et d’objectifs de réduction des émissions de carbone,
peut fonctionner.
Le problème est qu’en premier lieu, si la transition est dirigée par
le marché, elle sera trop lente et trop vulnérable aux pressions des
consommateurs (qui veulent naturellement une énergie bon marché)
et des producteurs de combustibles fossiles. En second lieu, à
mesure que la pression politique augmente sur les gouvernements,
la question de l’énergie se transforme en question géopolitique. Pour
pouvoir s’opposer au nucléaire, l’Allemagne a dû donner à la Russie
la possibilité de prendre en otage l’économie allemande durant la
crise ukrainienne. Le fait pour les Américains de recourir au forage,
outre ses effets sur l’environnement, a bouleversé le rapport de force
des grandes puissances mondiales, au point que l’Arabie saoudite,
en guise de représailles, a fait chuter le prix du pétrole de plus de la
moitié en l’espace d’un an.
Dans un contexte de tensions géopolitiques croissantes, les
perspectives d’un accord lors de la COP21 (Conférence des Parties)
à Paris, en décembre 2015, ne semblent pas favorables*1. Les
discussions sur le climat menées lors de ces conférences
ressemblent de plus en plus aux traités de paix qui ont ouvert la voie
à la Seconde Guerre mondiale.
Pendant ce temps, même les plus radicaux du mouvement
écologique ne savent plus quoi penser des marchés. Greenpeace,
par exemple, compare la Chine à l’Europe : la détermination de la
Chine à stimuler sa croissance économique au moyen du charbon a
fait grimper les émissions, tandis que la privatisation en Europe et
aux États-Unis les a poussés à passer au gaz, qui est moins nocif
que le charbon. Ils y voient la preuve qu’un marché permet d’obtenir
de meilleurs résultats en matière de carbone que ne le permet un
contrôle centralisé12.
Toutefois, pour atteindre certains objectifs déterminants en matière
d’émissions, nous allons devoir recourir à ce genre de décision. Les
gouvernements, au niveau des États et des régions, devront prendre
le contrôle de tous les gros producteurs de carbone, voire se les
approprier. À mesure que le réseau de distribution d’énergie devient
« intelligent » et qu’il exploite la technologie pour prévoir et équilibrer
l’offre et la demande, il est logique que le réseau devienne un bien
commun.
Si un mécanisme de prix influencé par l’État ne permet pas de
combiner judicieusement les investissements dans les énergies
renouvelables, l’énergie nucléaire et les brûleurs de carbone
résiduel, il faudra alors recourir à la nationalisation, à l’administration
directe par l’État et à l’annonce d’objectifs. C’est la conclusion ultime
que nous devons tirer des commentaires de John Ashton cités plus
haut : si le marché ne fonctionne pas, alors, étant donné l’urgence, il
faut tenter de passer par le pouvoir étatique.
Techniquement, si l’on privilégie la planification au détriment des
incitations économiques, il sera plus facile de couvrir la demande
minimale par le nucléaire et le carbone propre, le reste provenant
des énergies renouvelables : selon les scénarios de Greenpeace, de
l’AIE et assimilées, c’est ce qu’il faut pour atteindre l’objectif des
2 °C.
Les efforts visant à créer une économie non marchande et un
système à faible émission de carbone sont clairement dépendants
l’un de l’autre. Mais, bien qu’il existe plusieurs manières d’opérer
une transition vers une économie postcapitaliste, les solutions qui
s’offrent à nous en regard de la question climatique sont très
limitées.
En somme, il y a de bonnes raisons de s’inquiéter du changement
climatique, et même de s’inquiéter davantage si l’on considère la
relation entre le climat et une autre variable incontrôlable : la
démographie.

Une bombe démographique à retardement


Vieillir était un privilège que nos ancêtres ne pouvaient pas s’offrir. Si
l’Histoire vous intéresse et que l’envie vous prend de faire une visite
guidée d’une grande ville – que ce soit Manchester, Chicago ou
Shanghai –, tâchez de vous souvenir, en jetant un coup d’œil aux
anciennes habitations industrielles, que l’espérance de vie de ceux
qui y vivaient était de quarante ans ou moins13. Si vous visitez l’une
des villes sidérurgiques ou minières qui parsèment la Virginie-
Occidentale et le nord de la Chine, vous y verrez des forêts de
pierres tombales érigées rappelant les décès d’hommes de la classe
ouvrière, tous âgés d’une cinquantaine d’années. Ces tombes ne
sont pas anciennes, elles datent du lendemain de la Seconde
Guerre mondiale. Dans les premières années du capitalisme, c’était
la vie urbaine insalubre qui vous tuait. Au e siècle, c’était les
maladies professionnelles, le stress, la mauvaise nourriture et la
pollution.
Nous avons maintenant un nouveau problème devant nous : le
vieillissement de la population. Aucun militant ne lance de
banderoles du haut des immeubles pour protester contre le
vieillissement, aucun ministère n’est chargé du vieillissement, aucun
groupe scientifique prestigieux n’organise de négociations mondiales
par rapport au vieillissement. Pourtant, l’ampleur de ce choc externe
pourrait se révéler similaire à celle du changement climatique, et son
impact sur l’économie sera beaucoup plus immédiat.
Les projections de l’ONU sont catégoriques. La population
mondiale, actuellement supérieure à 7 milliards d’habitants, passera
à 9,6 milliards d’ici 2050 ; la quasi-totalité de la croissance se
produira dans le Sud. D’ici 2050, les pays en voie de développement
compteront plus d’individus que n’en compte la population mondiale
aujourd’hui. Le destin de l’humanité s’écrira principalement dans des
villes comme Manille, Lagos et Le Caire.
À l’échelle mondiale, la proportion de personnes âgées par rapport
aux personnes en âge de travailler va augmenter. En 1950, 5 % de
la population mondiale avait plus de soixante-cinq ans ; au milieu du
e
siècle, ce sera 17 %. Mais c’est dans les pays du Nord que les
problèmes du vieillissement seront à l’origine du choc. Ici, le
principal problème qui se pose tient dans le rapport entre l’âge et la
dépendance, c’est-à-dire le nombre de retraités par rapport au
nombre de personnes en âge de travailler. En Europe et au Japon,
on compte actuellement trois travailleurs pour un retraité. En 2050,
le rapport sera d’un pour un. Et, même si la plupart des pays en
développement continueront d’avoir une population essentiellement
jeune, la Chine s’écarte de cette tendance à cause de sa politique
de l’enfant unique. En 2050, la Chine sera la plus « vieille » des
grandes économies du monde, avec un âge médian prévu de
cinquante-trois ans14.
Le déséquilibre croissant des âges est irréversible. Ce
déséquilibre n’est pas seulement dû au fait que les gens vivent plus
longtemps grâce à l’amélioration des soins de santé et à
l’augmentation des revenus : à mesure que les femmes prennent le
contrôle de leur corps grâce à la contraception et que l’éducation, les
progrès en matière de droits de l’homme et l’urbanisation leur
confèrent une plus grande indépendance, le principal facteur de
déséquilibre devient la baisse des taux de natalité.
Selon George Magnus, économiste chez UBS, le vieillissement
rapide des sociétés « constitue un risque existentiel pour les
modèles sociaux et économiques que nous avons construits après la
Seconde Guerre mondiale15 ». Dans les pays développés, l’évolution
démographique va créer des tensions dans trois domaines
essentiels de la vie économique : les marchés financiers, les
dépenses publiques et l’immigration.
Pendant les Trente Glorieuses, les régimes de retraite
d’entreprise, privés et publics, se sont considérablement
développés. Bien qu’ils ne concernent parfois qu’une minorité de la
main-d’œuvre, ces régimes – dans lesquels l’épargne prélevée sur
les salaires est complétée par des contributions de l’entreprise et
investie en Bourse – sont devenus le pilier du système financier.
Avant la mondialisation, ces régimes investissaient généralement
dans la dette de leur propre pays et dans les actions des grandes
entreprises de leur Bourse nationale ; une petite partie était dédiée à
des financements qui répondraient aux besoins futurs. Avec des
allègements fiscaux sur les bénéfices et une adhésion obligatoire
dans certains pays, ce système constituait l’ultime forme de ce que
Marx avait appelé le « communisme capitaliste ».
Mais, à l’ère de la monnaie fiduciaire, les choses ont changé.
L’usage répété des réductions du taux d’intérêt après un
ralentissement de la croissance a fait de l’investissement en bourse
un pari à sens unique, augmentant continuellement la valeur du
marché. En conséquence, alors que le problème démographique se
profilait, les gestionnaires de fonds affirmèrent, après calcul, que le
système financier respecterait toujours ses engagements. Certains
ont même annoncé que les projections étaient si positives que
l’employeur pouvait prendre un « congé de cotisation », laissant les
travailleurs comme seuls cotisants.
Le Japon fut le premier pays à entrer dans le tourbillon de
l’expansion et de la récession. La valeur de l’indice Nikkei 250 des
grandes entreprises a triplé entre 1985 et 1990. Puis, un krach s’est
produit. Au cours de la décennie suivante, sa valeur fut divisée par
deux. En Occident, avec une croissance du PIB supérieure à la
moyenne à la fin des années 1990, les marchés boursiers ont connu
une nouvelle poussée à la hausse. Le FTSE britannique est monté :
de 3 000 en 1995, il est passé en décembre 1999 à 6 930, sa valeur
maximale. L’indice américain S&P 500 a triplé au cours de la même
période ; l’indice allemand DAX a quadruplé. Si vous consultez les
graphiques à long terme de ces indices depuis 2000, vous aurez
l’impression de voir trois montagnes aux pentes abruptes. En
l’espace de quinze ans, les cours des actions ont connu deux fois
des phases d’expansion et de récession ; la reprise actuelle, bien
qu’alimentée par des milliers de milliards de dollars artificiels, fait
monter leur valeur à peine au-dessus du sommet atteint en 2000.
L’éclatement de la bulle internet fut le signal d’alarme. Lorsqu’elles
le pouvaient, les entreprises cherchaient à réduire leurs obligations
en matière de retraite en offrant aux futurs retraités des prestations
moindres, en empêchant les nouveaux travailleurs d’accéder à ces
régimes, et parfois en faisant faillite sous la pression. À la recherche
de rendements plus élevés sur leurs investissements, les fonds de
pension se sont diversifiés et ont investi dans l’immobilier, les fonds
spéculatifs, le capital-investissement et les matières premières.
Dans tous les cas, l’objectif était de combler le manque à gagner.
Nous savons tous comment cela s’est terminé. Des effondrements
spectaculaires de fonds spéculatifs qui ont déclenché le gel du crédit
en août 2007 aux hausses des prix des matières premières qui ont
déclenché le printemps arabe, ces grands investisseurs
institutionnels sont tous devenus, parfois sans le vouloir, des acteurs
majeurs de l’instabilité.
Au lendemain du krach, les grands fonds de pension les plus
connus investissaient 15 % de leur argent dans des alternatives aux
actions (c’est-à-dire dans l’immobilier ou les matières premières) et
prêtaient plus de 55 % de leur argent aux gouvernements sous la
forme d’obligations qui, dans le cadre de l’assouplissement
quantitatif, ne rapportaient pas d’intérêts, voire des intérêts négatifs.
Au total, les fonds de pension, les fonds d’assurance et les
réserves des régimes de retraite publique des pays de l’OCDE
représentent environ 50 000 milliards de dollars, soit bien plus que
leur PIB annuel combiné. La plus récente des études qui ont été
faites à propos des éléments évoqués au chapitre 1 (que j’ai
synthétisé en « modèle économique en panne et artificiellement
maintenu en vie ») affirme que le risque auquel cet argent est
exposé est « élevé » et que le passif au titre des retraites a été
« accru16 ».
Le problème n’est pas la situation actuelle de ces 50 000 milliards
de dollars. Le problème est qu’une population vieillissante signifie
une main-d’œuvre potentielle plus réduite, une croissance plus faible
et une production par tête plus faible. Bien que le tableau varie d’un
pays à l’autre, certains petits pays développés, comme la Norvège,
étant extrêmement bien pourvus, la situation mondiale est peu
réjouissante : soit les personnes âgées et retraitées vivent avec
beaucoup moins, soit le système financier produit des rendements
spectaculaires. Seulement, pour obtenir ces rendements
spectaculaires, ce système doit se mondialiser davantage et
s’exposer à des risques supplémentaires. Si une part plus
importante des retraites pouvait être transférée dans la sphère
publique, financée par l’impôt, l’impact de ce dilemme serait atténué.
Au lieu de cela, c’est l’inverse qui se produit.
Le deuxième domaine dans lequel le vieillissement de la
population nous met inévitablement en danger est la dette publique.
Il accroît en effet la demande de dépenses en matière de santé, de
retraites publiques et de soins de longue durée. En 2010,
Standard & Poor’s a calculé que, si les gouvernements du monde
entier ne réduisaient pas le montant des retraites publiques, leurs
dettes feraient couler le monde d’ici 2050.
Depuis, les gouvernements ont réduit leurs engagements en
matière de retraite : les conditions d’admissibilité ont été renforcées,
l’âge de la retraite a été relevé, et l’indexation sur l’inflation a été
supprimée dans de nombreux pays. Lorsque, après cette hécatombe
d’obligations, S&P a chiffré les retombées potentielles, l’agence a
estimé que la dette nette médiane des pays développés devrait
atteindre 220 % du PIB d’ici 2050, les grands pays en
développement ayant une dette moyenne de 130 %. Le Japon sera
toujours en tête du classement en 2050, avec un taux de 500 %
(contre 250 % aujourd’hui), et les États-Unis seront endettés de trois
fois les 17 000 milliards de dollars actuels.
Selon cette projection, le vieillissement de la population détruira
les finances publiques dans l’ensemble des pays développés. Les
analystes de S&P prévoient que, d’ici 2050, même avec des
réductions des retraites, 60 % de tous les pays du monde auront une
cote de crédit inférieure à leur notation : il sera suicidaire, pour
quiconque ne veut pas risquer de perdre son argent, de leur en
prêter.
Vous commencez à paniquer ? Ce n’est pas fini.
Plus de 50 % de l’ensemble des fonds de pension privés sont
actuellement investis dans la dette publique. En outre, les deux
cinquièmes de cette somme sont généralement constitués de dettes
étrangères. Peu importe le degré de sûreté apparent d’un fonds de
pension d’entreprise d’aujourd’hui : si 60 % des obligations de tous
les pays deviennent des obligations de pacotille, de sorte que leur
en prêter reviendrait à jeter l’argent par les fenêtres, le système de
pension privé ne survivra pas.
Dans le même temps, l’impact social des mesures prises jusqu’à
présent a, selon S&P, « déjà mis à rude épreuve la relation entre
l’État et l’électorat, ainsi que la cohésion sociale17 ». Partout dans le
monde, les États ne respectent plus la dernière partie de l’accord
implicite qu’ils avaient conclu avec leurs citoyens pendant les Trente
Glorieuses et selon laquelle le marché, ou l’État, doit assurer une
qualité de vie décente aux personnes âgées. Les effets de cette
« rupture de contrat » se feront sentir durant des décennies. Pour un
gouvernement, prétendre avoir stabilisé ses finances en augmentant
l’âge de départ à la retraite ou en désindexant les pensions par
rapport à l’inflation revient à se féliciter d’avoir adopté un régime
alimentaire. C’est lorsque l’on met en pratique que l’on commence à
souffrir.
Le résultat final, comme le disent les économistes du FMI, est
« peu susceptible d’être socialement et politiquement viable18 ».
Vient ensuite l’impact de l’immigration. En 2013, je me suis rendu
au Maroc et en Grèce pour écouter les histoires des migrants qui
tentent de passer illégalement en Europe. Depuis le Maroc, ils
essayaient d’escalader une clôture en fil de fer barbelé de trois
mètres de haut pour se rendre dans l’enclave espagnole de Melilla ;
en Grèce, ils vivaient dehors pendant des mois et surveillaient les
ports de ferries à la recherche d’un moyen de transport vers l’Europe
du Nord. L’insécurité au quotidien les rendait vulnérables aux
extorsions, aux agressions, aux violences sexuelles et à l’extrême
pauvreté. Ils risquaient souvent leur vie lors de la traversée.
Je leur ai demandé pourquoi, en dépit du danger de la traversée
et du racisme auquel ils seraient confrontés en Europe, ils passaient
leur vie à tenter ces passages. Ils me répondirent en affichant des
mines incrédules ; ma question leur paraissait tellement idiote. Par
rapport à la vie qu’ils avaient laissée derrière eux dans leur pays
d’origine, mieux valait dormir à cinq dans une chambre dans un
dortoir clandestin de Marseille que vivre sur un sol en béton dans un
bidonville de Tanger.
Mais ce que j’ai vu cet été-là n’était rien comparé à ce qui nous
attend. D’ici 2050, le monde comptera 1,2 milliard de personnes en
âge de travailler de plus qu’aujourd’hui ; la plupart vivront dans le
même type de conditions que celles que ces migrants fuyaient.
À Oujda au Maroc, j’ai rencontré deux maçons nigériens d’une
vingtaine d’années qui squattaient un terrain vague et vivaient de
l’aumône d’une mosquée. Le Niger est un pays tellement sous-
développé que l’on ne rencontre pas souvent ses habitants sur les
bords des routes du monde. Après leur avoir parlé et examiné les
projections des Nations unies pour leur pays, l’ampleur de ce qui se
prépare m’a sauté aux yeux.
En 2050, la population du Niger sera passée de 18 millions
d’habitants à 69 millions. Le Tchad, le pays qu’ils ont traversé, verra
sa population tripler, pour atteindre 33 millions d’habitants.
L’Afghanistan, dont les tensions ont projeté ses citoyens dans les
réseaux de trafic d’êtres humains qui sillonnent la Grèce, la Turquie
et la Libye, passera de 30 à 56 millions d’habitants.
La moitié de la croissance démographique prévue entre
aujourd’hui et 2050 aura lieu dans huit pays seulement*2, dont six en
Afrique subsaharienne19. Pour trouver des emplois, les habitants des
pays en plein boom démographique devront migrer vers les villes ;
les terres, comme nous l’avons vu, sont déjà soumises au stress du
changement climatique. Dans les villes, beaucoup rejoindront la
population mondiale des bidonvilles, qui compte déjà un milliard de
personnes, et un nombre croissant tentera d’émigrer illégalement
vers les pays du Nord20.
L’économiste de la Banque mondiale Branko Milanovic, qui étudie
les énormes inégalités croissantes dans les pays en voie de
développement, appelle cela un « monde non marxien21 », c’est-à-
dire un monde dans lequel le lieu plutôt que la classe est
responsable de deux tiers de toutes les inégalités. Sa conclusion ?
« Soit les pays pauvres s’enrichissent, soit les pauvres migrent vers
les pays riches. »
Seulement, pour que les pays pauvres deviennent plus riches, ils
doivent sortir de ce que l’on appelle le « piège du revenu
intermédiaire », c’est-à-dire de la situation selon laquelle les pays se
développent jusqu’à un certain point, avant de stagner, à la fois
parce qu’ils doivent rivaliser avec les anciennes puissances
impériales et parce que leurs élites corrompues empêchent la
création d’institutions modernes fonctionnelles. Seuls 13 des
100 pays « à revenu intermédiaire » de 1960 sont devenus des pays
à revenu élevé en 2012. Ces treize pays – appelés « tigres
asiatiques » et menés par la Corée du Sud – ont ignoré le régime de
développement imposé par le système mondial et ont développé leur
propre industrie à un rythme effréné ainsi que leurs infrastructures
grâce à des politiques économiques nationalistes.
Comme le souligne George Magnus, les obstacles ne sont pas
seulement économiques : « Il devient de plus en plus difficile
d’augmenter le revenu par habitant une fois que l’on est un pays à
revenu intermédiaire, de plus […] il ne s’agit pas de tracer des lignes
sur des feuilles de calcul, mais plutôt de tirer les avantages
économiques générés par des institutions inclusives en
constante évolution22. » De plus, les pays où la croissance
démographique est la plus forte sont ceux dont les institutions sont
les plus corrompues et les plus inefficaces.
Si le changement climatique, le vieillissement démographique et la
pénurie d’emploi dans les pays en développement n’interagissaient
pas avec un modèle économique statique et fragile, les problèmes
pourraient être résolus un à un. Mais ils interagissent. Et le produit
de cette interaction risque de mettre à mal l’ensemble du système
mondial, en plus de mettre en danger la démocratie.

Le déni du gotha mondial


« Nous vivons dans un âge essentiellement tragique, aussi refusons-
nous de le prendre au tragique. Le cataclysme est accompli, nous
commençons à bâtir de nouveaux petits habitats […] Il faut bien
vivre, malgré la chute de tant de cieux23. » D. H. Lawrence décrivait
l’aristocratie anglaise après 1918, son idéologie brisée, se retirant
dans un monde de demeures seigneuriales et de coutumes
archaïques. Mais cette description pourrait tout aussi bien
s’appliquer à l’élite moderne après la catastrophe de 2008 : une
aristocratie financière déterminée à continuer à vivre comme si les
menaces décrites ci-dessus n’avaient jamais existé.
Vers la fin du e siècle, une génération d’entrepreneurs, de
politiciens, de barons de l’énergie et de banquiers a grandi dans ce
qui semblait être un monde sans frictions. Au cours du siècle
précédent, leurs prédécesseurs furent témoins de la chute d’un
ordre finement élaboré et du massacre de ses illusions. Depuis la
France impériale de 1871 jusqu’à la chute du Viêt Nam et
l’effondrement du communisme, la première leçon de gestion des
affaires publiques qu’ont reçue ceux qui sont nés avant 1980 est la
suivante : oui, de mauvais événements peuvent se produire, et oui,
ils peuvent vous dépasser.
En 2000, ce fut différent. Ce n’était peut-être pas la « fin de
l’Histoire », mais, pour la génération précurseur du néolibéralisme,
exercer un tant soit peu de contrôle sur l’Histoire semblait possible.
Chaque crise financière pouvait être résolue par une expansion
monétaire ; chaque menace terroriste, éliminée par une attaque de
drone. En tant que variable indépendante de la politique, le
mouvement ouvrier avait été supprimé.
Le sous-produit psychologique qui avait germé dans l’esprit de
l’élite politique tenait dans l’idée que toutes les situations trouvaient
leur solution ; il y a toujours des choix, même si certains d’entre eux
s’avèrent difficiles. Il y a toujours une solution, et c’est généralement
le marché.
Mais ces chocs externes devaient constituer un signal d’alarme.
Le changement climatique ne nous place pas devant un choix de
voies marchandes ou non marchandes pour atteindre les objectifs
en matière de carbone. Il n’offre que deux possibilités : soit le
remplacement planifié de l’économie de marché, soit son
effondrement désordonné par phases brutales. Le vieillissement de
la population risque de faire couler les marchés financiers mondiaux,
et certains pays devront mener une guerre sociale contre leurs
propres citoyens pour rester solvables. Si cela se produit, ce qui
s’est passé en Grèce après 2010 prendra des allures d’étés
capricieux.
Dans les pays les plus pauvres, l’impact combiné de la croissance
démographique, de la corruption, du déséquilibre du développement
et des effets climatiques plongera, à coup sûr, des dizaines de
millions d’individus dans la pauvreté et les privera de terres. Leur
seul choix logique sera alors de migrer.
Dans les pays développés de l’Occident, on commence déjà à
préparer sa défense : les barbelés et les barrières dans l’enclave
africaine espagnole de Melilla ; les actes de transgression répétés
de la marine australienne, confrontée à l’arrivée de bateaux de
migrants en provenance d’Indonésie ; la course à l’autosuffisance
énergétique menée par les États-Unis à coups de forage intensif ;
les rivalités militaires de la Russie et du Canada dans l’Arctique ; la
détermination de la Chine à monopoliser les métaux précieux,
indispensables à l’électronique moderne. Les dénominateurs
communs de ces actions ? L’abandon du principe de collaboration
internationale et la volonté d’atteindre l’autosuffisance.
Nous en sommes venus à considérer que le danger de la
mondialisation est le nationalisme économique, danger qui survient
lorsque la population d’un ou de plusieurs pays développés ne peut
supporter l’austérité et oblige sa classe politique, comme dans les
années 1930, à rechercher une solution à la crise du type « faire
payer le voisin ». Mais les chocs externes donnent naissance à une
nouvelle dimension d’instabilité qui dépasse la simple rivalité
économique. La recherche de l’autosuffisance énergétique engendre
des marchés énergétiques mondiaux régionalisés. Le bras de fer
diplomatique entre la Russie et l’Occident au sujet de l’Ukraine et sa
menace permanente de priver l’Europe de gaz conduiront l’Europe,
même si elle n’explose pas, à rechercher son autosuffisance.
Pendant ce temps, la balkanisation du marché mondial de
l’énergie trouve son équivalent sur Internet.
Déjà, près d’un individu sur cinq doit accepter que ses
informations passent par des dispositifs de filtrage grotesque conçus
par les communistes chinois. Un politicien est arrêté pour
corruption ? Son nom disparaît tout naturellement des moteurs de
recherche. Si ce nom a le malheur de rimer avec le mot « nouilles
instantanées » (comme ce fut le cas pour Zhou Yongkang en 2014),
le mot « nouilles » disparaît également, de même que la marque de
nouilles la plus populaire24.
Aujourd’hui, Internet risque de se fragmenter davantage à mesure
que les États agissent en réaction aux révélations d’actes de
cybersurveillance massive exercée par la NSA. En outre, on a
constaté en 2014 que plusieurs gouvernements, dont la Turquie et la
Russie, avaient tenté de réprimer toute forme de dissidence en
obligeant les sociétés internet à s’enregistrer en tant qu’entités
dépendant du système juridique local, les exposant ainsi à la
censure politique, aussi bien institutionnelle qu’informelle.
La première phase de l’éclatement de l’ordre mondial se manifeste
donc par l’éclatement de l’information et de l’énergie. Mais
l’éclatement des États est également à l’ordre du jour.
J’ai suivi de près le référendum sur l’indépendance de l’Écosse en
2014. Contrairement à ce que prétendent les médias, il ne s’agissait
pas d’une démonstration de patriotisme, mais d’une action prolétaire
partisane de la gauche. Le peuple écossais, qui avait la possibilité
de se détacher d’un État néolibéral engagé dans l’austérité pour la
prochaine décennie, a failli le faire en brisant la plus ancienne
économie capitaliste du monde dans la foulée. Alors que le système
politique espagnol entre en crise, l’élan en faveur de l’indépendance
catalane pourrait se renforcer (à l’heure où j’écris ces lignes, il est
endigué par le fulgurant gain en popularité de Podemos). Sans
compter que nous ne sommes qu’à un accident politique près de
l’effondrement du projet européen lui-même. Lorsqu’un parti
d’extrême gauche a remporté les élections en Grèce, toutes les
institutions de l’UE l’ont attaqué comme les globules blancs
attaquent un virus. À l’heure où nous écrivons ces lignes, la crise
grecque bat son plein, mais elle ne serait rien comparée à –
scénario tout à fait probable – l’arrivée de l’extrême droite au
pouvoir en France.
À Pékin, Washington et Bruxelles, les cinq prochaines années
verront probablement les anciens dirigeants tenter une dernière fois
de rattraper l’ancien système. Mais, plus nous continuerons sans
renoncer au néolibéralisme, plus ses crises potentielles
commenceront à interagir et à se mêler aux crises politiques que j’ai
décrites ici.
En soi, l’essor du capitalisme de l’information a produit toute une
série de résultats. On pourrait imaginer une économie occidentale
stagnante, maintenue en vie grâce à un endettement élevé, des
banques renflouées et de l’argent imprimé, le tout sans crise
démographique. On pourrait imaginer, nonobstant le changement
climatique, une voie de transition postcapitaliste dominée par la
multiplication progressive et spontanée des échanges non
marchands et de la production peer-to-peer, aux côtés d’un système
qui vacille sous ses contradictions internes. Plus de Wikipédia, plus
de Linux, plus de médicaments génériques et de contenu
scientifique public, une adoption progressive des formes de travail
open source, et peut-être un frein législatif aux monopoles de
l’information. Voilà le genre de scénario postcapitaliste que l’on
pourrait retrouver dans un roman de gare : une bonne idée,
concrétisée dans un environnement sans crise, et à un rythme
déterminé par nous-mêmes.
Mais les chocs externes exigent une action centralisée, politique
et rapide. Seuls l’État et la collaboration entre les États pourraient
permettre la mise en œuvre d’une telle action. Le caractère flagrant
de l’objectif climatique et la limpidité de la technicité des moyens
nous permettant de remplir cet objectif montrent qu’il faudra
davantage de planification et de prise en charge par l’État que ce
que l’on attend, ou même que ce que l’on souhaite. La perspective
d’un monde dans lequel 60 % des États sont ruinés par le coût du
vieillissement de leur population signifie que nous avons besoin de
solutions structurelles plutôt que financières.
Mais nous restons prisonniers des illusions qui nous paralysent
depuis vingt-cinq ans. Confrontés à des objectifs d’émissions
réduites, nous cherchons des solutions alternatives, comme payer
pour que des arbres soient plantés dans le désert de quelqu’un
d’autre, par exemple, au lieu d’adopter de nouveaux comportements.
Confrontés à la flagrance du vieillissement de la population
mondiale, nous dépensons 36 milliards de dollars par an en
chirurgie esthétique25. Si l’on exposait les niveaux de risque mis en
évidence dans ce chapitre à n’importe quel PDG, n’importe quel
génie du logiciel, n’importe quelle équipe de gestion du stress dans
un atelier d’ingénierie, n’importe quel analyste quantitatif dans une
banque, ils diraient : il faut agir maintenant ! Réduisez le risque de
toute urgence.
Si l’on utilisait la méthode employée par les ingénieurs – l’analyse
des causes profondes – pour se demander pourquoi trois problèmes
(financier, climatique et démographique) se posent en même temps
et de manière généralisée, on remonterait rapidement à leur cause :
un système économique en déséquilibre avec son environnement, et
insuffisant pour satisfaire les besoins d’une humanité en
transformation rapide.
Pourtant, affirmer qu’« il faut agir maintenant » pour le climat, pour
le système financier, ou pour le problème mathématique impossible
à résoudre de la dette publique traduit, pour beaucoup, une volonté
révolutionnaire. Cela reviendrait à briser les rêves de l’élite de
Davos, à empoisonner l’atmosphère des ports de plaisance de la
Méditerranée et à perturber le silence du mausolée politique qu’est
le Comité central du Parti communiste chinois. Pire encore, cette
affirmation mettrait fin à l’illusion dans laquelle sont plongés des
millions d’individus qui pensent que « tout se passera bien ». Et,
pour les militants, cela signifierait quelque chose qui les effraie à
juste titre : interagir avec le courant dominant, s’engager dans des
stratégies politiques et adopter un projet d’organisation durable plus
concret que « un autre monde est possible ».
Face à cette situation, nous avons besoin d’un « réformisme
révolutionnaire ». Le simple fait de prononcer ces mots à haute voix
permet de constater à quel point ils remettent en question les deux
aspects de la réalité politique. Parlez-en à un social-démocrate en
costume et regardez-le grimacer ; discutez-en dans un camp
Occupy et regardez les militants grimacer, pour des raisons
totalement opposées.
Face à ces défis, on aurait de bonnes raisons de s’inquiéter, mais
les transformations sociales, technologiques et économiques en
cours nous permettent de les relever, si tant est que nous sachions
comprendre le postcapitalisme comme un processus à long terme et
un projet dont la mise en œuvre est urgente.
Nous devons donc intégrer aux mouvements pour l’environnement
et la justice sociale des éléments qui, pendant vingt-cinq ans, ont
semblé être la seule propriété de la droite : la volonté, la confiance et
la conception.
10
Projet Zéro

Si vous pensez qu’un système plus performant que le capitalisme


existe, alors les vingt-cinq dernières années ont dû vous faire vous
sentir, selon les propres termes d’Alexander Bogdanov dans L’Étoile
rouge, comme « un Martien échoué sur la Terre ». Vous savez
pertinemment à quoi devrait ressembler la société, mais vous ne
savez pas comment y parvenir.
Dans le roman de Bogdanov, les Martiens décident de détruire
l’humanité, car elle n’a pas réussi à créer la société postcapitaliste
qu’ils ont déjà bâtie. Voici la métaphore à travers laquelle Bogdanov
exprime son désespoir après l’échec de la révolution de 1905.
Les multiples scénarios proposés dans son ouvrage sont autant
de remèdes à son désespoir. Pour comprendre pourquoi, mettons à
jour la métaphore de Bogdanov : admettons que les Martiens soient
réellement en orbite, prêts à nous désintégrer. Quel genre
d’économie verraient-ils ?
En 1991, dans un célèbre article de recherche intitulé
« Organisations and Markets », le lauréat du prix Nobel Herbert
Simon avait procédé à un exercice de réflexion similaire. Simon avait
expliqué que les Martiens remarqueraient trois éléments distincts de
notre économie : les organisations, qui ressembleraient à de
grandes bulles vertes ; les marchés, qui apparaissent sous forme de
fines lignes rouges reliant les bulles vertes ; et enfin, un ensemble
de lignes bleues présentes au sein des organisations, ces lignes
matérialisant leurs relations hiérarchiques internes. Selon Simon, où
que les Martiens regardent, ils auraient devant leurs yeux un
système dont la couleur dominante est le vert. La description qu’ils
feraient à leurs amis martiens serait : c’est une société constituée
principalement d’organisations, et non de marchés1.
Affirmer cela l’année même où la victoire du marché avait été
proclamée revenait à faire passer un message politique fort. Toute
sa vie, Simon a cherché à comprendre le fonctionnement des
organisations. On s’était servi de son article pour démontrer que,
malgré toute la rhétorique à propos des libres marchés, le système
capitaliste est principalement fait d’organisations qui planifient et
répartissent les biens d’une manière à la fois interne et indirectement
déterminée par les forces du marché.
Mais, si l’on applique le modèle de Simon sous un angle plus
réaliste, on s’aperçoit qu’il démontre autre chose, à savoir comment
le néolibéralisme a ouvert la voie au postcapitalisme. Ajoutons
quelques éléments de détail :
1. Le chiffre d’affaires de chaque bulle verte (les organisations)
détermine sa taille ; l’argent injecté dans chaque transaction
détermine l’épaisseur des lignes rouges qui les séparent.
2. Les lignes bleues, qui montrent la hiérarchie interne d’une
entreprise, doivent également se terminer par des points, qui
matérialisent les travailleurs : les baristas, les programmeurs
informatiques, les ingénieurs aéronautiques et autres
employés d’usines de fabrication de chemises. Simon n’a
pas jugé utile de modéliser les travailleurs séparément, mais
nous, nous le ferons. Faisons-en des points bleus.
3. Si l’on suit une approche réaliste, chaque point bleu se
trouve également au centre d’un réseau de fines lignes
rouges reliant chaque salarié, en tant que consommateur,
aux détaillants, aux banques et aux entreprises de services.
4. Le globe semble déjà beaucoup plus rouge que ce que
Simon avait décrit à l’origine. Il est traversé par des milliers
de milliards de fines lignes rouges.
5. Ajoutons maintenant le facteur temps : que se passe-t-il
pendant un cycle type de vingt-quatre heures ? S’il s’agit
d’une économie capitaliste normale, nous remarquons que
les points bleus (la main-d’œuvre) entrent et sortent des
organisations une fois par jour. Lorsqu’ils quittent le travail, ils
commencent à émettre des lignes rouges, en dépensant leur
salaire ; lorsqu’ils entrent sur le lieu de travail, ils ont
tendance à ne pas le faire – souvenez-vous qu’il s’agit d’une
économie capitaliste de 1991.

Enfin, faisons avancer le modèle dans le temps jusqu’à


aujourd’hui.
Que se passe-t-il ?
D’abord, beaucoup plus de petites lignes rouges apparaissent.
Quand une jeune femme quitte sa ferme au Bangladesh pour
travailler dans une usine, son salaire génère une nouvelle ligne
rouge ; elle paie une nourrice de sa ville pour s’occuper de ses
enfants, générant ainsi une nouvelle transaction commerciale :
encore une nouvelle ligne rouge. Son directeur gagne suffisamment
pour commencer à souscrire une assurance maladie, payer des
intérêts à une banque et obtenir un prêt pour envoyer son fils à
l’université. La mondialisation et les libres marchés génèrent
davantage de lignes rouges.
Deuxièmement, les bulles vertes se divisent et forment de
nouvelles bulles vertes plus petites à mesure que les firmes et les
États financent des activités secondaires. Certains des points bleus
deviennent verts, c’est-à-dire que les salariés deviennent
indépendants. Aux États-Unis, 20 % de la main-d’œuvre est
constituée d’« entrepreneurs individuels ». Eux aussi génèrent des
lignes rouges.
Troisièmement, les lignes rouges s’allongent et s’étendent au
monde entier. Et elles ne s’arrêtent pas lorsque les gens vont au
travail : l’achat et la vente se font désormais en ligne, pendant et en
dehors de la journée de travail.
Enfin, des lignes jaunes apparaissent.
« Quoi ?!, s’exclame le commandant de la flotte martienne.
Quelles lignes jaunes ? »
« Voilà qui est intéressant, affirme l’économiste du vaisseau. Nous
sommes les premiers témoins d’un nouveau phénomène. »
Les lignes jaunes semblent correspondre à des personnes qui
échangent des biens, du travail et des services, mais pas par le biais
du marché ni au sein d’organisations classiques. Une grande partie
de ce qu’ils produisent semble être produite gratuitement, donc nous
n’avons aucune idée de l’épaisseur que devraient avoir ces lignes.
Supposons maintenant qu’un bombardier martien ait le doigt sur la
gâchette, comme dans le roman de Bogdanov, et demande la
permission d’atomiser l’humanité pour la punir de son incapacité à
adopter le communisme.
Le commandant de la flotte répondra très probablement :
« Attendez ! Ces lignes jaunes sont intéressantes. »

Les cinq grands principes de la transition


Dans ce scénario, les lignes jaunes ne sont rien de plus qu’une
manière de représenter les biens, le travail et les services fournis de
manière collaborative, hors du marché. Elles sont fines, mais elles
marquent l’ouverture d’une nouvelle voie vers le postcapitalisme, à
la fois basée sur la valorisation et le développement des échanges
et sur la production non marchande et muée par les technologies de
l’information.
Jusqu’à maintenant, j’ai considéré le postcapitalisme comme un
phénomène qui émerge spontanément. Le défi consiste à
transformer les idées en projet.
Pratiquement tout ce qui entraîne un changement est perçu
comme un projet : Wikipédia, le mouvement open source, les
normes d’information ouvertes et les installations de production
d’énergie à faible émission de carbone. Mais bien peu d’entre nous
ont pris la peine de se demander à quoi ressemblerait un projet
ambitieux visant à faire sortir l’économie mondiale du capitalisme.
Tout cela, en partie parce que bon nombre de membres de
l’ancienne gauche connurent le même désespoir que celui qui avait
touché le Martien échoué de Bogdanov. D’autres, les membres du
mouvement écologique, les ONG, les activistes communautaires et
les économistes peer-to-peer, sont tellement déterminés à éviter les
« grandes histoires » qu’ils s’en tiennent à des réformes radicales à
petite échelle.
Dans ce chapitre, j’essaierai de préciser ce que pourrait
représenter un projet postcapitaliste à grande échelle. Je l’appelle le
« Projet Zéro », car il vise à mettre en place un système énergétique
sans carbone, à produire des machines, des produits et des services
dont le coût marginal est nul et à réduire le temps de travail
nécessaire à un niveau aussi proche que possible de zéro. Avant de
commencer, il convient d’énoncer quelques principes fondés sur les
leçons que nous avons tirées de nos précédents échecs.
Le premier principe consiste à prendre conscience des limites de
la volonté humaine une fois celle-ci confrontée à un système
complexe et fragile. Les bolchéviques n’ont pas réussi ; à vrai dire, la
e
plupart des politiciens traditionnels du siècle non plus.
Aujourd’hui, nous avons compris le problème. La solution consiste à
mettre à l’épreuve toutes les solutions proposées à petite échelle et
à modéliser virtuellement leur impact macroéconomique de
nombreuses fois avant de procéder à des expériences à grande
échelle.
Evgeny Preobrazhensky, l’économiste soviétique qui fut
assassiné, prétendait que, à mesure que les forces du marché
commencent à disparaître, l’économie devient une discipline
permettant de concevoir l’avenir, et non plus seulement d’analyser le
passé. « C’est une science tout à fait différente, avait-il affirmé, c’est
une technologie sociale2. »
Cette déclaration a de quoi faire froid dans le dos, car elle nous
incite à adopter un point de vue dangereux, celui de considérer la
société comme une machine. Mais la description faite par
Preobrazhensky des outils sur lesquels s’appuierait cette
« technologie sociale » était à la limite du prémonitoire, et tout aussi
subtile. Il avait parlé d’un « système nerveux extrêmement complexe
et ramifié, capable d’anticiper les phénomènes sociaux et de
prodiguer des conseils ». Remarquez les termes qu’il emploie, il
parle d’anticipation et de conseil ; pas d’ordre ni de contrôle.
Remarquez également l’image qu’il utilise : celle d’un système
nerveux, pas celle d’une hiérarchie. Les Soviétiques n’avaient que le
commandement, le contrôle et la hiérarchie bureaucratique ; mais
nous, nous avons le réseau. Lorsqu’il s’agit d’organiser le
changement, le réseau peut se montrer plus performant que peut
l’être la hiérarchie, mais seulement si nous tenons compte de la
complexité et de la fragilité qui le caractérisent.
Le deuxième principe directeur de la transition est la durabilité
écologique. Nous subirons les chocs externes évoqués au chapitre 9
probablement l’un après l’autre : d’abord, des pénuries d’énergie
locales et à court terme au cours de la prochaine décennie ; ensuite,
les défis posés par le vieillissement de la population et les migrations
au cours des trente prochaines années ; et enfin, les conséquences
catastrophiques du changement climatique. Notre mission consiste à
développer des technologies qui permettront de résoudre ces
problèmes grâce à une croissance durable ; sauver la planète
n’implique pas de revenir à des technologies plus anciennes.
Le troisième principe, sur lequel j’aimerais par ailleurs insister, dit
que la transition n’est pas seulement une affaire d’économie. Elle
doit être aussi humaine. Les nouvelles catégories de personnes
engendrées par les économies en réseau sont porteuses de
nouvelles insécurités et ont de nouvelles priorités. Nous avons déjà
une perception du soi différente de celle de nos grands-parents3.
Nos rôles de consommateurs, d’amoureux et de communicateurs
sont aussi importants pour nous que notre rôle au travail. Le projet
ne peut donc pas se fonder sur la seule base de la justice
économique et sociale.
L’écrivain français André Gorz avait raison de dire que le
néolibéralisme a réduit à néant toute possibilité d’utopie fondée sur
le travail. Mais nous serons toujours confrontés à un défi similaire à
celui que les premières républiques soviétiques ont connu avec les
travailleurs : des groupes sociaux spécifiques peuvent avoir des
priorités à court terme qui entrent en conflit avec les priorités plus
larges de l’économie et de l’écosystème. C’est à cela que servent
les réseaux : à débattre des choses et à envisager des alternatives.
Nous aurons besoin de nouvelles formes de démocratie pour faire la
part des choses entre diverses revendications à la fois concurrentes
et valables. Mais ce ne sera pas chose facile.
Le quatrième principe nous incite à attaquer le problème sous tous
les angles. Avec l’essor des réseaux, le pouvoir de faire changer les
choses ne se limite plus aux États, aux entreprises et aux partis
politiques ; les individus et les foules qui regroupent de manière
temporaire sont autant de potentiels acteurs du changement.
À l’heure actuelle, la communauté de penseurs et d’activistes du
mouvement peer-to-peer se concentre essentiellement sur des
projets expérimentaux à petite échelle, comme les coopératives (de
crédit, par exemple). Pour eux, l’État représente à la fois une forme
de protection ainsi qu’un levier juridique permettant de faciliter
l’extension du secteur peer-to-peer. Hormis des penseurs tels que
Michel Bauwens4 et McKenzie Wark5, rares sont ceux qui ont pris la
peine de se demander à quoi ressemblerait, dans le contexte de ce
nouveau mode de production, un système de gestion et de
réglementation entièrement nouveau.
Dans cette situation, la meilleure chose à faire serait d’élargir
suffisamment notre horizon de pensée pour trouver des solutions à
base d’expériences à petite échelle, de modèles éprouvés que l’on
peut mettre en pratique à plus grande échelle et d’actions
gouvernementales.
Par conséquent, si la solution en matière de finance consiste à
créer un système bancaire diversifié et socialisé, alors la création
d’une coopérative de crédit permet d’attaquer le problème d’un côté,
l’interdiction de certaines formes de spéculation permet de l’attaquer
d’un deuxième, tandis que l’adoption de nouveaux comportements
financiers permet de l’attaquer d’un troisième.
Le cinquième principe d’une transition réussie consiste à
maximiser le pouvoir de l’information. La différence entre une
application pour Smartphone d’aujourd’hui et les programmes sur
ordinateur d’il y a vingt ans est que les applications modernes
effectuent une auto-analyse et mettent en commun les données de
performance. Presque tout ce qui se trouve sur votre téléphone et
votre ordinateur envoie des informations concernant vos choix à
l’entreprise propriétaire. Bientôt, les informations proviendront des
compteurs électriques « intelligents », des cartes de transport public
et des voitures contrôlées par ordinateur. Les données collectées à
propos de notre vie, qui comprendront bientôt notre vitesse de
conduite, notre régime alimentaire hebdomadaire, notre masse
corporelle et notre rythme cardiaque, pourraient être au cœur d’une
« technologie sociale » extrêmement puissante en soi.
Une fois que l’Internet des objets sera généralisé, nous
assisterons alors au véritable décollage de l’économie de
l’information. Dès lors, la priorité sera d’instaurer un contrôle social
démocratique sur les informations recueillies, et d’empêcher leur
monopolisation ou leur utilisation abusive par les États et les
entreprises.
L’Internet des objets viendra compléter une plus vaste
« machine » sociale. À elle seule, sa capacité d’analyse pourrait
permettre d’optimiser les ressources à une échelle qui réduirait
considérablement l’utilisation du carbone, des matières premières et
de la main-d’œuvre. Doter le réseau énergétique, le réseau routier et
le système fiscal d’une « intelligence » est la tâche la plus évidente
de celles qu’il nous faut accomplir. Mais la puissance de cette vaste
machine naissante ne réside pas uniquement dans sa capacité de
surveillance et de retour d’information. En socialisant les
connaissances, elle renferme également le pouvoir d’amplifier les
résultats de l’action collective.
Les socialistes de la Belle Époque considéraient les monopoles et
les cartels d’un bon œil : en s’en emparant, il serait facile d’exercer
un contrôle centralisé sur la société, pensaient-ils. Nous avons pour
objectif de décentraliser le contrôle, quel meilleur outil pour cela que
la grande machine d’information physique qui est en train d’être
créée ?
Lorsque nous nous en emparerons, nous pourrons placer une
grande partie des réalités sociales sous contrôle collaboratif. Par
exemple, en épidémiologie, l’accent est désormais mis sur la rupture
des boucles de rétroaction qui engendrent la pauvreté, la colère, le
stress, les familles divisées et les mauvaises conditions sanitaires6.
Les efforts visant à répertorier ces problèmes et à leur trouver une
solution sont au cœur des préoccupations de la médecine sociale.
Imaginez le potentiel de cette médecine si la pauvreté et la maladie
qui gangrènent les communautés pauvres pouvaient être détectées,
identifiées et éradiquées de manière collaborative et en temps réel,
tout en bénéficiant de la participation des personnes affectées au
niveau local.
Maximiser le potentiel et l’ouverture de l’information doit devenir
un réflexe ancré dans le projet.

Des objectifs ambitieux


Selon les principes que j’ai évoqués plus haut, ce n’est pas un
programme politique que je propose, mais plutôt quelque chose qui
ressemble à un projet décentralisé. Ce projet consiste à effectuer
une série de tâches interdépendantes, modulables et non linéaires
menant à un résultat donné. Les prises de décision se font de
manière décentralisée ; les structures nécessaires à sa mise en
œuvre apparaissent au cours de celle-ci ; les objectifs évoluent en
fonction des informations reçues en temps réel. À propos du principe
de précaution : nous exploiterons la nouvelle génération d’outils de
simulation pour modéliser toutes les solutions proposées avant de
les adopter.
Si j’avais pu écrire le reste de ce chapitre sur des Post-it que
j’aurais ensuite collés sur un tableau, cela m’aurait permis de mieux
faire ressortir l’interdépendance et la modularité de ces tâches. La
meilleure manière de mener un projet décentralisé consiste à former
des petits groupes puis de leur assigner chacun une tâche sur
laquelle ils travailleront et consigneront ce qu’ils ont fait dans un
rapport avant de passer à autre chose.
Faute de Post-it, je m’en tiendrai à une liste. Selon moi, les
principaux objectifs d’un projet postcapitaliste sont :
1. Réduire au plus vite les émissions de carbone de sorte que
la planète ne se soit réchauffée que de 2°C d’ici à 2050,
empêcher une crise énergétique et limiter l’impact des
catastrophes naturelles.
2. Stabiliser le système financier d’ici à 2050 en le socialisant
de manière à ce que les populations vieillissantes, le
changement climatique et la dette ne se combinent pas pour
déclencher un nouveau cycle d’expansion et de récession,
ce qui provoquerait la destruction de l’économie mondiale.
3. Pourvoir aux besoins matériel et spirituel de la majorité de la
population, principalement en donnant la priorité aux
technologies riches en informations, et cela, dans l’optique
de répondre aux principaux défis sociaux, tels que les
mauvaises conditions sanitaires, la dépendance aux aides
sociales, l’exploitation sexuelle et le manque d’éducation.
4. Orienter le développement des nouvelles technologies vers
la réduction de la quantité de travail nécessaire, de manière
à favoriser une transition rapide vers une économie
automatisée. À terme, le travail devient bénévolat, les
produits de base et les services publics sont fournis
gratuitement, et la gestion économique devient
principalement une question d’énergie et de ressources, et
non de capital et de travail.

En matière de jeu, on appelle cela les « conditions de la victoire ».


Nous n’atteindrons peut-être pas tous ces objectifs, mais, comme
tous les joueurs le savent, il est possible de réaliser beaucoup de
choses, faute de victoire totale.
Lorsque nous atteindrons ces objectifs, il sera vital de transmettre
un message clair à travers tous les changements économiques que
nous opérerons. L’un des aspects les plus marquants du système de
Bretton Woods tenait dans les règles explicites qui avaient été
établies. À l’inverse, c’est selon des règles implicites, voire
transgressées, comme dans le cas de la zone euro, que l’économie
mondiale fut administrée au cours des vingt-cinq années du
néolibéralisme.
Le sociologue Max Weber pensait que l’essor du capitalisme
n’était pas dû à la technologie, mais plutôt à un « nouvel esprit », à
une nouvelle attitude à l’égard de la finance, des machines et du
travail, et non des choses en elles-mêmes. Mais, pour qu’un nouvel
esprit du postcapitalisme se développe, nous devons concentrer
notre attention sur les secteurs à partir desquels les externalités sont
générées et distribuées, et diffuser activement le savoir afférent à
ces phénomènes. Nous devons trouver une réponse à la question
suivante : qu’advient-il du bénéfice social que les interactions en
réseau produisent, et que la comptabilité capitaliste ne peut
généralement pas voir ? Où se situe-t-il ?
Voici un exemple moderne. Les cafés d’aujourd’hui vantent
souvent que leur grain de café est bio, c’est-à-dire qu’ils proposent
un bien commun de meilleure qualité. Ce qu’ils veulent dire
implicitement, c’est que vous payez un peu plus pour bénéficier du
facteur bien-être. Ici, le message n’est pas des plus clairs.
Imaginons maintenant que le café soit une coopérative, qui
rémunère bien ses travailleurs et réinvestit ses bénéfices dans des
activités favorisant la cohésion du tissu social, l’alphabétisation, la
réinsertion post-pénitentiaire ou l’amélioration de la santé publique.
L’important est d’indiquer, aussi clairement que le fait le label « bio »
sur le café, quel bien social est produit et qui en bénéficiera.
Il ne s’agit pas d’un simple geste : c’est un message clair, tout
comme le canon placé devant la porte de l’usine de coton de
Cromford en Angleterre en 1771 en avait été un. On pourrait installer
un panneau disant : « Nous vendons du café pour faire des
bénéfices, ce qui nous permet d’offrir du soutien psychologique
gratuit. » Ou, à l’exemple du réseau de banques alimentaires
parrainé par Syriza en Grèce, on pourrait tout simplement le faire
sans dire un mot.
Dans la suite de ce chapitre, je tente d’expliquer au mieux le projet
conçu autour des principes que nous avons adoptés et des objectifs
ambitieux que nous nous fixons. Rien ne me ferait plus plaisir que de
le voir se faire tailler en pièces avant d’être remanié par la sagesse
des foules en colère.
Simuler avant d’agir
Premièrement, nous avons besoin d’une simulation accessible,
précise et exhaustive des réalités économiques actuelles. On
pourrait utiliser les modèles dont se servent les macroéconomistes
des banques, du FMI et de l’OCDE, ainsi que les modèles à partir
desquels les climatologues de l’AIE et d’autres organismes montent
leurs scénarios. Mais le fait est que ces modèles sont totalement
asymétriques.
Les modèles climatiques tendent à reproduire l’atmosphère à
l’aide de mathématiques poussées, mais simulent l’économie
comme le ferait un grille-pain. Parallèlement, la plupart des modèles
économiques professionnels, connus sous le nom de « modèles
DSGE », sont élaborés sur la base d’une double erreur, à savoir qu’il
est possible d’atteindre l’équilibre économique et que tous les agents
économiques font de simples choix entre plaisir et douleur. Par
exemple, le modèle le plus avancé de la Banque centrale
européenne pour la zone euro ne comprend que trois types
d’« agents » : les ménages, les entreprises et la Banque centrale.
L’actualité montre qu’il aurait pu être utile d’inclure dans ce modèle
des fascistes, des oligarques corrompus ou plusieurs millions
d’électeurs prêts à porter la gauche radicale au pouvoir.
Alors que nous sommes entrés depuis des décennies dans l’ère
des technologies de l’information, il est frappant de constater,
comme le souligne J. Doyne Farmer, professeur de mathématiques
à Oxford, qu’aucun modèle ne rend compte de la complexité
économique de la même manière que les ordinateurs le font pour
simuler la météo, la population, les épidémies ou les flux de
circulation7.
En outre, la planification et la modélisation capitalistes ne sont
généralement pas soumises à l’obligation de rendre des comptes :
lorsqu’un grand projet d’infrastructure commence à ne produire des
résultats que dix ou vingt ans après que son impact a été estimé
pour la première fois, plus personne n’est là pour en tirer des
conclusions. Ainsi, la plupart des modèles économiques établis sous
le capitalisme de marché sont, en fait, proches de la spéculation.
L’une des mesures les plus radicales, et les plus nécessaires, que
nous pourrions prendre serait donc de créer un institut ou un réseau
mondial pour simuler la transition à long terme au-delà du
capitalisme.
Il aurait pour première mission de simuler avec précision les
économies telles qu’elles existent aujourd’hui. Ses travaux seraient
disponibles en accès libre : tout le monde pourrait l’utiliser, tout le
monde pourrait suggérer des améliorations, et les résultats seraient
disponibles pour tous. Ses membres devront très probablement
appliquer une méthode appelée « modélisation par agents », c’est-à-
dire utiliser des ordinateurs pour simuler des millions d’entreprises,
de travailleurs et de ménages virtuels, avant de les laisser interagir
spontanément dans des limites réalistes. Même aujourd’hui, ce
genre de modèle serait capable de s’appuyer sur des données en
temps réel. Les capteurs météorologiques, les dispositifs de
surveillance des transports urbains, les réseaux d’énergie, les
données démographiques des codes postaux et les outils de gestion
de la chaîne d’approvisionnement des groupes de supermarchés
mondiaux fournissent tous des données macroéconomiques
pertinentes en temps réel. Mais l’objectif ultime, une fois que chaque
objet sur terre sera adressable, intelligent et fournira des
informations, est de créer un modèle économique qui ne se contente
pas de simuler la réalité, mais plutôt de la représenter avec
précision. À terme, les agents simulés virtuellement seront
substitués par des données granulaires tirées de phénomènes
observables, comme c’est le cas pour les ordinateurs
météorologiques.
Dès lors que nous parviendrons à saisir la réalité économique de
cette manière, il sera possible de faire changer les choses en
profondeur de manière responsable. De même que les ingénieurs
aéronautiques simulent des millions de contraintes différentes sur la
dérive d’un avion, il serait possible de simuler des millions de
scénarios découlant d’une baisse du prix des baskets Nike à un
montant compris entre leur prix actuel de 190 dollars et leur prix de
production, probablement inférieur à 20 dollars.
Nous poserions à notre superordinateur des questions
subsidiaires : est-ce que la disparition de la marque Nike ferait
déprimer les jeunes ? Est-ce que l’industrie mondiale du sport
souffrirait de la disparition des dépenses en marketing de Nike ? Est-
ce que la qualité diminue lorsque la valeur de la marque disparaît
pendant le processus de production ? Quel serait l’impact sur le
climat ? Pour promouvoir sa marque, Nike a travaillé dur pour
réduire les émissions de carbone. Nous pourrions considérer que
maintenir le prix de vente élevé des baskets Nike est une bonne
chose. Ou non. C’est à cela, plutôt qu’à la planification méticuleuse
des cyberstaliniens, qu’un état postcapitaliste utiliserait l’informatique
au niveau pétaflopique.
Et une fois que nous disposerons de prévisions fiables, nous
pourrons agir.

Le Wiki-État
Transformer l’État sera le plus difficile ; nous devons réfléchir de
manière positive à son rôle dans la transition vers le postcapitalisme.
On peut déjà commencer par affirmer que les États sont
d’énormes entités économiques. Ils emploient environ un demi-
milliard d’individus dans le monde et, selon une estimation,
représentent en moyenne 45 % de l’activité économique par rapport
au PIB de chaque pays (de 60 % au Danemark à 25 % au Mexique).
Sans compter qu’en fonction de leurs investissements et de leurs
décisions ils exercent une influence prépondérante sur les marchés.
Dans le cadre du projet socialiste, l’État se voyait comme la
nouvelle forme économique. Selon le projet postcapitaliste, l’État
devrait plutôt agir comme le personnel de Wikipédia : il doit favoriser
les nouvelles formes économiques jusqu’à ce qu’elles prennent leur
essor et fonctionnent de manière organique. Selon l’ancienne vision
communiste, l’État doit « dépérir » ; seulement, ici, le dépérissement
économique de l’État doit être au centre de toutes les
préoccupations, il ne doit pas être l’affaire des seuls secteurs de la
loi et de la défense.
Il y a un changement que toute personne à la tête d’un État
pourrait mettre en œuvre immédiatement et gratuitement : arrêter la
machine à privatiser néolibérale. Affirmer que l’État est un agent
passif du système néolibéral est un mensonge ; en réalité, le
système néolibéral ne peut exister sans une intervention constante
et active de l’État en faveur de la marchandisation, de la privatisation
et des intérêts de la finance. En général, il déréglemente la finance,
oblige le gouvernement à externaliser les services et ne remédie pas
à la dégradation des soins de santé, de l’éducation et des transports
publics, ce qui pousse les gens à se tourner vers les services privés.
Un gouvernement qui prendrait au sérieux le postcapitalisme ferait
passer un message clair : il n’y aura pas d’extension proactive des
forces du marché. Rien que pour avoir tenté cela, le mouvement
gauchiste plus ou moins traditionnel de Syriza, en Grèce, a été
ouvertement saboté. La BCE a mis en scène une ruée sur les
banques grecques et, pour y mettre fin, a exigé davantage de
privatisations, d’externalisations et de dégradation des services
publics.
La prochaine mesure que l’État pourrait prendre serait de
remodeler les marchés pour favoriser des résultats durables,
collaboratifs et socialement justes. Si l’on fixe un prix de rachat élevé
aux panneaux solaires, de plus en plus de gens en achèteront. Mais
si l’on ne précise pas qu’ils doivent être fabriqués dans une usine
dont les normes sociales sont élevées, les panneaux seront
fabriqués en Chine, ce qui, au-delà du changement de source
d’énergie, engendrera moins d’avantages sociaux. Si l’on encourage
la création de dispositifs énergétiques locaux, afin que l’excédent
d’énergie produite puisse être vendu aux entreprises voisines, on
crée d’autres externalités positives.
Nous avons besoin de redéfinir le rôle de l’État dans une
économie qui inclue des structures à la fois capitalistes et
postcapitalistes. L’État doit agir comme catalyseur des nouvelles
technologies et des nouveaux modèles d’entreprise, mais toujours
en tenant compte de la manière dont ils s’inscrivent dans les
objectifs et principes stratégiques décrits précédemment.
Les projets peer-to-peer, les modèles commerciaux collaboratifs et
les activités à but non lucratif font généralement l’objet d’initiatives
fragiles et à petite échelle. Toute une communauté d’économistes et
de militants s’est développée autour d’elles, mais la parcelle qu’elles
occupent est si petite, comparée au terrain qu’occupe le secteur
marchand, que l’une des premières tâches à accomplir consistera à
dégager un espace dans la jungle capitaliste pour que ces nouvelles
pousses puissent s’épanouir.
Selon le projet postcapitaliste, l’État doit également coordonner et
planifier les infrastructures : aujourd’hui, cela se fait au petit bonheur
la chance et sous la forte pression politique du lobby du carbone. À
l’avenir, cela pourrait se faire de manière démocratique et avec des
résultats radicalement différents. Qu’il s’agisse de logements
sociaux dans des villes dévastées par la spéculation, de pistes
cyclables ou de services de santé, même les infrastructures les plus
progressistes sont conçues en fonction des intérêts des riches et
partent du principe que le marché ne disparaîtra jamais. De ce fait,
la planification des infrastructures reste l’une des disciplines les
moins transformées par la pensée en réseau. Cela doit changer.
En outre, en raison de la nature mondiale des problèmes auxquels
nous sommes confrontés, l’État doit « s’approprier » les solutions à
apporter face aux enjeux du changement climatique, du
vieillissement démographique, de la sécurité énergétique et des
migrations. En d’autres termes, quelles que soient les mesures que
nous prenons au niveau local pour limiter les risques, seuls les
gouvernements nationaux et les accords multilatéraux peuvent
réellement les résoudre.
Le problème le plus urgent, si les États doivent contribuer à la
transition vers un nouveau système économique, est la dette. Dans
le monde d’aujourd’hui, les pays développés sont paralysés à cause
de l’ampleur de leurs dettes. Ces dernières, comme nous l’avons vu
au chapitre 9, devraient afficher des chiffres astronomiques en
raison du vieillissement des populations. Au fil du temps, l’austérité
et la stagnation risquent de réduire le volume des économies qui
devront rembourser leurs dettes.
Les gouvernements doivent donc prendre des mesures claires et
progressives concernant les dettes. Peut-être pourrait-on les annuler
unilatéralement ; il sera probablement nécessaire d’en arriver là
avec certains pays comme la Grèce, qui ne peuvent pas rembourser
leur dette. Cependant, cela entraînerait une démondialisation, car
les pays et les investisseurs détenant les dettes sans valeur
riposteraient en coupant l’accès aux marchés ou en expulsant les
pays en défaut de paiement de diverses zones monétaires et
commerciales.
On pourrait utiliser une partie de l’argent alloué à
l’assouplissement quantitatif pour acheter et effacer certaines dettes.
Cependant, même cette prétendue « monétisation » de la dette, que
l’on effectuerait en utilisant les 12 000 milliards de dollars créés
jusqu’à présent, ne réduirait pas suffisamment les dettes publiques
mondiales par rapport au PIB puisque leur montant s’élève déjà à
54 000 milliards de dollars et qu’il ne fait qu’augmenter, sans
compter que le montant total des dettes mondiales approche les
300 000 milliards de dollars.
Il serait plus judicieux de combiner les annulations de dettes
contrôlées avec une politique mondiale de « répression financière »
que l’on appliquerait pendant dix à quinze ans : cela reviendrait à
stimuler l’inflation, maintenir les taux d’intérêt à un niveau inférieur
au taux d’inflation, empêcher la population de transférer son argent
dans des investissements non financiers ou étrangers (et faire
gonfler la dette au passage) et, enfin, annuler le reste de la dette.
Soyons honnêtes, cela réduirait la valeur des actifs des fonds de
pension, et donc la richesse matérielle des classes moyennes et des
personnes âgées ; et en imposant des contrôles sur les capitaux, on
démondialiserait partiellement la finance. Mais ce n’est qu’une façon
contrôlée de faire ce que le marché fera dans le chaos si, comme le
prévoit S&P, 60 % de tous les pays deviennent incapables de
rembourser leur dette d’ici 2050. Dans des conditions de quasi-
stagnation et de taux d’intérêt nuls à long terme, les revenus
générés par les investissements des fonds de pension sont de toute
façon déjà minimes.
Et ce n’est que le début.
Développer le travail collaboratif
Pour favoriser la transition, il nous faut transformer de manière
radicale les modèles commerciaux collaboratifs. Pour cela, il est
nécessaire de supprimer le rapport de force inégal qui les a entravés
jusqu’à présent.
Les coopératives ouvrières traditionnelles ont toujours échoué
parce qu’elles n’avaient pas accès au capital et que, en cas de crise,
elles ne pouvaient pas persuader leurs membres d’accepter des
salaires plus bas ou de travailler moins longtemps. Les coopératives
modernes qui réussissent, comme Mondragon en Espagne,
fonctionnent parce qu’elles ont le soutien des caisses d’épargne
locales et parce que ce sont des structures complexes, capables de
reclasser les travailleurs d’un secteur à l’autre ou de pallier le
chômage à court terme en offrant des avantages non marchands
aux personnes licenciées. Mondragon n’est pas un paradis
postcapitaliste, mais c’est l’exception qui confirme la règle : si l’on
examine la liste des 300 premières coopératives du monde, on
constate que nombre d’entre elles sont simplement des banques
mutualistes qui n’ont pas cédé devant les entreprises. À bien des
égards, elles jouent le jeu de l’exploitation financière, mais selon un
modèle social.
Dans un contexte de transition basée sur les réseaux, les modèles
commerciaux collaboratifs représentent ce que nous devons
encourager le plus. Cependant, eux aussi doivent évoluer. Le fait
qu’il s’agisse d’entreprises à but non lucratif ne suffit pas ; une forme
postcapitaliste de coopérative doit se donner pour objectif de
développer des activités non marchandes, non gérées et non
monétaires sur la base de son activité marchande originale. Ce dont
nous avons besoin, ce sont des coopératives dont la forme juridique
est soutenue par une forme réelle et collaborative de production ou
de consommation et qui génère des résultats sociaux remarquables.
De la même manière, nous ne devons pas fétichiser l’aspect non
lucratif des choses. Il serait par exemple possible de développer des
formes de prêts peer-to-peer, de fonder des compagnies de taxis ou
des sociétés de location de vacances rentables, mais elles devront
être soumises à des réglementations qui limiteraient leur capacité à
favoriser les injustices sociales.
Au niveau gouvernemental, il faudrait créer un bureau de
l’économie non marchande, dont la mission serait d’encourager le
développement des entreprises qui produisent des biens gratuits ou
pour lesquelles le partage et la collaboration sont essentiels, et de
maximiser la part de l’activité économique qui s’opère en dehors du
système de prix. Moyennant quelques mesures d’aides au
développement, il serait possible de restructurer l’économie et de
créer d’importantes synergies.
On constate par exemple qu’un grand nombre de personnes
créent des entreprises (dont une sur trois environ échoue) parce que
le système fiscal encourage la création d’entreprises. Bien souvent,
ces personnes fondent des entreprises à main-d’œuvre bon marché,
comme des fast-foods, des entreprises de construction ou des
magasins franchisés, car, là encore, le système est favorable à une
économie à main-d’œuvre bon marché. Si nous remodelons le
système fiscal pour récompenser la création d’organismes à but non
lucratif et la production collaborative, et si nous remanions les
réglementations des entreprises pour qu’il soit difficile de créer des
entreprises à bas salaires, mais très facile de créer des entreprises à
salaires décents, nous serions à même d’opérer un grand
changement pour peu de frais.
Les grandes entreprises peuvent également favoriser le
changement de manière utile, notamment en raison de leur taille : à
titre d’exemple, McDonald’s représente la trente-huitième plus
grande économie du monde, elle dépasse celle de l’Équateur, elle
est également la plus grande distributrice de jouets en Amérique. En
outre, une personne sur huit a déjà travaillé pour McDonald’s aux
États-Unis. Maintenant, imaginez que, pendant la journée
d’intégration des nouveaux employés, McDonald’s donne un cours
d’une heure sur le syndicalisme. Imaginez que Walmart, au lieu
d’inciter ses employés à demander des prestations sociales pour
réduire le coût salarial, leur donne les moyens d’augmenter leurs
salaires. Ou imaginez tout simplement que McDonald’s cesse de
distribuer des jouets en plastique.
Qu’est-ce qui pourrait inciter les entreprises à faire tout cela ?
Réponse : les lois et les réglementations. Si nous accordions à la
main-d’œuvre des entreprises mondiales plus de pouvoir en matière
de droit du travail, leurs propriétaires se verraient alors contraints de
privilégier les modèles économiques riches en technologie, à hauts
salaires et à forte croissance, au lieu de faire le contraire. Les
entreprises bon marché, à faibles salaires et peu exigeantes en
qualification qui ont prospéré depuis les années 1990 n’existent que
parce que l’État n’a pas hésité à leur faire de la place. La seule
chose que nous avons à faire consiste à inverser ce processus.
Interdire certains modèles commerciaux est peut-être une solution
radicale, mais c’est ce qui s’est passé avec l’esclavage et le travail
des enfants. Ces restrictions, malgré les objections des patrons
d’usine et des propriétaires de plantations, ont en fait régularisé le
capitalisme et ont forcé son essor.
Notre objectif est de régulariser le postcapitalisme, de privilégier le
réseau wifi gratuit du village situé en montagne plutôt que de
garantir les droits du monopole des entreprises télécoms. Il est tout
à fait possible pour de nouveaux systèmes de se développer à partir
de ces changements infimes.

Supprimer ou socialiser les monopoles


La création de monopoles pour résister à la chute des prix vers zéro
constitue le principal mécanisme de défense du capitalisme contre le
postcapitalisme.
Pour favoriser la transition, ce mécanisme de défense doit être
supprimé. Il faut interdire les monopoles dans la mesure du possible
et appliquer strictement des règles contre la fixation des prix.
Pendant vingt-cinq ans, le secteur public a été contraint
d’externaliser ses services et de se morceler ; c’est maintenant au
tour des monopoles tels qu’Apple et Google. Lorsqu’il n’est pas
possible de briser un monopole, comme c’est le cas pour un
avionneur ou une compagnie des eaux, la nationalisation – la
solution préconisée par Rudolf Hilferding il y a un siècle – suffit.
Lorsqu’elle était appliquée dans sa forme originale, c’est-à-dire la
nationalisation à but non lucratif, elle offrait un énorme avantage
social au capital en réduisant les coûts de production du travail.
Dans une économie postcapitaliste, elle permettrait cela et plus
encore. L’objectif stratégique, qui apparaît souvent en grosses lettres
sur une projection PowerPoint dans chaque salle de réunion du
secteur public, serait de réduire le coût des produits de première
nécessité, de sorte que le temps de travail total socialement
nécessaire puisse diminuer et que davantage de choses soient
produites gratuitement.
Si une véritable fourniture publique d’eau, d’énergie, de logement,
de transport, de soins de santé, d’infrastructures de
télécommunication et d’éducation était introduite dans une économie
néolibérale, on en viendrait à parler de « révolution ». La
privatisation de ces secteurs au cours des trente dernières années a
servi aux néolibéraux à réintroduire la rentabilité dans le secteur
privé : dans les pays dépourvus d’industries productives, ces
monopoles de services constituent le cœur du secteur privé et, avec
les banques, l’épine dorsale du marché boursier.
Et fournir ces services à prix coûtant constituerait un acte
stratégique de redistribution bien plus efficace sur le plan social que
l’augmentation des salaires réels.
En résumé : sous un gouvernement qui embrasserait le
postcapitalisme, l’État, le secteur des entreprises et les entreprises
publiques pourraient être amenés à poursuivre des objectifs
radicalement différents grâce à des modifications relativement peu
coûteuses de la législation et soutenues par un ambitieux
programme de réduction de la dette.
Ce n’est cependant pas dans ce domaine que les véritables
formes économiques postcapitalistes émergeront. L’État britannique
avait favorisé la croissance du capitalisme industriel au début du e
siècle en fixant de nouvelles règles, mais, de nos jours, la
combinaison de l’État et de sociétés hautement réglementées ne
créerait que le cadre du prochain système économique, pas sa
substance.
Laisser certaines forces du marché disparaître
Dans une société hautement connectée, orientée vers la
consommation et dans laquelle la population adopte un modèle de
besoins économiques centré sur l’individu, ce n’est pas les marchés
qu’il faut blâmer. C’est ce qui différencie fondamentalement un
postcapitalisme basé sur les technologies de l’information d’un autre,
basé sur la planification. Il n’y a aucune raison de faire disparaître
les marchés qui fonctionnent par diktat, du moment que l’on
supprime les déséquilibres de pouvoir classiques que le terme
« marché libre » dissimule.
Une fois que les entreprises n’ont plus le droit de fixer des prix de
monopole et qu’un revenu de base universel est instauré (voir ci-
dessous), le marché devient porteur de l’effet « coût marginal nul »,
qui se manifeste par une diminution du temps de travail dans la
société.
Mais, pour contrôler la transition, il est nécessaire d’envoyer
quelques messages clairs au secteur privé, dont le plus important de
tous : le profit découle de l’esprit d’entreprise, pas de la rente.
De nos jours, l’acte d’innover et de créer (qu’il s’agisse d’un
nouveau type de moteur d’avion ou d’un morceau de musique à
succès) est récompensé par la capacité de l’entreprise à réaliser des
gains à court terme, que ce soit par une augmentation des ventes ou
une diminution des coûts. Mais les brevets et la propriété
intellectuelle sont conçus de telle sorte qu’ils arrivent rapidement à
terme. Ce principe est déjà reconnu dans la pratique, malgré les
objections des avocats d’Hollywood et des géants pharmaceutiques.
Les brevets sur les médicaments expirent au bout de vingt ans et
soufrent souvent de défauts d’application avant cette échéance, car
certains pays produisent des médicaments sans reconnaître le
brevet, ou parce que, comme dans le cas du VIH, les détenteurs du
brevet acceptent d’autoriser l’utilisation de médicaments génériques
face à des besoins humains pressants.
Il faut par ailleurs encourager une exploitation accrue des licences
Creative Commons, selon lesquelles les inventeurs et les créateurs
renoncent d’emblée et volontairement à certains droits. Si, comme
nous l’avons proposé précédemment, les gouvernements insistent
pour que les résultats de la recherche financée par l’État puissent
être exploités gratuitement – ce qui ferait passer tout ce qui est
produit avec des fonds publics dans la sphère publique –, l’équilibre
de la propriété intellectuelle dans le monde basculerait rapidement
d’un usage privé à un usage commun. Les personnes qui ne sont
motivées que par le gain matériel continueraient à créer et à innover,
car le marché continuerait à récompenser l’esprit d’entreprise et le
génie. Mais, comme il correspond à une société où le taux
d’innovation devient exponentiel, la période de récompense sera
plus courte.
Le seul secteur où il est impératif de supprimer complètement les
forces du marché est celui de la distribution d’énergie en gros. Pour
répondre rapidement au changement climatique, l’État doit
nationaliser le réseau de distribution d’énergie ainsi que tous les
grands fournisseurs d’énergie à base de carbone. Ces sociétés sont
déjà vouées à disparaître, car la majorité de leurs réserves ne
peuvent être brûlées sans détruire la planète. Afin d’encourager les
investissements dans les énergies renouvelables, ces technologies
doivent être subventionnées ; par ailleurs, les entreprises qui
fournissent ces énergies doivent rester, dans la mesure du possible,
hors du giron de l’État.
Cela pourrait se faire tout en maintenant le prix global de l’énergie
à destination des consommateurs à un montant élevé afin de
supprimer la demande et de les contraindre d’adopter de nouveaux
comportements. Il est tout aussi important de repenser la façon dont
les ménages consomment l’énergie. L’objectif est de décentraliser le
marché de l’énergie du côté des consommateurs, de façon à ce que
des technologies telles que la production combinée de chaleur et
d’électricité et les réseaux de production locaux puissent prendre
leur essor.
À chaque étape, l’efficacité énergétique serait récompensée et
l’inefficacité punie, depuis la conception des bâtiments, l’isolation et
le chauffage jusqu’aux réseaux de transport. Il existe un large
éventail de techniques éprouvées sur le marché, mais, en
décentralisant et en permettant aux communautés locales de
conserver les gains d’efficacité qu’elles réalisent, il devient possible
d’exploiter les forces du marché de l’énergie au détail pour atteindre
un objectif défini et mesurable.
Mais, au-delà de l’énergie et des services publics essentiels, il est
important de laisser une large place à ce que Keynes appelait
l’« esprit animal » de l’innovateur. Une fois que les technologies de
l’information auront totalement imprégné le monde physique, chaque
innovation nous rapprochera du monde où la quantité de travail
nécessaire est de zéro.

Socialiser le système financier


Prochain élément majeur de la technologie sociale : le système
financier. La complexité financière est au cœur de la vie économique
moderne. Les instruments financiers tels que les contrats à terme et
les options ainsi que les marchés mondiaux extrêmement liquides
contribuent en partie à cette complexité. La relation nouvelle que
nous, travailleurs et consommateurs, entretenons avec le capital
financier ajoute à cette complexité. C’est pour cette raison qu’à
chaque crise financière les États sont contraints de renforcer la
garantie implicite de renflouement dont bénéficient les banques, les
fonds de pension et les assureurs.
Sur le plan éthique, si l’on partage la responsabilité des risques
encourus, alors les bénéfices doivent l’être aussi. Il n’est cependant
pas nécessaire de faire disparaître toute complexité financière. Les
marchés financiers complexes, qui conduisent à la spéculation et qui
accélèrent inutilement la circulation de l’argent, sont maîtrisables.
Les mesures suivantes seraient plus efficaces si elles étaient prises
à l’échelle mondiale, mais il est plus probable, compte tenu du
scénario décrit au chapitre 1, que chaque État devra les mettre en
œuvre individuellement, et ce, de toute urgence. Les voici :
1. Nationaliser la banque centrale, en lui fixant un objectif de
croissance durable dans les faits et un indice d’inflation situé
dans le haut de la moyenne récente. Cela nous permettrait
de développer une forme de répression financière
socialement juste visant à amortir de manière contrôlée le
surendettement. Dans une économie mondiale composée
d’États ou de blocs monétaires, cela engendrerait des
conflits, mais, si un système économique appliquait ce type
de répression, comme sous Bretton Woods, les autres pays
devraient suivre. En plus de ses fonctions habituelles –
politique monétaire et stabilité financière –, une banque
centrale doit se fixer un objectif de pérennité : toutes les
décisions doivent être étudiées en fonction de leur impact
climatique, démographique et social. Bien entendu, ses
gérants devront être élus et auditionnés de manière
démocratique. La politique monétaire des banques centrales
– probablement l’outil politique le plus puissant du
capitalisme moderne – deviendrait explicite, transparente et
placée sous contrôle politique. Lors des dernières étapes de
la transition, la banque centrale et la monnaie auront un rôle
différent, sur lequel je reviendrai.
2. Refondre le système bancaire et en faire un mélange de
services publics dont les taux de profit sont plafonnés, de
banques locales et régionales à but non lucratif, de
coopératives de crédit et de prêteurs peer-to-peer, ainsi que
de prestataires de services financiers appartenant à l’État.
L’État devra explicitement se positionner comme prêteur de
dernier ressort pour ces banques.
3. Permettre aux activités financières complexes de continuer,
mais dans un cadre extrêmement réglementé. L’objectif
serait de faire en sorte que le système financier mondial
puisse, à court ou moyen terme, retrouver son rôle de
toujours : répartir efficacement le capital entre les
entreprises, les secteurs, les épargnants et les prêteurs, etc.
La réglementation fera l’objet d’une simplification par rapport
au traité de Bâle III, car elle s’appuiera sur une application
stricte des lois pénales et des codes professionnels dans les
domaines bancaires, comptables et juridiques. Valoriser
l’innovation et pénaliser, donc décourager, la course à la
rentabilité en seront les principes directeurs. Par exemple, le
fait pour un comptable agréé ou un avocat qualifié de
proposer un système d’évasion fiscale ou pour un fonds
spéculatif de stocker de l’uranium dans un entrepôt pour faire
grimper son prix au comptant constituerait une violation de
l’éthique professionnelle. Dans des pays tels que le
Royaume-Uni, Singapour, la Suisse et les États-Unis, dont
les secteurs financiers sont mondialisés, les gouvernements
pourront proposer un accord selon lequel, en échange d’une
relocalisation concrète et transparente, un nombre limité de
sociétés de prêteur de dernier recours seraient mises à la
disposition des sociétés financières à haut risque et à but
lucratif restantes. Ceux qui n’ont pas été relocalisés et qui
continueront de dissimuler leurs activités seront considérés
comme des terroristes de la finance. Après leur avoir
proposé une amnistie aux conditions raisonnables, nous les
traquerons et les supprimerons.

Ces mesures à court terme pourraient désamorcer la crise à long


terme de la finance mondiale, mais elles ne constituent pas encore
la base d’un véritable système financier postcapitaliste.
Un projet postcapitaliste ne cherche pas, à l’opposé des
fondamentalistes de l’argent, à supprimer le système de réserves
fractionnaires. D’une part, si on revenait à des systèmes comme
l’étalon-or en tant que solution à court terme contre la
financiarisation, la demande s’effondrerait. D’autre part, nous avons
besoin de créer du crédit et de gonfler la masse monétaire pour
réduire l’endettement qui étouffe la croissance.
Notre tâche la plus urgente est de sauver la mondialisation en
tuant le néolibéralisme. Un système bancaire socialisé et une
banque centrale orientés vers le développement durable pourraient
le faire en utilisant la monnaie fiduciaire, qui, comme nous l’avons vu
au chapitre 1, fonctionne tant que les gens ont confiance en l’État.
Cependant, au cours de la longue transition vers le
postcapitalisme, ce nouveau système financier devra franchir un
obstacle de taille. La création de crédit ne fonctionne que si elle fait
croître le secteur du marché ; en effet, l’emprunteur doit pouvoir
rembourser le prêt avec des intérêts. Si le secteur non marchand
commence à croître plus rapidement que le secteur marchand, le
fonctionnement interne de la banque s’effondre. À ce stade, si nous
voulons maintenir une économie complexe, où le système financier
agit en temps réel comme une chambre de compensation servant à
satisfaire une multitude de besoins, l’État (via la banque centrale)
devra se charger de créer de la monnaie et de fournir des crédits,
comme le préconisent les partisans de la « monnaie positive8 ».
Mais l’objectif n’est pas d’instaurer une sorte de capitalisme
mythique qui soit perpétuellement stable, mais plutôt de faciliter la
transition vers une économie où beaucoup de choses sont gratuites,
et où les retours sur investissement se font sous une combinaison
de formes monétaires et non monétaires.
Une fois le processus achevé, la monnaie et le crédit tiendront un
rôle beaucoup moins important dans l’économie ; les fonctions de
comptabilité, de compensation et de mobilisation des ressources
actuellement assurées par les banques et les marchés financiers
existeront sous une forme institutionnelle différente. C’est l’une des
principales difficultés de la transition vers le postcapitalisme.
Voilà comment, selon moi, nous pourrions résoudre ce problème.
L’objectif est de conserver des marchés à la fois complexes et
liquides d’instruments négociables, tout en supprimant la possibilité
de remboursement sous forme monétaire (car le système de profit et
de propriété disparaît). On pourrait s’inspirer de ce qui s’est passé
avec le carbone.
Bien que la création d’un marché du carbone n’ait pas permis de
réaliser suffisamment de progrès dans la lutte contre le changement
climatique, elle n’a cependant pas été inutile. À l’avenir, nous
pourrions voir apparaître toutes sortes d’instruments socialement
utiles échangés, comme les résultats en matière d’innovations
médicales, par exemple. Si l’État peut créer un marché du carbone,
il peut créer un marché pour n’importe quoi. Il jouit de la possibilité
d’exploiter les forces du marché pour nous faire adopter de
nouveaux comportements, mais il faudra bien un jour qu’il confère à
ces instruments – qui constituent, en fait, une monnaie parallèle – un
pouvoir d’achat supérieur à celui de l’argent réel.
Plus la population délaissera l’argent au fur et à mesure du
remplacement du marché par une forme de production collaborative,
plus elle sera encline à adopter un genre de « certificat
technologique », jusqu’à ce qu’un dispositif d’offre et de demande de
biens et de services piloté par l’État soit mis en place, comme
Bogdanov l’avait envisagé dans L’Étoile rouge.
À court terme, le but n’est pas de réduire la complexité de la
finance, comme le souhaitent les fondamentalistes de la monnaie, ni
de stabiliser le système bancaire, mais de développer la forme la
plus complexe de finance capitaliste compatible avec une
progression de l’économie vers une automatisation poussée, une
quantité de travail réduite et une abondance de biens et de services
bon marché ou gratuits.
Une fois l’énergie et la banque socialisées, l’objectif à moyen
terme serait de maintenir une part aussi importante que possible du
secteur privé hors du monde de la finance, et de permettre à nombre
d’entreprises diverses et innovantes d’intégrer cette part.
Le néolibéralisme, avec sa grande tolérance pour les monopoles,
a étouffé l’innovation et la complexité. Si l’on supprimait les
monopoles technologiques et les banques, on pourrait alors créer un
espace dynamique à destination des petites entreprises. Ces
entreprises permettraient aux technologies de l’information de tenir
leurs promesses.
Si nous le souhaitions, le secteur public pourrait déléguer
quelques-unes de ses fonctions à des sous-traitants, à condition
qu’aucune forme de concurrence par les salaires et les conditions de
travail ne soit pratiquée. Valoriser la concurrence et la diversification
du secteur des services se traduirait notamment par la nécessité,
dès lors qu’il n’est plus possible de réduire continuellement les
salaires, d’innover de sorte à réduire le nombre d’heures de travail.
Ce qui nous amène à ce qui constitue sans doute le plus grand
changement structurel nécessaire à l’instauration du
postcapitalisme : un revenu de base universel garanti par l’État.
Donner à tout le monde un revenu universel
En soi, la politique du revenu universel n’a rien de révolutionnaire.
Divers projets pilotes et autres modèles ont été présentés, souvent
par la droite et parfois par le centre gauche, pour remplacer les
allocations familiales et ainsi réduire les dépenses administratives.
Mais, dans le cadre du projet postcapitaliste, l’objectif du revenu de
base est révolutionnaire : il s’agit (a) de formaliser la séparation du
travail et du salaire, et (b) de subventionner la transition vers une
quantité de travail socialement nécessaire toujours plus courte. Cela
aurait pour effet de mutualiser les coûts de l’automatisation.
Le principe est simple : toute personne en âge de travailler reçoit
de l’État un revenu de base, sans contrepartie, financé par l’impôt et
qui remplace les allocations de chômage. Les autres types de
prestations sociales accordées en fonction des besoins, telles que
les allocations familiales ou les allocations d’invalidité, continueraient
d’exister, mais constitueraient des compléments plus modestes au
revenu de base.
Pourquoi payer des individus pour le simple fait d’exister ? Parce
que nous devons accélérer de manière radicale le rythme du progrès
technologique. Si, comme le suggère l’étude de l’Oxford Martin
School, 47 % de tous les emplois d’une économie avancée sont
amenés à disparaître à cause de l’automatisation, cela aura pour
conséquence, dans un contexte néolibéral, une augmentation
considérable du nombre de personnes en situation précaire.
Un revenu de base payé à partir des impôts sur l’économie de
marché donne à chaque individu la possibilité de bâtir sa carrière et
de trouver une place dans l’économie non marchande. Ce
revenu lui permettra de faire du bénévolat, de créer des
coopératives, de modifier Wikipédia, d’apprendre à utiliser un logiciel
de conception 3D ou tout simplement de vivre. Il lui permettra
d’espacer les périodes de travail, d’entrer ou de sortir plus tard ou
plus tôt de la vie professionnelle, ou encore de passer plus
facilement d’un emploi stressant à la cadence infernale à un autre,
plus calme. Son coût fiscal serait élevé : c’est pourquoi toutes les
tentatives d’adoption de cette mesure qui sont réalisées hors du
cadre d’un projet de transition mondiale ont toutes les chances
d’échouer, malgré le nombre croissant de publications scientifiques
et de congrès mondiaux qui lui sont consacrés9.
À titre d’exemple concret, au Royaume-Uni, les allocations coûtent
160 milliards de livres par an, dont environ 30 milliards sont destinés
aux personnes handicapées, enceintes, malades, etc. Les
bénéficiaires les plus démunis sont les retraités, qui reçoivent
environ 6 000 livres par an en tant que retraite de base.
Donner 6 000 livres à 51 millions d’adultes par an coûterait
306 milliards de livres, soit près du double. Supprimer certaines
exonérations fiscales et opérer des changements sur d’autres
formes de dépenses publiques permettrait peut-être d’atteindre cet
objectif, mais cela nécessiterait la mise en œuvre d’importants
moyens.
Le revenu de base prouve qu’il y n’a pas assez de demande par
rapport à l’offre en termes d’emploi, et qu’il faut donc injecter des
« liquidités » dans le mécanisme qui distribue l’offre. L’éducateur,
comme l’avocat, doit pouvoir échanger des heures de travail
pleinement rémunérées contre des « heures de temps libre »
financées par l’État.
Supposons qu’au Royaume-Uni nous fixions le revenu de base à
6 000 livres et que nous faisions monter le salaire minimum à
18 000 livres. Les avantages du travail sont évidents, mais il y a
aussi des avantages à ne pas travailler : on peut s’occuper de ses
enfants, écrire des poèmes, retourner à l’université, prendre en
charge sa maladie chronique ou dispenser des formations.
Dans ce système, personne ne sera stigmatisé s’il ou elle ne
travaille pas. Le marché du travail favoriserait les emplois les mieux
rémunérés et les employeurs qui paient le mieux.
Le revenu de base universel est donc un remède à ce que
l’anthropologue David Graeber appelle les bullshit jobs : ces emplois
de service mal rémunérés que le capitalisme a réussi à créer au
cours des vingt-cinq dernières années, qui avilissent le travailleur et
dont on pourrait probablement se passer10. Mais il ne s’agit là que
d’une mesure transitoire de la première étape du projet
postcapitaliste.
L’objectif est de réduire au maximum les heures de travail
nécessaires à la production de ce dont l’humanité a besoin. Une fois
cet objectif atteint, l’assiette fiscale du secteur marchand de
l’économie sera trop faible pour financer le revenu de base. La
nature des salaires devenant de plus en plus sociale, ceux-ci
prendraient la forme de services fournis collectivement, ou
disparaîtraient purement et simplement.
Ainsi, en tant que mesure postcapitaliste, le revenu de base est la
première prestation sociale de l’Histoire dont le succès se fait à
mesure que son montant approche zéro.

Déchaîner le réseau
Le projet socialiste prévoyait une longue première étape au cours de
laquelle l’État devait supprimer le marché par la force ; le résultat
était censé se traduire par une réduction progressive des heures de
travail nécessaires pour préserver et alimenter l’humanité. Par la
suite, les progrès technologiques devaient permettre de fabriquer
des choses à un faible coût, voire gratuitement, donnant ainsi lieu à
la phase 2 : le « communisme ».
Je suis certain que les travailleurs de la génération de ma grand-
mère se souciaient davantage de la phase 1 que de la phase 2, et à
raison. Dans une économie essentiellement fondée sur les biens
matériels, le seul moyen de rendre les maisons plus accessibles
était que l’État les construise, les possède et les loue en échange
d’un loyer modéré. Le coût était l’uniformité : il était interdit
d’entretenir soi-même la maison, de l’améliorer, ou même de peindre
la porte d’une autre couleur. Pour ma grand-mère, qui avait vécu
dans un bidonville puant, l’interdiction de peindre la porte était bien
peu de chose.
Dans le contexte du projet postcapitaliste, l’objectif de la première
phase consiste à offrir des choses tout aussi concrètes et décisives
qu’a pu l’être le logement social de ma grand-mère, avec son jardin
et ses murs solides. À cette fin, beaucoup de choses peuvent être
réalisées en changeant la relation entre le pouvoir et l’information.
Le capitalisme de l’information exploite une forme d’asymétrie : les
multinationales tirent leur pouvoir sur le marché du fait qu’elles en
savent plus, plus que leurs clients, leurs fournisseurs et leurs petits
concurrents. Selon le principe élémentaire inhérent au
postcapitalisme, vouloir exploiter l’asymétrie de l’information est une
erreur, sauf lorsqu’il s’agit de vie privée, d’anonymat et de questions
de sécurité. En outre, nous devrions viser comme objectif
l’introduction de l’information et de l’automatisation dans les types
d’emplois où elles n’ont pas encore été adoptées parce que la main-
d’œuvre bon marché supprime la nécessité d’innover.
Dans une usine automobile moderne, il y a une chaîne de
production, et il y a encore des ouvriers avec des clés et des forets.
Cela étant, la chaîne de production gère intelligemment ce que font
les travailleurs ; un écran d’ordinateur leur indique quelle clé utiliser,
un appareil les avertit s’ils prennent la mauvaise, et l’action est
enregistrée quelque part sur un serveur.
Seule l’exploitation justifie le fait que les techniques
d’automatisation les plus performantes ne soient pas appliquées, par
exemple, dans une usine à sandwiches ou dans une usine de
conditionnement de viande. En fait, ces modèles commerciaux
existent uniquement parce qu’il existe une main-d’œuvre bon
marché, non syndiquée et qu’elle peut bénéficier d’avantages
sociaux associés aux bas salaires. Dans de nombreuses industries,
on fait appel aux anciennes méthodes disciplinaires (horaires
imposés, obéissance, assiduité, hiérarchie) propres au lieu de travail
pour la seule raison que le néolibéralisme empêche l’innovation.
Mais, technologiquement parlant, ces méthodes sont inutiles.
Dans les entreprises du secteur de l’information, la gestion à
l’ancienne commence à devenir obsolète. Gérer signifie organiser
des ressources que l’on peut contrôler (des personnes, des idées et
des choses) pour produire un résultat attendu. Mais de nombreux
résultats bénins des économies de réseau sont produits de manière
spontanée. Et le processus humain capable de traiter ces résultats
au mieux, c’est le travail d’équipe, que l’on appelait autrefois
« coopération ».
Plus précisément : les équipes collaboratives, autogérées et non
hiérarchisées constituent la forme de travail la plus avancée sur le
plan technologique. Pourtant, une grande partie de la main-d’œuvre
est piégée dans un monde d’amendes, de discipline, de violence et
de hiérarchies de pouvoir, simplement parce que l’existence d’une
culture de main-d’œuvre bon marché lui permet de survivre.
L’un des objectifs principaux du processus de transition consiste à
déclencher une troisième révolution administrative : susciter l’intérêt
des cadres, des syndicats et des concepteurs de systèmes
industriels à propos des opportunités que recèle l’adoption d’un
mode de travail d’équipe en réseau, modulaire et non linéaire.
« Le travail ne peut pas devenir loisir », disait Marx11. Mais
l’atmosphère des studios de jeux vidéo modernes prouve que travail
et loisir peuvent s’alterner assez librement et produire des résultats.
Au milieu des guitares, des canapés et des tables de billard
recouvertes de piles de boîtes à pizza vides, il subsistera toujours
une forme d’exploitation. Mais un mode de travail modulaire, axé sur
les objectifs et grâce auquel les employés jouissent d’un haut degré
d’autonomie, peut se révéler moins aliénant, plus social, plus
agréable, et donner de meilleurs résultats.
Rien, si ce n’est notre dépendance à l’égard de la main-d’œuvre
bon marché et de l’inefficacité, n’empêche une entreprise de
conditionnement de viande de bénéficier du même mode de travail
non géré et modulaire, où le travail est littéralement entrecoupé de
loisirs et où l’accès aux informations en réseau est un droit. L’un des
signes les plus révélateurs de l’impasse dans laquelle se trouve le
néolibéralisme est l’hostilité de nombreux gérants du e siècle et de
la plupart des investisseurs à l’égard de l’idéal d’un travail hautement
productif et épanouissant. Pour les dirigeants des entreprises
d’avant 1914, c’était carrément une obsession.
Au fur et à mesure que nous poursuivons ces objectifs, un modèle
général est susceptible d’émerger : la transition vers le
postcapitalisme est alimentée par des découvertes surprenantes,
réalisées par des groupes de personnes travaillant en équipe sur les
améliorations qu’ils peuvent apporter aux anciens processus, le tout
en adoptant un mode de réflexion collaborative et en exploitant la
puissance des réseaux.
Ce que nous recherchons, ce sont des avancées technologiques
rapides qui rendent les choses moins chères à produire et qui
profitent à l’ensemble de la société. Dans une économie en réseau
(de la banque centrale à la coopérative de logement locale), la tâche
des nœuds de décision consiste à comprendre l’interaction entre les
réseaux, les hiérarchies, les organisations et les marchés ; à les
modéliser dans différents états, à proposer un changement, à en
surveiller les effets et à orienter leurs décisions en conséquence.
Mais, malgré toutes nos tentatives de rationalisation, il ne s’agira
pas d’un processus contrôlé. La capacité la plus précieuse que les
réseaux (et les individus qui les composent) possèdent, c’est de
pouvoir perturber tout ce qui se trouve au-delà du réseau.
Confrontés à la pensée de groupe et à la nécessité du compromis,
que ce soit dans la phase de conception d’un projet économique ou
dans son exécution, les réseaux représentent un outil formidable qui
nous permet non seulement d’exprimer notre désaccord, mais aussi
de faire sécession et de créer notre propre alternative.
N’ayons pas honte d’être utopistes. Les entrepreneurs les plus
talentueux des débuts du capitalisme, eux, n’en avaient pas honte,
tout comme les pionniers de la libération humaine.
Quel en sera le résultat ? Ce n’est pas la bonne question à poser.
Si l’on regarde le graphique du PIB par habitant du chapitre 8, on
constate que la courbe est plate pendant toute l’histoire de
l’humanité jusqu’à la révolution industrielle, période durant laquelle la
courbe s’envole avant de devenir exponentielle dans certains pays
après 1945. Le postcapitalisme n’est que la fonction de ce qui se
passe quand elle devient complètement verticale partout. Il ne fait
que marquer un début.
Lorsque l’évolution technologique exponentielle passera des
puces électroniques à l’alimentation, aux vêtements, aux systèmes
de transport et aux soins de santé, le coût de reproduction de la
force de travail diminuera de manière spectaculaire. À ce stade, le
problème économique qui a défini l’histoire de l’humanité va
s’effacer, voire disparaître. Dès lors, nous devrons assurer la
durabilité de l’économie et, au-delà de celle-ci, nous pencher sur les
interactions entre les modèles concurrents de la vie humaine.
Ainsi, au lieu de se demander à quoi ressemblera son état final, il
est plus important de se demander comment nous pouvons faire
face à des revirements de situation, ou comment sortir d’une
impasse.
L’une des principales difficultés à surmonter réside dans la
manière d’enregistrer l’expérience d’un échec à l’aide de données
persistantes qui nous permettent de retracer nos étapes, de les
modifier et d’en tirer des leçons pour l’ensemble de l’économie. En
matière de mémoire, les réseaux souffrent d’inefficacité ; ils sont
conçus de telle sorte que la mémoire et l’activité se trouvent dans
deux parties différentes de la machine. Les hiérarchies sont douées
pour se rappeler, il sera donc essentiel de trouver comment retenir et
traiter ces leçons. La solution peut être aussi simple que d’ajouter
une fonction d’enregistrement et de stockage à toutes les activités,
tant celle du café du coin que celle de l’État. Le néolibéralisme, avec
son amour de la destruction créatrice, s’est volontiers passé de la
fonction mémoire ; qu’il s’agisse des décisions prises « depuis le
canapé » par Tony Blair ou du démantèlement des anciennes
structures d’entreprise, personne n’avait intérêt à laisser de trace
écrite.
En fin de compte, tout ce que nous essayons de faire, c’est
d’amener la plus grande partie possible de l’activité humaine dans
une phase où le travail nécessaire pour soutenir une vie humaine
très riche et complexe sur la planète diminue, et où le temps libre
augmente. Dans le processus, la division entre les deux devient
encore plus floue.

Sommes-nous en train de rêver ?


Il serait très facile de reculer devant l’ampleur de la tâche. On
pourrait également se demander s’il est possible que, après
cinquante ans de crise, l’entrée dans un nouveau cycle de
cinq cents ans soit effectivement en cours. Ou encore, si les lois, les
marchés et les modèles commerciaux peuvent vraiment évoluer de
façon spectaculaire et égaler en puissance les technologies de
l’information. Et surtout, est-il réaliste de penser que nous, pauvres
petits individus insignifiants, puissions réellement peser sur la
balance ?
Pourtant, chaque jour, une grande partie de l’humanité joue son
rôle dans une transformation bien plus importante qui a été
déclenchée par un autre type de technologie : la pilule contraceptive.
Nous assistons à la disparition unique et irréversible du pouvoir
biologique masculin. Il en résulte un traumatisme majeur :
remarquez le trolling sur Twitter et Facebook dont sont victimes des
femmes de pouvoir, ou encore les campagnes de harcèlement
comme le GamerGate visant à pénétrer leur psyché et à détruire leur
santé mentale. Mais, petit à petit, les femmes se libèrent.
Le fait que nous soyons capables de voir un système d’oppression
sexiste vieux de quarante mille ans commencer à se dissoudre sous
nos yeux et que nous considérions encore la suppression d’un
système économique vieux de deux siècles comme une utopie
irréaliste est absurde.
Nous sommes à un tournant majeur de l’Histoire : celui d’une
transition contrôlée au-delà du marché libre, au-delà du carbone, au-
delà du travail obligatoire.
Qu’advient-il de l’État ? Il perd probablement de son pouvoir au fil
du temps, et ses fonctions finissent par être assurées par la société.
J’ai essayé de faire en sorte que ce projet soit accessible aussi bien
aux personnes qui considèrent l’État utile qu’à celles qui ne le
pensent pas ; on pourrait aussi créer une version anarchiste et une
version étatiste du projet, puis les essayer. Il existe probablement
même une version conservatrice du postcapitalisme, mais je ne suis
pas sûr qu’elle fasse l’unanimité.

Libérer les 1 %
Qu’arrive-t-il aux 1 % ? Ils deviennent plus pauvres, donc plus
heureux. Parce qu’être riche, c’est dur.
En Australie, on voit les femmes du 1 % faire leur jogging entre
Bondi et la plage de Tamarama chaque matin, vêtues de lycra bon
marché rendu plus cher par l’ajout de, sans grande surprise, lettres
d’or. Selon leur idéologie, elles ont réussi, car elles sont uniques,
alors qu’en fait elles se ressemblent et se comportent de la même
manière.
Pendant que le monde tourne, les salles de sport éclairées au
petit matin et situées à mi-hauteur des gratte-ciel de Shanghai et de
Singapour accueillent des hommes d’affaires qui s’épuisent sur les
tapis de course en prévision d’une journée de compétition avec leurs
semblables. En Asie centrale, les riches, protégés par leurs gardes
du corps, entament une nouvelle journée d’escroqueries à l’échelle
du monde.
Au-dessus, dans les cabines de première classe des vols long-
courriers, l’élite mondiale dérive, le visage scotché à son ordinateur
portable et figé dans un froncement de sourcils qui trahit une
certaine routine. Elle est l’image vivante de ce que le monde est
censé être : éduquée, tolérante, prospère. Pourtant, la voilà exclue
de cette grande expérience de communication sociale que
l’humanité est en train de mettre en scène.
Seuls 8 % des PDG américains ont un vrai compte Twitter.
Certes, un subordonné peut s’en occuper, mais les règles relatives
à la transparence fiscale et à la cybersécurité empêchent les
puissants d’avoir de vrais comptes. En matière d’idées, ils sont libres
de penser ce qu’ils veulent tant que c’est en adéquation avec la
doctrine néolibérale : les meilleurs gagnent grâce à leur talent ; le
marché est l’expression de la rationalité ; les travailleurs du monde
développé sont trop paresseux ; taxer les riches est inutile.
Convaincus que seuls les êtres doués d’intelligence réussissent,
ils envoient leurs enfants dans des écoles privées coûteuses pour
affiner leur individualité. Seulement, ils en sortent tous pareils : des
versions miniatures de Milton Friedman et de Christine Lagarde. Ils
fréquentent les universités de l’élite, mais les noms fantaisistes
imprimés sur les sweats à capuche des universités (Harvard,
Cambridge, MIT) ne signifient rien. Autant imprimer « Standard
Neoliberal University » (« université néolibérale de base »). Le sweat
à capuche typique des grandes universités, c’est le badge d’entrée
dans ce monde en carton-pâte.
Derrière tout cela se cache un doute permanent. Ils pensent que
le capitalisme est bon parce qu’il est dynamique, mais ce
dynamisme ne se fait vraiment sentir que là où la main-d’œuvre bon
marché est abondante, la démocratie réprimée et les inégalités en
augmentation. Vivre dans un monde si isolé, dominé par le mythe de
l’unicité, mais en réalité si uniforme et avoir constamment peur de
tout perdre est difficile, et je ne plaisante pas.
Pour couronner le tout, ils savent pertinemment à quel point ce
monde a failli s’effondrer et à quel point tout ce qu’ils possèdent
encore a été payé par l’État, qui les a renfloués.
Aujourd’hui, l’idéologie de la bourgeoisie du monde occidental est
synonyme de libéralisme social, d’engagement dans les beaux-arts,
dans la démocratie et dans l’État de droit, de dons à des œuvres
caritatives, de dissimulation du pouvoir et de retenue étudiée.
Le danger est que, à mesure que la crise se prolonge,
l’engagement de l’élite dans le libéralisme disparaisse. Les escrocs
et autres dictateurs des pays émergents qui ont réussi ont acheté
leur influence et leur crédibilité : il suffit de franchir la porte de
certains cabinets d’avocats, de consultants en relations publiques et
même d’entreprises pour en mesurer toute l’influence.
Combien de temps faudra-t-il avant que la culture de l’élite
occidentale ne se mette à refléter les comportements de Poutine et
Xi Jinping ? On en entend déjà parler sur certains campus : « Le
modèle chinois comme preuve que le capitalisme fonctionne mieux
sans démocratie » est devenu un sujet de débat assez fréquent.
L’autosatisfaction des 1 % risque de disparaître et d’être remplacée
par une oligarchie pure et dure.
Mais il y a de bonnes nouvelles. Les 99 % viennent à la
rescousse. Le postcapitalisme vous libérera.
Notes
Introduction

1. http://www.worldbank.org/en/country/moldova/overview
2. « Policy challenges for the next 50 years », OCDE, 2014.
3. http://openeurope.org.uk/blog/greece-folds-this-hand-but-long-term-game-of-
poker-with-eurozone-continues/
4. L. Cox et A. G. Nilsen, We Make Our Own History, Londres, Pluto Press, 2014.
5. http://oll.libertyfund.org/titles/2593#Thelwall_RightsNature1621_16
6. M. Castells, Alternative Economic Cultures, BBC Radio 4, 21 octobre 2012.
7. D. Mackie, et al., « The Euro-area Adjustment: About Halfway There »,
JP Morgan, 28 mai 2013.

Partie 1

1. C. Kindleberger, Comparative Political Economy: A Retrospective, Cambridge


(MA), MIT Press, 2000, p. 319.

1. Le néolibéralisme ne fonctionne plus


1. P. Mason, « Bank Balance Sheets Become Focus of Scrutiny », 28 juillet 2008,
http://www.bbc.co.uk/blogs/newsnight/paulmason/2008/07/bank_balance_sheets_
become_foc.html
2. http://money.cnn.com/2007/11/27/news/newsmakers/gross_banking.fortune/
3. P. Mason, Meltdown: The End of the Age of Greed, Londres, Verso, 2010.
4. http://www.telegraph.co.uk/finance/financetopics/davos/9041442/Davos-2012-
Prudential-chief-Tidjane-Thiam-says-minimum-wage-is-a-machineto-destroy-
jobs.html
5. http://ftalphaville.ft.com/2014/02/07/1763792/a-lesson-from-japans-falling-real-
wages/ ; http://www.social-europe.eu/2013/05/real-wages-in-the-eurozone-not-a-
double-but-a-continuing-dip/ ; http://cep.lse.ac.uk/pubs/download/cp422.pdf
6. D. Fiaschi et al., « The Interrupted Power Law and the Size of Shadow
Banking », 4 avril 2014, http://arxiv.org/pdf/1309.2130v4.pdf
7. http://www.theguardian.com/news/datablog/2015/feb/05/global-debt-has-grown-
by-57-trillion-in-seven-years-following-the-financial-crisis
8. http://jenner.com/lehman/VOLUME%203.pdf p 742
9. http://www.sec.gov/news/studies/2008/craexamination070808.pdf p12
10. http://www.investmentweek.co.uk/investment-week/news/2187554/-done-for-
boy-barclays-libor-messages
11. J. M. Keynes, The General Theory of Employment, Interest and Money,
Cambridge, 1936, p. 293:
http://www.marxists.org/reference/subject/economics/keynes/general-
theory/ch21.htm
12. http://www.ftense.com/2014/10/total-global-debt-crosses-100-trillion.html
13. http://www.internetworldstats.com/emarketing.htm
14. http://cleantechnica.com/2014/04/13/world-solar-power-capacity-increased-35-
2013-charts/
15. L. Summers, « Reflections on the New Secular Stagnation Hypothesis », in
C. Teulings et R. Baldwin (ed.), Secular Stagnation: Facts, Causes, and Cures,
CEPR Press, 2014.
16. R. Gordon, « The Turtle’s Progress: Secular Stagnation Meets the
Headwinds » in Teulings et Baldwin (ed.), Secular Stagnation, op. cit.
17. http://www.constitution.org/mon/greenspan_gold.htm
18. http://www.treasury.gov/ticdata/Publish/mfh.txt
19. R. Duncan, The New Depression: The Breakdown of the Paper Money
Economy, Hoboken, Wiley & Sons, 2012.
20. http://www.washingtonpost.com/blogs/wonkblog/wp/2013/01/18/breaking-
inside-the-feds-2007-crisis-response/?wprss=rss_ezra-klein
21. http://www.economist.com/blogs/freeexchange/2011/08/markets-and-fed
22. http://www.multpl.com
23. http://www.federalreserve.gov/boardDocs/speeches/2002/20021121/default.ht
m
24. http://www.economist.com/blogs/freeexchange/2013/11/unconventional-
monetary-policy
25. D. Schlichter, Paper Money Collapse: The Folly of Elastic Money Hoboken,
Wiley & Sons, 2011.
26. D. Graeber, Debt: the first 5 000 years, New York, Melville House, 2011.
27. G. R. Krippner, « The Financialization of the American Economy », Socio-
Economic Review, 3, 2 (mai 2005), p. 173.
28. C. Lapavitsas, « Financialised Capitalism: Crisis and Financial Expropriation »,
RMF Paper 1, 15 février 2009
29. A. Brender et F. Pisani, Global Imbalances and the Collapse of Globalised
Finance, Bruxelles, CEPS, 2010.
30. F. Braudel, Civilization and Capitalism, 15th-18th Century: The Perspective of
the World, Berkeley, University of California Press, 1992, p. 246.
31. « Perspectives de l’économie mondiale », FMI, octobre 2013.
32. A. Brender et F. Pisani, op. cit., p. 2.
33. B. Eichengreen, « A Requiem for Global Imbalances » Project Syndicate,
13 janvier 2014.
34. http://www.tradingeconomics.com/china/foreign-exchange-reserves
35. http://www.imf.org/external/np/sta/cofer/eng/
36. L. Floridi, The Philosophy of Information, Oxford University Press, 2013, p. 4.
37. M. Foucault, The Birth of Biopolitics. Lectures at the Collège de France, 1978-
79, traduit par. G. Burchell, New York, Palgrave Macmillan, 2008.
38. http://www.techopedia.com/definition/29066/metcalfes-law
39. « Measuring the Internet Economy: A Contribution to the Research Agenda »,
OCDE, 2013
40. H. Braconier, G. Nicoletti et B. Westmore, « Policy Challenges for the Next 50
Years », OCDE, 2014

2. Cycles longs et mémoire courte

1. N. Kondratiev, « Letter, 17 novembre 1937 », dans N. Makasheva, W. Samuels


et V. Barnett (ed.), The Works of Nikolai D. Kondratiev, Londres, Routledge, 1998,
vol. IV, p. 313.
2. Makasheva, Samuels et Barnett (ed.), op. cit., vol. I, p. 108
3. E. Mansfield, « Long Waves and Technological Innovation », The American
Economic Review, 73 (2) (1983), p. 141, http://www.jstor.org/stable/1816829?
seq=2
4. G. Lyons, The Supercycle Report (Londres, 2010)
5. C. Perez, « Financial Bubbles, Crises and the Role of Government in
Unleashing Golden Ages », in A. Pika et H.P. Burghof, (ed.), Innovation and
Finance, Londres, Routledge, 2013.
6. N. Kondratiev, The Long Wave Cycle, traduction par G. Daniels, Dutton, New
York, 1984, pp. 104-105.
7. Ibid., p. 99.
8. Ibid., p. 68.
9. Ibid.
10. Ibid., p. 93.
11. https://www.marxists.org/archive/trotsky/1923/04/capdevel.htm
12. Kondratiev, « The Long Wave Cycle », p. xx
13. Makasheva, Samuels et Barnett (ed.), Nikolai D. Kondratiev, op.cit., vol. I,
p. 116.
14. Ibid., p. 113.
15. J. L. Klein, « The Rise of “Non-October” Econometrics: Kondratiev and Slutsky
at the Moscow Conjuncture Institute », History of Political Economy, 31:1, 1999,
pp. 137-168.
16. E. Slutsky, « The Summation of Random Causes as the Source of Cyclical
Processes » Econometrica, 5 (1937), pp. 105-146, cité dans V. Barnett,
« Chancing an Interpretation: Slutsky’s Random Cycles Revisited », European
Journal of the History of Economic Thought, 13:3, 2006, p. 416.
17. J.L. Klein, « Rise of “Non-October” Econometrics », op. cit., p. 157.
18. Slutsky, in J.L. Klein, op. cit., p. 156.
19. Pour une synthèse des critiques sur les statistiques que Kondratiev a
formulées, voir R. Metz, « Do Kondratiev Waves Exist ? How Time Series
Techniques Can Help to Solve the Problem », Cliometrica, 5, 2011, pp. 205-238.
20. A. V. Korotayev et S. V. Tsirel, « A Spectral Analysis of World GDP Dynamics:
Kondratiev Waves, Kuznets Swings; Juglar et Kitchin Cycles dans Global
Economic Development and the 2008-09 Economic Crisis », Structure and
Dynamics, 4 (1), 2010.
21. C. Marchetti, « Fifty Year Pulsation in Human Affairs: An Analysis of Some
Physical Indicators », Futures, 17 (3), 1987, p. 376.
22. J. Schumpeter, Business Cycles: A Theoretical, Historical and Statistical
Analysis of the Capitalist Process, New York, 1939, p. 82.
23. Ibid., p. 213.
24. C. Perez, Technological Revolutions and Finance Capital: The Dynamics of
Bubbles and Golden Ages, Cheltenham, Elgar Publishing, 2003, p. 5.
3. Marx avait-il raison ?
1. K. Marx, Le Capital, vol. 3, Chicago, 1990,
http://www.marxists.org/archive/marx/works/1894-c3/ch15.htm
2. https://www.marxists.org/archive/marx/works/1894-c3/ch27.htm
3. K. Marx, Préface de Contribution à la Critique de l’économie politique, Moscou,
1977, http://www.marxists.org/archive/marx/works/1859/critique-pol-
economy/preface-abs.htm
4. K. Kautsky, La Lutte des classes : le programme socialiste (1892), traduit par
William E. Bohn et Charles H. Kerr, Chicago, 1910, p. 83.
5. H. et J. M. Tudor, Marxism and Social Democracy: The Revisionist Debate,
1896-8, Cambridge University Press, 1988.
6. G. Kolko, The Triumph of Conservatism: A Reinterpretation of American History
1900-1916, New York, 1963.
7. http://www.slate.com/articles/technology/technology/features/2010/the_great_a
merican_information_emperors/how_theodore_vail_built_the_att_monopoly.html
8. http://www.hbs.edu/faculty/Publication%20Files/07-011.pdf
9. L. Peters, « Managing Competition in German Coal, 1893-1913 », The Journal
of Economic History, 49/2, 1989, pp. 419-433.
10. H. Morikawa, Zaibatsu: Rise and Fall of Family Enterprise Groups in Japan,
Tokyo, University of Tokyo Press, 1992.
11. Kolko, op. cit.
12. K. O’Rourke, « Tariffs and Growth in the Late 19 th Century », The Economic
Journal, 110, 2000, pp. 456-483.
13. http://www.worldeconomics.com/Data/MadisonHistoricalGDP/Madison%20Hist
orica%20GDP%20Data.efp
14. http://www.marxists.org/archive/hilferding/1910/finkap/preface.htm
15. P. Michaelides et J. Milios, « Did Hilferding Influence Schumpeter ? », History
of Economics Review, 41, hiver 2005, pp. 98-125.
16. https://www.marxists.org/archive/lenin/works/1916/oct/x01.htm
17. R. Luxemburg, The Accumulation of Capital, New Haven, Yale University
Press, 1951, p. 468.
18. bentinck.net, Berlin Cinemas, 1975
19. http://www.marxists.org/archive/lenin/works/1916/imp-hsc/ch10.htm
20. http://www.marxists.org/archive/bukharin/works/1917/imperial/15.htm
21. K. Kautsky, « Ultra-imperialism », Die Neue Zeit, septembre 1914,
http://www.marxists.org/archive/kautsky/1914/09/ultra-imp.html
22. M. Ried, « A Decade of Collective Economy in Austria », Annals of Public and
Cooperative Economics, vol. 5, 1929, p. 70.
23. E. Varga, « La dictature du prolétariat (problèmes économiques) », cité dans
H. Strobel, Socialisation in Theory and Practice, Londres, 1922, p. 150.
24. J. M. Keynes, The Economic Consequences of the Peace, New York, 1920,
p. 1. http://www.econlib.org/library/YPDBooks/Keynes/kynsCP1.html
25. E. Varga, The Great Crisis and its Political Consequences; Economics and
Politics. 1928-1934, Londres, 1935, p. 20.
26. http://www.marxists.org/archive/trotsky/1938/tp/tp-text.htm
27. http://www.marxists.org/archive/bukharin/works/1928/09/x01.htm
28. http://www.internationalviewpoint.org/spip.php?article1894
29. http://larrysummers.com/wp-content/uploads/2014/06/NABE-speech-
Lawrence-H.-Summers1.pdf
30. C. Perez, Technological Revolutions and Finance Capital: The Dynamics of
Bubbles and Golden Ages, op. cit.
31. Calculé à partir des données de la base de données Maddison concernant
1950, http://www.ggdc.net/maddison/oriindex.htm

4. Un cycle long et perturbé


1. A. Horne, Macmillan: The Official Biography, vol. II, Londres, 1989.
2. N. Crafts et G. Toniolo, « Postwar Growth: An Overview », dans N. Crafts et
G. Toniolo, Economic Growth in Europe since 1945, Cambridge University Press,
1996, p. 4.
3. Données extraites de la base de données Maddison
4. Crafts et Toniolo, Economic Growth in Europe, op. cit., p. 2.
5. S. Pollard, The International Economy since 1945, Londres, Routledge, 1997,
loc 232.
6. http://www.russellsage.org/sites/all/files/chartbook/Income%20and%20Earnings.
pdf
7. http://www.esri.go.jp/jp/workshop/050914/050914moriguchi_saez-2.pdf
8. G. Federico, Feeding the World: An Economic History of Agriculture 1800-2000
(Princeton University Press, 2008, p. 59; C. Dmitri, A. Effland and N. Conklin,
« The 20 th Century Transformation of US Agriculture and Farm Policy », USDA
Economic Information Bulletin 3, 2005.
9. C. T. Evans, « Debate in the Soviet Union ? Evgenii Varga and His Analysis of
Postwar Capitalism, 1946-1950 » Essays in History, 32, 1989, pp. 1-17.
10. E. Varga, Izmeneniia v ekonomike kapitalizm v itoge vtoroi mirovoi voiny,
Moscou, 1946.
11. http://www.marxist.com/TUT/TUT5-I.html
12. A. Crosland, The Future of Socialism, Londres, 1956.
13. P. Baran et P. Sweezy, Monopoly Capital, New York, Monthly Review Press,
1966.
14. http://external.worldbankimflib.org/Bwf/60panel2.htm
15. H. Hazlitt, « For World Inflation? », 24 juin 1944, dans H. Hazlitt, From Bretton
Woods to Inflation : A Study of Causes and Consequences, Chicago, Gateway
Books, 1984, p. 39.
16. J. A. Feinman, « Reserve Requirements: History, Current Practice, and
Potential Reform », Federal Reserve Bulletin, juin 1993, p. 587.
17. C. Reinhart et B. M. Sbrancia, « The Liquidation of Government Debt »,
National Bureau of Economic Research Working Paper 16893, March 2011, p. 21,
http://www.nber.org/papers/w16893
18. Ibid., p. 38.
19. I. Stewart, Organizing Scientific Research for War, An Administrative History of
the Office of Scientific Research and Development, Boston, 1948, p. 19.
20. Ibid., p. 59.
21. J. Gleick, The Information: A History, a Theory, a Flood, New York, Vintage,
2012.
22. A. Glyn et al., « The Rise and Fall of the Golden Age », WIDER Working Paper
43, avril 1988, p. 2.
23. http://www.nber.org/chapters/c9101.pdf p485
24. http://irps.ucsd.edu/assets/001/500904.pdf
25. A. Glyn et al, « The Rise and Fall of the Golden Age », op. cit., p. 112.
26. Ibid., p. 23.
27. Voir, par exemple, P. M. Garber, « The Collapse of the Bretton Woods Fixed
Exchange Rate System », dans M. Bordo and B. Eichengreen, A Retrospective on
the Bretton Woods System: Lessons for International Monetary Reform, University
of Chicago Press, 1993, pp. 461-494.
28. M. Ichiyo, « Class Struggle and Technological Innovation in Japan since
1945 », Notebooks for Study and Research, 5 (1987), p. 10.
29. « The Sick Man of the Euro » The Economist, 3 June 1999,
http://www.economist.com/node/209559
30. http://www.washingtonpost.com/blogs/worldviews/wp/2015/02/20/germanys-
economy-is-the-envy-of-europe-so-why-are-record-numbersof-people-living-in-
poverty/
31. G. Mayer, « Union Membership Trends in the United States », CRS Report for
Congress, 2004.
32. J. Vissier, « Union Membership Statistics in 24 Countries » Monthly Labor
Review, janvier 2006, p. 38, http://www.bls.gov/opub/mlr/2006/01/art3full.pdf
33. E. Stockhammer, « Why Have Wage Shares Fallen? A Panel Analysis of the
Determinants of Functional Income Distribution », Genève, International Labour
Office, 2013.
34. A. V. Korotaev et S. V. Tsirel, « A Spectral Analysis of World GDP Dynamics:
Kondratiev Waves, Kuznets Swings; Juglar and Kitchin Cycles in Global Economic
Development and the 2008-09 Economic Crisis », Structure and Dynamics, 4 (1),
2010.
35. http://www.tradingeconomics.com/united-states/bank-lending-rate
36. John F. Papp et al., « Cr, Cu, Mn, Mo, Ni, and Steel Commodity Price
Influences, Version 1.1 », Institut d’études géologiques des États-Unis, rapport
public 1257, 2007, p. 112.
37. http://www.imf.org/external/pubs/ft/fandd/2011/03/picture.htm
38. http://dollardaze.org/blog/?post_id=00565
39. www.the-crises.com
40. S. Khatiwada, « Did the Financial Sector Profit at the Expense of the Rest of
the Economy? Evidence from the United States », Genève, International Labour
Office, 2010.
41. http://unctadstat.unctad.org/TableViewer/tableView.aspx
42. http://unctadstat.unctad.org/TableViewer/tableView.aspx
43. D. McWilliams, « The Greatest Ever Economic Change » Gresham Lecture,
13 septembre 2012, http://www.gresham.ac.uk/lectures-and-events/the-greatest-
ever-economic-change
44. Voir, par exemple, S. Amin, Unequal Development: An Essay on the Social
Formations of Peripheral Capitalism, New York, Monthly Review Press, 1977.
45. D. Milanovic, « Global Income Inequality by the Numbers: In History and
Now », Policy Research Working Paper 6259, Banque mondiale, novembre 2012,
p. 13.
46. R. Freeman, « The New Global Labor Market », Focus, vol. 26 (1) (2008),
University of Wisconsin–Madison Institute for Research on Poverty,
http://www.irp.wisc.edu/publications/focus/pdfs/foc261a.pdf
47. S. Kapsos and E. Bourmpoula, « Employment and Economic Class in the
Developing World », ILO Research Paper 6, juin 2013.

Partie 2

1. K. Kelly, « New Rules for the New Economy », Wired, 5 septembre 1977,
http://www.archive.wired.com/wired/archive/5.09/newrules.html

5. Les prophètes du postcapitalisme

1. R. Singh, « Civil Aero Gas Turbines: Technology and Strategy » discours,


université de Cranfield, 24 avril 2001, p. 5.
2. J. Leahy, « Navigating the Future », Global Market Forecast 2012-2031, Airbus,
2011.
3. D. Lee et al., « Aviation and Global Climate Change in the 21 st Century »
Atmospheric Aviation, vol. 43, 2009, pp. 3520-3537.
4. M. Gell et al, « The Development of Single Crystal Superalloy Turbine Blades »,
Superalloys, 1980, p. 205.
5. http://www.mtu.de/en/technologies/engineering_news/others/Sieber_Aero_Engi
ne_Roadmap_en.pdf
6. Données du bilan comptable, SAS Institute/CEBR, juin 2013.
7. P. Drucker, Post-capitalist Society, New York, Harper Collins, 1993, p. 40.
8. Ibid., p. 175.
9. Ibid., p. 193.
10. Y. Peng, « Internet Use of Migrant Workers in the Pearl River Delta », dans P.-
L. Law (ed.), New Connectivities in China: Virtual, Actual and Local Interactions,
Dordrecht, Springer, 2012, p. 94.
11. P. Romer, « Endogenous Technological Change », Journal of Political
Economy, vol. 98, no. 5, pt 2 1990, pp. S71-S102.
12. Ibid. p. S 72.
13. Ibid. S71-S102.
14. http://www.billboard.com/biz/articles/news/digital-and-
mobile/1567869/business-matters-average-itunes-account-generates-just
15. D. Warsh, Knowledge and the Wealth of Nations: A Story of Economic
Discovery, New York, W.W. Norton & Co., 2007.
16. http://en.wikipedia.org/wiki/Apple_A7#cite_note-AnandTech-iPhone5s-A7-2
17. http://commons.wikimedia.org/wiki/File:Bill_Gates_Letter_to_Hobbyists.jpg
18. R. Stallman, Le manifeste GNU, mars 1985,
http://www.gnu.org/gnu/manifesto.html
19. http://gs.statcounter.com
20. http://www.businessinsider.com/android-market-share-2012-11
21. K. Kelly, ‘New Rules for the New Economy’, Wired, 5 September 1977,
http://www.wired.com/wired/archive/5.09/newrules.html
22. Ibid.
23. Ibid.
24. http://www.digitaltrends.com/mobile/history-of-samsungs-galaxy-phones-and-
tablets/
25. http://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-
2020.pdf
26. http://www.itu.int/en/ITU-D/Statistics/Pages/stat/default.aspx
27. Kelly, op. cit.
28. Ibid.
29. R. Konrad, « Trouble Ahead, Trouble Behind », cnet, 22 février 2002,
http://news.cnet.com/2008-1082-843349.html
30. Y. Benkler, The Weath of Networks: How social production transforms Markets
and Freedom, New Haven, Yale University Press, 2006.
31. Ibid.
32. http://en.wikipedia.org/wiki/Wikipedia:Wikipedians
33. https://wikimediafoundation.org/wiki/Staff_and_contractors
34. http://en.wikipedia.org/wiki/Wikipedia, consulté le 28 décembre 2013
35. http://www.alexa.com/topsites
36. www.monetizepros.com/blog/2013/analysis-how-wikipedia-could-make-2-8-
billion-in-annual-revenue/
37. K. Arrow, « Economic Welfare and the Allocation of Resources for Invention »,
dans The Rate and Direction of Inventive Activity: Economic and Social Factors,
NBER, 1962, pp. 609-626.
38. MEW (MarxEngelsWerke), vol. 29, Londres, 1987, p. 225.
39. M. Nikolaus dans K. Marx, Introduction to a Critique of Political Economy,
Harmondsworth, 1973, p. 9.
40. K. Marx, Introduction to a Critique of Political Economy, op. cit.
41. Ibid.
42. http://distantwriting.co.uk/TelegraphStations1862.html
43. S. Tillotson, « We May All Soon Be “First-class Men”: Gender and Skill in
Canada’s Early Twentieth Century Urban Telegraph Industry » Labor, 27,
printemps 1991, pp. 97-123.
44. Marx, Introduction générale à la critique de l’économie politique, op. cit.
45. P. Virno, « General Intellect » dans A. Zanini and U Fadini (eds.), Lessico
Postfordista (Milan, 2001), traduction.
46. Marx, Introduction générale à la critique de l’économie politique
47. N. Dyer-Witheford, Cyber-Marx: Cycles and Circuits of Struggle in High-
technology Capitalism, University of Illinois Press, 1999.
48. Y. Moulier-Boutang, Cognitive Capitalism, Cambridge, Polity Press, 2011,
p. 53.
49. http://ycharts.com/indicators/average_hourly_earnings
50. http://management.fortune.cnn.com/2012/02/13/nike-digital-marketing/
51. C. Vercellone, « From Formal Subsumption to General Intellect: Elements for a
Marxist Reading of the Thesis of Cognitive Capitalism » Historical Materialism, 15,
2007, pp. 13-36.
52. Dyer-Witheford, Cyber-Marx, op. cit.
53. J. Rifkin, The Zero Marginal Cost Society, New York, Griffin, 2014.
54. Voir P. Mason, « WTF is Eleni Haifa? » 20 décembre 2014,
http://www.versobooks.com/blogs/1801-wtf-is-eleni-haifa-a-new-essay-by-paul-
mason

6. Vers la machine gratuite

1. http://www.sns.gov.uk/Simd/Simd.aspx
2. http://www.econlib.org/library/Smith/smWN2.html#B.I,%20Ch.5,%20Of%20the%
20Real%20and%20Nominal%20Price%20of%20Commodities
3. A. Smith, Lectures on Jurisprudence, Oxford University Press, 1978, p. 351.
4. Voir, pour exemple, John F. Henry, « Adam Smith and the Theory of Value:
Chapter Six Considered », History of Economics Review, 31, hiver 2000.
5. http://www.econlib.org/library/Smith/smWN2.html
6. « Towards the Free Machine », http://www.econlib.org/library/Ricardo/ricP1.html
7. D. Ricardo, On the Principals of Politic Economy and Taxation, Londres, 1821,
ch. 30, http://www.econlib.org/library/Ricardo/ricP7.html
8. http://avalon.law.yale.edu/19th_century/labdef.asp
9. Pour un exposé complet des débats sur la valeur, voir I. I. Rubin, A History of
Economic Thought, Londres, Pluto Press, 1987.
10. http://www.cleanclothes.org/news/2013/11/20/clean-clothes-campaign-
disappointed-at-new-bangladesh-minimum-wage-level
11. Calculé à partir du salaire minimum en 2014, dont le montant est de
5300 Taka, contre une hausse du prix de détail de 34 Taka par kg.
12. Dans cette section, je vais suivre les grandes lignes de la théorie telle qu’elle a
été présentée dans A. Kliman, Reclaiming Marx’s « Capital »: A Refutation of the
Myth of Inconsistency, Plymouth, Lexington Books, 2007.
13. http://www.Icddrb.org/who-we-are/gender-issues/daycare
14. K. Allen, « The Butterfly Effect: Chinese Dorms and Bangladeshi Factory
Fires », Financial Times, 25 avril 2013, http://blogs.ft.com/ftdata/2013/04/25/the-
butterfly-effect-chinese-dorms-and-bangladeshi-factory-fires/ ?
15. J. Robinson, Economic Philosophy, Londres, Routledge, nouvelle édition,
2021.
16. A. Einstein, « Physics and Reality », Journal of The Franklin Institute, vol. 221,
1936, pp. 349-382.
17. OCDE, « Regards sur l’éducation 2014 : les indicateurs de l’OCDE », OCDE,
2014, p. 14.
18. L. Walras, Éléments d’économie politique pure ou théorie de la richesse
sociale, Londres, 1900, p. 399.
19. http://library.mises.org/books/William%20Smart/An%20Introduction%20to%20t
he%20Theory%20of%20Value.pdf
20. Walras, Éléments d’économie politique pure ou théorie de la richesse sociale,
op. cit., p. 6.
21. W. S. Jevons, « The Periodicity of Commercial Crises, and its Physical
Explanation », in R. L. Smyth (ed.), Essays in the Economics of Socialism and
Capitalism: Selected Papers Read to Section F of the British Association for the
Advancement of Science, 1886-1932, Londres, 1964, pp. 125-140.
22. C. Menger, Investigations into the Method of the Social Sciences with Special
Reference to Economics, traduction, F. J. Nock, New York, 1985, p. 177.
23. S. Keen, Debunking Economics : the Naked Emperor dethroned ? Londres,
Zed Books, 2011, loc 474.
24. Walras, Éléments d’économie politique pure ou théorie de la richesse sociale,
op. cit.
25. http://www.ibtimes.co.uk/game-thrones-purple-wedding-becomes-most-shared-
illegal-download-ever-1445057
26. J. Hagel et al., « From Exponential Technologies to Exponential Innovation »,
Deloitte, 2013.
27. N. Wiener, Cybernetics or Control and Communication in the Animal and the
Machine, Cambridge (MA), 1948, p. 132.
28. http://www.pitt.edu/~jdnorton/lectures/Rotman_Summer_School_2013/thermo_
computing_docs/Landauer_1961.pdf
29. R. Landauer, « The Physical Nature of Information », Physics Letters A, 217,
1996, p. 188-193.
30. http://spectrum.ieee.org/computing/hardware/landauer-limit-demonstrated
31. http://www.marxists.org/archive/marx/works/1857/grundrisse/ch15.htm
32. V. Naranje and K. Shailendra, « AI Applications to Metal Stamping Die Design:
A Review », World Academy of Science, Engineering and Technology, vol. 4,
2010.
33. OCDE, « Measuring the Internet Economy: A Contribution to the Research
Agenda », recherche sur l’économie numérique, OCDE, 226, publication de
l’OCDE, 2013.
34. http://dx.doi.org/10.1787/5k43gjg6r8jf-en
35. http://www.bls.gov/news.release/pdf/ocwage.pdf
36. C. B. Frey and M. A. Osborne, « The Future of Employment: How Susceptible
Are Jobs to Computerisation? », Oxford Martin School Working Paper, 2013, p. 38,
http://www.futuretech.ox.ac.uk/future-employment-how-susceptible-are-jobs-
computerisation-oms-working-paper-dr-carlbenedikt-frey-ms
37. A. Gorz Critique of Economic Reason, Londres, Verso, 2010, p. 127.

7. De sacrés fauteurs de troubles


1. R. Freeman, « The Great Doubling: Labor in the New Global Economy ». Usery
Lecture in Labor Policy, université d’Atlanta, GA, 2005.
2. T. Piketty, Capital in the twenty-first century, Harvard University Press, 2014.
3. http://newleftreview.org/II/21/fredric-jameson-future-city: « It seems easier for us
today to imagine the thoroughgoing deterioration of the earth and of nature than
the breakdown of late capitalism »
4. http://shanghaiist.com/2010/05/26/translated_foxconns_employee_non-su.php
5. Voir P. Mason, « WTF is Eleni Haifa? » 20 décembre 2014,
http://www.versobooks.com/blogs/1801-wtf-is-eleni-haifa-a-new-essay-by-paul-
mason
6. D. A. Galbi, « Economic Change and Sex Discrimination in the Early English
Cotton Factories », 1994, http://papers.ssrn.com/paper.taf?abstract_id=239564
7. A. Ure, The Cotton Manufacture of Great Britain Systematically Investigated,
vol. II (London, 1836), p. 176.
8. http://www.tandfonline.com/doi/pdf/10.1080/00236568508584785#.UeVsMBY9T
CE
9. K. Marx, Capital, vol. I, Ch. 15, Londres, 1887, p. 287.
10. F. Engels, The Condition of the Working-class in England, Londres, Penguin,
1987, loc 2990.
11. M. Winstanley, « The Factory Workforce », dans M. Rose (ed.), The
Lancashire Cotton Industry: A History since 1700 (Lancashire, 1996), p. 130.
12. W. Lazonick, Competitive Advantage on the Shop Floor (Harvard, 1990).
13. Engels, The Condition of the Working-class in England, op. cit.
14. B. Palmer, A Culture in Conflict: Skilled Workers and Industrial Capitalism in
Hamilton, Ontario, 1860-1914 (Montreal, 1979).
15. L’étude de Kealey sur le syndicat des mouleurs de Toronto montre qu’ils fixent
un taux horaire pour chaque nouveau modèle et l’imposent à l’ensemble de
l’industrie. Voir G. Kealey, « The Honest Working Man and Workers’ Control: The
Experience of Toronto Skilled workers 1860-1892 », Labor/Le Travail, 1 (1976),
p. 50.
16. Ibid., p. 39.
17. Ibid., p. 58.
18. F. W. Taylor, Principes d’organisation scientifique des usines, 1911, p. 18.
19. Ibid.
20. Ibid.
21. G. Friedman, « Revolutionary Unions and French Labor: The Rebels behind
the Cause; or, Why Did Revolutionary Syndicalism Fail? », French Historical
Studies, vol. 20, no 2, printemps 1997.
22. http://www.llgc.org.uk/ymgyrchu/Llafur/1926/MNS.pdf
23. V. I. Lenin, Que faire ?, 1902,
http://www.marxists.org/archive/lenin/works/download/what-itd.pdf
24. V. I. Lenin, « Imperialism and the Split in Socialism », dans V. I. Lenin,
Imperialism, the highest stage of Capitalism, Sydney, Resistance Books, 1999,
p. 131.
25. Cité dans A. Santucci, Antonio Gramsci, New York, Monthly Review Press,
2010, p. 156.
26. W. B. Yeats, « Easter 1916 »,
http://www.theatlantic.com/past/docs/unbound/poetry/soundings/easter.htm
27. http://www.spartacus.schoolnet.co.uk/TUcwc.htm
28. M. Ferro, October 1917 : a social history of the Russian Revolution, Londres,
Routledge, 1980, p. 151.
29. C. Goodrich, The Frontier of Control (New York, 1920), p. 264.
30. G. Orwell, « Looking Back on the Spanish War », dans G. Orwell, A Collection
of Essays New York, Harvest Book Harcourt, 1979, p. 201.
31. http://www.economist.com/node/21550764
32. C. W. Mills, « The Sociology of Stratification », dans I. L. Horowitz (ed.), Power
Politics & People: The Collected Essays of C. Wright Mills, Oxford, 1967, p. 309.
33. D. Bell, « The Capitalism of the Proletariat », Encounter, février 1958, pp. 17-
23.
34. http://www.marxists.org/reference/archive/marcuse/works/one-dimensional-
man/one-dimensional-man.pdf p33
35. S. Wright, Storming Heaven: Class Composition and Struggle in Italian
Autonomist Marxism Londres, Pluto Press, 2002, p. 54.
36. R. Alford, « A Suggested Index of the Association of Social Class and Voting »,
Public Opinion Quarterly, vol. 26, no. 3, automne 1962, pp. 417-425.
37. E. Hobsbawm, « The Forward March of Labour Halted », Marxism Today,
septembre 1978, p. 279.
38. R. Alquati, Sulla Fiat e Altri Scritti, Milan, 1975, p. 83.
39. A. Gorz, Critique of Economic Reason, op. cit., p. 55.
40. Ibid., p. 58.
41. J. Gorman, To Build Jerusalem: A Photographic Remembrance of British
Working Class Life, 1875-1950, Londres, Scorpion Cavendish, 1980.
42. R. Hoggart, The Uses of Literacy: Aspects of Working-Class Life, Londres,
1957.
43. G. Akerlof, J. Yellen and M. Katz, « An Analysis of Out-of-Wedlock
Childbearing in the United States », Quarterly Journal of Economics, vol. 111,
mai 1996, no 2.
44. C. Goldin and L. Katz, « The Power of the Pill: Oral Contraception and
Women’s Career and Marriage Decisions », NBER 7527, février 2000.
45. O. Ornati, « The Italian Economic Miracle and Organised Labor », Social
Research, vol. 30, no 4, hiver 1953, pp. 519-526.
46. Ibid.
47. P. Ginsborg, A History of Contemporary Italy: Society and Politics 1943-1988,
Londres, Palgrave Macmillan, 2003, pp. 298-299.
48. « ‘Class Struggle in Italy: 1960s to 70s », anonyme, prole.info
49. Lotta Continua, #18, novembre 1970, cité dans la même référence.
50. A. Glyn et al, « The Rise and Fall of the Golden Age », WIDER Working Paper
43, avril 1988, p. 2.
51. Ibid.
52. P. Myerscough, « Short Cuts », London Review of Books, vol. 35, no 1,
3 janvier 2013, p. 25.
53. http://www.bls.gov/fls/flscomparelf/lfcompendium.pdf
54. OIT.
55. C. Lapavitsas, « Financialised Capitalism: Crisis and Financial Expropriation »
RMF Paper 1, 15, février 2009.
56. Ibid.
57. http://homes.chass.utoronto.ca/~wellman/publications/littleboxes/littlebox.PDF
58. R. Sennett, The Culture of the New Capitalism, New Haven, Yale University
Press, 2005.
59. R. Sennett, The Corrosion of Character, New York, Norton, 1998.
60. A. Negri et M. Hardt, Declaration, ebook, 2012.
https://antonionegriinenglish.files.wordpress.com/2012/05/93152857-hardt-negri-
declaration2012.pdf
61. Y. Peng, « Internet Use of Migrant Workers in the Pearl River Delta »,
Knowledge, Technology, and Policy, 21, 2008, pp. 47-54.

Partie 3
1. G. Orwell, 1984, Londres, 1949.

8. Sur les transitions


1. A. Bogdanov, The Red Star, Bloomington, Indiana University Press, 1984, p. 65.
2. http://www.marxists.org/archive/lenin/photo/1908/007.htm
3. Cité dans J. E. Marot, « Alexander Bogdanov, Vpered and the Role of the
Intellectual in the Workers’ Movement », Russian Review, vol. 49 (3),1990,
pp. 241-264.
4. http://www.marxists.org/glossary/orgs/w/o.htm#workers-opposition
5. N. Krementsov, A Martian Stranded on Earth: Alexander Bogdanov, Blood
Transfusions and Proletarian Science, Chicago University Press, 2011.
6. R. Stites, « Fantasy and Revolution », dans Bogdanov, L’Étoile rouge, p. 15.
7. M. Ellman, « The Role of Leadership Perceptions and of Intent in the Soviet
Famine of 1931 », Europe-Asia Studies, vol. 57 (6), 2005, pp. 823-841.
8. https://www.marxists.org/reference/archive/stalin/works/1931/02/04.htm
9. M. Harrison « The Soviet Economy in the 1920 s and 1930s », Capital & Class,
2:2, 1978, pp. 78-94.
10. G. Ofer, « Soviet Economic Growth 1928-1985 », RAND/UCLA Center for the
Study of Soviet International Behavior, JRS-04, 1998.
11. H. Hunter, « A Test of Five-Year Plan Feasibility », dans J. Thornton, Economic
Analysis of the Soviet-Type System, Cambridge University Press, 1976, p. 296.
12. A. Kon, « Political Economy Syllabus », pp. 19-20, cité dans
Y. Preobrazhensky, The New Economics, Oxford University Press, 1965, p. 57.
13. V. Pareto, Cours d’économie politique, vol. 1, Lausanne, 1896, p. 59. Cité dans
J. Bockman, Markets in the Name of Socialism: The Left Wing Origins of
Neoliberalism, Stanford University Press, 2011.
14. E. Barone « The Ministry of Production in the Collectivist State », dans
F. Hayek (ed.), Collectivist Economic Planning: Critical Studies on the Possibilities
of Socialism, London, 1935, p. 245.
15. L. von Mises Economic Calculation in the Socialist Commonwealth, New York,
Ludwig von Mises Institute, 2014, p. 13.
16. Ibid., p. 14.
17. L. Robbins, The Great Depression, Londres, Routledge, 1934, p. 151.
18. O. Lange, « On the Economic Theory of Socialism », Review of Economic
Studies, vol. 4 (1) (1936), pp. 53-71.
19. Bockman, Markets in the Name of Socialism, op. cit.
20. Von Mises, Economic Calculation, op. cit., p. 22.
21. L. Trotsky, « The Soviet Economy in Danger », The Militant, Octobre 1932,
https://www.marxists.org/archive/trotsky/1932/10/sovecon.htm
22. L. Trotsky, The Soviet Economy in Danger, New York, 1932.
23. W. P. Cockshott et A. Cottrell, « Economic Planning, Computers and Labor
Values », publication scientifique, janvier 1999,
http://www.ecn.wfu.edu/socialism/aer.pdf
24. O. Yun, Improvement of Soviet Economic Planning, Moscou, 1988.
25. Cockshott et Cottrell, « Economic Planning, Computers and Labor Values, »,
op. cit., p. 7.
26. P. Cockshott, A. Cottrell et H. Dieterich, Transition to 21st Century Socialism in
the European Union, Lulu.com, 2010, pp. 1-20.
27. A. Gorz, Capitalism, Socialism, Ecology, Londres, Verso, 1994, p. 1.
28. J. M. Keynes, « The Economic Possibilities for our Grandchildren »,
in J. M. Keynes, Essays in Persuasion, New York, 1963, pp. 358-373.
29. D. Thompson, « The Economic History of the Last 2000 Years: Part II », The
Atlantic, 20 juin 2012.
30. http://www.plospathogens.org/article/info%3Adoi%2F10.1371%2Fjournal.ppat.
1001134
31. D. Herlihy, The Black Death and the Transformation of the West, Cambridge
(MA), Harvard University Press, 1997, p. 48.
32. E. L. Eisenstein, The Printing Revolution in early Modern Europe, Cambridge
University Press, 2005.
33. http://intersci.ss.uci.edu/wiki/eBooks/BOOKS/Bacon/Novum%20Organum%20
Bacon.pdf
34. P. M. Sweezy and M. Dobb, « The Transition from Feudalism to Capitalism »,
Science & Society, vol. 14 (2), 1950, pp. 134-167.
35. P. Anderson, Passages from Antiquity to Feudalism, Londres, Verso, 1974, loc
3815.
36. E. Preobrazhensky, The New Economics, op. cit., p. 79.

9. De bonnes raisons de s’inquiéter

1. http://www.cpesap.net/publications/en/
2. http://www.climatechange2013.org/images/uploads/WGI_AR5_SPM_brochure.p
df
3. J. Ashton, « The Book and the Bonfire: Climate Change and the Reawakening
of a Lost Continent », discours, musée suisse des transports, Lucerne, 19 janvier
2014.
4. « World Energy Outlook 2012’, IAE,
http://www.iea.org/publications/freepublications/publication/WEO2013_Executive_
Summary_English.pdf
5. http://carbontracker.live.kiln.it/Unburnable-Carbon-2-Web-Version.pdf
6. http://priceofoil.org/2014/10/28/insurers-warned-climate-change-affects-viability-
business-model/
7. http://sams.scientificamerican.com/article/dark-money-funds-climate-change-
denial-effort/
8. http://mobile.bloomberg.com/news/2014-11-02/fossil-fuel-budgets-suggested-to-
curb-climate-change.html?hootPostID=1bdb3b7bbbbb619db600e477f2c6a152
9. http://www.economist.com/news/briefing/21587782-europes-electricity-
providers-face-existential-threat-how-lose-half-trillion-euros
10. http://www.iea.org/techno/etp/etp10/English.pdf
11. http://www.greenpeace.org/international/en/campaigns/climate-
change/energyrevolution/
12. Ibid.
13. « Fifth Annual Report of the Registrar General », Londres, 1843.
14. « World Population Prospects: The 2012 Revision, Key Findings and Advance
Tables » ONU, 2013.
15. http://www.georgemagnus.com/articles/demographics-3/
16. « Annual Survey of Large Pension Funds and Public Reserve Pension
Funds », OCDE, octobre 2013.
17. M. Mrsnik et al, « Global Aging 2010: An Irreversible Truth »,
Standard & Poors, 7 octobre 2010.
18. N. Howe et R. Jackson, « How Ready for Pensioners? » Finance
& Development, FMI, juin 2011.
19. « World Population Prospects: The 2012 Revision », op. cit.
20. http://esa.un.org/unpd/wpp/Documentation/pdf/WPP2012_%20KEY%20FINDI
NGS.pdf
21. B. Milanovic, « Global Income Inequality by the Numbers: in History and
Now », Policy Research Working Paper 6259, Banque mondiale, novembre 2012.
22. G. Mognus, discours, IFC and Johns Hopkins Medicine International Health
Conference 2013,
http://www.ifc.org/wps/wcm/connect/620b56004f081ebf99242b3eac88a2f8/George
+Mognus’+Keynote+Speech+–+19 0313.pdf?MOD=AJPERES
23. D. H. Lawrence, Lady Chatterley’s Lover, London, 1928, p. 1.
24. http://www.huffingtonpost.com/2014/03/17/china-internet-
censorship_n_4981389.html
25. http://www.groupibi.com/2011/10/india-targets-36-billion-global-cosmetic-
surgery-market-cnbc-ibi-industry-news/

10. Projet Zéro


1. H. Simon. « Organisations and Markets », Journal of Economic Perspectives,
vol. 5 (2), 1991, pp. 25-44.
2. E. Preobrazhensky, The New Economics, op. cit., p. 55.
3. Voir, par exemple, P. Mason, « WTF is Eleni Haifa? », 20 décembre 2014,
http://www.versobooks.com/blogs/1801-wtf-is-eleni-haifa-a-new-essay-by-paul-
mason
4. V. Kostakis et M. Bauwens, Network Society and Future Scenarios for a
Collaborative Economy, Londres, Palgrave Pivot, 2014.
5. M. Wark, A Hacker Manifesto, Cambridge (MA), Harvard University Press, 2004.
6. Voir, par exemple, « Fair Society, Healthy Lives » (The Marmot Review), UCL
Institute of Health Equity, février 2010,
http://www.instituteofhealthequity.org/projects/fair-society-healthy-lives-the-
marmot-review
7. J. D. Farmer, « Economics Needs to Treat the Economy as a Complex
System », Crisis, décembre 2012.
8. J. Benes and M. Kumhof, « The Chicago Plan Revisited », IMF Working Paper
12/202, août 2012, https://www.imf.org/external/pubs/ft/wp/2012/wp12202.pdf
9. Voir http://www.degruyter.com/view/j/bis et
http://www.basicincome.org/bien/aboutbasicincome.html
10. D. Graeber « On the Phenomenon of bullshit jobs : a work rank », Strike !,
17 août 2013.
11. K. Marx, Introduction to a Critique of Political Economy, op. cit., pp. 207-750,
https://www.marxists.org/archive/marx/works/1857/grundrisse/ch/4.htm
Remerciements

Je tiens à remercier mon éditeur chez Penguin, Thomas Penn, ainsi


que les réviseurs Shan Vahidy et Bela Cunha. Merci également à
mon agent Matthew Hamilton, à Andrew Kidd, qui l’était avant lui et à
l’équipe d’Aitken Alexander. Je tiens à remercier les personnes et
organisations suivantes, qui m’ont permis de faire connaître les
premières versions de ce travail et de le soumettre à la critique : Pat
Kanen, lors du festival NESTA FutureFest ; Mike Haynes à
l’université de Wolverhampton ; Robert Brenner de l’UCLA Centre
for Social Theory and Comparative History ; Marianne Maeckelbergh
et Brandon Jourdan, lors de la conférence organisée par Global
Uprisings ! à Amsterdam en 2013 et à l’Opera North de Leeds. Je
remercie tout particulièrement Aaron Bastani, Eleanor Saitta, Quinn
Norton, Molly Crabapple, Laurie Penny, Antonis Vradis et Dimitris
Dalakoglou, Ewa Jasciewicz, Emma Dowling, Steve Keen, Arthur
Bough et Syd Carson du groupe Morson, qui ont nourri mes pensées
à propos des sujets abordés dans ce livre. Merci également à mon
rédacteur en chef à Channel 4 News, Ben De Pear, qui m’a accordé
un mois de congé sans solde pour terminer la première version ; à
Channel 4 pour m’avoir donné le recul nécessaire pour l’écrire ; et à
Malik Meer, le rédacteur en chef de G2 du Guardian, qui m’a offert
une place dans ses colonnes journalistiques pour tester certaines de
mes idées sur papier. Enfin, je remercie ma femme, Jane Bruton,
dont le soutien, l’amour et l’intelligence ont été indispensables à la
réalisation de ce livre.
*1. 1 % de la population détient deux fois la richesse de 90 % de la population, selon le rapport d’Oxfam
sur les inégalités, janvier 2020 (Ndé).
*1. Linux est un système d’exploitation open source qui a popularisé les logiciels libres (NdÉ).
*1. Débat dont la complexité est due à la transition du modèle américain après 1911 depuis un système qui
repose entièrement sur le monopole vers un système de concurrence réglementée entre les grandes
sociétés industrielles, dans lequel les véritables puissances monopolistiques sont concentrées à Wall
Street et au sein de la toute nouvelle Réserve fédérale. Tous ces changements furent à l’origine de
revendications antimonopolistes au sein de la droite américaine, revendications qui eurent pour effet de
dissimuler le fait que les monopoles étaient la norme aux États-Unis pendant la période concernée.
*1. Que l’on peut traduire par « Bureau de la recherche scientifique et du développement » (NdT).

*2. Jeu de mots : Carry On, nom de la franchise de films évoquée dans cette sous-partie, signifie aussi
« continuer » : « Continue, Keynes » (NdT).

*3. Les économistes ont pour coutume de comparer les prix à l’inflation ; en faisant de la sorte, on peut
remarquer que le prix du nickel et d’autres métaux ne change pas de manière significative sur la période
qui suit 1989, il va même jusqu’à baisser. Cependant, en analyse des cycles de longue durée, le but est de
voir l’inflation et la déflation, et non pas de les écarter.
*1. Aujourd’hui, 59,5 % de la population mondiale a accès à Internet (soit 4,6 milliards d’internautes) selon
l’étude « Digital Report 2021 » publiée par Hootsuite et We Are Social (NdÉ).

*2. Parfoit traduit par « intellect général » ou « savoir général » (Ndé).


*1. Que l’on pourrait traduire par « école de l’interprétation temporelle monosystème ». Les universitaires
de cette école de pensée ont montré que les prétendues incohérences du raisonnement de Marx
disparaissent lorsque l’on prend conscience que les procédés qu’il décrit se déroulent au fil du temps et
non pas de manière simultanée, à la manière des opérations réalisées à l’aide d’une feuille de calcul.

*2. L’un des aspects de la théorie de Marx semble ne pas tenir la route. L’augmentation de la productivité
ne doit-elle pas accroître la « qualité » du travail ? Presque toutes les nouvelles machines et les
restructurations des lieux de travail enrichissent le travail que nous effectuons. Mais insister sur le fait que
la valeur du travail reste inchangée par les gains de productivité n’est qu’une autre façon de dire que ce
sont les machines, les techniques de gestion et le savoir qui sont source de gains de productivité, et non
un changement dans la qualité du travail lui-même. Ces facteurs provoquent un effet « multiplicateur » sur
la main-d’œuvre humaine qui, elle, ne change pas.

*3. Le travail, dit Jevons, est probablement un mélange de plaisir et de douleur, mais la peur d’une plus
grande douleur, la faim, nous pousse à travailler chaque jour.

*4. Marx dit : « Imaginons qu’un capitaliste investisse 1 000 $, dont 200 $ en machines, et réalise un profit
de 50 $ annuels. Le coût de la machine est amorti en quatre ans, de ce fait, et en termes de valeur, c’est
comme si la valeur du capital n’était que de 800 $. »
*1. Les 196 parties sont parvenues à un accord le 12 décembre 2015, entré en vigueur le 4 novembre
2016, avec pour objectif de limiter le réchauffement climatique à un niveau inférieur à 2°C (NdÉ).

*2. Nigeria, Tanzanie, Congo, Éthiopie, Ouganda, Niger, plus l’Inde et les États-Unis.

Vous aimerez peut-être aussi