Vous êtes sur la page 1sur 184

© ODILE JACOB, OCTOBRE 2019

15, RUE SOUFFLOT, 75005 PARIS

www.odilejacob.fr

ISBN : 978-2-7381-5005-9

Le code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-


5 et 3 a, d'une part, que les « copies ou reproductions strictement réservées à
l'usage du copiste et non destinées à une utilisation collective » et, d'autre part,
que les analyses et les courtes citations dans un but d'exemple et d'illustration,
« toute représentation ou réproduction intégrale ou partielle faite sans le
consentement de l'auteur ou de ses ayants droit ou ayants cause est illicite » (art.
L. 122-4). Cette représentation ou reproduction donc une contrefaçon
sanctionnée par les articles L. 335-2 et suivants du Code de la propriété
intellectuelle.

Composition numérique réalisée par Facompo


Introduction

Le lundi 15 septembre 2008, la banque Lehman Brothers est déclarée en


faillite, une faillite de 639 milliards de dollars, la plus grosse de l’histoire
des États-Unis. Elle déclenche une chute brutale des Bourses et une
récession mondiale. Aux États-Unis, des millions d’Américains ne peuvent
plus rembourser leur crédit hypothécaire et se retrouvent à la rue. La
confiance dans les entreprises financières, banques et assurances, est
ébranlée dans le monde entier au point qu’elle devra être rétablie au cours
des années suivantes par tout un ensemble de nouvelles réglementations.
Le 31 janvier 2019, les 115 000 clients du fonds canadien Quadriga CX
apprennent que les 250 millions de dollars canadiens de cryptomonnaies,
l’équivalent de 180 millions d’euros, qu’ils ont achetées sur Internet au
promoteur du fonds, Gerald Cotten, se sont évanouies. Ils découvrent qu’ils
ont perdu tout cet argent car Gerald Cotten était le seul à connaître les codes
d’accès à ces cryptomonnaies et qu’il est décédé lors d’un voyage lointain
fin 2018 sans les communiquer à qui que ce soit.
Les médias en parlent quelques jours mais cela n’ébranle pas la
confiance des centaines de millions d’internautes.
Cela confirme que la confiance dans l’ensemble des applications
Internet traitant de finance et de monnaie est d’une autre nature que la
confiance dans les institutions financières, et ces deux types de confiances
vont se heurter dans le monde de la finance : c’est le choc des confiances.

La confiance réglementée contre


la confiance tacite
L’année 2008 a marqué un tournant dans deux domaines avec deux
événements à peu près simultanés mais indépendants :
la crise financière, démarrée en 2007, a culminé en 2008 en une crise
mondiale, la plus importante depuis celle des années 1930 ;
le lancement de l’iPhone en 2007-2008, suivi par de nombreux
concurrents, et le développement de l’Internet à haut débit à partir de
2010 ont enclenché une accélération de la révolution numérique dont on
mesure aujourd’hui l’importance.
Dans le cas du monde de la finance, la crise a créé une rupture de
confiance dans les institutions financières existantes qui a conduit les
autorités financières mondiales à mettre en place de nouvelles
réglementations nombreuses et strictes au cours des années suivantes pour
rétablir la confiance.
Dans le cas du développement des réseaux et de l’utilisation des
smartphones, ce développement est basé sur la confiance que font les
internautes aux sites avec lesquels ils communiquent, confiance qui est
généralement implicite et n’est pas réglementée, contrairement à la
confiance dans la finance.
Il s’ensuit un choc des confiances dont nous commençons à voir les
effets quand les entreprises de l’Internet, aussi bien les géants américains ou
chinois que les très nombreuses start-up, utilisent la confiance dont ils
bénéficient pour offrir des services financiers à leurs utilisateurs.
2008 : début de la rupture numérique
Il faut voir que la multiplication des smartphones et le développement
de l’Internet haut débit ont permis une accélération et un changement
d’échelle de la révolution numérique qui avait déjà commencé dans les
années 1940.
En 2008, la mutation numérique avait déjà plus d’un demi-siècle. Les
premiers ordinateurs avaient été construits juste après la Seconde Guerre
mondiale. Par exemple, en 1946, l’ENIAC, le premier ordinateur
entièrement électronique, était un monstre de plusieurs mètres cubes qui
servait principalement à l’armée américaine pour des calculs de tirs
balistiques. Sa performance se mesurait en milliers d’opérations par
seconde, à comparer aux mégaordinateurs d’aujourd’hui où il s’agit plutôt
de milliers de milliards d’opérations par seconde.
Mais depuis douze ans la donne mondiale a changé, sans doute plus que
dans les siècles qui ont suivi la première révolution industrielle, suscitant
une véritable rupture : pour la première fois, plusieurs milliards d’êtres
humains ont la possibilité d’avoir dans leur main un outil, le smartphone,
qui leur donne accès, presque partout et à tout moment, à une masse
d’informations, d’images, de services, de produits et, surtout, leur offre la
possibilité d’échanges verbaux, écrits et par images, avec un grand nombre
d’autres êtres humains ; en 2018, plus d’un humain sur deux pouvait avoir
accès à Internet, et cette proportion augmente tous les ans avec la diffusion
rapide des smartphones en Inde et en Afrique.
Pour la première fois, les petites et moyennes entreprises, y compris les
start-up, ont la possibilité d’accéder à cet immense réseau de clients
potentiels, au prix d’un investissement limité. Le stockage à distance des
programmes et des données économise les investissements en matériel
informatique, l’utilisation de modules de programmation accessibles
librement simplifie la programmation. Ensuite, l’utilisation des outils de
marketing sur les réseaux permet d’accéder à des millions de prospects et,
en cas de succès, d’acquérir en quelques mois un nombre de clients qu’il
aurait fallu des années pour fidéliser sans ces outils.
Pour la première fois aussi, ces réseaux ont contribué à un
bouleversement de la vie politique, mettant en question aussi bien le
fonctionnement des démocraties représentatives classiques que celui des
régimes autoritaires.
Dans ce contexte, la confiance joue un rôle essentiel. Chaque utilisation
d’Internet est en fait un acte de confiance : l’internaute doit accepter les
conditions générales d’une offre pour y avoir accès. Il le fait presque
toujours sans prendre le temps de lire ces conditions générales qui peuvent
occuper plusieurs pages d’écran. Et cette confiance se confirme plusieurs
milliards de fois chaque jour dans le monde.

Le règne des données


Quelles sont les données que peut fournir une utilisation d’Internet ?
Elles sont très nombreuses et parfois inattendues. Par exemple, pour un
achat payé par Internet, ce sera : l’adresse Internet de l’internaute et celle du
fournisseur du bien ou du service, le contenu de l’échange (nature, montant
de l’achat, éventuellement texte d’un message), la localisation de
l’internaute au moment de la transaction et l’heure de l’achat. Tout ou partie
de ces données peut être enregistré par le fournisseur du service par lequel
transite la communication. La plupart des sites laissent une trace dans le
smartphone de l’internaute, un petit programme appelé « cookie », qui
permet ensuite à ce site ou à d’autres de savoir quels sites l’internaute a
visités et de lui adresser une publicité adaptée à ses centres d’intérêt.
Dans le cas des réseaux sociaux, cela va plus loin encore. Par exemple
sur Facebook, les « like » marqués par un internaute sur les informations
qu’il a regardées et qui lui plaisent donnent un renseignement sur ses goûts
et sa personnalité. Une étude de chercheurs de Cambridge concluait en
2012 que 68 « likes » suffisaient pour donner à Facebook des informations
sur les caractéristiques principales de l’internaute, genre, opinions
politiques, etc., et qu’à partir de 300 « likes », Facebook le connaissait
mieux que ses proches les plus intimes, conjoint inclus.
Certains des géants des réseaux proposent de plus maintenant un
assistant personnel à domicile, fonctionnant par reconnaissance vocale et
matérialisé par une enceinte audio qui est également un récepteur de sons.
Une fois fait le test de reconnaissance de votre voix, il est possible de poser
à l’assistant vocal des questions comme : « OK Google, quel temps fera-t-il
ce soir à Londres ? », de lui donner des instructions, par exemple : « Alexa,
joue le deuxième mouvement du Concerto pour piano et orchestre
numéro 21 de Mozart » (Alexa étant l’assistant personnel que vend
Amazon), ou encore : « OK, Google, appelle mon bureau sur mon
portable. » Comme l’assistant personnel entend ce qui se passe autour de
l’enceinte acoustique qui est son support physique, il permet d’aller très
loin dans la connaissance de l’intimité des internautes par Google ou
Amazon. Et beaucoup d’internautes les utilisent et leur font confiance.
L’ensemble des données ainsi enregistrées représente une masse
considérable d’informations. Des techniques mathématiques et des
algorithmes ont été développés pour en extraire des tendances, ce qui
permet notamment d’adresser ensuite aux internautes de la publicité et des
offres encore mieux ciblées en fonction de leurs revenus, de leurs goûts, de
leur localisation, etc. La reconnaissance vocale permet même d’anticiper
ces besoins : ainsi, le smartphone peut afficher un message proposant un
restaurant à proximité dès que l’internaute l’a utilisé pour inviter quelqu’un
à déjeuner.
La croissance exponentielle des réseaux
Nous appellerons « réseaux sociaux » pour simplifier le système qui
regroupe les smartphones, l’Internet haut débit et toutes les entreprises qui
se sont développées sur leur utilisation. Cela comprend à la fois des géants
américains, tous différents mais que l’on regroupe par commodité sous le
terme de GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et des
géants chinois appelés les BATX (Baidu, Alibaba, Tencent, Xiaomi). Le
développement de ces géants a été permis par le rendement croissant des
réseaux. « Rendement croissant », cela veut dire que chaque nouvel
utilisateur augmente l’attractivité du réseau pour les utilisateurs suivants et
donc sa valeur. Le développement du réseau peut être exponentiel : par
exemple, Facebook affirme aujourd’hui avoir 2,4 milliards d’utilisateurs
dans le monde et Alibaba en Chine en a au moins 800 millions, soit deux
Chinois sur trois.
La puissance des réseaux joue aussi pour les start-up : une start-up
basée à Paris, Chefclub, qui diffuse des vidéos amusantes de recettes de
cuisine est arrivée en trois ans à obtenir jusqu’à un milliard de vues par
mois, par des internautes répartis dans plusieurs pays.
En plus des géants à activités multiples, il existe aussi un très grand
nombre d’entreprises nouvelles spécialisées, ayant créé des applications
utilisant les réseaux, certaines devenues des géants, comme Uber ou
Airbnb, et d’innombrables start-up dans tous les domaines. Toutes ces
entreprises ont commencé à bouleverser un certain nombre d’industries et
de professions comme le tourisme, l’hôtellerie, les transports, la médecine
ou le droit. Elles sont toutes fondées sur la confiance que leur accordent les
internautes. En ce qui concerne la finance, il existe déjà environ 300 start-
up dans ce domaine rien qu’en France.
La confiance des internautes est une confiance d’un nouveau type. Elle
existe, pour l’essentiel, en dehors des lois nationales et n’est protégée que
par l’autorégulation des fournisseurs de services. Or, pour la plupart de ces
entreprises, leur modèle économique est fondé précisément sur l’utilisation
des données fournies par les internautes. L’exploitation de ces masses de
données permet de cibler de manière beaucoup plus efficace à la fois la
publicité et les offres de produits de manière à en augmenter le rendement.
Les gestionnaires de réseaux sont donc confrontés à un conflit potentiel
entre leur propre intérêt commercial et le respect de la confidentialité des
données des internautes. De ce fait, la confiance qu’on peut accorder à leur
capacité d’autocontrôle pour l’utilisation des données est limitée.

La confiance et l’argent :
une question vieille comme l’humanité
En ce qui concerne la confiance dans la finance et plus généralement
dans l’argent, elle a une longue histoire depuis les origines de la vie des
hommes en société, c’est-à-dire depuis en fait la préhistoire et, en tout cas,
l’Antiquité. La confiance a toujours joué un rôle essentiel dans la fonction
de l’argent dans la société.
La valeur de l’argent, depuis les toutes premières formes de monnaies,
est basée sur deux qualités : c’est un moyen d’échange plus commode que
le troc, et c’est un moyen de conserver de la valeur pour un usage futur.
Qu’il s’agisse de coquillages ou des fèves de cacao qu’utilisaient les
Aztèques, il fallait que cette monnaie soit acceptée en paiement de biens ou
de services. Il fallait aussi pouvoir la conserver en sécurité de manière à
couvrir les besoins futurs. La valeur de l’argent reposait donc sur une
confiance indispensable dans les deux cas. Cette confiance indispensable a
été fondée par des moyens différents au fil de l’histoire des sociétés
humaines.
Pendant des siècles, la confiance dans l’argent a reposé sur sa
matérialisation par un métal précieux, l’or ou l’argent métal. C’est l’argent
qui était le plus utilisé à Athènes d’où la généralisation du mot « argent » à
toutes les formes, de monnaies. Les pièces métalliques étaient
transportables aisément, leur teneur en métal précieux vérifiable, mais
seulement par une pesée précise. Leur marquage par une image, par
exemple celle de la déesse Athéna, permettait de les authentifier. Il fallait
aussi que les citoyens grecs ou plus tard romains puissent mettre leur argent
à l’abri. L’équivalent des premières banques fut les caves des temples, lieux
très surveillés car il s’y trouvait aussi le trésor des prêtres. L’usage pour les
plus riches était de diviser les risques en répartissant leur argent entre
plusieurs divinités : déjà une forme de multibancarité…
Pour obtenir la confiance qui facilitait les échanges sans vérifier la
teneur en argent ou en or à chaque transaction, il a fallu l’autorité de celui
qui frappait monnaie, dont la marque garantissait la valeur d’échange des
pièces. C’était le cas à Athènes puis à Rome, et le fait d’avoir accès à des
mines de métal précieux était un des moyens contribuant à la puissance des
cités. Ainsi, c’est parce qu’Athènes avait accès aux mines d’argent de
Laurion que la cité a pu recruter les nombreux mercenaires qui ont permis
d’asseoir sa domination en Méditerranée.
Mais la confiance dans les monnaies d’or ou d’argent suppose que leur
teneur en métal précieux soit constante. Aussi, quand un royaume manquait
d’argent métal pour frapper les pièces de monnaie et financer ses dépenses,
la tentation était grande de mettre moins d’argent métal dans chaque pièce.
C’est ainsi que se sont faites les premières dévaluations. Au XIIIe siècle,
l’ambitieux roi capétien Philippe le Bel avait de grands besoins financiers
pour étendre et consolider le royaume de France. Des procès en hérésie et
autres crimes lui ont permis de confisquer le trésor des Templiers, mais ce
n’était pas suffisant. Il a donc réduit le poids d’argent dans les pièces sans
en changer le nominal, ce qui lui a permis de créer plus de monnaie pour
payer ses dépenses mais a détruit la confiance dans sa monnaie car il a fallu
rapidement au peuple plus de pièces pour acheter les mêmes biens.
A contrario, une monnaie métallique dont le contenu en métal précieux
était stable pouvait faire l’objet d’une confiance durable. Ce fut le cas du
thaler autrichien, pièce d’argent frappée à partir de 1750 par décision de
Marie-Thérèse de Habsbourg, avec son effigie. Marie-Thérèse de
Habsbourg, archiduchesse d’Autriche, a choisi de faire frapper des pièces
d’un thaler qui contenaient un poids d’argent suffisant pour avoir la même
valeur qu’un florin d’or. Ce poids ayant été strictement respecté, le thaler de
Marie-Thérèse a vite été très utilisé au-delà de l’Autriche dans tout
l’Empire ottoman et est devenu une monnaie internationale. La confiance
dans leur valeur augmentait la demande pour ces pièces, au point qu’en
1781, après la mort de Marie-Thérèse, une banque d’Augsbourg a obtenu
l’autorisation d’en frapper de grandes quantités, avec la même apparence, la
même date et surtout le même poids d’argent. Le « thaler de Marie-
Thérèse » est ainsi devenu une monnaie internationale pendant de
nombreuses années, largement utilisé dans les colonies espagnoles et
anglaises d’Amérique, en Afrique orientale et en Arabie. La confiance qui
expliquait ce succès était liée au fait que les monnaies qui circulaient
contenaient bien la quantité d’argent annoncée. C’est dit-on la raison du
choix du nom du dollar américain, « dollar » étant une déformation du nom
du thaler autrichien, ce qui rappelait la confiance dont ces pièces d’argent
bénéficiaient.

La monnaie fiduciaire marque le début


des temps modernes
L’utilisation des pièces d’or ou d’argent posait des problèmes pratiques,
et une difficulté de fond, celle de disposer de quantités suffisantes de métal
précieux pour produire une quantité de monnaie permettant le
développement des échanges.
Cela a conduit dès le XIe siècle en Chine (une invention de plus au crédit
des Chinois), puis à partir du XVIIe siècle en Europe, à Amsterdam, en
Suède, en Angleterre, à créer des monnaies « fiduciaires », pièces et billets,
dont la valeur intrinsèque était faible ou nulle, mais qui représentaient la
valeur d’une certaine quantité d’or. Cet or était détenu par l’émetteur de
cette monnaie et théoriquement échangeable contre elle sur simple
demande. Le terme même de « monnaie fiduciaire » exprime que la valeur
de cette monnaie est entièrement basée sur la confiance, fiducia en latin.
C’est la confiance dans le fait que cette monnaie pourrait être échangée
contre de l’or détenu par son émetteur.
En fait, la quantité de monnaie en circulation pouvait être supérieure à
celle de l’or détenu par l’émetteur tant que la confiance dont il bénéficiait
restait entière. La fonction d’émission de monnaie fiduciaire, c’est-à-dire de
billets de banque et de pièces, est progressivement devenue la fonction
d’une banque centrale, banque qui détenait les réserves d’or pour cette
monnaie.
La création de la monnaie fiduciaire a été une invention fondamentale
car elle a permis le développement des échanges qui, à leur tour, ont été la
clé du développement économique puis de la révolution industrielle des
trois derniers siècles. La monnaie fiduciaire aujourd’hui comprend les
billets de banque et les pièces, mais la monnaie qui permet les échanges, ce
qu’on appelle la masse monétaire, inclut aussi les dépôts dans les banques.
Les dépôts sont une forme d’argent car ils représentent un pouvoir potentiel
de dépenses. Les banques ont pu distribuer du crédit sans être obligées de
détenir de l’or en garantie, et la quantité de monnaie pouvait augmenter de
ce fait.
Le crédit bancaire crée de la monnaie : un crédit est un pouvoir d’achat
créé par la banque, au bénéfice de l’emprunteur. L’emprunteur s’en servira
par exemple pour payer des travaux, les entrepreneurs qui reçoivent l’argent
vont à leur tour le déposer en banque avant de l’utiliser, ce qui aura créé de
la monnaie et permis au passage des transactions supplémentaires.
Ainsi, la création de la monnaie fiduciaire puis des banques a permis de
financer les investissements et de développer le commerce sans que la
croissance soit limitée par le volume du stock physique d’or ou d’argent.
Bien entendu, cette création de monnaie ne pouvait pas être illimitée
sans risquer des conséquences fâcheuses, à commencer par la hausse des
prix et l’inflation.
L’invention de la monnaie fiduciaire a changé la nature des crises
économiques et financières.
Avant l’invention de la monnaie fiduciaire, les crises économiques
étaient souvent les conséquences d’un excès ou d’une pénurie d’or et
d’argent, seules bases des monnaies qui circulaient, en Europe, aux
Amériques et en Asie. Ainsi, les grandes découvertes du XVe et du
e
XVI siècle ont eu pour conséquence des variations importantes des quantités
d’or et d’argent importées en Europe et en Asie, avec chaque fois des effets
sur l’activité économique, expansion ou récession. Selon les volumes d’or
et d’argent, l’activité économique pouvait se développer, ou au contraire
reculer, car elle dépendait du volume d’argent pour le fonctionnement
même des échanges.
Avec l’invention de la monnaie fiduciaire et du crédit bancaire, la
création de monnaie devient potentiellement illimitée puisqu’elle n’a plus
de lien fixe avec une quantité physique d’or ou d’argent détenu par celui qui
en garantit la valeur, banque ou État.
À partir de ce moment, une crise financière peut survenir dès qu’il y a
une crise de confiance dans la monnaie.
Ce fut le cas quand la banque créée en France par John Law à l’époque
de la Régence, après la mort de Louis XIV, fit faillite en 1720. Cette banque
avait émis des quantités de billets supposés gagés sur le développement des
colonies françaises d’Amérique. L’argent devait éponger une partie des
dettes publiques considérables laissées à sa mort par le Roi-Soleil, en
attendant les richesses qui étaient supposées provenir de ces colonies.
L’excès d’émission de ces billets et l’absence des richesses espérées ont
conduit à la faillite de la banque, après qu’une panique eut révélé que les
billets émis n’étaient pas échangeables contre de l’argent.
Plus tard, ce fut la crise des assignats, des billets gagés théoriquement
sur les biens confisqués en 1789 sous la Révolution et émis par le Trésor en
attendant le produit de la vente des biens confisqués. Mais les assignats ont
rapidement été émis en masse pour financer la défense de la République,
pour un total sans commune mesure avec la valeur des biens confisqués et
mis en vente. Les gouvernements successifs entre 1789 et 1796 furent
incapables de maîtriser l’inflation et n’évitèrent la faillite qu’en imposant
un cours forcé aux assignats, ce qui permit de financer avec succès la
défense de la République. Mais il fallut bien reconnaître que les assignats
ne valaient plus grand-chose. Accessoirement, le cours forcé des assignats
avait permis à des bourgeois aisés d’acquérir à bon compte les biens
nationaux mis en vente. Cela a fait de cette bourgeoisie foncière un soutien
durable de la République qui les avait involontairement enrichis.
De crise financière en crise financière, la relation entre la confiance et
l’argent a été une histoire tourmentée.

L’invention utile des banques


et des assurances
Au fil de cette histoire, les banques et les assurances ont été créées par
des entrepreneurs, le plus souvent privés, pour assurer l’intermédiation
financière nécessaire au développement. Il s’agissait pour les banques de
réaliser l’intermédiation entre l’offre et la demande d’argent et pour les
assureurs l’intermédiation entre l’offre et la demande de protection contre
les risques. Cette intermédiation est utile dans les deux cas.
Les banques assurent l’intermédiation entre l’offre et la demande
d’argent : d’une part, l’offre d’argent est celle de ceux qui ne veulent pas
garder chez eux tout leur argent sous forme d’or ou de billets, mais
souhaitent pouvoir en disposer à tout moment, ce que permettent les dépôts
bancaires ou les placements ; d’autre part, la demande d’argent est celle des
particuliers et des entreprises qui souhaitent investir dans des biens
durables, maisons, usines.
Pour leur part, les assureurs s’engagent à couvrir les risques des
particuliers et des entreprises, risques liés à la santé et à la longévité, ou
risques matériels divers, en les mutualisant et en recevant en échange des
primes d’assurance qu’ils peuvent investir, en attendant d’avoir à payer si le
risque assuré se réalise.
Cette intermédiation est bénéfique pour l’économie car, dans les deux
cas, banques et assurances, l’offre et la demande ne se rencontrent ni dans
le temps ni dans l’espace, comme les deux exemples cités en témoignent.
En mutualisant leurs engagements sur un grand nombre de clients, la
banque et l’assurance peuvent financer les investissements et couvrir les
risques dans la durée et là où s’exprime la demande.
L’intermédiation est possible grâce à la confiance des clients : confiance
du client quand il confie ses économies à une banque, en sachant qu’il
pourra retirer son argent à tout moment alors que la banque l’a pourtant
prêté pour vingt ans à un autre client pour acheter sa maison ; confiance du
client quand il assure sa maison contre l’incendie ou qu’il souscrit une
assurance sur sa vie au bénéfice de sa famille et qu’il sait que l’assureur
honorera le contrat le jour venu alors que la prime versée a été investie dans
l’économie par l’assureur. Autrement dit, la confiance dans les entreprises
financières est indispensable pour qu’elles jouent leur rôle de financement
du développement au moindre coût pour la société.
Attention, confiance ne veut pas dire amour ! Dans beaucoup de pays,
dont la France, la finance est impopulaire car elle doit parfois dire « non »
en refusant d’accepter un risque jugé excessif et il est facile pour les
politiques de la rendre responsable de leurs propres faiblesses.
Les entreprises privées qu’étaient la plupart des banques et des
assurances au XIXe siècle devaient pouvoir survivre aux crises financières.
La confiance, indispensable à leur fonctionnement, supposait de leur part
une grande prudence dans leur gestion des risques. Cela n’a pas empêché
les crises financières qui se sont multipliées tout au long du XIXe siècle, en
France en Grande-Bretagne et aux États-Unis.
Pour les clients, la sécurité financière des banques ou des assurances
n’était pas garantie. La longévité des entreprises et la réputation des
actionnaires étaient des éléments de la confiance des clients. Un facteur
psychologique était l’importance du siège social, souvent monumental, pour
convaincre de la solidité de l’entreprise. Cela n’empêchait pas les faillites
en cas de crise mais, comme la pénétration des services financiers ne
dépassait pas la fraction la plus aisée de la population, leur poids dans
l’économie et les conséquences sociales et économiques directes d’une
faillite bancaire étaient relativement limités. Il n’en demeure pas moins que
chaque crise financière contribuait à pousser à la consolidation des banques
autour des plus solides d’entre elles.
Ce n’est que bien plus tard, au XXe siècle, à la suite de la grande crise
des années 1930, que des lois ont été votées, notamment aux États-Unis,
pour rétablir la confiance dans les banques et dans la Bourse.
La crise avait été déclenchée par la spéculation boursière, à une époque
où les banques américaines avaient le droit de placer les dépôts de leurs
clients en Bourse et où beaucoup d’Américains spéculaient en Bourse, mais
à crédit, en ne versant qu’une partie du prix d’achat des actions avant de les
revendre. Les cours des actions avaient beaucoup monté du fait de ces
achats par les banques et par leurs clients. Le jeudi 24 octobre 1929, les
ventes au New York Stock Exchange s’étaient multipliées, un début de
panique a été enrayé le vendredi par des achats en Bourse des banques.
Mais les ventes ont repris le lundi 28 et la panique s’est accélérée le mardi
29. Dans tout le pays, les Américains se sont précipités aux guichets des
banques pour retirer leur argent, ce qui a entraîné des faillites en chaîne. Ce
fut le début de la Grande Dépression. Celle-ci dura une bonne partie des
années 1930 jusqu’à la présidence de Franklin Roosevelt, qui relança
l’économie par un programme de grands travaux et de production de
matériel de guerre.
Dans les années 1930, un certain nombre d’institutions de
réglementation financière ont été créées par le gouvernement de Franklin
Roosevelt et le Congrès. Certaines existent encore, notamment la Federal
Deposit Insurance Corporation (FDIC), qui garantit les dépôts des banques
agréées, et la Securities and Exchange Commission (SEC) qui veille à la
bonne tenue des marchés financiers.
Il a fallu attendre les années suivant la Seconde Guerre mondiale pour
qu’ait lieu la bancarisation généralisée des populations dans les pays
développés et la mondialisation des circuits financiers. Le développement
économique s’est accompagné de celui de grandes banques internationales,
de plus en plus liées entre elles par leurs opérations et interdépendantes de
ce fait.

Années 1980 : première coordination


mondiale des régulateurs de la finance
C’est seulement dans les années 1980 que les banquiers centraux,
responsables dans leurs pays de la solidité financière des banques, ont jugé
indispensable de coordonner au niveau mondial les réglementations
nationales pour éviter la prise de risques excessifs par certaines grandes
banques, dont une faillite aurait des répercussions sur l’ensemble du
système financier mondial.
Cette coordination des réglementations, dont la mise en œuvre restait
une responsabilité de chaque État, a été assurée par le groupe des banquiers
centraux se réunissant chaque mois à Bâle, dans le cadre de la Banque des
règlements Internationaux (la BRI), qui est la banque des banques centrales.
Préoccupés par les risques de propagation à tout le système de la faillite
possible d’une grande banque, ils ont mis au point au milieu des années
1980 des règles communes de prudence, que chaque pays devait appliquer à
ses banques.
Les premiers règlements issus des réunions de Bâle imposaient aux
banques de disposer d’un niveau minimum de capital en proportion des
risques de perte sur les crédits consentis. Ces règles ont été révisées et
précisées dans les années suivantes, toujours dans le cadre des réunions des
banquiers centraux à Bâle, d’où le nom de Bâle II et Bâle III pour les
versions suivantes, de plus en plus complètes au fil des années.

Ainsi, depuis les premières monnaies d’or ou d’argent, de l’Antiquité


jusqu’au système financier globalisé d’aujourd’hui, l’argent ne peut jouer
son rôle dans la société et dans l’économie que grâce à la confiance. Et les
bases de cette confiance ont évolué pour suivre l’organisation de la société
et aboutir à un ensemble de réglementations, différentes selon les pays,
mais plus ou moins étroitement coordonnées afin de s’adapter à la
globalisation des échanges.
Ces réglementations ont été régulièrement durcies mais pas
suffisamment, cependant, pour éviter la crise de 2008.
En revanche, on peut constater qu’avec l’expérience les régulateurs de
la finance (les banques centrales et les États) ont limité les conséquences de
cette crise, en particulier si on compare leur gestion de la crise de 2007-
2008 à la Grande Dépression des années 1930. Au lieu de restreindre les
liquidités disponibles dans l’économie, ce qui avait transformé la crise
boursière de 1929 en dépression économique profonde et durable, les
banques centrales ont au contraire fourni des liquidités abondantes et les
gouvernements ont soutenu les banques quand c’était nécessaire pour éviter
une dépression.
Depuis la crise financière de 2008, les réglementations financières ont
été fortement durcies et nous verrons comment et à quel prix la confiance
dans la solidité des entreprises financières a été rétablie.
C’est le début d’une deuxième révolution de la finance, après celle qui a
commencé en août 1971, quand le lien entre le dollar américain et l’or a été
rompu par le président Nixon, puis a continué après la déréglementation de
la finance au milieu des années 1980, jusqu’à la crise de 2008.
Parallèlement, les entreprises financières doivent s’adapter à
l’accélération considérable du développement numérique qui a commencé
également à partir de 2008, et qui est fondée sur l’autre type de confiance,
celle implicite et non réglementée des internautes.
Il y a donc un choc entre deux systèmes fondés l’un et l’autre sur la
confiance du public, mais l’une, celle à l’égard de la finance, est sécurisée
par des réglementations strictes, l’autre, celle à l’égard d’Internet et ses
réseaux, n’est pas réglementée.
Les entreprises financières traditionnelles, banques, assurances et
gestionnaires de fonds, doivent faire face aux entreprises nées grâce à la
confiance, tacite et non réglementée, des utilisateurs d’Internet.

Le choc des deux confiances a commencé


Aujourd’hui, le monde des réseaux sociaux fait irruption dans le monde
de la finance, d’abord par les centaines de start-up spécialisées souvent
appelées « fintechs », et plus récemment par les initiatives des géants
américains, qui ont eux-mêmes été précédés par leurs homologues chinois.
Pour l’industrie financière, c’est le début d’une révolution avec le choc
des deux types de confiances, celle des réglementations nationales qu’elles
connaissent bien et celle non réglementée et totalement nouvelle des
réseaux sociaux.
Cette révolution touche tous les métiers de la finance, et met au défi les
entreprises traditionnelles, banques, assurances et gérants de fonds, de
s’adapter.
Cela ne sera pas facile et le risque est grand de voir se réaliser, quarante
ans après sa formulation en 1978, la « prophétie » du rapport Nora-Minc :
« La banque sera la sidérurgie de demain »…
Pourtant, ce n’est pas une fatalité. Les entreprises de la finance peuvent
réussir la mutation nécessaire à leur survie et même à leur développement.
Mais nous verrons que ce sera au prix d’une véritable rupture dans leur
vision du métier et dans l’organisation de sa mise en œuvre.
CHAPITRE 1

L’acte I : de 1971 à la crise de 2008,


une longue euphorie qui finit mal

Le 15 août 1971, le président Nixon décide de supprimer le lien entre le


dollar et l’or.
Depuis les accords de Bretton Woods en 1944, la valeur du dollar était
liée à celle de l’or, et l’once d’or valait 35 dollars. Les accords de Bretton
Woods fixaient l’ensemble des parités des grandes monnaies par rapport au
dollar et, comme la valeur du dollar par rapport à l’or était elle-même fixe,
on était dans un monde de parités fixes par rapport à l’or, à travers le dollar.
Ainsi, le système de Bretton Woods permettait de préserver une certaine
stabilité des parités entre les monnaies. Cette stabilité était jugée nécessaire
au développement des échanges économiques et financiers, en réduisant les
incertitudes et les risques sur les taux de change. Les dévaluations n’étaient
pas interdites mais difficiles à mettre en œuvre car il fallait l’accord des
partenaires. Le Fonds monétaire international, créé à la suite des accords de
Bretton Woods, veillait à la stabilité du système, notamment sur les déficits
publics et extérieurs des pays membres.
La raison pour laquelle Nixon a pris la décision de détacher le dollar de
l’or est qu’il voulait reprendre sa liberté, tant du point des déficits publics
que de la parité du dollar par rapport aux autres monnaies. C’est que, d’une
part, la guerre du Vietnam coûtait cher au budget fédéral, d’autre part, pour
la première fois au XXe siècle, l’Amérique allait connaître un déficit
commercial en 1971.
Nixon voulait donc avoir toute latitude pour faire du déficit budgétaire.
Il voulait aussi pouvoir éventuellement dévaluer le dollar afin de réduire le
déficit commercial américain. En sortant du système de Bretton Woods,
Nixon comptait retrouver les marges de manœuvre qu’il souhaitait.
Après l’annonce de Nixon, les ministres des Finances européens ont
exprimé aux Américains leur crainte de voir les États-Unis exporter leur
inflation au reste du monde, mais le secrétaire du Trésor américain de
l’époque, John Connally, leur a fait une réponse qui est restée fameuse :
« Le dollar est notre monnaie mais c’est votre problème » !

1971-2001, trente ans d’inflation


Les Européens avaient raison : la décision de Nixon marque le début
d’une longue période d’expansion monétaire et d’inflation dont on peut
résumer l’ampleur par deux chiffres : l’once d’or qui valait 35 dollars en
1971 en vaut aujourd’hui 40 fois plus ; la masse de dollars en circulation
dans le monde a augmenté presque autant, l’OCDE estimant cette masse à
la veille de la crise de 2007 à 58 000 milliards de dollars, presque autant
que le produit intérieur brut (PIB) mondial. Depuis la décision de Nixon, le
dollar a perdu plus des deux tiers de sa valeur par rapport à des monnaies
comme le mark (devenu l’euro) ou le yen. L’accroissement massif du
volume mondial de liquidités en dollars s’est accompagné de la dévaluation
du dollar et d’une inflation importante.
Cet Acte I de la révolution financière a débuté donc en août 1971, et il a
été marqué ensuite par plusieurs chocs, notamment les premier et deuxième
chocs pétroliers, en 1973 et 1979 respectivement. À chaque fois, la réaction
de la banque centrale américaine, le Federal Reserve System (le Fed), a été
de soutenir l’économie américaine en l’alimentant suffisamment en
liquidités pour limiter les conséquences de ces chocs.
De même, en 1998, les conséquences de la faillite d’un gros fonds
spéculatif (LTCM) ont été minimisées quand le gouverneur de la Banque
fédérale de réserve de New York a convoqué les représentants des grandes
banques mondiales présentes à New York pour leur imposer de financer la
liquidation en bon ordre de ce fonds.
Plus tard, en 2000, Wall Street a connu le développement d’une bulle
avec la vogue des entreprises nouvelles utilisant Internet. Leur valeur était
gonflée par l’espoir d’une croissance rapide, et cette valeur était calculée
non pas en fonction des bénéfices – il n’y en avait pas, elles perdaient de
l’argent –, mais du nombre d’utilisateurs ou d’abonnés quels que soient les
résultats. Il suffisait qu’une entreprise ajoute à la fin de son nom « .com »,
ce qui se dit en anglais « dot com », comme l’adresse d’un site Internet,
pour que son cours de Bourse s’envole. C’était aussi bien des distributeurs
de biens que des entreprises de services tant tout ce qui touchait à Internet
devait réussir. La bulle a fini par éclater, c’est la crise des « dot-com »,
entraînant une partie de la Bourse dans leur chute. La crise des « dot-com »
a été absorbée par l’intervention du Fed.
Dans les années précédant 2007, les marchés financiers ont commencé à
considérer que le Fed leur donnait une garantie implicite contre les pertes,
ce qu’on appelait en termes de marché une option « put », c’est-à-dire une
option pour vendre des actions en cas de besoin, comme l’expérience des
années précédentes tendait à le confirmer. C’est donc une longue période de
relative prospérité financière et économique que le monde a connue malgré
des hauts et les bas.
Par ailleurs, deux événements importants pour l’évolution ultérieure des
marchés financiers ont eu lieu dans les années 1980, notamment autour de
1985.

Les années 1980 et la déréglementation


des marchés financiers
Pour faciliter les investissements en capital dans les entreprises, la
déréglementation des grandes Bourses a été décidée à peu près
simultanément, autour de 1985, à New York, à Londres et à Paris.
Auparavant, le rôle des courtiers en Bourse était strictement réglementé
et leur nombre limité par des monopoles locaux. Cela restreignait
considérablement les possibilités pour les entreprises de lever des capitaux,
et pour les investisseurs d’acheter et de vendre des actions. Par exemple, en
France, le monopole des agents de change avait pour effet d’en limiter leur
nombre à une cinquantaine environ et de ce fait limitait le total de leurs
moyens financiers, tout comme le volume des opérations qu’ils pouvaient
traiter en Bourse.
En pratique, les monopoles restreignant le développement des Bourses
de capitaux limitaient les possibilités pour les entreprises de lever des
capitaux pour financer leurs investissements.
Il est possible de visiter aujourd’hui un petit musée installé place de la
Bourse, à Paris, dans le palais Brongniart où était installée la Bourse. On y
voit la « Corbeille », autour de laquelle se tenaient les agents de change
pour acheter et vendre les actions cotées. La Corbeille est une barrière
circulaire d’environ cinq mètres de diamètre autour de laquelle se tenaient
les agents de change pour une séance de transactions qui ne durait que de
12 h 30 à 14 h 30, plus une heure l’après-midi au moment de l’ouverture de
la Bourse de New York. Il est facile d’imaginer en voyant cette Corbeille
que les achats et les ventes d’actions étaient lents et coûteux.
La libéralisation des Bourses a permis aux banques d’intervenir
directement en utilisant des moyens financiers importants pour informatiser
et accélérer les transactions, ce qui a déclenché un développement
considérable de leur volume. En même temps, l’informatisation a permis de
diviser par un facteur très élevé le prix de ces transactions, c’est-à-dire le
coût supporté par les clients pour l’exécution d’un ordre de Bourse.

Deux innovations financières,


la titrisation et les produits dérivés
À partir de la fin des années 1970 et pendant les vingt années qui
suivirent, l’innovation financière s’est fortement développée.
En particulier, l’innovation a concerné les marchés à terme qui
permettaient traditionnellement de se couvrir contre le risque de fluctuation
de prix des matières premières (sucre, coton, pétrole, etc.). Par exemple, un
producteur de coton pouvait se couvrir contre le risque d’une baisse des
cours en vendant à l’avance à prix ferme une partie de la production prévue,
ou en payant une prime pour acheter une option lui garantissant un prix à
date future donnée. Ces marchés à terme existaient dans plusieurs capitales,
et les plus significatifs étaient à Chicago, du fait de l’importance des
productions agricoles dans le Midwest américain. C’est à Chicago qu’a été
prise dès 1969 l’initiative d’étendre les marchés à terme aux valeurs
financières, taux d’intérêt puis actions. La couverture des risques de
fluctuation des valeurs futures des taux d’intérêt, des taux de change ou des
actions a été rendue possible par les marchés de « produits dérivés », qui
sont des contrats à terme sur ces valeurs futures. En France, le Matif,
Marché à terme d’instruments financiers, a été créé en 1986.
Cette extension des marchés à terme a été facilitée par le
développement de méthodes mathématiques d’analyse du risque de ces
contrats, développées à partir des années 1970 aux États-Unis et
généralisées dans les années suivantes. Les méthodes d’analyse des risques
boursiers développées d’abord aux États-Unis étaient une suite lointaine des
travaux d’un mathématicien français, Louis Bachelier, qui avait fait sa
thèse, intitulée Théorie de la spéculation, en 1900, sous la direction d’Henri
Poincaré. La tradition française d’expertise en mathématiques appliquées à
la finance remonte donc loin, mais avec une longue parenthèse.
Une autre innovation a été développée : il s’agit de la « titrisation »,
technique qui a permis aux banques de céder à une société créée dans ce but
des crédits déjà consentis, puis de financer directement cette société en
émettant des obligations souscrites par des investisseurs. Dans ce dispositif,
les porteurs d’obligations de la société qui portait les crédits percevaient les
intérêts et les remboursements de ces crédits, et donc ils en assumaient les
risques de non-remboursement.
Par exemple, une des premières opérations de titrisation faites en France
portait sur des crédits à la consommation distribués et gérés par Cetelem,
qui étaient cédés à une société créée dans le seul but de porter ces crédits.
La société était financée par des obligations dont les acheteurs, des
investisseurs, recevaient les versements des emprunteurs au fur et à mesure
que ceux-ci remboursaient leur crédit. Cetelem garantissait une partie du
risque de remboursement, dans le cas où les crédits se seraient avérés moins
bons que prévu. Mais les investisseurs prenaient le risque prévu pour ce
type de crédit, ce qui leur permettait d’obtenir un meilleur rendement pour
leur placement que celui d’une obligation d’État, et permettait à Cetelem
d’alléger son bilan pour faire place à de nouveaux crédits.
Au total, la titrisation a permis de distribuer plus de financements avec
un partage équitable et rémunéré des risques entre banques et investisseurs.
La titrisation a donc été utile tant qu’elle était pratiquée avec rigueur et
équité par les banques et qu’elle ne servait pas à faire financer par les
investisseurs de mauvaises opérations sur la base d’une information
incorrecte.
L’ensemble de ces innovations et la croissance des liquidités mondiales,
déjà évoquée, ont permis un grand développement des marchés financiers,
très profitable pour les banques opérant sur les marchés. Ces innovations
ont été un facteur important du développement économique et de la
prospérité pendant les vingt années qui ont suivi leur création.
Mais les mêmes innovations, produits dérivés et titrisation, par elles-
mêmes bénéfiques, ont malheureusement connu une dérive importante aux
États-Unis à partir des années 2000, dérive qui a abouti à la crise de 2007-
2008.

Les dérives de la finance américaine


et la fin de la fête
La combinaison de ces deux innovations, titrisation et dérivés des
crédits a été à l’origine indirecte de la crise de 2007-2008.
En effet, aux États-Unis, les pouvoirs publics encourageaient vivement
l’accession à la propriété au point que de nombreux crédits hypothécaires
ont été consentis à des gens qui n’avaient pas vraiment les moyens de payer.
Cela a été rendu possible par un système à trois acteurs, spécifique aux
États-Unis.
Ce système comporte d’une part des banques de crédit immobilier qui
distribuent les crédits mais ne les conservent pas dans leur bilan, d’autre
part des banques d’investissement regroupant ces crédits dans des structures
spécifiques qui émettent à leur tour des obligations par la titrisation. Enfin,
troisième acteur important, les agences de notation qui analysent les
structures créées par les banques d’investissement pour juger du risque des
obligations émises et leur attribuer une note mesurant ce risque.
Dans ce dispositif à trois, personne n’était vraiment responsable de la
qualité des crédits distribués, et il a été possible, par négligence, pour être
charitable, mais en fait à cause des pratiques très discutables des trois
catégories d’acteurs, banques immobilières, banques d’investissement et
agences de notation, de vendre comme très sûres des obligations
représentant des crédits immobiliers très risqués.
Les agents immobiliers vendaient des maisons à des gens qui n’en
avaient pas les moyens, grâce à des crédits, proposés par des banques
immobilières, dont les remboursements étaient très faibles au début : ils leur
disaient qu’ils pourraient revendre les maisons avec profit avant que les
remboursements n’augmentent. Les banques qui mettaient en place ces
crédits s’empressaient de les céder à des banques d’investissement, qui à
leur tour les vendaient à des investisseurs à travers des obligations. Pour y
parvenir, les banques d’investissement mettaient en place des systèmes
complexes de titrisation dans lesquels des crédits émis dans différents États
américains étaient regroupés dans une structure et ensuite découpés en
tranches par risque croissant, la rémunération de chaque tranche dépendant
de son degré de risque.
Cette machine à saucissonner, pour reprendre l’image utilisée par un
banquier à l’époque, permettait de fabriquer des obligations dont les moins
mauvaises pouvaient être jugées sans risque par les agences de notation.
Ces dernières ont joué un rôle néfaste en allant jusqu’à conseiller des
banques d’investissement pour que les montages qu’elles réalisaient
puissent être ensuite notés par elles comme permettant l’émission
d’obligations très peu risquées.
Une des justifications de cette notation était une vision très optimiste du
marché immobilier, considérant qu’il n’y avait pas eu aux États-Unis depuis
très longtemps de crise immobilière généralisée. Autrement dit, en
mélangeant dans le saucisson des crédits hypothécaires distribués dans
différentes régions, les agences de notation pouvaient faire l’hypothèse que
le résultat ne serait pas risqué et donc donner la meilleure note aux
obligations correspondantes.
C’est ce qu’on a appelé après coup les obligations subprimes, ce qui
littéralement veut dire de moins bonne qualité. En fait, le vrai risque de ces
obligations s’est avéré être immédiat, c’était leur absence de liquidité sur le
marché. Elles faisaient l’objet de peu d’échanges et les acheteurs possibles
se sont retirés quand le doute sur leur solidité s’est répandu.

Août 2007, les premiers craquements


Ce qui caractérise la crise de 2008, c’est qu’elle a commencé plus d’un
an avant d’éclater avec la faillite de Lehman Brothers le 15 septembre 2008.
En effet, dès le mois de juillet 2007, l’agence de notation Moody’s,
prise d’un scrupule tardif, a baissé la note qu’elle attribuait à certaines
obligations subprimes. Cela a commencé à préoccuper les marchés, mais les
premières études publiées sur le risque de ces obligations donnaient des
chiffres globaux relativement limités et dans tous les cas supportables par le
système financier américain et a fortiori au niveau mondial.
La première alerte sérieuse fut donnée par BNP-Paribas dès le 9 août
2007, car certaines Sicav monétaires émises pour ses clients comportaient
une petite dose d’obligations subprimes. En constatant leur manque de
liquidité, la banque a jugé prudent de suspendre provisoirement le
remboursement de ces Sicav monétaires. Cette décision a créé une grande
émotion sur les marchés car les Sicav monétaires sont utilisées pour des
placements de trésorerie et doivent pouvoir être revendues sans perte à tout
moment. Le choc a été tel que la solidité de l’ensemble des banques
européennes a été mise en doute par leurs prêteurs en dollars,
principalement américains, et qui ont cessé de leur prêter des dollars.
Pour éviter une crise, il a fallu que la Banque centrale européenne et les
autres banques centrales demandent en urgence au Fed des lignes de
financement en dollars pour permettre aux banques non américaines de
continuer à fonctionner.
Cette première alerte a déclenché une série de chocs boursiers, chaque
fois tempérés par les interventions du Fed et aussi par les analyses qui
continuaient de donner des chiffres limités pour le montant et la portée de
ces risques subprimes.
Pourtant, les alertes se sont succédé.
Aux États-Unis, la Bank of America a été obligée de soutenir la
première banque de crédits hypothécaires, Countrywide, dès le mois d’août
2007.
En septembre 2007, ce fut une petite banque de crédits hypothécaire
britannique, Northern Rock, qui se finançait uniquement par des dépôts, qui
eut des problèmes de liquidités. La Banque d’Angleterre a été obligée
d’intervenir pour la soutenir. Cette information a créé une panique bancaire
et déclenché une ruée des déposants dans les agences de Northern Rock
pour retirer leurs dépôts, chose qu’on n’avait pas vue depuis la crise de
1929. Le gouvernement britannique a été obligé de soutenir Northern Rock
jusqu’à la nationaliser en février 2008.
En mars 2008, ce fut une des importantes banques d’investissement
américaines, Bear Stearns, qui annonça des difficultés du fait du manque de
liquidité des investissements qu’elle avait faits en obligations subprimes. Le
Fed est intervenu et le lundi 17 mars 2008 a obtenu de la banque JP Morgan
qu’elle rachète Bear Stearns pour éviter sa faillite.
Malgré ces alertes successives, des études limitant la portée du risque
des obligations subprimes continuaient de paraître. En fait, il n’y avait
toujours pas de conscience claire du fait que le volume total de ces
obligations était bien plus important qu’on ne l’imaginait et surtout qu’elles
étaient réparties dans un grand nombre d’institutions mondiales : banques,
assureurs, fonds de placement. Plus grave encore, cette répartition n’était
pas connue parce que la notation de l’ensemble de ces obligations n’ayant
été remise en cause que ponctuellement, il n’y avait pas moyen de les
identifier dans les bilans publiés. Et, en l’absence d’information sur
l’exposition au risque de chacune des banques mondiales, le soupçon était
général.
Ce qui était en cause alors ce n’était pas principalement le risque de
non-remboursement des obligations, parce qu’on pouvait espérer récupérer
une grande partie de leur valeur en les conservant suffisamment longtemps.
C’était leur absence de liquidité, et le fait qu’il n’y avait pas d’acheteur
pour ce type d’obligation et donc pas de possibilité de les vendre pour ceux
qui en détenaient. C’était au départ une crainte sur la liquidité des banques,
qui se traduisait par une raréfaction des prêteurs.

Vendredi 13 septembre, un week-end


fatidique
La crise a éclaté pendant le week-end du 13 septembre 2008 quand deux
problèmes financiers majeurs se sont posés simultanément au Fed.
En effet, d’une part Lehman Brothers, une très grande banque
d’investissement, avait un problème de liquidités, car elle détenait des
obligations subprimes qui ne trouvaient pas d’acheteurs et du coup les
prêteurs se méfiaient et elle ne pouvait plus se refinancer. D’autre part,
AIG, le plus grand assureur américain, avait une filiale spécialisée dans la
garantie de dérivés de crédits, dont l’activité consistait à garantir le risque
de non-remboursement de crédits ou d’obligations moyennant une prime
d’assurance. Cette filiale avait garanti beaucoup d’obligations subprimes
dont la dégradation du risque, enfin reconnue, risquait de la mettre en
faillite, entraînant celle de sa maison mère AIG. Lehman Brothers et AIG se
sont tournés l’un et l’autre le même jour, un vendredi, vers le Fed pour
l’appeler au secours en lui demandant de les refinancer le lundi suivant le
week-end.
Pendant le week-end, le Fed devait choisir entre trois possibilités : soit
il soutenait à la fois AIG et Lehman Brothers, soit un seul des deux, soit
aucun. Et, contrairement à l’épisode du 17 mars précédent avec Bear
Stearns, il n’y avait plus d’acheteur pour aucune des entreprises. La
décision que prit alors le Fed fut de soutenir AIG pour éviter que des
dizaines de millions d’Américains assurés par cette énorme entreprise
soient pénalisés. Et il n’a pas soutenu Lehman Brothers, estimant que sa
situation était trop mauvaise pour que le redressement soit possible.
Le lundi 15 septembre 2008, Lehman Brothers a donc été déclaré en
faillite et cela a déclenché une crise de l’ensemble du système, car personne
ne savait exactement quelles banques ou quelles institutions financières
seraient touchées à sa suite.
La faillite de Lehman Brothers a achevé de détruire la confiance entre
les banques, et dans les banques. La crise menaçait de devenir systémique,
c’est-à-dire de devenir générale par contagion, les banques ne se prêtant
plus d’argent et ne pouvant donc plus se refinancer.
La réaction immédiate des banques centrales a permis d’éviter ce
phénomène de faillites en cascade. Le Fed, la Banque centrale européenne,
la Banque d’Angleterre, la Banque du Japon, qui se coordonnaient déjà
étroitement, ont garanti la liquidité des banques et ont évité qu’elles aient
des problèmes de refinancement immédiats. Les banques centrales ont été
très étroitement suivies par les gouvernements des grands pays : États-Unis,
France, Grande-Bretagne, qui sont intervenus à leur tour pour garantir la
solidité des banques et les soutenir chaque fois que c’était indispensable par
des prêts, des nationalisations, des augmentations de capital ou, dans le cas
de la France, d’abord par une simple déclaration du président Sarkozy
affirmant qu’il garantissait les banques françaises.
La crise financière systémique a été évitée et 2008 n’a pas été une
deuxième édition de 1929. Cela n’a cependant pas permis d’éviter les
conséquences économiques de la crise même si elles ont été infiniment
moins lourdes que celles de la grande crise des années 1930.

Le G20 : « Plus jamais ça ! »


Il était indispensable de tirer les leçons de la crise pour réformer la
réglementation de la finance mondiale.
C’est dans ce but qu’en 2009 a été constitué le G20, qui regroupait les
dirigeants des vingt plus importantes économies mondiales. Les vingt se
sont réunis sur le thème « plus jamais ça » et ils ont créé le Conseil de
stabilité financière (CSF). Ce conseil réunissait les principales autorités
bancaires et financières du monde et avait pour vocation de devenir une
structure permanente de concertation et de recommandations. Le CSF se
dotait d’un secrétariat permanent basé à Bâle, à la Banque des règlements
internationaux (la BRI) où se réunissent régulièrement tous les présidents
des banques centrales.
Le programme de réformes défini progressivement par le CSF a été
appliqué par étapes, et cela continue, étant entendu que ces réformes
doivent ensuite être décidées pays par pays, ou dans le cas de l’Union
européenne à son niveau d’abord, pour application dans chaque pays de
l’Union ensuite.
Parallèlement, les mesures prises dans chaque pays ont permis de
redresser la situation. Il y a eu cependant une différence importante entre les
États-Unis et le reste du monde.
Aux États-Unis la crise avait déjà conduit au regroupement des banques
d’investissement autour de quelques très grandes banques, ne laissant
subsister que Goldman Sachs et Morgan Stanley comme banques
d’investissement importantes. Le reste de l’activité de marché a été repris
pour l’essentiel par Citicorp, JP Morgan et Bank of America.
En Europe, les choses sont allées moins loin, bien qu’il y ait eu
quelques regroupements ou restructurations, notamment la Royal Bank of
Scotland et la banque Fortis. Mais il est resté, pour l’ensemble des banques
européennes, une situation relativement inégale avec quelques grandes
banques solidement renforcées mais d’autres encore faibles, notamment en
Allemagne et en Italie.
Quel est le résultat à ce jour de ces réformes de la réglementation
financière ? C’est ce que nous allons maintenant examiner.
CHAPITRE 2

La confiance réglementée,
mais chèrement

À partir de 2009, le Conseil de stabilité financière a tiré les leçons de la


crise de 2007-2008.

Pour assurer la liquidité, revoir


le refinancement
Tout d’abord la situation de liquidité des établissements bancaires et
d’assurance n’était pas suffisamment prise en compte par la réglementation
puisque c’est par manque de liquidité qu’ont été déclenchées les faillites.
Ce fut le cas en particulier dans chaque situation où une banque finançait
des opérations à long terme, crédits hypothécaires ou investissements à long
terme en obligations peu liquides, avec des dépôts et des ressources à court
terme.
Que ce soit la banque anglaise Northern Rock qui finançait des crédits
hypothécaires par des dépôts à court terme ou Lehman Brothers qui se
finançait sur le marché pour porter des obligations, l’absence de prise en
compte de la liquidité a été la cause immédiate du déclenchement de la
crise.

Pour assurer la solvabilité,


augmenter les fonds propres
Il est apparu aussi que les fonds propres des grandes banques, leur
capital, notamment dans le cas des banques d’investissement, étaient
notoirement insuffisants par rapport à leurs risques.
On mesure le niveau des fonds propres par rapport au total des risques
portés au bilan. Ce ratio mesure leur résistance à des pertes. Par exemple, si
une banque dispose de 3 % de fonds propres par rapport au total de ses
crédits, cela veut dire qu’elle ne peut absorber que 3 % de pertes sur le total
de ces crédits avant d’être en faillite. Or les grandes banques
d’investissement américaines fonctionnaient avec des niveaux de fonds
propres de l’ordre de 3 % du total de leur bilan, lequel comportait
principalement des opérations de marché, ce qui est manifestement une
sécurité insuffisante pour des opérations qui sont par nature risquées.
Dans le cas des assurances, la règle de solvabilité a porté
essentiellement sur leurs placements en actions : dans la mesure où ces
placements comportent un risque de perte plus grand que le placement en
obligations, la réglementation des assurances impose une part plus grande
de capital pour couvrir ce risque.
Le deuxième volet de la réglementation financière a donc été fondé sur
un fort relèvement du montant des fonds propres exigé des banques et des
assurances par rapport à leurs engagements de crédit et leurs placements.
Dans le cas des très grandes institutions financières, des règles
particulières ont été définies pour limiter le risque systémique, c’est-à-dire
le risque d’effet domino, la propagation de la faillite d’une grande
institution financière à l’ensemble du système à travers les accords de
financement avec les autres.
Ce risque a conduit à définir ce que l’on appelle des « institutions
financières systématiquement importantes » du fait de leur taille, et donc
d’une part de demander à ces institutions un supplément de fonds propres et
d’autre part de définir comment elles pouvaient réagir à une crise en se
divisant ou en se liquidant sans déclencher d’effet domino sur le reste du
système.

Pour lutter contre la fraude


et le blanchiment, connaître les clients
Enfin, et surtout depuis 2011, la lutte contre le blanchiment d’argent, la
fraude et le financement du terrorisme a connu un développement
considérable. Cela a conduit à plus de transparence et à des règles
internationales nouvelles pour lutter contre le blanchiment et le financement
du terrorisme, notamment dans l’Union européenne à partir de 2015-2017
avec des réglementations complémentaires pour toutes les entreprises qui
traitaient des dépôts ou de l’épargne de la clientèle.
C’est une très bonne nouvelle dont il faut se féliciter et souhaiter que
cette lutte soit de plus en plus efficace.
Les institutions financières étant par nature au cœur du système
financier, et déjà soumises à la réglementation, elles peuvent être
directement contrôlées. C’est donc par elles que passent les réglementations
nouvelles contre le blanchiment d’argent et le financement du terrorisme.
Ce sont des dispositions qui se traduisent en pratique par des règles de
vérification de la qualité des clients (en anglais dans le jargon réglementaire
actuel : KYC, pour « know your customer »). L’application de ces règles
explique que certains clients aient reçu de leur banque de nouveaux
documents à remplir pour confirmer leur état civil, leur nationalité, les
origines de leurs ressources, etc., alors qu’ils sont clients de la banque
depuis très longtemps. Le respect de l’ensemble de ces règles est appelé
dans les organisations financières : la « conformité ».
Par ailleurs, constatant qu’une des causes de la crise était l’absence de
transparence sur la répartition des risques sur les produits dérivés
(rappelons que l’assureur AIG a risqué la faillite en septembre 2008 du fait
des garanties massives données par sa filiale financière sur des dérivés de
crédit), le Conseil de stabilité financière a recommandé que les contrats de
produits dérivés consentis « de gré à gré », c’est-à-dire hors marchés
réglementés, soient enregistrés dans des chambres de compensation.
Une chambre de compensation est un organisme indépendant mais
réglementé qui enregistre les contrats et se porte garant de leur exécution,
en demandant pour cela que les contractants déposent auprès d’elle des
fonds, appelés la « marge », pour couvrir les fluctuations de la valeur des
contrats. Si la valeur du contrat baisse, la chambre de compensation
demande un complément de dépôt de garantie : c’est un « appel de marge ».
Cette disposition technique importante a été assez largement appliquée, elle
suppose que les opérateurs sur les produits dérivés disposent des moyens
financiers pour en supporter les risques, afin d’éviter qu’en cas de tension
sur les marchés, ces risques déclenchent des faillites et une nouvelle crise.
Cette disposition indispensable crée néanmoins une contrainte financière de
plus pour le système financier.
Pour répondre à ces nouvelles réglementations, les effectifs consacrés
au suivi de la réglementation et de la conformité ont été considérablement
augmentés. Si le nombre de ces effectifs n’est en général pas publié par les
banques, voilà deux indications de leur importance. Citicorp, une des plus
grandes banques du monde, a publié en 2014 le chiffre de ses effectifs
consacrés à la réglementation et à la conformité, il s’agissait de 30 000
personnes sur un total de 250 000 employés, soit plus d’une personne sur
dix. On retrouve ce même type de proportion, 10 % du personnel, dans une
banque moyenne française spécialisée dans la gestion privée et le conseil.
Cela veut dire que le seul suivi du respect de l’ensemble des
réglementations représente maintenant une part très significative des frais
généraux des banques.
Il est nécessaire de reprendre chacun des trois objectifs de la
réglementation bancaire, la liquidité, la solvabilité et la lutte contre le
blanchiment et le financement du terrorisme, pour comprendre comment
ces réglementations ont des conséquences à la fois sur les coûts et sur la
rentabilité des banques et des assurances et des gestionnaires de patrimoine.

La mise en œuvre de la réglementation


financière
Il s’agit d’abord qu’une banque ou un assureur puisse supporter un
niveau de pertes relativement élevé sans mettre en question son existence.
Ce sont les fonds propres, le capital, qui absorbent les risques en cas de
pertes sur les actifs de la banque ou de l’assureur. La solidité de l’entreprise
se traduit donc par l’existence d’un capital suffisant par rapport à
l’ensemble des risques qu’elle porte, qu’il s’agisse de risques de perte sur
les crédits, sur les investissements, sur les opérations de marché, mais aussi
des risques de fraude, de panne informatique ou de cyberattaque, etc.
Dans le cas des assureurs, le risque de solvabilité se traduit par le fait
que les placements qu’ils font de l’argent versé par les clients pour les
primes doivent être suffisamment sûrs pour ne pas qu’il y ait de risque
important de perte. La règle qui leur est appliquée (Solvabilité 2) leur
impose d’avoir plus de fonds propres que par le passé si ces placements
comportent un risque de perte ou, plus simplement, si ces placements sont
des actions d’entreprises cotées ou non.
Qu’il s’agisse de banque ou d’assurance, le calcul des fonds propres
nécessaires suppose donc un calcul des risques de toute nature et pour cela
les règles définies pays par pays par les autorités de contrôle (en France
l’ACPR, Autorité de contrôle prudentiel et de résolution) sont à la fois très
détaillées et régulièrement révisées.
Ensuite, si une banque utilise, comme elles le font en pratique toutes,
des ressources à court terme, soit des dépôts, soit des emprunts sur le
marché, pour financer des crédits à plus long terme, il faut qu’elle puisse
faire face à des retraits importants de dépôts ou bien qu’elle traverse une
période de tension où emprunter sur les marchés lui serait difficile sans
dommage vital, c’est-à-dire sans être en situation de défaut de paiement.
C’est ce qu’on appelle assurer sa liquidité.
Enfin, la banque doit s’assurer qu’elle connaît bien ses clients, qu’ils ne
sont pas susceptibles de faire des opérations contraires à la loi, et que les
fonds qu’elle recueille ou qu’elle gère sont d’une origine connue et légale.
Bref, elle doit jouer un rôle de contrôle pour aider les autorités à lutter
contre le blanchiment de l’argent ou contre le financement du terrorisme.
Le respect de cet ensemble de règles entraîne l’emploi d’un nombre
important de personnes, ce qui représente une part significative des frais
généraux. Mais ce n’est pas le plus important : les contraintes les plus
coûteuses sont celles de nature financière.

Plus de capital, donc moins d’effet


de levier
Pour comprendre l’impact financier de la réglementation, il faut
expliquer deux concepts fondamentaux de la finance des banques et plus
généralement de l’ensemble des entreprises financières : il s’agit de l’effet
de levier et de la transformation financière.
Pour n’importe quelle entreprise, le levier financier est le rapport qui
existe entre le total de son bilan et son capital, ses fonds propres, le reste du
bilan étant financé par différentes formes d’emprunts, de dépôts ou de
dettes à l’égard de tiers. Ce levier a une influence directe sur la rentabilité
du capital, c’est-à-dire des fonds propres de l’entreprise.
En effet, la charge représentée par les emprunts ou les ressources autres
que le capital s’impute sur la marge des opérations. Le résultat qui reste est
le bénéfice qui rémunère les fonds propres et assure le rendement du capital
investi dans l’entreprise. On voit que si ce résultat est positif, si le résultat
après remboursement de l’intérêt dû sur les créances diverses est positif, il
va s’appliquer à un niveau de fonds propres d’autant plus faible que le
levier est élevé et donc le taux de rentabilité du capital sera d’autant plus
élevé.
Prenons l’exemple d’une entreprise industrielle qui a des
investissements valant 1 000 au total, en matériel et fonds de roulement, et
qui dégage un bénéfice de 5 % par an de cet investissement, après ses
dépenses de fonctionnement et l’amortissement du matériel, soit un
bénéfice de 50 dans l’année. Si les investissements sont financés pour
moitié par un emprunt de 500 à 3 % d’intérêt, soit 15 d’intérêt à payer, le
reste étant financé par son capital, le bénéfice sera de 50 moins 15 soit 35.
Rapporté au capital de 500, le rendement du capital sera de 7 %. Le levier
financier, rapport du total des actifs, 1 000, au capital de 500 est dans ce cas
de 2. On voit ici que le levier financier a eu pour effet de porter le
rendement de 5 % des investissements à 7 % du capital.
Plus généralement, le levier augmente la rentabilité du capital tant que
l’activité génère des résultats suffisants pour couvrir et au-delà les charges
d’intérêt des emprunts. Ce levier comporte bien évidemment un risque,
celui de l’endettement : si les charges d’intérêt des emprunts dépassent les
revenus de l’activité de l’entreprise, celle-ci subira des pertes qui vont
entamer son capital et à la limite provoquer sa faillite.
C’est pourquoi, quand une entreprise non financière fait l’objet d’une
analyse, son taux d’endettement est un élément important de l’appréciation
du risque : quand le levier financier est élevé, en clair si elle est très
endettée par rapport à ses fonds propres, elle apparaît comme plus risquée.
Si elle se finançait totalement en capital, en fonds propres, le risque serait
beaucoup plus limité. Pour les entreprises non financières, un levier de deux
pour un, qui signifie que le total des actifs à son bilan représente deux fois
le capital, est déjà considéré comme important et peut sembler risqué si par
exemple l’activité et les résultats de l’entreprise sont très variables dans le
temps, et peuvent donc de ne pas couvrir les charges financières.
Rappelons qu’avant la crise de 2008 le levier financier de Lehman
Brothers était de 30 !
Les entreprises financières fonctionnent avec des leviers relativement
élevés mais qui sont limités par la réglementation et plutôt de l’ordre de 10
pour 1 ou moins. Aujourd’hui, une banque comme Lehman Brothers devrait
avoir au moins quatre fois plus de capital par rapport à son volume
d’activité.
Quel est l’intérêt pour l’économie d’accepter que les banques aient un
levier financier nettement plus élevé que les entreprises qu’elles financent ?
C’est que ce levier leur permet de distribuer des crédits moins chers tout en
rémunérant leur capital. Si on prend l’exemple d’une banque qui
consentirait mettons 100 euros de crédit au total, si elle dispose d’un levier
de 10, c’est-à-dire qu’elle a 10 euros de capital pour financer 100 euros de
crédit, le reste étant financé par des emprunts ou des dépôts à court terme,
on voit par l’exemple précédent qu’une marge même limitée sur les crédits
entraîne un rendement du capital relativement élevé. Cette structure des
banques serait un facteur de risque si elles n’étaient pas réglementées pour
assurer leur solidité et celle du système financier. Or leur solidité est
essentielle pour assurer la confiance des clients qui déposent leur argent et
des prêteurs qui les financent sur le marché monétaire. Quand la
réglementation impose un levier plus réduit, c’est-à-dire un taux de capital
par rapport au total des risques plus élevé, la rentabilité, toutes choses
égales par ailleurs, de ce capital est réduite.
Depuis la crise de 2008, toutes les banques doivent avoir des leviers
financiers beaucoup plus faibles, donc plus de capital par rapport à leur
volume d’activité.

Refinancement plus stable donc moins


de transformation financière
Le deuxième concept qu’il faut expliquer est celui de la transformation
financière.
Le métier traditionnel des banques consiste à distribuer des crédits en
les refinançant par des dépôts, ce qui veut dire en pratique financer à moyen
et à long terme l’économie en utilisant les ressources à très court terme que
sont les dépôts, exigibles à tout moment par les clients.
Même si ces dépôts sont rémunérés ou s’il s’agit d’emprunts à court
terme sur le marché monétaire, le fait est que les taux d’intérêt à long terme
sont généralement plus élevés que les taux à court terme. En effet, prêter à
long terme à taux fixe fait que le prêteur se prive de l’opportunité de mieux
placer son argent s’il en a l’occasion, et plus généralement d’en disposer.
Cette différence de taux entre celui de l’emploi des fonds et leur coût se
traduit par une marge que l’on appelle la marge de transformation.
Notons tout de suite qu’à la différence des banques les compagnies
d’assurances ne font pas de transformation financière. Leurs engagements
sont par nature à moyen et long terme en moyenne. Le terme « moyenne »
est fondamental, c’est-à-dire qu’il peut bien y avoir à tout moment un
sinistre avec un accident de voiture ou le décès d’un client, mais en
moyenne sur l’ensemble des clients le règlement des sinistres est prévisible
en termes de déroulement dans le temps. Les assureurs couvrent par la
réassurance le cas de cumul catastrophique de sinistres, par exemple un
tremblement de terre. Cela permet aux compagnies d’assurances d’investir
à moyen et long terme les primes perçues de leurs clients.
Dans le cas des gestionnaires de patrimoine, les opérations qu’ils gèrent
sont pour l’essentiel en dehors de leur propre bilan, les fonds de leurs
clients étant déposés chez un tiers de confiance. Le gestionnaire doit agir
pour le compte de ses clients et n’a pas le même type de risque qu’un
banquier ou qu’un assureur. Il est donc soumis à d’autres types de
réglementations dont l’objet général est d’assurer qu’il va opérer dans
l’intérêt de ses clients et non dans son intérêt propre quand ils peuvent être
en conflit.
Revenons maintenant au détail des applications de la réglementation
dans le cas des entreprises financières
Tout d’abord, en ce qui concerne le capital. Pour consentir 100 euros de
crédit, une banque n’avait besoin avant 2008 de disposer que de 4 euros de
capital, le capital restant étant financé par des dépôts ou par des
financements à court terme levés sur le marché, moins chers que le capital.
Cela lui permettait de bénéficier d’un effet de levier pour améliorer la
rentabilité de son capital. La réglementation prudentielle lui impose
aujourd’hui le double de capital au moins, soit 8 euros pour financer
le même montant de crédit. Cela veut dire que, pour le même taux de
bénéfice sur le crédit, le rendement du capital serait divisé par deux.
Comme une banque, qu’elle soit mutualiste ou capitaliste, doit
rémunérer son capital, maintenir la même activité lui coûtera plus cher car,
en pratique, du fait de la concurrence, elle ne peut pas augmenter le taux de
ses crédits.
On constate, pour les banques européennes au moins, que leur
rentabilité a sensiblement baissé, car elles ont été obligées d’augmenter
leurs fonds propres sans pouvoir augmenter d’autant leurs recettes.
L’autre règle imposée pour tirer les leçons de la crise porte sur la
« liquidité », complément indispensable de la transformation financière. Il
faut qu’une banque qui se finance en empruntant sur les marchés puisse se
dispenser d’emprunter, le temps d’une crise qui bloquerait le marché, ce qui
veut dire qu’elle ne peut pas financer un crédit hypothécaire à vingt ans en
empruntant entièrement au jour le jour sur le marché monétaire : il faut
qu’elle assure au moins une partie du financement à plus long terme.
À titre d’exemple historique : la Compagnie bancaire, créée par Jacques
de Fouchier dans les années 1950 pour servir de centrale de trésorerie au
groupe d’établissements de crédit qu’il avait fondé (Cetelem, Locabail,
Union de crédit pour le bâtiment). N’ayant pas de dépôts du public, la
Compagnie bancaire empruntait sur les marchés monétaires pour financer
les crédits à moyen et à long terme distribués par ses filiales. Dès sa
création, la règle interne imposée d’emblée par son patron, Pierre Besse,
plus d’un demi-siècle avant la crise de 2008, était une règle de liquidité : il
fallait que le groupe n’ait pas de risque de liquidité et pour cela qu’il puisse
fonctionner pendant six mois en cas de blocage du marché monétaire, sans
emprunter sur le marché. En pratique, cela voulait dire que des garanties
avaient été négociées avec les grandes banques de dépôt, excédentaires en
liquidités du fait de leurs dépôts, qui s’engageaient à lui fournir, sur simple
demande, les fonds nécessaires pour assurer son financement en cas de
besoin. Ces garanties étaient bien entendu rémunérées par une commission
pouvant atteindre 0,50 % du montant maximum garanti, ce qui n’était pas
négligeable appliqué à des milliards de francs des années 1970.
Autrement dit, la liquidité n’est pas gratuite pour les banques.
Le risque de liquidité n’est pas théorique. Nous avons vu qu’en 2007, au
cours de la dernière crise, les banques européennes ont eu à un moment des
difficultés à emprunter les dollars dont elles avaient besoin pour leurs
activités internationales, du fait de l’inquiétude de leurs prêteurs américains
sur leur solidité. Il a fallu que la Banque centrale européenne mette en place
en extrême urgence avec le Fed des lignes de financement en dollars,
qu’elle a mis à la disposition des banques européennes pour leur éviter de
subir une crise de liquidité.
Une anecdote, peut-être apocryphe, qui était racontée à la Compagnie
bancaire est la suivante. Après un début de crise de liquidité sur le marché
monétaire vite calmée par le Fed, le président de la banque centrale
américaine convoque les présidents des grandes banques et les rassure dans
ces termes : « Messieurs, j’espère que nous n’aurons pas de nouvelle crise
du marché monétaire mais je tiens à vous rassurer : si l’une de vos banques
rencontre de graves problèmes de liquidité, je prendrai les mesures
nécessaires pour la sauver et je mettrai au point ces mesures avec… le
remplaçant de son président. »
La combinaison de l’exigence d’un capital plus important et de règles
de liquidité qui réduisent la marge de transformation fait que la rentabilité
de l’activité de crédit, activité centrale des banques, est réduite.
En résumé, la confiance dans les banques est fondée sur leur sécurité et
cette sécurité repose sur le respect de règles qui au total coûtent plus cher au
système bancaire qu’avant la crise.
Mais toute réglementation crée des opportunités de contournement.

« Shadow banking », la finance parallèle


Dans le cas du financement de l’économie, compte tenu des contraintes
réglementaires qui portent sur les banques, un grand nombre de
financements se sont développés en dehors du système bancaire en
s’appuyant sur des structures non bancaires qui peuvent se financer sur les
marchés. L’ensemble de ces opérations est souvent appelé en anglais le
shadow banking, autrement dit le « financement dans l’ombre ». Il ne s’agit
pas d’une finance occulte ou illégale, mais d’une finance légale qui échappe
par nature au contrôle des autorités financières et bancaires, et qui se trouve
donc à l’abri de leur regard direct.
Ces opérations ne sont pas soumises aux contraintes de capital qui
s’appliquent aux banques et comme le capital est cher elles peuvent être
rentables pour ceux qui en acceptent les risques.
Le Conseil de stabilité financière est conscient du fait qu’une des causes
de la crise de 2007-2008 a été l’absence d’informations sur la localisation
des risques liés aux obligations subprimes dans la finance mondiale, non
seulement dans les banques et assurances, mais aussi dans des structures
financières non directement réglementées comme les fonds de retraite, les
fonds spéculatifs, bref, les intermédiaires de la finance qui ne sont ni des
banques, ni des compagnies d’assurances, ni des gérants de fonds eux-
mêmes réglementés. Aussi, depuis 2011, le CSF publie tous les ans un
rapport sur le shadow banking (consultable sur son site www.fsb.org), qui
couvre maintenant l’ensemble de l’intermédiation financière au sens le plus
large, y compris en Chine, où le shadow banking est considérable, et dans
les pays en développement. Ces rapports révèlent que le volume de cette
finance qui est hors système bancaire est impressionnant.
Ainsi, en 2018 le Conseil de stabilité financière estimait le volume de la
finance de l’ombre à 50 000 milliards de dollars, en progression d’environ
10 % par rapport à son estimation à fin 2017. Pour situer ce chiffre, on peut
le rapprocher de celui du produit intérieur brut mondial, le PIB, estimé par
la Banque mondiale à 85 000 milliards de dollars. C’est donc tout à fait
considérable.
Il est vrai que ce chiffre additionne des éléments très divers. Par
exemple, le plus gros montant (72 % du total dans l’estimation à fin 2016)
est celui des fonds collectifs de placement dont le CSF estime que, du fait
des possibilités de retrait dont disposent leurs souscripteurs, ils pourraient
faire l’objet de demandes massives de remboursement en cas de panique :
fonds obligataires, Sicav monétaires, certains hedge funds.
Un exemple de ce type de fonds participant au financement de
l’économie hors du système bancaire est les collateralized loan obligations
(ou CLO). Ce sont des obligations émises par des sociétés qui ont été créées
pour porter des paquets de crédits consentis à des entreprises. Comme ces
sociétés ne sont pas des banques, elles peuvent avoir très peu de capital, et
l’essentiel des paiements sur les crédits, intérêts et remboursement du
principal, va directement aux porteurs d’obligations, ces derniers ayant pour
seule garantie les crédits eux-mêmes.
Les entreprises y trouvent leur compte avec des crédits moins chers car
il n’y a pas de capital à rémunérer, et les investisseurs qui cherchent des
placements rentables dans un environnement de taux d’intérêt très bas
acceptent le risque de non-remboursement. Le volume de ces seuls CLO
était estimé en 2019 par le Conseil de stabilité financière à 1,5 trillion de
dollars, ce qui est autant de crédits aux entreprises qui ne sont plus dans les
comptes des banques.
Dans ce cas, le risque est évidemment porté directement par des
investisseurs et non par le système bancaire. Il n’y a donc pas en principe de
risque direct de crise bancaire en cas de récession économique et de faillite
des entreprises. Mais, si une partie de ces CLO était elle-même rachetée par
des banques, le risque reviendrait dans le système bancaire, et en tout cas
une défaillance d’un fonds important de CLO aurait un impact
psychologique négatif sur les marchés.
Depuis la crise de 2008, conséquence de pratiques comparables avec les
obligations représentant des crédits hypothécaires risqués, les autorités
financières sont vigilantes.
En pratique, les autorités de contrôle regardent de plus près ce que les
banques et les assurances ont dans leur bilan pour détecter si elles ont de
nouveau repris des actifs plus risqués qu’on pouvait le penser au départ. Et
le Conseil de stabilité financière annonce qu’il continuera à suivre de près
le shadow banking et à formuler des recommandations pour obtenir plus de
transparence et de sécurité systémique.
Un autre risque que suit le CSF est une conséquence de sa
recommandation d’utiliser des chambres de compensation pour enregistrer
les contrats de produits dérivés négociés hors marchés réglementés. Une
chambre de compensation a pour objet notamment de garantir la bonne fin
des opérations qu’elle enregistre moyennant un dépôt de garantie qui est
une fraction de la valeur garantie. Si la valeur garantie augmente avant la
conclusion de l’opération, la chambre de compensation demande un
supplément de dépôt. C’est un « appel de marge ». Dans le cas des produits
dérivés négociés hors marchés réglementés, leur durée peut être élevée et
donc le risque de fluctuation de leur valeur dure plus longtemps que par
exemple pour des transactions sur un marché réglementé, en général
rapidement exécutées et réglées.
Cette recommandation a été suivie, en même temps que les montants de
ces contrats augmentaient considérablement. Mais le risque a été de ce fait
concentré sur les chambres de compensation, c’est le risque en cas de défaut
d’une des parties de ces contrats, si elle ne peut pas faire face aux appels de
marge, car alors c’est la chambre de compensation qui supporte la perte
éventuelle. Ces chambres de compensation ont elles-mêmes des
actionnaires qui comportent des banques et ont indirectement le risque de
subir ces pertes.
À fin 2018, selon la Banque des règlements internationaux, citée par
The Economist, le montant total de ces contrats de dérivés enregistrés dans
les chambres de compensation, mesuré par leur montant notionnel (c’est le
montant sur lequel est basé le calcul de la valeur du contrat) était de 544
000 milliards de dollars. Ce qui veut dire que ces chambres de
compensation deviennent elles-mêmes des institutions « systémiques »,
celles dont la faillite peut avoir des conséquences sur le reste du système.
Le plus gros de ces contrats porte sur le niveau des taux d’intérêt,
aujourd’hui peu volatil, ce qui limite les variations de leur valeur et donc les
appels de marge. Mais si la volatilité des taux d’intérêt remontait, les appels
de marge pourraient représenter de très gros montants pour l’ensemble de
ce dispositif.

La lutte contre le blanchiment et la fraude


et la fin des abus du secret bancaire
La confiance dans les banques, le système des paiements et
généralement dans la finance est nécessaire pour le fonctionnement de
l’économie visible et honnête. Mais le système financier peut servir et a
beaucoup servi au fonctionnement de l’économie invisible, celle des mafias,
de la fraude et du terrorisme. Pour lutter contre le blanchissement, le
financement du terrorisme et plus généralement les activités criminelles, un
changement radical de législation et de décisions publiques s’est opéré au
cours des dix dernières années. Il est vrai que les gouvernements avaient de
plus une motivation directe, celle de lutter contre la fraude fiscale et de faire
rentrer les impôts.
Avant 2010 et le vote aux États-Unis d’une loi intitulée Foreign
Account Tax Compliance Act (FATCA), loi dont les dispositions sont
entrées en vigueur progressivement depuis le 1er juillet 2014, la lutte contre
la fraude fiscale, le blanchiment d’argent et autres activités illégales,
relevait plus d’actions ponctuelles à la suite de dénonciations ou de
découvertes accidentelles.
Il faut reconnaître que l’extraterritorialité appliquée par les Américains,
dont la loi FATCA est un exemple, a été le levier qui a permis de faire
bouger l’ensemble du système, y compris des pays aussi traditionnellement
attachés au secret bancaire que la Suisse. Dans le cas de la Suisse, le secret
bancaire a été une des caractéristiques essentielles de son attrait pour des
dépôts de diverse nature venant de beaucoup de pays. Le terme utilisé pour
définir ces dépôts était celui de dépôts « offshore ». Le fisc français était
particulièrement vigilant à cet égard mais n’avait pas de moyen
systématique de déceler les dissimulations de capitaux placés en Suisse.
En 2008, c’est un employé de la banque HSBC qui propose au fisc
français de lui vendre une liste de noms de clients français de la banque en
Suisse. Après des péripéties diverses, le fisc français obtient cette liste et
entame des poursuites.
La liste comportait près de 9 000 noms. Environ 3 000 personnes
physiques seront inculpées et poursuivies et le fisc ouvre une « cellule de
régularisation » qui permet aux personnes ayant un compte à l’étranger de
se déclarer et de négocier un règlement. En effet, dans beaucoup de cas,
l’argent pouvait correspondre à une succession ancienne ou à des situations
ne comportant pas de fraude fiscale volontaire, et cela aboutissait à un
règlement négocié au cas par cas. Quant à la banque HSBC, elle décida de
payer une amende pour éviter des poursuites qui auraient pu lui coûter au
total plus cher.
En avril 2012, après les États-Unis et l’Allemagne, le parquet de Paris
ouvre une information judiciaire contre la banque suisse UBS pour
soupçons d’évasion fiscale.
L’enquête lancée par le parquet financier est facilitée par la démarche
d’un « lanceur d’alerte », traduction du terme américain whistle blower,
désignant la personne qui signale une faute par un coup de sifflet, comme
un arbitre.
La banque est accusée d’avoir démarché systématiquement, de 2004 à
2012, un certain nombre de Français ou de résidents français au sens fiscal
pour leur proposer de placer leur argent ou une partie de leur argent en
Suisse.
Après de nombreuses mises en examen et dépositions, le fisc propose à
la banque de négocier le paiement d’une amende pour mettre fin aux
poursuites. Il le fait dans le cadre d’une nouvelle disposition mise en place
dans une loi de 2016, un dispositif de transaction, la convention judiciaire
d’intérêt public, qui permet à un établissement financier incriminé dans une
affaire de ce type de négocier directement avec le parquet financier. La
banque estime que l’amende demandée est trop importante et décide d’aller
en justice. Elle est condamnée en février 2019 à une amende très élevée de
3,7 milliards d’euros, supérieure au montant qu’elle avait refusé d’accepter
dans une négociation. La banque fait appel et l’affaire n’est donc pas
terminée.
Les lanceurs d’alerte jouent un rôle important dans une autre affaire, qui
concerne cette fois, non pas une fraude fiscale, mais un blanchiment
d’argent, et implique une filiale estonienne d’une grande banque danoise, la
Danske Bank.
Malgré des mises en garde de l’autorité de contrôle estonienne, cette
filiale de la Danske Bank avait semble-t-il accepté, depuis plusieurs années,
le dépôt de montants très importants venus notamment de Russie et
d’Azerbaïdjan. Les bruits et les rumeurs se sont succédé jusqu’en 2018 où
une enquête interne approfondie révèle qu’effectivement des sommes
considérables, estimées à 200 milliards de dollars, ont transité par la
succursale estonienne de la banque vers d’autres banques, y compris
américaines et européennes.
Le lanceur d’alerte auditionné par le parlement danois en novembre
2018 met en cause d'autres banques et les conséquences sont dramatiques
pour la Danske Bank, très ancienne banque danoise et l’une des plus
importantes de Scandinavie, entraînant la démission de son président et des
enquêtes dans les pays dont les banques ont été mises en cause pour avoir
reçu des fonds de cette succursale estonienne de la Danske Bank. L’affaire
n’est donc pas terminée.
Cette dernière affaire indique que les sommes qui transitent par les
circuits de blanchiment d’argent sont colossales. C’est pourquoi un
ensemble de dispositions ont été prises pour traquer le blanchiment d’argent
et mieux contrôler les circuits de transferts financiers non seulement entre
banques mais de l’ensemble du système financier, y compris les assureurs et
les grands gérants de fonds.
Cela se traduit par un ensemble de dispositions dont on peut décrire ici
les principes sans entrer dans le détail textuel des lois et règlements.
La loi FATCA reste le pivot des relations entre les États-Unis et
l’ensemble des grandes institutions financières. Elle concerne non
seulement les banques mais aussi les fonds d’investissement, les
gestionnaires d’actifs et les compagnies d’assurance-vie.
Ces institutions doivent identifier les personnes américaines ou
susceptibles d’être américaines, par exemple du fait de leur lieu de
naissance, et les déclarer annuellement à l’autorité fiscale américaine pour
permettre le recoupement automatisé avec leur déclaration fiscale
individuelle.
Comme toujours, lorsque les Américains demandent à des
établissements ou des États étrangers d’appliquer leur loi, la non-
application de FATCA coûte cher en amendes aux intermédiaires financiers
ou à leurs clients qui ne respectent pas ces obligations. C’est pour imposer
l’application de FATCA que les États-Unis ont obtenu de la Suisse qu’elle
renonce au secret bancaire en ce qui concerne leurs ressortissants.
Le deuxième volet est constitué par l’ensemble des accords bilatéraux
signés au niveau des pays entre le gouvernement des États-Unis et les
gouvernements d’autres pays. C’est le cas par exemple pour la France et cet
accord comporte l’échange automatique d’informations fiscales entre les
deux pays.
Dans le cadre de cet accord, les banques françaises doivent collecter les
données concernant les titulaires de comptes ayant un rapport avec les
États-Unis, personnes physiques ou sociétés de personnes, puis transmettre
les données au fisc français qui les transmet à son tour au fisc américain en
échange d’informations fiscales sur les contribuables français détenant des
avoirs aux États-Unis.
Le troisième volet est l’échange automatique d’informations (AEOI).
Celui-ci repose sur une norme mondiale mise au point en 2014 par l’OCDE
(Organisation de coopération et de développement économiques) en
coopération avec les pays du G20. Cette norme généralise les procédures
d’échange d’informations financières entre États signataires de l’AEOI. La
plupart des États ont signé pour appliquer cette norme et cela a commencé à
fonctionner en 2018 et 2019.
L’échange porte sur l’ensemble des avoirs financiers des particuliers,
sans qu’un seuil soit applicable et sur un grand nombre de personnes
morales avec un seuil de 250 000 dollars en dessous duquel l’échange n’est
pas nécessaire. Il est question qu’à moyen terme ce seuil soit réduit, voire
supprimé. L’échange concerne les résidents fiscaux des pays avec lesquels
un accord d’échange a été conclu. Il est automatique.
Ces échanges de données permettent effectivement de compliquer
beaucoup le blanchiment et la fraude fiscale. Il faut évidemment que les
institutions financières connaissent bien leurs clients, c’est-à-dire sachent
réellement qui est le client dont le nom sert à ouvrir un compte. Il y a donc
des règles résumées sous le sigle américain KYC (know your customer),
dont chaque autorité de contrôle des établissements financiers va vérifier
qu’elles sont bien mises en œuvre.
C’est tout cet ensemble de règles qui se met en place en 2018-2019 et
qui change radicalement la transparence financière au plan international.
Il s’agit bien toujours de confiance, mais cette fois-ci ce n’est pas
seulement la confiance des clients à l’égard du système financier : c’est une
confiance collective de tous les citoyens qui sont en droit de penser
maintenant que le système financier mondial contribuera à assurer leur
sécurité ou du moins ne pourra plus être utilisé aussi facilement par les
mafias, les terroristes et les fraudeurs.
Le rapport fait par son secrétaire général au groupe du G20 en juin 2019
indique qu’à ce jour les données pour 4 900 milliards d’euros sur 47
millions de comptes offshore ont été transmises dans le cadre de l’accord
d’échange d’informations. Et, encore plus intéressant, il y aurait environ
100 milliards d’euros de revenus additionnels au niveau des États concernés
du fait de ces échanges.
L’OCDE indique aussi qu’en se référant à ses rapports précédents, le
total des dépôts bancaires dans des centres internationaux, autrement dit des
dépôts offshore, aurait baissé d’environ un tiers au cours des dernières dix
années.

La confiance rétablie
Au total, qu’il s’agisse de la banque, de l’assurance ou de la gestion de
l’épargne, la confiance est nécessaire à leur bon fonctionnement au service
de l’économie, et cette confiance repose sur les réglementations, et sur la
qualité de leur suivi par le Conseil de stabilité financière et les instances
nationales.
Depuis la crise de 2008, restaurer la confiance dans le système financier
a nécessité des réglementations plus lourdes et plus coûteuses, mais cela a
créé également plus d’opportunités de contournement par des entreprises
non réglementées, ce qui nécessite de nouvelles règles pour suivre et
éventuellement contrôler les contournements. La tendance ne risque pas
d’être inversée ! Mais la confiance dans les entreprises financières a été
rétablie.
CHAPITRE 3

Réseaux sociaux : le produit c’est vous !

Il y aurait aujourd’hui plus de 3 milliards de smartphones dans le


monde. Avec les liaisons Internet haut débit, c’est une révolution qui s’est
produite en dix ans et qui est loin d’être achevée.
Avant 2007 et le lancement de l’iPhone, les multiples fonctions qu’il
regroupe existaient dans des appareils différents : il y avait des appareils
photo numériques, des assistants personnels portables (les plus connus étant
le BlackBerry ou le Palm, pratiquement disparus depuis), il y avait bien
entendu des téléphones portables et il y avait des systèmes de messagerie
sur Internet fonctionnant sur les ordinateurs. Pour la petite histoire, IBM
avait annoncé dès 1992 et livré en 1994 un téléphone portable qui
comportait déjà les fonctions d’un smartphone, avec l’accès à Internet par
ligne téléphonique. Son prix, 1 100 dollars, le faible débit des liaisons
Internet (mille fois plus lentes qu’aujourd’hui…) et la faible durée de la
batterie ont contribué à l’échec commercial du produit.
La raison pour laquelle les smartphones, en commençant par l’iPhone
d’Apple, ont vraiment été une révolution a été le regroupement de toutes
ces fonctions dans un seul appareil portable. L’iPhone était non seulement
un téléphone mais aussi un appareil photo et surtout un moyen d’accès à
Internet. L’autre raison de son succès a été son ergonomie remarquable,
avec l’utilisation d’un écran tactile et des icônes simples. Enfin, il y a eu la
stratégie d’Apple, qui a promu le développement d’innombrables
applications téléchargeables à partir de sa boutique en ligne, l’App Store.
Les applications devaient être agréées par Apple pour être mises en ligne
soit gratuitement, soit contre paiement et Apple partageait le prix avec le
développeur. Ces applications ont généré un revenu important pour Apple et
pour les développeurs indépendants et, en même temps, elles ont valorisé et
élargi l’utilisation du smartphone. Apple vendait aussi de la musique et des
vidéos par son site iTunes.
À partir de 2010 et pendant les années suivantes, l’Internet haut débit a
été installé par de plus en plus d’opérateurs téléphoniques, avec la 4G. À ce
moment, les débits pour l’accès à Internet devenaient suffisants pour que de
nombreuses applications soient d’utilisation facile, sans attente gênante
pour la transmission des données, que ce soient les jeux, les
communications instantanées, la transmission de photos et de vidéos, etc.
Les possesseurs d’un smartphone ont disposé non seulement d’un téléphone
mais aussi d’un appareil photo, d’un instrument de messagerie et qui
donnait l’accès à de très nombreuses applications et jeux. En outre, cet
accès était rapide et disponible en permanence, pratiquement partout.
Le smartphone est devenu rapidement un élément indispensable de la
vie, en particulier de la plupart des jeunes, mais aussi des adultes et des
professionnels.
Parallèlement, Google avait mis au point son moteur de recherche très
performant et était devenu leader dans ce domaine, donnant également par
cet outil le moyen aux porteurs d’un smartphone d’avoir des
renseignements ou des réponses à des questions qu’ils pouvaient se poser.
Un smartphone avec l’accès à Internet plus Google est devenu
l’instrument de travail des lycéens et des étudiants, et aussi leur compagnon
de loisirs. Les entreprises ont intégré cet outil dans leur fonctionnement,
qu’il s’agisse d’artisans, de PME ou de grands groupes.

2004 : un trombinoscope nommé


Facebook
Personne n’avait prédit, semble-t-il, le développement exponentiel des
réseaux sociaux qui a résulté de cet ensemble d’innovations.
Ce développement s’explique par ce que les économistes appellent les
rendements croissants d’un système de production : au fur et à mesure que
les volumes augmentent, le coût de développement diminue et l’attractivité
du produit augmente.
C’est le cas des réseaux sociaux puisque chaque nouvel utilisateur du
réseau rend celui-ci plus attrayant pour les futurs utilisateurs et ainsi de
suite, à mesure que le nombre d’utilisateurs augmente. À partir d’un certain
seuil, il y a tous les éléments d’une croissance exponentielle du nombre
d’usagers du réseau. Et cela crée une barrière d’entrée pour les nouveaux
entrants qui doivent avoir les moyens d’attendre que le développement de
leur propre réseau devienne exponentiel… À moins d’utiliser un réseau
existant comme Amazon ou Facebook en en payant le prix. C’est ce que
résume la formule parfois citée pour les start-up : « Winner takes all », « Le
gagnant emporte toute la mise ».
Dans le cas de Facebook qui était au départ un simple réseau de
contacts entre étudiants, l’idée est devenue celle de pouvoir créer pour
chacun des utilisateurs un réseau de plus en plus grand de relations, les
« amis ». Chacun des utilisateurs de Facebook peut y afficher ses
informations et tient au courant de ses activités ses « amis ». Ceux-ci
peuvent réagir en « aimant » (« like ») des idées, des informations affichées.
Avoir beaucoup d’amis Facebook et beaucoup de « like » est une preuve
de popularité pour les adolescents. Il faut savoir que, dans les équipes de
Facebook, il y a des spécialistes de l’addiction, oui de l’addiction, dont la
fonction est de s’assurer que les utilisateurs, notamment les jeunes,
deviennent de plus en plus captifs du réseau et y passent de plus en plus de
temps, ce qui est un élément important de la valorisation de Facebook. Ces
spécialistes modifient régulièrement la formule pour la renouveler et lutter
contre le passage des adolescents à d’autres modes en matière de réseau.
Google et Facebook utilisent l’un et l’autre l’information que leur
communiquent les internautes, soit par leur recherche d’information dans le
cas de Google soit par l’information qu’ils affichent et les contacts qu’ils
prennent sur Facebook.
L’idée qui leur a permis à l’un et à l’autre de devenir extrêmement
rentables et de prendre une part dominante dans le marché de la publicité
sur Internet, c’est l’idée de publicité ciblée avec le « paiement par clic ».
C’est une idée simple : la publicité en général a comme inconvénient
que l’annonceur ne sait pas facilement quel est l’effet de son annonce et qui
l’a vue et utilisée. Avec le paiement par clic, c’est au moment où
l’internaute clique pour regarder et suivre une annonce que l’annonceur sera
facturé.
Autrement dit, Google et Facebook peuvent vendre aux annonceurs
l’idée que la publicité qu’ils vont faire sera une publicité efficace puisqu’ils
ne paieront que si elle est regardée et utilisée pour aller sur le site de
l’annonceur. L’utilisation des données, leur traitement et leur utilisation
pour vendre de la publicité ciblée ont permis à Google, à Facebook et à
d’autres de développer rapidement leurs activités en investissant grâce aux
recettes importantes de la publicité. La valeur de chaque information
fournie par un internaute augmente avec le nombre total d’utilisateurs car le
traitement statistique de la masse de données recueillies est d’autant
meilleur qu’il porte sur un volume important.
De là vient l’expression : « Sur Internet, le produit, c’est vous ! »

Les géants des réseaux


Les gagnants à ce jeu ont été Google, Facebook et également Amazon.
Chacun d’entre eux a systématiquement racheté des concurrents qui
pouvaient soit les gêner, soit compléter leur offre. Ainsi Google a racheté
YouTube, Facebook contrôle Instagram et WhatsApp, a créé Messenger et
se sert d’ailleurs sans vergogne des informations collectées sur chacun des
quatre réseaux pour les transmettre aux trois autres. Le cas de Microsoft est
différent, Microsoft a encore une position dominante dans les entreprises
grâce aux ordinateurs personnels qui utilisent son système d’exploitation
Windows et son logiciel Office ainsi que les logiciels développés autour de
Windows.
L’ensemble des cinq géants de l’Internet a donné naissance au sigle
GAFAM (Google, Amazon, Facebook Apple, Microsoft), réduit parfois à
GAFA en considérant que Microsoft est un cas à part. Les homologues
chinois des GAFA s’appellent les BATX (Baidu, Alibaba, Tencent,
Xiaomi).
Dans les deux cas, il s’agit en fait d’entreprises très différentes les unes
des autres. Elles n’aiment d’ailleurs pas être regroupées dans un sigle qui
donne l’impression d’une coalition menaçante alors qu’elles sont plutôt en
concurrence souvent très vive entre elles. Mais c’est une abréviation
commode pour désigner ces entreprises devenues géantes grâce à Internet.
Comme les GAFA, les BATX ont construit d’énormes entreprises grâce
au rendement croissant des réseaux et, pour certaines, aux recettes de la
publicité.
Les investissements physiques que cela exige (centres de stockage et de
traitement informatiques, entrepôts physiques dans le cas de l’e-commerce)
sont autant de barrières supplémentaires à l’entrée de la concurrence.
Mais il faut noter que le développement de ces géants s’est accompagné
de la création de services tels que l’hébergement par Internet des données et
des programmes dans de très grands centres de traitement (ce qu’on appelle
le « cloud »), ce qui a facilité considérablement l’accès au marché de
nouvelles entreprises offrant des produits et services basés sur Internet.
En effet, la création de nouvelles entreprises dans ce domaine est
facilitée tout d’abord par l’utilisation des logiciels en accès libre (open
source) pour le développement des logiciels d’application en utilisant des
programmes outils qui permettent des économies substantielles de dépenses
de programmation. Elle est facilitée ensuite par le stockage des programmes
et des données dans les ordinateurs du cloud, puis le traitement des
applications à distance, ce que proposent Microsoft et Amazon, les deux
leaders sur ce marché, et d’autres opérateurs (y compris français). Cela
réduit l’investissement en équipement informatique au niveau de
l’entreprise elle-même, qui paie en fonction de l’utilisation du cloud. Enfin,
le succès de quelques-unes des entreprises créées, les start-up, incite
beaucoup plus de capitaux à s’investir dans des entreprises nouvelles de
l’Internet, notamment la finance, mais aussi dans tous les secteurs de
l’économie.
Dans la distribution, Amazon fonctionne aussi en « place de marché »
pour des tiers, c’est-à-dire qu’on peut acheter sur son site des produits
d’autres entreprises, qui seront livrés soit directement par leur producteur,
soit via les entrepôts d’Amazon. Amazon prélève une marge sur ces
produits, et y trouve de plus l’avantage de se présenter au public comme
une entreprise citoyenne qui soutient des PME en leur ouvrant un plus
grand marché, y compris un marché international.
Ainsi, il n’y a guère de secteur qui ne soit touché par cette nouvelle
concurrence basée sur la combinaison de l’Internet à haut débit et de la
portabilité de l’accès.
On l’a vu pour les transports (Uber, Blablacar), pour l’hôtellerie
(Airbnb, Booking), pour les médias, la distribution et, bien entendu, pour la
finance.

Les données, pétrole du XXIe siècle ?


Il est devenu banal de dire, à partir de ce constat, que « les données sont
le pétrole du XXIe siècle », et de poursuivre en notant que les grandes
compagnies pétrolières cotées valent aujourd’hui moins cher en Bourse que
les GAFAM.
Les analogies mais surtout les différences sont significatives. La valeur
économique des hydrocarbures (pétrole et gaz) est au départ une rente de
situation qui est liée à la localisation des gisements. Mais cette rente
nécessite, pour être monétisée, des investissements lourds à chaque étape :
prospection, forage, production, raffinage et distribution. L’industrie des
hydrocarbures repose sur une base scientifique et technologique lourde :
géophysique, mécanique, électricité, etc.
Dans le cas des hydrocarbures, la valeur est partagée tout le long de la
chaîne avec souvent une très grande part allant à sa source, créant une rente
dont bénéficient les propriétaires des réserves. Quant aux grandes
évolutions du secteur, elles sont liées à des percées technologiques lourdes,
par exemple le développement offshore ou le gaz et le pétrole de schistes.
S’agissant des données, leur valeur économique n’est pas aujourd’hui
une rente qui bénéficierait à leur source, c’est-à-dire aux internautes qui les
fournissent en fait gratuitement, à l’occasion d’un service qu’ils utilisent.
Leur valeur augmente avec leur accumulation et la monétisation de ces
données suppose des investissements importants : matériels et logiciels
informatiques et télécoms pour leur collecte, algorithmes et mathématiques
pour leur traitement.
Ces investissements sont bien moindres que l’investissement pour les
hydrocarbures, ce qui explique le développement beaucoup plus rapide de
l’industrie des données et pour le moment la valeur des données n’est pas
du tout monétisée à la source. Les internautes reçoivent en échange de leurs
données un service qu’ils ne paient pas directement, sauf par leur forfait
d’accès à Internet.
Cette industrie repose entièrement sur la confiance, celle des
internautes, le plus souvent implicite, parfois explicite quand l’internaute a
pris le temps de lire les conditions générales d’une offre ou de l’utilisation
des « cookies » qui permettent de garder une trace dans le smartphone de
l’adresse du site visité.
Cette confiance est jusqu’ici peu ou pas le résultat de lois ou de
règlements.

Les abus de confiance des réseaux


et le mythe de l’autorégulation
La liberté et la gratuité de l’accès au réseau sont défendues par
l’ensemble des usagers et pas seulement par les grands acteurs qui en
bénéficient. Cette liberté et cette gratuité ont été des facteurs déterminants
du succès d’Internet. Mais cette liberté a permis aussi un certain nombre
d’abus de plus en plus évidents, comme la manipulation des opinions
publiques par de fausses informations, avec l’exemple spectaculaire en
Grande-Bretagne d’informations fausses ou déformées avant le référendum
sur le Brexit.
Il y a eu aussi la propagation de thèses racistes ou terroristes par les
djihadistes, la diffusion de fausses informations déclenchant des violences.
Ainsi, en mars 2019, des fausses rumeurs sur les réseaux sociaux sur de
prétendus kidnappings d’enfants ont déclenché des violences contre les
Roms en Seine-Saint-Denis. Le même sujet a provoqué en juillet 2018 le
massacre de trois voyageurs indiens innocents dans un État du sud de
l’Inde. Et il y a beaucoup de cas de harcèlement moral d’adolescents par
leurs camarades de classe utilisant un réseau social populaire, aboutissant
parfois à leur suicide.
Au moins jusqu’à ce jour, il n’y a pas eu de projet de restriction
législative ou réglementaire de cette liberté sauf bien entendu en Chine ou
dans d’autres pays qui sont caractérisés par une censure politique sévère des
contenus Internet.
Les grands gérants de tels réseaux tels que Facebook, Google ou Twitter
ont annoncé pour leur part qu’ils mettaient en place des services de filtrage
des contenus et des émetteurs pour bloquer les abus qu’ils détectaient ou
qui leur étaient signalés. Ce filtrage a une limite pratique évidente du fait
des volumes et de la diversité des sources. Il a aussi une limite de principe
qui est le conflit avec le modèle économique même des réseaux qui repose
sur l’accès le plus libre possible aux données. Il se heurte aussi aux
défenseurs de la liberté d’expression la plus complète.
L’Union européenne a pris cependant une initiative concernant non pas
l’accès mais la propriété des données, avec le Règlement général sur la
protection des données (RGPD). Depuis son entrée en application le 25 mai
2018, on a vu quelles difficultés posait sa mise en œuvre notamment sur le
droit d’accès. Elle est cependant effective, elle est bien accueillie par les
usagers et elle a une certaine influence sur le reste du monde qui l’observe
avec intérêt et pourrait s’en inspirer.
Le Parlement européen a franchi courageusement une autre étape en
mars 2019 en adoptant de nouvelles règles sur le droit d’auteur sur Internet
malgré l’opposition acharnée de certains GAFAM et des partisans de la
gratuité totale des contenus.
Enfin, aux États-Unis, un certain nombre de voix commencent à
s’élever notamment dans l’opposition démocrate mais aussi chez les
Républicains pour évoquer la nécessité d’un nouveau type de loi antitrust,
un siècle après les lois qui ont permis de faire éclater le monopole pétrolier
de Standard Oil et le monopole de la sidérurgie. Le chef de la division
chargée de l’antitrust au département de la Justice américain a déclaré en
juin 2019 que la question du pouvoir monopoliste des quatre géants
américains, chacun dans son domaine, seul ou à deux, posait un problème
de concurrence dans ces domaines. Les GAFA (Microsoft est déjà passé par
l’antitrust entre 1998 et 2001…) ont perçu le danger et y répondent par un
lobbying intense à Washington et en intégrant de plus en plus les services et
les sociétés qu’ils reprennent de manière à rendre leur démantèlement de
plus en plus difficile.
Au total, il est possible que la concurrence telle qu’elle fonctionne dans
le monde des réseaux sociaux reste libre, gratuite et très peu réglementée.
Mais un changement du fait de l’antitrust américain n’est pas exclu à terme.
De toutes les façons, pour les entreprises financières, le choc des confiances
continuera de produire ses effets.
CHAPITRE 4

Finance : les géants arrivent en force

La révolution numérique a bouleversé un certain nombre d’industries


depuis les années 1990 et encore plus depuis l’avènement des smartphones
et de l’Internet rapide. Elle a permis le développement d’entreprises
entièrement nouvelles qui ont bouleversé des secteurs comme le transport
urbain ou l’hôtellerie. Leur succès est fondé sur des formes de confiance qui
méritent une analyse.
Cette révolution a permis aussi le développement de géants américains
d’Internet, qui commencent à aborder le secteur de la finance. Leurs
homologues chinois y ont déjà pénétré massivement en Chine. Il est
intéressant d’analyser les stratégies de développement des uns et des autres
en examinant chaque fois le rôle de la confiance dans leur succès et dans
leurs limites.

La confiance par l’expérience, même


sur Internet
En matière de confiance, le cas d’Uber est intéressant.
Créé au début du développement des smartphones, en 2009 seulement,
Uber a connu une croissance foudroyante en révolutionnant le service des
transports personnels individuels à la demande en zone urbaine. La
combinaison d’une plateforme de réservation et de chauffeurs, indépendants
mais suivis de près, a permis à Uber de s’imposer au détriment des taxis
réglementés.
Son développement a été financé par des investisseurs qui ont accepté
des pertes considérables, pendant des années, dans l’espoir qu’Uber
parviendrait à cumuler des positions dominantes et pourrait alors gagner de
l’argent. Le succès d’Amazon après des années de pertes avait encouragé
les investisseurs à suivre Uber.
Malheureusement, il apparaît que d’une part ce type de service ne
comporte pratiquement pas de barrière à l’entrée significative, car il n’y a
pas d’investissement considérable en informatique et encore moins en
moyens physiques, et d’autre part que la confiance n’est plus un atout
d’Uber pour plusieurs raisons : une tarification modulée suivant la demande
qui se traduit par des fluctuations considérables dans une journée et donne
aux clients le sentiment d’être exploités ; l’absence de confiance sur la
sélection et le contrôle des conducteurs, avec la médiatisation de quelques
cas de problèmes sérieux ; la dégradation de la sélection et de la formation
des chauffeurs par rapport à l’offre initiale de lancement ; les échos d’un
climat social interne conflictuel.
Il est vrai qu’Uber s’efforce de corriger tous ces défauts pour rétablir la
confiance, notamment en utilisant les opinions des utilisateurs pour
contrôler les chauffeurs, procédé qui est devenu un moyen classique sur
Internet pour mesurer la qualité du service par les notes données par les
usagers. Mais quels que soient les résultats que peut obtenir Uber pour
améliorer son image et rétablir la confiance des clients, il restera que les
barrières à l’entrée sont très limitées pour les transports par véhicule privé.
La pression sur les prix et les marges risque donc de rester durable. C’est
une activité qui sera profondément modifiée le jour où des voitures
autonomes pourront circuler réellement en grand nombre et fournir un
transport individuel à la demande, sans chauffeur, de porte à porte et
commandé par Internet.
La confiance construite en utilisant les opinions des clients a été le
moteur principal du développement de Booking, de TripAdvisor et
d’Airbnb.
Créé dès 1996, Booking a modifié profondément les habitudes et le
fonctionnement de l’hôtellerie et de la restauration. Cette entreprise a réussi
à s’imposer bien qu’elle ait aujourd’hui de nombreux concurrents, et elle a
pu prélever des marges significatives sur les hôtels et restaurants en utilisant
le principe de la notation par les clients. Cela suppose qu’elle s’assure de
l’authenticité et de l’indépendance de ces notations, qui ne peuvent pas être
facilement manipulées par les prestataires de services d’hôtellerie et de
restauration. C’est la clé de la confiance qui est au cœur de son modèle
économique.
On retrouve la notation par les clients dans le cas de TripAdvisor, créé
en 2000 et basé aussi sur les opinions des clients sur les restaurants et
hôtels. TripAdvisor vaut aujourd’hui plus de 7 milliards de dollars en
Bourse et suit plus de 6 millions de restaurants, hôtels et chambres d’hôtes.
Les clients qui donnent leur opinion peuvent aussi envoyer des photos et le
site dispose de dizaines de millions de ces photos, prises par des
particuliers. Certains restaurants touristiques, à l’étranger notamment,
donnent leur carte aux clients qui expriment leur satisfaction au moment du
paiement, en leur suggérant de l’exprimer aussi à TripAdvisor…
La confiance suppose que les avis des clients soient soigneusement
filtrés pour détecter les faux avis favorables ou les critiques de concurrents
déguisées en avis défavorables de clients. Ce filtrage est fait par des
algorithmes supervisés par des analystes, et sa qualité est le facteur essentiel
de la confiance des clients.
Le modèle économique est complexe pour ne pas compromettre cette
confiance. Il repose sur une part de publicité payante, qui doit être identifiée
sur le site comme telle. Depuis quelques années, ces sites étendent aussi
leur offre en proposant aux internautes de passer aussi par eux pour faire
leurs réservations d’une gamme de prestations touristiques.
Airbnb a été créé plus récemment, en 2008. À la différence de Booking,
Airbnb a basé son développement sur la création d’une offre nouvelle en
matière d’hôtellerie vendue sur Internet. Il a ouvert au marché mondial la
location pour des durées limitées de résidences privées dans différents pays.
À la différence d’Uber, le risque pris par les clients chaque fois qu’ils
utilisent les services d’Airbnb pour une location est un peu plus important
que celui que l’on prend chaque fois en utilisant un transport à la demande
en ville. En effet, il peut s’agir de séjours de vacances ou de séjours
professionnels dépassant quelques jours pour lesquels le confort et la
sécurité sont des éléments importants.
Il semble que les systèmes de vérification à la fois de l’offre et des avis
des clients aient permis d’établir cette confiance puisque le développement
d’Airbnb semble surmonter l’apparition de réglementations qui limitent son
marché dans un certain nombre de grandes villes. Ces règlements ont pour
objet d’appliquer à Airbnb des règles comparables à celles qui régissent les
hôtels et aussi d’éviter la transformation en résidences hôtelières de trop de
résidences principales. Au total, la valeur de l’entreprise Airbnb reste
élevée (à ce jour environ 30 milliards de dollars).

Le Guide Michelin, toujours vaillant


Rappelons que le Guide Michelin, qui est l’ancêtre, toujours vigoureux,
des classements des hôtels et restaurants, base ses notations sur l’avis de ses
inspecteurs anonymes qui vérifient personnellement la qualité des
prestations.
Cette solution, d’avant Internet et qui existe toujours, est coûteuse, mais
elle constitue un élément important de l’image du Guide Michelin et de la
confiance dont il bénéficie. Il n’y a donc pas un modèle unique pour établir
la confiance.

La confiance par le contact humain


personnel
L’irruption de la révolution numérique dans un secteur fortement
réglementé comme la médecine, où la confiance est, littéralement, vitale,
est un cas intéressant.
La gestion par Internet des rendez-vous médicaux offerte par Doctolib
est un cas dans le domaine de la santé.
Créé en 2013, Doctolib n’intervient pas dans les relations entre patients
et médecins mais uniquement dans la prise de rendez-vous et la gestion de
l’agenda du médecin. C’est un service basé sur la confiance des médecins
qui acceptent de l’utiliser, car leur activité dépend de la bonne gestion de
leur agenda de rendez-vous. Ce besoin de confiance suppose une démarche
individuelle d’un représentant de Doctolib auprès de chaque médecin pour
le convaincre de s’en servir, visite complétée par le bouche-à-oreille.
La rémunération du personnel qui fait ces visites individuelles pour
convaincre les médecins est l’un des principaux postes de dépense de
Doctolib et nécessite un financement significatif pour le développement de
la société.
Mais Doctolib ne bouleverse pas l’activité fondamentale du secteur
médical, qui est l’exercice de la médecine. L’entreprise permet un gain de
productivité du médecin et de son secrétariat dans la gestion du temps,
essentielle dans cette profession.
La confiance des médecins repose sur l’expérience du service pendant
la période d’essai, et sur le bouche-à-oreille dans la profession. Dans cette
profession réglementée, Doctolib n’utilise pas les données recueillies auprès
de ses utilisateurs, les médecins, et est rémunéré par les abonnements.
La révolution numérique a permis à Doctolib, créé en 2013, d’exister au
point de valoir sur le papier un milliard d’euros début 2019, sur la base des
conditions de la levée de fonds qui a été effectuée pour accélérer son
développement.
La confiance est finalement un résultat plus qu’une recette.

Avec les données, la confiance devient


accessoire :
les géants d’Internet
Dans le cas des grands acteurs de l’Internet, leur modèle économique
est le plus souvent bien différent, car il est principalement basé sur
l’exploitation des données recueillies pour mieux cibler la vente de biens,
de services ou de publicité.
Si nous revenons à la formule « les données sont le pétrole du
e
XXI siècle », les transactions Internet seraient l’Arabie saoudite de ce
pétrole, c’est-à-dire un gisement immense de données utilisables à un coût
relativement bas. En effet, reprenons le cas d’un achat de bien ou de service
effectué sur Internet par un particulier. Les informations que pourrait
fournir cette transaction sont : l’adresse Internet du particulier et celle du
vendeur, la nature et le montant de la transaction, le lieu où se trouve
l’internaute au moment où il effectue son achat.
On peut imaginer que si toutes les transactions que fait un internaute
utilisent la même carte de paiement ou bien le même smartphone, et que
toutes les données sont enregistrées y compris la localisation (s’il n’a pas
pris la précaution de neutraliser cette information sur son smartphone),
l’ensemble des transactions sur une période un peu prolongée donnera des
renseignements très complets, non seulement sur ses goûts, ses habitudes et
ses comportements, mais aussi sur son train de vie et ses revenus. C’est
donc bien un gisement exceptionnel qu’il est très tentant d’exploiter.

Le modèle chinois est-il notre avenir ?


Pour avoir une idée de ce que pourrait donner cette exploitation des
données poussée à son extrême dans un environnement non réglementé, il
faut aller en Chine, et, dès que l’on atterrit, se munir d’une carte Alipay ou
WeChat Pay, indispensable pour pouvoir payer ses achats.
La Chine présente en effet un environnement favorable pour le
développement des géants de l’Internet pour les raisons suivantes : les
Chinois ont court-circuité l’étape du téléphone filaire pour passer presque
directement au portable et à Internet ; les banques chinoises ne sont pas
d’une sécurité absolue et n’ont pas la totale confiance des Chinois de ce
point de vue (par exemple, mise sous tutelle d’une banque provinciale
annoncée en mai 2019) ; la réglementation en matière de protection des
données individuelles est inexistante, c’est même l’inverse puisque le
gouvernement utilise la reconnaissance faciale pour l’identification et les
éléments de comportement pour noter ses citoyens, et ceux-là n’ont pas le
choix et doivent l’accepter ; enfin, la Chine s’est fermée à la plupart des
géants de l’Internet américains qui ont fini par renoncer à y pénétrer.
Dans ces conditions, il s’est créé quatre géants de l’Internet chinois que
l’on peut citer sous le sigle de BATX, en l’occurrence Baidu, Alibaba,
Tencent et Xiaomi. Chacun des quatre est d’une certaine manière
l’homologue chinois d’un des quatre grands américains : Alibaba était au
départ un e-commerçant comme Amazon, Tencent un réseau de messagerie
un peu comme Facebook, Baidu un moteur de recherche comme Google et
Xiaomi un fabricant de téléphones comme Apple.
Des quatre BATX, ce sont Alibaba et Tencent qui ont le plus développé
les activités de paiement et plus généralement les services financiers. Baidu,
le « Google chinois » avait bien créé une filiale de financement mais elle en
a cédé la majorité en avril 2018 à des fonds d’investissement américains
pour conserver 42 %.
À la différence de leurs homologues américains, les BATX ne tirent pas
l’essentiel de leurs revenus de la publicité. Les internautes paient des
abonnements, les commerçants des commissions, et chacun des quatre s’est
diversifié dans des activités également rentables.
Il leur reste un important potentiel de développement des ressources
publicitaires au fur et à mesure que les Chinois entrent de plus en plus dans
la société de consommation. De ce fait, leur expansion hors de Chine n’est
pas vitale pour eux, même s’ils sont très présents en Asie.
C’est Alibaba et Tencent qui ont le plus développé leurs services
financiers en commençant par les services de paiement après avoir obtenu
les licences nécessaires. Alibaba est la plus grande entreprise d’e-commerce
du monde. Depuis quelques années, chacun des quatre s’est diversifié dans
un très grand nombre de domaines, n’hésitant pas d’ailleurs à se faire
concurrence, sous le regard bienveillant des autorités qui pratiquent ainsi
l’économie de marché version chinoise.
Alibaba a étendu ses services financiers sous la structure cotée Ant
Financial qui a englobé en 2004 l’entreprise de services de paiement Alipay
elle-même cotée. Ant Financial pesait en 2018 150 milliards de dollars, ce
qui en faisait une des dix plus grandes entreprises financières mondiales. En
2018, Ant Financial a levé 14 milliards de dollars auprès d’investisseurs, à
comparer aux 15,9 milliards de dollars levés la même année par la totalité
des entreprises financières d’Internet aux États-Unis et en Europe.
Les filiales financières du groupe Ant Financial (source Wikipédia)
sont :
Alipay, service de paiement par smartphone ;
Huabei, ou Ant Credit Pay, carte de crédit virtuelle pour l’achat à
crédit ;
MYbank, banque privée entièrement sur le cloud ;
Jiebei, Ant Cash Now, prêts à la consommation ;
Ant Fortune, application complète de gestion de patrimoine ;
Ant Insurance Services ;
Zhima Credit, système indépendant de credit scoring pour les
particuliers ;
ZOLOZ, une plateforme de vérification biométrique des identités.
Au cours d’une réunion autour des fintechs françaises tenue à Paris, à la
Station F en avril 2019, le représentant à Paris d’Alibaba, responsable de
son développement notamment en France, a expliqué au public la stratégie
de son groupe, en particulier sur la marque Alipay utilisée pour les cartes de
paiement.
Alipay propose en Chine tous les services possibles et imaginables pour
offrir à ses internautes avec les services Alibaba un univers complet. Cela
comprend naturellement tous les paiements possibles partout, jusqu’aux
réservations de spectacles, de moyens de transport, de rendez-vous
médicaux. Mais aussi des jeux et bien entendu les crédits, l’épargne et
l’assurance, comme le montre la liste des filiales d’Ant Financial. Alipay
offre tout un ensemble de services financiers qui doivent permettre à un
porteur de carte Alipay de vivre entièrement sous le regard d’Alibaba, avec
simplement sa carte comme moyen de communication et d’opérations
financières.
Au passage, le représentant d’Alibaba explique que, pour les
commerçants, l’utilisation d’Alipay est particulièrement simple : Alibaba
leur fournit un QR code (ce petit carré de marques noires et blanches qui est
maintenant généralisé pour transmettre de l’information à un smartphone
par simple photographie), le client utilise sa carte pour viser le QR code du
commerçant et cela suffit à identifier le client, à régler le paiement en
créditant le compte du commerçant et à enregistrer l’ensemble, par ce
simple geste avec le smartphone.
Alipay est présent maintenant à l’étranger avec l’objectif initial
d’équiper les commerçants locaux qui reçoivent des touristes chinois de
manière à ce que ces derniers puissent utiliser commodément leur carte
Alipay où qu’ils soient. Alipay anticipe l’arrivée en France de millions
supplémentaires de touristes chinois…
Les BATX, comme Alibaba le démontre, ne se cantonnent pas au seul
marché chinois. En 2015, ils affirmaient que 10 % de leurs revenus étaient
déjà générés hors de Chine.
Ant Financial a créé pour cela des affaires avec des partenaires en Inde,
en Thaïlande, au Bangladesh, en Corée du Sud, aux Philippines, en
Indonésie, en Malaisie, et naturellement à Hong Kong, avec le groupe de
l’homme le plus riche de Hong Kong, Li Ka-shing.
Ant Financial n’est pas en reste quand il s’agit de développement
durable. En 2017, le magazine Fortune l’a classé sixième dans sa liste
« Changer le monde » des entreprises qui font le plus pour le climat, avec
Ant Forest, une application grâce à laquelle 230 millions d’utilisateurs
d’Alipay ont pu accumuler des points en modifiant leur comportement pour
réduire leur empreinte carbone, ce qui a permis de plus de planter en leur
nom 10,25 millions d’arbres.
Dans le cas de Tencent, concurrent d’AliPay pour les paiements, un de
ses principaux outils de développement est le réseau WeChat déjà très
utilisé en France, qui affiche 1 milliard d’utilisateurs dans le monde.
Cependant, ce développement international, s’il est possible, n’est pas
vital pour les géants chinois de l’Internet dont le marché domestique de la
consommation a un potentiel de développement encore supérieur à celui de
la plupart des autres pays.
L’expérience des BATX en Chine n’est évidemment pas transposable au
reste du monde, ni même aux États-Unis qui sont le marché domestique des
GAFA, car l’environnement réglementaire et social y est différent de celui
de l’Asie.

Dès maintenant, les GAFA dans la finance


L’expérience d’Alibaba indique que dans le cas où un fournisseur de
services Internet a le poids et la puissance des BATX ou des GAFA, la
confiance qu’il peut obtenir des internautes s’étend éventuellement au-delà
des seuls paiements, à des services financiers tels que les produits
d’épargne, d’assurance et de crédit. Il est clair qu’une telle extension
imposerait l’adhésion aux réglementations financières spécifiques pays par
pays, qui comportent toutes des conditions de transparence, de minimum de
fonds propres affectés, de respect des règles de conformité, etc.
Il est probable aussi que, dans les conditions actuelles du marché
européen des activités financières, taux d’intérêt très bas, contraintes de
fonds propres, une entrée sur ce marché au-delà des services de paiement
n’est pas rentable de manière évidente pour les GAFA, même s’ils seraient
mieux placés pour ce type d’interventions que leurs homologues chinois
s’ils la décidaient du fait de leur plus grande présence en Europe.
Mais un tel développement ne paraît pas exclu à terme dans la mesure
où les GAFA, et même Microsoft, arriveraient à un plafonnement de
certaines de leurs activités centrales et auraient alors une forte incitation à
étendre la gamme de leurs propositions dans les services financiers.
Compte tenu de leurs moyens financiers considérables, chacun des
géants américains de l’Internet aurait les possibilités de développer des
activités nouvelles en matière de finance réglementée et il est intéressant
d’examiner leur stratégie actuelle et le développement qu’ils ont déjà,
notamment aux États-Unis.
Et bien entendu l’annonce par Facebook de son projet de monnaie
universelle va accélérer ce développement, ne serait-ce que par émulation
de la part de Google ou d’Amazon.
Avant d’arriver à Facebook, il est utile de présenter les autres géants
américains, par ordre de probabilité croissante d’intervention dans les
activités financières, c’est-à-dire dans l’ordre : Microsoft, Amazon, Apple
et Google.

Microsoft : mon business c’est d’abord


le business
Microsoft a été créé bien avant les GAFA, en 1975, soit presque vingt
ans avant Amazon. L’entreprise s’est développée en construisant un quasi-
monopole autour de son système d’exploitation Windows pour les micro-
ordinateurs appuyé par celui de sa suite d’applications pour le bureau
Office. Windows occupe une part prépondérante du marché des systèmes
d’exploitation pour les micro-ordinateurs utilisés par les professionnels et
les entreprises.
Apple a une part de marché plus faible, et est plus présent chez les
particuliers et dans certaines professions tournées vers la création (design,
médias).
Microsoft n’a jamais cherché à développer une offre de services
financiers mais a largement étendu son activité, d’abord par des
applications comme les jeux sur terminaux spécialisés, et également par
l’offre de logiciels liés à Windows, comme le moteur de recherche Bing.
Très tourné vers le marché des entreprises, Microsoft a créé son propre
cloud, c’est-à-dire une offre de stockage et de gestion à distance des
programmes et des données principalement pour les entreprises. Le cloud
de Microsoft détient une part du marché de stockage et de traitement de
données à distance de 30 %, derrière Amazon qui a près de 40 % mais bien
devant les suivants.
Par exemple, dans le cas d’une start-up récente créée dans le domaine
financier et qui a choisi une approche business-to-business – c’est-à-dire
qu’elle s’adresse exclusivement à des entreprises –, son développement a
été très facilité par le soutien de Microsoft. Cette entreprise propose aux
entreprises le traitement en ligne de leurs comptes clients pour en assurer le
recouvrement et éventuellement la liaison avec un service d’assurance-
crédit ou de refinancement par factoring. En utilisant le cloud, la start-up a
pu mettre en place rapidement ses services avec la sécurité d’un stockage
des données et des programmes chez Microsoft. Cela a été l’occasion pour
elle de constater que, dans ce cas, Microsoft consacrait des moyens
significatifs pour aider cette start-up tournée vers les entreprises, non
seulement à mettre au point ses dispositifs techniques, mais aussi en lui
permettant de présenter son application aux commerciaux de Microsoft de
manière à les aider à diffuser son projet.
Ce type d’assistance est offert aussi par les autres fournisseurs de
services sur leur cloud. Ce qui veut dire que, lorsque l’on réfléchit à la
façon dont les grandes entreprises financières traditionnelles, banques et
assurances, doivent s’adapter au nouvel environnement de la révolution
numérique, l’utilisation du cloud pour elles-mêmes et pour leurs clients est
un élément important de leur stratégie.
Il convient bien entendu de mentionner aussi qu’il existe aujourd’hui
plusieurs offres de cloud français qui donnent en principe une certaine
protection à l’égard de l’accès aux données au titre de l’extraterritorialité
des autorités américaines.

Amazon ou comment un libraire en ligne


devient un géant de la distribution
Amazon a été fondé par Jeff Bezos en 1994 sur un modèle encore
différent de celui basé sur le matériel d’Apple ou sur le logiciel de Google.
Son métier au départ était uniquement de vendre des livres sur Internet.
Introduit en Bourse en 1997, Amazon a réussi à convaincre les
investisseurs que le fait de ne pas faire de bénéfice mais d’investir le cash-
flow et au-delà, pour se développer, donnait un avenir peut-être brillant à
l’entreprise. Et le marché a suivi Jeff Bezos et l’a soutenu malgré les pertes
récurrentes.
Rapidement, Jeff Bezos a étendu bien au-delà des livres la gamme des
produits offerts, ce qui a nécessité simultanément un investissement encore
plus important en entrepôts et en dispositifs pour assurer les livraisons,
investissement qui sera très largement automatisé par étapes.
Amazon a abordé jusqu’à la vente de produits frais et acheté en 2017
une chaîne de magasins d’alimentation, Whole Foods. Cette initiative a été
suivie par une refonte complète de l’entreprise rachetée, en y implantant les
techniques de gestion de fichiers et de livraison d’Amazon. Elle a déclenché
aussi une réaction des grands distributeurs américains qui ont accéléré leur
numérisation et réussi à limiter la progression d’Amazon sur leur marché.
L’expérience Whole Foods est encore trop récente pour en tirer des
conclusions, mais elle montrera peut-être que les entreprises traditionnelles
peuvent aussi accélérer leur mutation numérique pour réagir avec efficacité
à la disruption.
En 2006, Amazon a pris une initiative importante en lançant Amazon
Web Services, c’est-à-dire un cloud comme il en existait déjà pour stocker
données et programmes dans des sites informatiques dont on ne connaît pas
nécessairement l’implantation physique (d’où le terme cloud, « nuage ») en
assortissant cette offre de nombreux services.
Amazon l’a développé très rapidement et Web Services est devenu de ce
fait un contributeur important à ses résultats qui permet à Amazon
d’accélérer encore le développement notamment à l’international en créant
partout des entrepôts et des systèmes de livraison rapide.
Le succès d’Amazon est entièrement basé sur la qualité de l’exécution à
tous les niveaux, dès la commande : ergonomie du site, rapidité de réponse
et suggestion quasi instantanée de compléments à la demande du client et
des possibilités d’achats complémentaires, en utilisant bien entendu toutes
les données dont Amazon dispose sur ce client. La livraison très rapide est
dans beaucoup de cas probablement déficitaire, mais c’est un élément
essentiel de la pénétration du marché dans beaucoup de cas. L’après-vente
est également soignée de même que la sécurité de l’accès Internet.
En 2005, Amazon annonce le lancement d’Amazon Prime, un service
par abonnement qui offre des avantages en termes de rapidité de livraison.
Amazon Prime est rapidement amélioré et étendu au-delà des États-Unis et
son prix est porté aux États-Unis à 100 dollars par an (en France 49 euros
par an). Amazon ne publie pas le nombre total d’abonnés à Amazon Prime
dans le monde, mais on sait qu’aux États-Unis il atteignait, début 2019, 100
millions de personnes.
Toujours dans sa stratégie d’élargir les relations avec les clients qui sont
les acheteurs sur son site de commerce, Amazon décide d’entrer dans
l’activité de production de vidéos et de distribution de films et de séries, en
suivant en cela d’autres géants de l’Internet qui réagissent au
développement très rapide de Netflix, fournisseur de vidéos par
abonnement sur Internet. Impressionnés par le développement rapide du
nombre d’abonnés de ce dernier, ces géants pensent que les modèles
combinant abonnement mensuel et production de contenu, films et séries,
visibles sur écran et transmis par Internet est prometteur. Il peut être
rentable compte tenu du nombre d’utilisateurs qu’ils ont déjà pour leur
marque principale, et il crée un lien de plus, et une source de données de
plus pour leur machine à cash.
Pour accéder à ce marché, Amazon vend pour quelques dizaines de
dollars un petit récepteur du signal Internet qui se branche directement sur
un téléviseur et permet de recevoir les émissions d’Amazon TV, mais aussi
d’autres sources, y compris Netflix. Le petit récepteur Internet branché
directement était déjà la solution utilisée par Apple et Google pour la
réception directe sur un téléviseur du signal Internet portant films et séries.
Comme Amazon, une façon pour Google et Apple d’entrer au domicile
des internautes est l’assistant vocal personnel. Chacun a développé d’abord
un logiciel de reconnaissance vocale pour l’utilisation sur un ordinateur ou
sur un smartphone de l’internaute. Dans l’étape suivante, ce logiciel a été
intégré pour l’utilisation à domicile avec une enceinte qui enregistre et
répond à des commandes vocales, ce qui permet, quand elle est branchée,
un grand nombre d’opérations ou de demandes toutes interprétées par
reconnaissance vocale, avec une réponse par synthèse vocale.
Sur quoi est basée la confiance que les clients font à Amazon,
notamment par exemple en souscrivant pour devenir un client Prime, ce qui
coûte quelques dizaines d’euros par an en France et 119 dollars aux États-
Unis ?
Au-delà du service de livraison et de l’accès à une gamme très étendue
de produits, la confiance des clients d’Amazon est basée sur le service à
tous les stades : l’ergonomie et la rapidité de réponse du site pour répondre
à une recherche de produit avec une offre très large de biens et de services ;
le paiement en un clic de la commande ; la rapidité de livraison (livraison
en un jour ouvré dans certains cas) qui coûte manifestement cher à Amazon
et, probablement dans beaucoup de cas, rend déficitaire la vente des biens
de petite valeur sur une commande isolée ; l’accès à des vidéos et à de la
musique, gratuit pour les abonnés Prime ; le service après-vente qui
comporte notamment une possibilité de retour des biens en cas de désaccord
du client ou d’erreur, retour qui se fait sans discussion et sans frais dans la
plupart des cas ; enfin, la sécurité et la détection de cas de fraude, avec une
réaction rapide en cas de problème, y compris par un service facilement
accessible par téléphone et réactif.
Cet ensemble de dispositions et les investissements déjà réalisés en
entrepôts créent une barrière à l’entrée très élevée pour ce type d’activité, et
ont permis à Amazon de prendre des parts de marché élevées au détriment
d’abord de la grande distribution.
Cependant, il est intéressant de voir que les grands distributeurs tels que
Walmart aux États-Unis ou les grands distributeurs européens ont su réagir
à la concurrence d’Amazon et ont réussi à s’adapter par un ensemble de
mesures variables selon les cas. Ce n’est pas ici le sujet, mais il comporte
certainement des leçons pour les entreprises traditionnelles de la finance.
Amazon est aussi un grand utilisateur des données fournies par les
internautes. Ces données étaient utilisées principalement au départ dans le
cadre de la relation commerciale d’Amazon avec chaque internaute.
Aujourd’hui, Amazon se développe aussi dans la vente de publicité ciblée
et marche sur les plates-bandes de Google et de Facebook qui dominent ce
marché.
Il est probable qu’Amazon réagira au lancement de Libra, le projet de
monnaie de Facebook, en développant plus rapidement Amazon Pay, sujet
que nous traiterons plus loin.
Apple, protecteur des données privées
Le sigle GAFA ou GAFAM est commode et très utilisé mais couvre en
fait cinq réalités très différentes, à beaucoup d’égards.
C’est notamment le cas d’Apple qu’il est intéressant d’analyser avant
Google et Facebook, car sa stratégie est opposée à la leur.
En effet, Apple est le seul des cinq géants qui ait basé son
développement et son succès sur la vente du matériel informatique produit
sous sa marque, qu’il s’agisse à l’origine des micro-ordinateurs Mac, puis
des baladeurs iPod (lancé en 2001), et bien sûr de son produit vedette
l’iPhone (2007-2008) mais aussi des tablettes iPad (2010) et de l’Apple
Watch (2015).
À la différence d’autres géants de l’Internet, Apple a globalement pour
stratégie de proposer à ses clients d’entrer en fait dans un monde fermé,
partageant des logiciels et des applications pour ses différents produits
physiques, avec un cloud Apple commun pour le stockage des données et
un « magasin » commun pour la musique et les vidéos.
La proposition d’Apple permet de vivre le numérique dans un univers
Apple, du point de vue du matériel, avec un ordinateur Mac, un iPad, un
iPhone, une connexion à la télévision AppleTV, une montre Apple Watch,
etc., aussi bien que de celui des contenus avec les applications de l’App
Store ou la musique et les vidéos d’iTunes. Le matériel Apple est en effet
complété par une offre de produits et de services Apple à travers l’App
Store et iTunes (ou ses successeurs annoncés en 2019), c’est-à-dire l’accès à
la fois aux applications, à la musique, aux vidéos et à tous les logiciels qui
relient ces différents éléments entre eux et stockent les données sur un cloud
Apple avec un identifiant commun Apple. Le caractère original des produits
Apple, tant par l’esthétique que par l’ergonomie, a créé un sentiment de
« club » chez les premiers utilisateurs qu’Apple s’efforce de perpétuer.
Apple a choisi délibérément de privilégier la rentabilité sur la part de
marché, qu’il s’agisse des micro-ordinateurs ou des smartphones. Dans le
cas des smartphones, Apple est devancé par Samsung et Huawei en termes
de nombre d’appareils vendus.
C’est une stratégie de marque de luxe, avec un positionnement de ses
prix au-dessus de ceux de ses concurrents. Cela suppose aussi des produits
et des services haut de gamme, qu’il s’agisse de l’esthétique de ses produits,
de l’accueil dans ses magasins ou du service après-vente téléphonique et
Internet. L’objectif est de donner au client le sentiment qu’il appartient à un
groupe privilégié en étant client d’Apple.
Compte tenu de cette approche, Apple a choisi de mettre en avant
comme argument de vente le fait qu’il n’utilise pas les données fournies par
les internautes pour vendre de la publicité et des produits ciblés, ce qui n’est
pas son modèle économique.
Ainsi, en janvier 2019, au CES (Consumer Electronics Show) de Las
Vegas, le grand événement annuel où les constructeurs et les fournisseurs
rivalisent pour montrer leurs innovations et leurs meilleurs produits, la
phrase affichée en grands panneaux par Apple se traduisait par : « Ce qui se
passe dans votre iPhone reste dans votre iPhone », se démarquant ainsi
délibérément des autres géants au moment où le thème de la protection des
données était un des sujets du jour.
Le modèle économique d’Apple repose de plus en plus sur la vente de
services et de contenus pour compenser la moindre croissance des ventes
d’iPhone, qui suit la lente décrue du total des ventes mondiales de
smartphones.
La vente de services inclut la diffusion d’applications développées par
des tiers, par l’App Store dont Apple dit qu’il est utilisé par 1 milliard de
personnes dans 155 pays. Avant de les mettre en ligne, Apple vérifie que les
applications proposées respectent la vie privée des utilisateurs, en leur
demandant un accord explicite clair pour enregistrer leur activité avec leur
application. Cela peut limiter l’intérêt de l’App Store pour les développeurs
qui ne peuvent pas utiliser les données des internautes en dehors de
l’application, par exemple pour vendre de la publicité pour d’autres
produits. Sur Internet, baser la confiance sur le respect de la vie privée des
internautes est une contrainte exigeante…
Une nouvelle initiative d’Apple, annoncée début juin 2019 au cours de
la conférence qui réunit les développeurs d’applications proposées sur
l’App Store va dans le même sens : protéger les données des internautes qui
utilisent le système d’exploitation d’Apple tout en empêchant Google et
Facebook de les récupérer.
Il faut savoir que beaucoup d’applications permettent aux internautes de
s’inscrire plus rapidement pour y accéder en utilisant les données de leur
compte Google ou Facebook : il leur suffit de cliquer simplement sur « Join
with Google » ou « Join with Facebook » pour éviter la corvée d’avoir à
remplir un formulaire d’inscription, formulaire qui comprend au moins
l’adresse e-mail et parfois plus de données de l’internaute. Dans ce cas,
c’est Google ou Facebook qui communique au site de l’application les
données de l’internaute pour lui permettre d’y accéder. Google ou Facebook
est donc informé aussi de cette inscription.
C’est commode et beaucoup d’internautes choisissent aujourd’hui de
s’inscrire via Google ou Facebook. Apple a décidé de faire d’une pierre
deux coups en offrant sa version de ce service : permettre comme ses
concurrents une inscription en un clic pour accéder aux applications, mais
aussi protéger les données des internautes.
Une prochaine version du système d’exploitation d’Apple, qui sera
téléchargée sur les appareils d’Apple lors des mises à jour, comportera une
fonction « Sign in with Apple » (« Enregistrez-vous avec Apple »). En
même temps, Apple impose aux développeurs d’applications présentes sur
App Store qui donnent déjà aux internautes la possibilité de s’inscrire via
leur compte Facebook ou Google d’ajouter celle de le faire via leur compte
Apple.
Mais il y aura une différence essentielle s’ils choisissent « Sign in with
Apple » : Apple fournira chaque fois une adresse mail qui pourra être
différente de celle de l’internaute s’il le désire, et pas d’autre information.
Cela fera que l’internaute aura accès à l’application sans livrer de données,
alors que, s’il utilise Facebook ou Google, ses données stockées par ces
derniers pourront être données (ou vendues…) au gestionnaire de
l’application, et le fait qu’il s’est inscrit s’ajoutera aux données stockées par
Google ou Facebook sur ses centres d’intérêt.
Apple s’insère ainsi comme un « tiers de confiance » dans la relation
entre l’internaute et l’application. Pour les auteurs d’applications, passer par
les conditions d’Apple les prive de la possibilité d’exploiter les données de
l’internaute, sauf accord explicite clair. Mais l’importance d’App Store pour
la vente d’applications est telle qu’Apple espère réussir à imposer cette
clause. Il convient de rappeler que l’App Store propose plusieurs millions
d’applications et a procuré depuis son lancement en 2008 plusieurs dizaines
de milliards de dollars aux développeurs d’applications vendues par son
canal.

Apple, banquier privé ?


Cela n’empêche pas Apple de s’intéresser au paiement et aux services
financiers. Un premier volet consiste à utiliser l’IPhone comme outil de
paiement dans le commerce. Cela suppose de passer des accords avec les
banques des commerçants, ce qui a été fait par exemple avec BNP-Paribas
et d’autres banques françaises. Au moment de l’achat, le client utilise
l’identification que fournit son iPhone, soit par empreinte digitale, soit par
reconnaissance faciale de son visage. Il n’y a pas d’exclusivité de ces
accords pour Apple, et les téléphones utilisant Android (Samsung par
exemple) disposent de dispositifs analogues.
Apple a visiblement le projet d’aller plus loin, en tous les cas aux États-
Unis, si l’on en juge par l’accord qu’il est en train de passer ou de négocier
avec Goldman Sachs. Apple proposera une carte physique, à son nom qui
sera, naturellement pour un produit haut de gamme, métallique et argentée.
Cette carte sera un complément physique à l’identification directe par
l’iPhone, qui garde beaucoup d’avantages de rapidité et d’efficacité.
Le choix de Goldman Sachs n’est pas neutre : Goldman Sachs, grande
banque d’investissement, a décidé depuis quelques années de se développer
dans le domaine de la gestion privée, en étendant la gestion d’actifs pour les
institutionnels qui existait déjà. La clientèle de Goldman Sachs pour la
gestion privée commence à devenir importante en nombre et en montants
aux États-Unis et c’est une clientèle ayant des revenus plutôt élevés, bien
dans la cible d’Apple. Goldman Sachs n’exclut pas d’étendre cette activité à
l’étranger, avec Apple.
Cela étant dit, l’accord entre Apple et Goldman Sachs sera intéressant à
suivre. En effet, chacune de ces deux entreprises est réputée pour être un
négociateur difficile et exigeant. Dans le cas du développement commun
prévu, le partage des marges et l’utilisation des données seront des sujets
importants et difficiles.
C’est la banque qui supporte les coûts de la réglementation et de la
conformité alors que c’est Apple qui a aujourd’hui le plus de clients. Il y
aura donc une question de partage des marges et d’utilisation des données.
À cet égard le fait qu’Apple ait pris une position générale de ne pas
utiliser les données de ses clients sans leur accord pourrait faciliter la
relation dans la mesure où la rentabilité pour Apple n’est pas fondée avant
tout sur la publicité ciblée à partir de données recueillies.
Avoir une idée simple mais solide et l’appliquer avec constance est une
bonne recette pour construire la confiance. Apple a choisi la protection de la
vie privée des internautes à un moment où la confiance totale et aveugle des
internautes dans Internet commence peut-être à s’effriter. Ce n’est pas une
mauvaise idée…

Google, le géant de la publicité ciblée


Alors qu’Apple a fondé son développement sur la conception et la vente
de matériels dans un système fermé de logiciels et de services, Google est
une entreprise fondée d’abord sur son logiciel de recherche sur Internet et
qui s’est ensuite développée plutôt en système ouvert, c’est-à-dire en
proposant ses logiciels à tous les constructeurs de smartphones qui
souhaitaient les adopter.
À l’origine de Google, deux étudiants de Stanford, Larry Page et Sergei
Brin, imaginent une technique de recherche de données sur Internet utilisant
un classement de toutes les pages de données existantes en fonction du
nombre de liens qui y mènent, mesure qui indique leur intérêt comme
réponse à une recherche. Ils obtiennent un soutien initial de leur professeur,
déposent leurs marques et l’entreprise est créée en septembre 1998, date à
laquelle ils encaissent le chèque de 100 000 dollars US que leur remet un
investisseur intéressé par le projet.
En 2000, deuxième invention celle de « Adwords ». C’est l’idée de
baser la publicité sur des mots clés et de vendre ces mots clés aux
annonceurs en leur promettant que, grâce à cela, le moteur de recherche
mettra en avant leurs annonces et qu’ils paieront si leur annonce est lue par
l’internaute, ce qui sera constaté par le clic que l’internaute fait sur
l’annonce. Ce faisant ils inventent la publicité payée au résultat qui va
révolutionner le marché de la publicité sur Internet et faire leur fortune.
Par étapes, Google étend son offre de manière à multiplier les occasions
d’utiliser son moteur de recherche.
En 2004, l’entreprise est cotée en Bourse au prix de 85 dollars par
action.
En 2006, Google rachète YouTube, start-up créée un an auparavant par
des anciens employés de PayPal pour proposer la diffusion de vidéos
produites par les internautes. YouTube ouvre à Google un nouveau marché
pour la publicité qui deviendra rapidement une source considérable de
revenus.
Un certain nombre de services additionnels, la messagerie (gmail), la
géolocalisation et l’assistance à la recherche de trajets (Maps), complétée
par Google Earth, qui donne des images aériennes de toute la Terre et dont
la création a supposé un investissement considérable de recueil de photos
aériennes puis de photographies à partir du sol.
Bref, Google acquiert ou développe un ensemble d’applications qui
élargissent et multiplient les occasions qu’ont les internautes de se servir du
moteur de recherche et de ses extensions et d’utiliser ses services.
En 2008, Google prend une autre décision stratégique fondamentale, le
lancement d’un système d’exploitation pour les smartphones, Android,
racheté en 2008 à ses créateurs qui l’avaient mis au point en 2005.
Le choix astucieux que fait Google est de proposer Android en logiciel
libre (open source) à l’ensemble des fabricants de smartphones qui ont tous
besoin d’un système d’exploitation pour faire fonctionner leur produit. Le
résultat dix ans après est qu’Android couvre 80 % du marché des systèmes
d’exploitation des smartphones alors qu’Apple n’en a qu’une grande partie
du reste, suivant sa part de marché des smartphones physiques.
Comme Google continue de développer des améliorations d’Android et
d’y ajouter des fonctionnalités, les fabricants de smartphones ont le choix
entre continuer à utiliser les versions d’Android fournies par Google ou
l’utiliser comme système libre, indépendamment de Google, mais alors ils
doivent investir pour le maintenir et l’améliorer.
C’est ainsi qu’en mai 2019 Android a été un des pions de la guerre
économique menée par les États-Unis contre la Chine et spécifiquement
contre Huawei. En interdisant la fourniture d’Android à Huawei, les
Américains pénalisent ce dernier, qui est un fabricant mondial de
smartphones avec une part du marché mondial autour de 15 %, et l’obligent
à vivre avec la dernière version en accès libre d’Android ou à développer
son propre système d’exploitation. Cela montre qu’aujourd’hui la guerre
économique porte autant sur les logiciels que sur le matériel.
Google a connu aussi des échecs, notamment dans sa concurrence avec
Facebook. Cela a été le cas pour le réseau social Google+, lancé en 2011
pour faire concurrence à Facebook. Google espérait qu’en le jumelant avec
YouTube et sa messagerie gmail, il pourrait l’imposer. Google+ n’a pas
réussi à s’imposer et Google+ va possiblement cesser de fonctionner en
2019 ou 2020, sa taille ne justifiant pas, semble-t-il, les dépenses
nécessaires pour améliorer sa sécurité.
En 2015, Google décide de créer une holding, Alphabet, pour regrouper,
en dehors de son cœur de métier qui reste le moteur de recherche et tout ce
qui va avec, d’autres applications que les fondateurs de l’entreprise
appellent les « autres paris ».
Le cœur de métier, qui demeure aussi la principale source de revenus et
de résultats, est ainsi construit autour du moteur de recherche avec Android
et les applications à usage très fréquent telles que la messagerie (gmail), la
géolocalisation (Maps), Google Play etc.
En dehors donc de l’« ancien Google », Alphabet regroupe tout un
ensemble de nouvelles entreprises, des créations ou des rachats de start-up
dans de nombreux domaines : la domotique, l’urbanisation, les
biotechnologies, l’intelligence artificielle (notamment Alpha Go qui a battu
le meilleur joueur mondial de go par des méthodes d’apprentissage) et plus
spectaculaires les drones, la voiture autonome (Waymo, Google Car), la
cybersécurité.
L’approche de Google consistant à avoir un système ouvert a eu pour
résultat de lui donner un nombre d’utilisateurs considérable. Google
considère que typiquement un milliard au moins de personnes utilisent
chaque jour d’une manière ou d’une autre l’une de ses applications, que ce
soit le moteur de recherche, Android, ou une des autres applications type
messagerie ou jeux. Pour les internautes, ces utilisations sont « gratuites »,
c’est-à-dire qu’elles seront en fait utilisées pour développer la publicité
payante qui est la source principale des recettes de l’activité centrale de
Google.
Le développement du reste des sociétés faisant partie d’Alphabet peut,
parfois, venir en appui de l’activité centrale de Google. C’est le cas par
exemple de l’intelligence artificielle, ou faire l’objet d’entreprises
autonomes qui pourront trouver un développement indépendant au sein
d’Alphabet ou à l’extérieur.
Avec Apple et Google, nous avons deux entreprises géantes qui ont des
approches non seulement différentes mais parfois opposées de
développement : l’une, Apple, fondée au départ sur le matériel et créant un
univers fermé autour de sa marque ; l’autre, Google, fondée encore
largement sur les logiciels, avec une approche systématique de systèmes
ouverts. L’une et l’autre ont obtenu une valorisation considérable en
Bourse, se relayant pour être la plus grosse valorisation des Bourses
mondiales, et l’une et l’autre ont développé des applications de paiement
pour les raisons que nous avons exposées, qui font que, systématiquement,
le paiement apparaît comme un complément utile des activités Internet pour
ces géants.
En 2018, Google a lancé un système de paiement d’abord aux États-
Unis puis en Europe, basé sur un « portefeuille » que l’on peut télécharger
sur son téléphone et qui fonctionne sur tous les smartphones dotés du
système d’exploitation Android. Google Pay permet les paiements sans
contact avec les terminaux commerçants qui acceptent le paiement sans
contact.
Pour utiliser Google Pay ou Android Pay, il faut soit qu’il s’agisse d’un
site commercial partenaire du système, soit d’une application Internet qui
elle-même accepte Google Pay. Dans tous les cas, il faut qu’il y ait un
partenariat avec une banque ou avec une entreprise de gestion des
paiements qui a un compte du client avec la provision nécessaire au
paiement.
L’avantage de ce type d’approche (et aussi dans certains cas un de ses
inconvénients) est que dans la mesure où c’est la banque de l’internaute qui
va exécuter le paiement, il n’y a pas de plafond au niveau de la carte : le
plafond est celui appliqué au niveau de la banque de l’internaute.

Trois géants différents mais avec


des stratégies parallèles
Les trois entreprises que nous venons d’analyser, Apple, Google et
Amazon, ont des stratégies très différentes mais avec un point commun :
elles sont parties d’une activité centrale qui était et est restée leur point fort
– les matériels d’Apple, le moteur de recherche de Google, l’e-commerce
d’Amazon –, mais elles ont toutes les trois la volonté d’élargir le plus
possible les relations avec leurs clients, les rendre les plus fréquentes
possible en augmentant les occasions d’intervention et de contact.
Bien que basées sur des modèles d’entreprises très différents au départ,
ces trois entreprises s’observent et la concurrence fait que chacune suit
rapidement les initiatives d’une des deux autres.
Ainsi, le développement des assistants vocaux s’est généralisé
rapidement au fur et à mesure des progrès de la reconnaissance vocale qui
est utilisée par ce dispositif. De même, l’idée d’utiliser le logiciel de
reconnaissance vocale pour installer au domicile des internautes un assistant
personnel matérialisé par une enceinte pouvant émettre de la musique et des
messages mais surtout recevoir des commandes vocales et les exécuter, et
même répondre aux questions que pose l’internaute verbalement. Cela peut
conduire l’assistant vocal à avoir accès aux agendas, aux contacts, aux
archives, etc. de la famille de l’internaute qui lui fait cette confiance pour
l’utiliser.
Il est évident que cela donne à ces entreprises un outil puissant le jour
où elles veulent élargir encore leur offre par rapport à l’offre actuelle. En
revanche, il risque d’y avoir une réaction d’une partie au moins du public,
notamment des plus jeunes, qui souhaitent conserver leur liberté de choix
dans tous les domaines sans dépendre d’un fournisseur unique, Google,
Amazon ou Apple, vingt-quatre heures sur vingt-quatre.

Facebook, le seul produit c’est vous !


Quand on aborde le cinquième géant américain d’Internet, c’est-à-dire
Facebook, on retrouve un modèle encore différent, basé sur un réseau
relationnel de personnes qui se définissent comme des « amis ».
Cette fois, encore beaucoup plus que dans les quatre cas précédents,
c’est vraiment l’internaute qui est le produit, et même le seul produit !
En effet, au départ, c’étaient les utilisateurs de Facebook qui
fournissaient volontairement le contenu de Facebook, en racontant leur vie,
puis plus tard, en « likant » celle des autres. Les autres géants d’Internet
fournissaient un bien physique, les produits d’Apple, ou un service
apprécié : les logiciels de recherche d’information de Google ou la vente
par Internet d’Amazon respectivement. Dans le cas de Facebook, ce sont les
internautes qui font tout.
La création de Facebook et ses premiers succès sont le paroxysme de la
circularité : les utilisateurs fournissent eux-mêmes la seule valeur du service
rendu par Facebook, leur nom et leurs coordonnées… Et pourtant, ça
marche ! Et ça marche encore plus grâce à Instagram et à WhatsApp, les
filiales de Facebook qui multiplient les réseaux en ajoutant des fonctions
supplémentaires.
Mais le système a révélé la principale faiblesse des réseaux sociaux et
plus généralement de la rupture par la révolution numérique, qui est
l’extrême difficulté du contrôle de leurs utilisations néfastes.
La liste des dérives est longue : réseaux de pédophilie, incitations à la
haine et au racisme débouchant sur la violence, recrutement puis
communication interne et externe des réseaux terroristes, financement de la
drogue et de la contrebande, fraude financière, manipulation des élections
par les fake news (en français, l’infox), harcèlement basé parfois sur la
diffamation, etc. Des cas de chacune de ces dérives sont de temps en temps
découverts et publiés. Mais n’est-ce pas seulement le sommet visible d’un
iceberg ?
Il est vrai que presque tout cela existait avant 2008. Mais le facteur
aggravant nouveau est l’accélération et la multiplication des contacts, le
changement d’échelle dans le temps et l’espace.
Ce qui est plus préoccupant encore, c’est que l’autocontrôle du contenu
et des sources mis en place par les réseaux est souvent en conflit, quoi
qu’ils en disent, avec leur modèle économique qui repose sur l’exploitation
des données. Quand Facebook annonce en mai 2017 que le nombre de
personnes filtrant les images qui passent sur ses réseaux sera porté de 4 000
à 7 500, il le fait après que des images de meurtres en direct sont passées
malgré les filtres. C’est sans doute utile mais c’est le modèle économique
de Facebook et des réseaux financés par la publicité qui est en cause et
l’autodiscipline ne répond pas à ce problème.
Rappelons quelques dates de l’histoire de Facebook.
Sa création par Mark Zuckerberg en 2004 avec des amis de Harvard a
été d’abord celle d’un « trombinoscope » (équivalent français de facebook)
limité à Harvard. Il a reçu la même année un investissement de 500 000
dollars de Peter Thiel, qui avait fait fortune avec PayPal. Au cours des
années qui suivirent, Facebook s’est développé rapidement, refusant des
offres de rachat à des prix croissants (1 milliard de dollars de Yahoo en
2006 notamment).
Le siège international a été installé à Dublin en 2008, paradis fiscal
légal connu.
La fonction « like » a été inventée en 2009 pour favoriser l’utilisation
fréquente en réseau et l’addiction des internautes.
Le service de messagerie Messenger a été lancé en 2011, pour
fonctionner sur l’ensemble des smartphones opérant sur iOS (Apple) ou sur
Android (Samsung notamment).
En 2012, Facebook a acheté, pour 1 milliard de dollars, Instagram qui
permet le partage de photos et de vidéos.
Cette même année 2012, Facebook a été introduit en Bourse sur la base
d’une valeur de 104 milliards de dollars.
Mark Zuckerberg avait pris la précaution auparavant de changer les
statuts en profitant de la législation du Delaware qui permet de créer deux
classes d’actions dont l’une, qu’il détient encore en majorité, avec des droits
de vote multiples, ce qui lui a donné le contrôle absolu des votes en
assemblée générale avec une minorité du capital économique.
Facebook, la plus grosse entreprise mondiale, est contrôlé absolument
par un individu qui n’a pas la majorité du capital économique !
En 2014, Facebook a acheté WhatsApp pour 19 milliards de dollars
(dont plus des trois quarts en actions Facebook). WhatsApp apportait à
Facebook un service de messagerie permettant aussi la téléphonie par
Internet, donc en pratique gratuite, comme c’était déjà le cas avec Skype.
Cette caractéristique a permis à WhatsApp de se développer dans le monde
entier.
Facebook a ensuite progressivement intégré les données des trois
réseaux, le sien et ceux d’Instagram et de WhatsApp, pour mieux cibler la
publicité sur Facebook, sa principale source de profits.
L’histoire de Facebook au cours des années depuis l’acquisition de
WhatsApp comporte une succession d’extensions et d’améliorations du
réseau sous sa marque Facebook, qui reste le plus actif, et de Messenger, sa
messagerie, pour élargir leur offre.
Par exemple, Facebook a lancé avec succès des jeux à accès multiple,
ouverts à des millions de joueurs simultanés par Internet, des rubriques
nouvelles d’informations, et aussi en 2017, une formule permettant aux
parents d’inscrire leurs enfants mineurs en surveillant leur utilisation du
réseau : Messenger kids, pour les 6 à 12 ans…
Parallèlement, Mark Zuckerberg a dû gérer une série de controverses
sur les utilisations de Facebook à des fins politiques. Par exemple, en 2018,
le scandale Cambridge Analytics, une société de conseils politiques basée
en Grande-Bretagne qui a accédé aux profils de 50 millions d’électeurs
américains pour mieux cibler les annonces préélectorales. Par exemple,
l’utilisation de faux sites dont les liens avec la Russie sont suspectés, pour
saboter la campagne de Hillary Clinton, etc. C’est pourquoi il a promis de
doubler encore le nombre de personnes affectées à la surveillance du réseau
et multiplié les engagements sur ce sujet.
Facebook, pour les mêmes raisons que Google, Apple et Amazon, s’est
intéressé aux paiements, mais d’abord entre les internautes inscrits dans
Facebook et leurs « amis » au sens de Facebook.
Présenté en mars 2015, Payments était un système fermé proposé au
départ aux utilisateurs de l’application Messenger de Facebook aux États-
Unis, ce qui faisait ensuite un potentiel de 600 millions de personnes dans
le monde selon Facebook.
Le système utilise la carte de paiement de l’internaute : celui-ci doit
l’enregistrer au préalable dans Messenger, et Messenger Payments peut être
utilisé pour envoyer de l’argent à un autre utilisateur de Messenger, ou pour
payer directement par Messenger un service ou un produit proposé par un
site d’e-commerce, en utilisant chaque fois le compte bancaire auquel la
carte est rattachée.
Facebook avait annoncé en novembre 2017 le lancement de Messenger
Payments en Grande-Bretagne et en France. Mais ce lancement a été
suspendu à compter du 15 juin 2019, en prévision du lancement par
Facebook de sa propre monnaie.
Il est apparu en effet, dès le 15 juin, que Facebook préparait le
lancement de sa monnaie sous la forme d’une cryptomonnaie, gérée sur une
blockchain privée, c’est-à-dire à accès limité. Ce lancement est prévu pour
2020. La presse a donné des éléments sur le projet, qui restent à confirmer.
En bref, une cryptomonnaie est une monnaie virtuelle dont la
représentation est constituée par les enregistrements cryptés de toutes les
transactions dans une chaîne de données informatiques, une blockchain
(pour plus de détails, voir chapitre suivant). Cette chaîne de données est
gérée par un ensemble de centres indépendants qui vérifient les
transactions. La possession de chaque monnaie, inscrite dans la chaîne, est
authentifiée par une clé informatique détenue par son propriétaire.
L’une des raisons qu’a Facebook de choisir cette approche est de
récupérer, avec ses partenaires dans le projet appelé pour le moment
« Libra », les commissions prélevées sur les paiements et surtout sur les
transferts internationaux par les entreprises qui les exécutent actuellement.
Ces commissions sont importantes, surtout sur les petits transferts
internationaux. Un rapport de la Banque mondiale du 8 avril 2019 sur les
migrations et le développement chiffre à 689 milliards de dollars le montant
de ces transferts internationaux en 2018, dont la plus grosse partie, 529
milliards de dollars, concernait les pays les moins développés. Ce dernier
montant a augmenté de 9,6 % en 2018 et devrait s’accroître encore d’autant
en 2019. Ces transferts sont importants par exemple, en Inde, pays peu
bancarisé mais où Facebook est très utilisé, et où arrivent de nombreux
transferts d’argent en provenance des Indiens travaillant à l’étranger.
Ces transferts coûtent cher, en moyenne 7 % pour un transfert de 200
dollars selon la Banque mondiale, en particulier s’ils sont émis et reçus en
espèces à travers des réseaux spécialisés. L’idée d’un système qui
permettrait aux ressortissants des pays les moins développés de bénéficier
d’économies potentiellement considérables est bien entendu un argument
fort, et habilement mis en avant, pour ce projet.
Mais le projet pose d’immenses questions.
Le Libra serait géré par une Fondation établie en Suisse à laquelle
auraient participé financièrement 28 partenaires à ce jour (17 juin 2019)
dont Visa, Mastercard et PayPal, qui gèrent eux-mêmes des systèmes de
paiement, mais aussi Uber, Lyft, Booking, eBay, Iliad qui accepteraient
cette monnaie en paiement, Coinbase, bourse pour les échanges de
cryptomonnaies, etc.
La création d’une Fondation est une démarche particulièrement souple
en Suisse, pays dont la neutralité est considérée par beaucoup comme un
atout. Cette Fondation gérerait des réserves de monnaie classique, qui
serviront probablement à garantir la valeur du Libra, dont la parité serait
fixée par rapport à un panier de monnaies. Beaucoup d’autres entreprises ou
réseaux pourraient se joindre à la fondation moyennant un investissement
de 10 millions de dollars au moins.
Facebook qui joue un rôle central dans ce projet a créé une société
appelée Calibra qui fait partie des membres initiaux de la fondation.
Facebook affiche 2,5 milliards d’utilisateurs dans le monde, en ajoutant
WhatsApp et Instagram. Ce sont autant d’utilisateurs potentiels du Libra.
Aucune autre monnaie, sauf peut-être le dollar, n’en aurait autant !
Et si les participants au système font crédit, en Libra, aux internautes,
ils créeront de ce fait un supplément de monnaie Libra. Le crédit crée la
monnaie. La fondation sera-t-elle la Banque centrale responsable de ces
créateurs de monnaie dispersés dans le monde ? Avec quels moyens de
contrôle ?
L’économie du système n’est pas encore claire. Les paiements et les
virements utilisant cette « monnaie » ne seront pas gratuits. Ils
remplaceraient des opérations payantes, dont certaines sont très chères,
mais ils devraient être bien moins coûteux pour être acceptables et ne pas
apparaître comme une gigantesque « arnaque ».
Comment se répartiront entre la fondation et chaque participant les
commissions sur les transactions Libra ? Si, comme disent les rumeurs, les
données liées aux transactions sont protégées, Facebook et les membres
fondateurs pourront-ils les utiliser, notamment pour de la publicité ou la
vente de biens ou de services ?
Sinon, le fait que le paiement en Libra soit accepté par un prestataire de
biens ou de services suffira-t-il à créer un supplément de chiffre d’affaires
suffisant ? Il faudra en effet un gros investissement en informatique pour
traiter les transactions sur la blockchain privée.
Cet investissement informatique soulève au passage un problème de
réchauffement climatique. Il faudra bien, jusqu’à preuve du contraire, des
équipements supplémentaires pour traiter cette blockchain privée. Quelle
quantité d’équipements informatiques ?
Le traitement d’une transaction sur la blockchain du bitcoin est plus
complexe que celui d’une blockchain privée. Selon un working paper d’un
doctorant de l’Université technique de Munich très largement repris par les
médias en juin 2019, le traitement des transactions du bitcoin produirait
autant d’émissions de CO2 qu’une ville moyenne, Las Vegas par exemple.
Ce chiffre sera certainement discuté, ne serait-ce que parce que les gros
centres de traitement du bitcoin sont en Chine, près de centrales électriques
brûlant du charbon. Et les transactions bitcoin mettent plusieurs minutes à
être approuvées alors qu’une transaction sur la blockchain privée du Libra
serait plus facile à vérifier, et la vérification ne devrait pas dépasser
plusieurs secondes.
Mais il y a, paraît-il, 30 millions d’utilisateurs du bitcoin, qui font pour
la plupart des transactions très peu fréquentes. Alors qu’il y aurait
potentiellement cent fois plus d’utilisateurs du Libra, faisant sans doute au
moins dix fois plus de transactions en moyenne par mois. C’est cent ou
mille fois plus de transactions à traiter, beaucoup plus vite.
Au total, même plus simple que celui du bitcoin, le traitement
informatique de cette masse de transactions aura un impact visible et
discuté sur les émissions de CO2 du fait de l’équipement nécessaire pour
traiter cette gigantesque blockchain. Il faudra beaucoup d’investissements
en énergies renouvelables pour le faire accepter aux opinions publiques.
Pour qu’un tel projet aboutisse, il aura surtout besoin de l’accord des
régulateurs financiers et des Banques centrales, notamment pour éviter que
cette cryptomonnaie serve au blanchiment d’argent. En Inde, l’une des
principales cibles de Facebook, la Banque centrale a déjà exprimé son
inquiétude face à cette création de monnaie incontrôlable. Le Conseil de
stabilité financière devra mesurer les risques d’instabilité que présenterait
ce qui serait en fait une nouvelle monnaie émise par une fondation créée à
l’initiative de Facebook, a fortiori si les participants au système peuvent
créer de la monnaie par le crédit.
Il reste beaucoup de questions, et d’abord une fois de plus celle de la
confiance : Facebook n’a visiblement pas perdu la confiance de ses
utilisateurs, mais cette confiance a été écornée par l’expérience. En mettant
en avant une Fondation suisse et ses dizaines de partenaires importants,
Facebook veut leur faire porter la responsabilité de la confiance dans cette
nouvelle affaire. Là encore, il y a un conflit entre l’intérêt de Mark
Zuckerberg et ses intentions déclarées.
L’objectif de Facebook va au-delà de l’effet d’annonce. Aujourd’hui,
98 % de ses revenus proviennent de la publicité. Le projet Libra fait
visiblement partie de la politique de Facebook de diversification de ses
recettes, en développant la vente de produits et de services via ses réseaux,
notamment d’autres produits financiers.
On peut penser que l’équipe montée par Facebook pour ce projet a
préparé des réponses à toutes ces questions et va le défendre
vigoureusement, avec le soutien des partenaires de la fondation. Une fois le
projet approuvé, s’il l’est, quel moyen y aura-t-il de l’arrêter si les
engagements ne sont pas tenus ?
Les autres GAFA et les BATX ne resteront pas passifs face à cette
initiative. Ils étudient tous les possibilités de blockchains privées et
Facebook les a pris de vitesse. Mais il faut s’attendre à des initiatives de
leur part, à commencer par Amazon, pour renforcer leurs relations avec les
internautes dans le domaine des paiements, et ensuite, dans les services
financiers.
Avant l’initiative de Facebook, les services de paiement apparaissaient
déjà comme un accessoire utile pour garder le contact avec les internautes
quand ils font un achat ou utilisent leur réseau. C’est un accessoire
important du fait de la fréquence élevée des transactions et des données
qu’elles fournissent.
En gardant la relation avec les internautes au moment d’un paiement,
Apple, Google, Amazon et Facebook, évitent de les perdre et peuvent
montrer que leur offre est complète.
Les services de paiement ne sont pas une extension de l’offre, très
rentable par elle-même. Ils ne paraissaient pas appelés à devenir à très court
terme le premier élément de développement dans les autres services
financiers avant l’initiative de Facebook. Celle-ci peut précipiter les
évolutions vers le développement de l’offre des services financiers
réglementés, crédit, assurance et épargne, au-delà des paiements.
CHAPITRE 5

Les start-up de la finance : les fintechs

La rupture numérique des douze dernières années a permis la création


d’un très grand nombre de nouvelles entreprises basées sur l’Internet, les
fameuses start-up.
Les raisons en sont les suivantes : d’une part, le coût de développement
des nouvelles applications spécifiques est fortement réduit par l’utilisation
de programmes d’accès libre (open source) et par l’utilisation du stockage
de données et de programmes à distance sur un des clouds offerts sur le
marché ; d’autre part, le financement de ces nouvelles entreprises est
beaucoup plus aisé que par le passé, à la fois financement de démarrage par
des fonds spécialisés qui peuvent relayer le soutien apporté par les amis et
la famille, et financement de développement apporté par des fonds plus
importants. Le rendement des placements sans risque est très bas depuis
plusieurs années, ce qui a certainement contribué à cet afflux de fonds dans
les nouvelles entreprises. Enfin, il y a eu pendant les quinze dernières
années des succès spectaculaires dans des domaines parfois inattendus,
incitant un très grand nombre de jeunes et de moins jeunes à se lancer dans
l’aventure. Nous verrons quelques exemples de ces succès avant d’aborder
les nombreuses start-up de la finance.
Pour désigner les start-up de la finance, le terme « fintech » a été créé,
par contraction de « finance » et de « technologie ». Il est maintenant très
largement repris et nous l’utiliserons.
Depuis quelques années, le terme « licorne » qualifie une start-up
valorisée 1 milliard de dollars ou plus, soit par sa valeur en Bourse si elle
est cotée, soit parce que des investisseurs lui ont apporté du capital en
échange d’une participation basée sur cette valorisation de l’entreprise. Par
exemple, un apport de 100 millions de dollars pour 10 % du capital valorise
une entreprise à 1 milliard de dollars.
Contrairement aux licornes de la mythologie, celles d’Internet sont bien
réelles.
Quelques exemples de licornes françaises montrent la diversité de ces
entreprises : OVH fondée en 1999 est spécialisée dans le cloud computing,
Kyriba (2000) est un spécialiste de la gestion de trésorerie pour les
entreprises, Blablacar (2006) est une plateforme de partage pour les trajets
personnels en voiture, Doctolib (2013) offre aux professionnels de santé la
gestion de leur agenda de rendez-vous, Criteo (2005) aide les entreprises à
optimiser leur marketing et leurs ventes sur Internet.
Le nombre de start-up utilisant Internet est difficile à estimer, le total
dans le monde est probablement de plusieurs milliers. Par exemple, une
publication indienne affirme que rien qu’en Inde il y avait 1 200 start-up
dans la technologie en 2018.

Les fintechs et les nouveaux clients


En France, après le secteur du marketing et de la communication sur
Internet, le domaine de la finance est le plus important en termes de nombre
de start-up Internet lancées à ce jour.
Cela s’explique par deux raisons. D’abord, c’est un secteur d’activité
important par son poids économique, par les volumes de chiffre d’affaires
qu’il représente, et par la variété des activités qu’il comporte, de la gestion
d’actifs aux différents métiers de l’assurance ou de la banque. Ensuite, et
peut-être surtout, il y a une évolution de la clientèle car les plus jeunes,
ceux qu’on appelle les millenials (nés au cours des années 1990 ou début de
ce siècle) ont des attitudes différentes de leurs parents ou grands-parents par
rapport aux entreprises financières.
Il était traditionnel de dire dans le milieu de la banque des particuliers
que les clients changeaient moins souvent de banque que de compagnon
dans la vie car changer de banque n’apportait souvent pas une grande
différence de service et de prix pour un effort administratif non négligeable.
Cela a changé du tout au tout, non pas parce que les plus jeunes
abandonnent leur banque mais surtout parce qu’ils n’hésitent pas à ouvrir
un second, voir un troisième compte bancaire et en particulier des comptes
qui apportent un service limité mais efficace, notamment les services de
paiement.
Un autre changement important est le comportement des utilisateurs des
services sur Internet en général. Les millenials ont grandi avec, pour la
majorité d’entre eux, l’expérience de l’utilisation du smartphone dès leur
enfance ou en tout cas de leur adolescence. Le smartphone est devenu un
accessoire indispensable, une sorte d’extension de leur cerveau.
Paradoxalement, alors qu’ils sont prêts à passer une partie de leur temps à
se promener dans Internet pour regarder des informations variées, des
vidéos ou pour jouer, quand il s’agit d’une opération financière ou d’un
service, ils sont extraordinairement exigeants sur la rapidité et la qualité des
réponses.
Le temps de latence après un clic, c’est-à-dire le temps que met le
réseau à répondre est déjà très faible avec la 4G et sera pratiquement nul
avec la 5G. Plus important encore, il faut que le nombre de clics nécessaire
pour arriver à un résultat soit le plus faible possible. Le succès déjà cité des
ventes en un clic sur Amazon en est un exemple. Il suppose bien entendu
que l’internaute ait donné auparavant les informations nécessaires pour
permettre le paiement et la livraison.
Les nouveaux sites qui se créent, quel que soit le domaine, mais tout
particulièrement dans la finance, investissent en priorité sur la qualité de
l’ergonomie et sur la rapidité de réponse de leur offre, avec le plus petit
nombre possible d’écrans successifs avant d’arriver à une conclusion.
La plupart de ces sites sont créés d’emblée pour être utilisés avec les
smartphones, et conçus avec cet objectif prioritaire, alors que dans le cas
des entreprises financières existantes, l’ensemble du système avait été créé
à l’origine pour être utilisé avec des échanges de papier et des contacts
personnels, puis modifiés autour d’applications gérées par un ordinateur
central, puis avec des terminaux en agence et des ordinateurs décentralisés
ou chez leurs représentants, avant d’incorporer l’accès direct par Internet
pour leurs clients. Les systèmes de gestion des entreprises financières
traditionnels n’ont en tout cas pas été conçus au départ pour être utilisés
depuis un smartphone.
Pour toutes ces raisons le nombre et le développement des start-up de la
finance sont particulièrement importants. Selon le cabinet KPMG, la Chine
serait à la tête du nombre de fintechs considérées comme les leaders de leur
secteur dans le monde, suivie par les États-Unis puis par l’ensemble de
l’Europe.
Dans cette étude, KPMG compte un nombre relativement limité de
fintechs françaises, mais ceci n’est pas nécessairement très significatif dans
la mesure où beaucoup de fintechs françaises sont de création récente. En
effet, on dénombrait environ au moins 300 fintechs en France en 2019, en
progression de 35 % par rapport à 2018. Beaucoup de ces fintechs ont une
durée d’existence de deux ans ou moins et beaucoup sont de toutes petites
entreprises encore.
Le financement des fintechs
et les incubateurs
La question du financement des fintechs, comme celui des autres start-
up, a beaucoup évolué.
Il y a une quinzaine d’années, on parlait pour les start-up de la traversée
de la « Vallée de la Mort ». Il s’agissait de l’étape de leur développement
au-delà des 300 000 premiers euros, apportés par les fondateurs, leur
famille et des amis, et avant qu’elles n’aient atteint le niveau où elles
intéressaient des fonds d’investissement, à partir de 5 ou 10 millions
d’euros.
Entre les deux, les montants étaient trop limités pour intéresser les fonds
d’investissement. En effet, ceux-ci considéraient que le temps d’analyse
pour une entreprise de cette taille n’est pas très inférieur au temps d’analyse
pour un investissement plus important, et donc ils ne s’intéressaient pas à
cette tranche d’investissement.
Cela a bien évolué. D’une part, il y a des investisseurs privés disposés à
apporter du capital dans cette tranche d’investissements, et d’autre part il
s’est créé un certain nombre de fonds qui s’intéressent à cette plage
d’investissements en espérant y trouver des opérations prometteuses avant
qu’elles ne soient très connues. Il y a également une diversification des
financements possibles avec un intérêt des banques pour ce secteur, qui
peuvent consentir des prêts à des conditions favorables à des entreprises
encore petites.
Le montant des financements levés en France en 2018 par ces fintechs
est estimé, toujours par KPMG, à 365 millions d’euros en soixante-douze
levées différentes. De plus en plus, ces chiffres totaux sont très influencés
par le fait qu’on commence à voir des levées de fonds importantes pour
certaines des fintechs, ce qui fait remonter le total des levées réalisées.
La création et le financement des start-up en France ont été grandement
facilités par la création de nombreux incubateurs, qui sont des lieux où les
start-up peuvent s’installer à bon compte en trouvant un environnement
technique (accès Internet, secrétariat, salles de réunion, machine à café,
etc.) et également des contacts avec les autres fintechs et éventuellement
avec des mentors, bénévoles ou investisseurs (investisseur providentiel,
traduction peu utilisée de business angel).
Il y aurait environ 200 incubateurs en région parisienne. Un incubateur
très visible et qui a un certain succès est Station F, créé et financé au départ
par Xavier Niel. Il s’y trouve non seulement des start-up mais aussi tout un
environnement qui permet des réunions, des conférences et qui est assez
largement utilisé comme centre de rencontres.
Beaucoup de grandes entreprises, notamment des grandes banques, ont
créé des incubateurs internes, des organisations qui sous des noms variés
permettent à des collaborateurs qui veulent tester de nouvelles idées de le
faire dans le cadre de l’entreprise. Pour les fintechs il s’est créé une
association, France Fintech, qui regroupe une bonne partie des fintechs
françaises et organise également des événements et des rencontres. Par
ailleurs au palais Brongniart, l’ancienne Bourse, place de la Bourse, des
salles de réunion et de travail ont été aménagées près du petit musée de
l’ancienne Corbeille. Ce lieu, intitulé « La Place », est également un lieu de
rencontres très couru où professionnels, chercheurs et fintechs peuvent se
rencontrer. La Place est dans le même immeuble que l’Institut Louis-
Bachelier, réseau de recherche en finance, économie et mathématiques
appliquées, qui rassemble plusieurs centaines de chercheurs et de
professionnels en France et à l’étranger.
Au total donc, un des éléments de la rupture numérique que nous
examinons est la création et le développement d’un nombre très élevé de
nouvelles entreprises dans différents secteurs de la finance, dont beaucoup
trouvent des financements non seulement pour démarrer mais aussi pour se
développer.
Ces fintechs interviennent dans nombre de secteurs financiers classiques
ou nouveaux que nous examinerons, mais auparavant il est intéressant de
revenir sur ce qui s’est passé dans les années précédant 2008, c’est-à-dire
dans les premières années de la révolution numérique de la finance. Avec
quelques exemples de succès, d’autres d’échecs et dans tous les cas des
entreprises dont on peut examiner l’évolution avec recul.

Les « ancêtres » des fintechs, succès


et échecs
La finance française a déjà connu des innovations de rupture avant
même le développement numérique et dès les premières années suivant la
fin de la dernière guerre.
On peut citer pour mémoire la création dans les années 1950 et 1960
des entreprises financières qui sont devenues aujourd’hui des filiales
spécialisées de BNP-Paribas, après avoir été filiales de la Compagnie
bancaire puis de Paribas et finalement de BNP-Paribas.
Il s’agit par exemple de Cetelem pour le crédit aux particuliers ou de
l’Union de crédit pour le bâtiment, entreprises créées l’une et l’autre en
s’inspirant de ce qui existait déjà aux États-Unis et qui n’avait pas
jusqu’alors été transposé en France. Elles opèrent aujourd’hui comme
filiales spécialisées de BNP-Paribas.
Deux créations plus récentes méritent d’être citées et opposées, l’une a
été un grand succès, c’est la compagnie d’assurances Cardif (BNP-Paribas
Assurances), l’autre finalement un échec (Banque directe). Les raisons
respectives de ce succès et de cet échec sont intéressantes à examiner
aujourd’hui car on retrouve des situations comparables quand on regarde les
start-up actuelles. Dans les deux cas, c’est le modèle économique qui a
expliqué le succès ou l’échec. Dans les deux cas, l’idée était de développer
un mode de distribution permettant de sérieuses économies par rapport à la
distribution traditionnelle de produits d’assurance ou de banque.
Dans le cas de Cardif, il s’agissait de la distribution de l’assurance-vie
par des agents et des courtiers. Dans le cas de Banque directe, c’était la
distribution des produits bancaires dans les agences.
Cardif, créé par la Compagnie bancaire en 1973, a été fondé à partir du
constat que la distribution des contrats d’assurance-vie ou de capitalisation
(forme d’épargne utilisant le statut de l’assurance-vie mais sans la garantie
décès) était à l’époque une distribution coûteuse, utilisant des agents ou des
courtiers, et qui supposait un contact personnel avec les clients, souvent
chez eux. Ce mode de distribution était adapté à des produits dont le
caractère d’assurance-décès était important, autant sinon plus que leur
caractère de produit d’épargne.
L’idée de Cardif était de mettre l’accent sur le caractère de produit
d’épargne de l’assurance-vie, par opposition à son caractère d’assurance-
décès, et d’en faire la distribution par les banques à l’occasion des relations
qu’elles avaient avec leurs clients.
Cela présentait un double avantage, d’une part la vente de produits
d’épargne était a priori plus simple que la vente d’une assurance-décès
toujours délicate dans la mesure où c’est un sujet que les gens n’aiment pas
beaucoup évoquer et, d’autre part, l’idée était d’utiliser le temps passé en
agence par les clients des banques pour leur proposer un produit d’épargne
basé sur l’assurance-vie, ce qui était infiniment plus économique qu’une
démarche à domicile par des agents spécialisés.
Pour résumer une longue histoire, le succès est venu par étapes, d’abord
en s’appuyant sur les synergies internes au groupe Paribas pour proposer les
produits Cardif aux clients de Cetelem d’une part, de la banque privée
Paribas d’autre part, mais rapidement en développant une politique de
partenariat avec des réseaux tiers, ce qui a permis de développer l’activité
non seulement en France mais dans 34 pays étrangers. Le chiffre d’affaires
total de Cardif a atteint 31,8 milliards d’euros en 2018.
Comme il n’y a pas de brevet en matière financière, le concept a
rapidement été imité par les autres banques, avec succès, et au bout d’une
vingtaine d’années, la part des assureurs filiales de banques dans le marché
français de l’assurance-vie était passée de zéro en 1973 à 60 %, dans un
marché qui s’était en même temps beaucoup développé en devenant celui
d’un des produits d’épargne préférés des Français.
Si l’on transpose ce succès à d’autres secteurs économiques, on voit
qu’il est caractérisé à la fois par une innovation produit qui a permis de
mettre en avant le facteur le plus attrayant d’un produit complexe,
l’assurance-vie, d’autre part le fait qu’il existait une « ombrelle de prix »
dans les coûts de distribution du système existant à l’époque, c’est-à-dire
une possibilité d’offrir un produit moins cher par un canal de distribution
différent. Les frais prélevés sur les contrats d’assurance ont pu être
sensiblement réduits en utilisant le canal de distribution des banques.
On pourra transposer ces considérations à la situation actuelle des
banques, des assurances et de la gestion de patrimoine, et constater qu’il y a
encore des produits de ces trois types d’entreprises qui peuvent être revus,
simplifiés et modifiés pour être encore plus attrayants. On remarquera qu’il
existe encore dans beaucoup de cas des marges de profit pour des
entreprises ayant des coûts de distribution plus bas que ceux des entreprises
traditionnelles.
Banque directe en revanche a été un échec à terme, alors qu’au départ le
concept était basé sur un constat de même nature que Cardif : les marges de
profit potentiel possibles en évitant les coûts élevés de la distribution des
produits de la banque de détail par un réseau d’agences.
Banque directe lancée en 1994 est un ancêtre de ce que nous
connaissons maintenant en matière de banque utilisant la relation client sans
passer par des agences. Mais, en 1994, la France sortait à peine de l’ère du
Minitel, les premières liaisons Internet passaient par les fils du téléphone et
les meilleurs débits étaient de 56 kilobits par seconde, c’est-à-dire qu’elles
étaient environ deux mille fois plus lentes que les réseaux actuels utilisant
la fibre ou la 4G. Il fallait être très patient pour recevoir une seule page
d’informations sur un écran. Banque directe devait donc offrir ses services
principalement à travers une relation téléphonique verbale, ce qui coûtait
cher, beaucoup plus qu’une transmission par Internet aujourd’hui.
Du fait de ce handicap, son développement s’est fait à un rythme
modéré sans atteindre la rentabilité, ni par les volumes ni par
l’élargissement des produits offerts. Aussi, en 2002, BNP-Paribas a cédé
Banque directe à AXA qui l’a fusionnée à AXA Banque pour offrir à ses
clients des services bancaires en complément de l’assurance, ce qui avait un
intérêt dans son cas.
En 1998, c’est Boursorama qui a été créé, avec un sort meilleur que
celui de Banque directe. Boursorama existe toujours, c’est une filiale de la
Société générale qui est rentable. Boursorama avait été créé au départ pour
offrir des renseignements financiers rapides sur la Bourse, les valeurs des
actions, des informations sur les entreprises cotées, éventuellement
l’exécution des transactions. La Société générale en a pris le contrôle pour
la fusionner avec sa filiale Fimatex, qui était un courtier en produits dérivés,
pour en faire une banque plus complète offrant des produits d’épargne
notamment l’assurance-vie et un ensemble de services bancaires.
En visant particulièrement les investisseurs privés en Bourse et dans un
contexte où la marge sur les crédits, au moins jusqu’à la crise de 2008, était
positive, Boursorama a atteint la rentabilité et reste une entreprise profitable
qui affiche aujourd’hui plus d’un million de clients.

Les « néobanques » après 2008


Sans passer en revue les autres banques directes qui existaient avant
2008, abordons celles des fintechs créées depuis et qui offrent des services
bancaires en utilisant les nouveaux outils de la révolution numérique, les
smartphones et Internet haut débit.
Il est intéressant de commencer par deux cas originaux.
Le compte Nickel, créé en 2012 par un développeur en informatique et
un ancien financier, a choisi une approche innovante qui consiste à
permettre aux particuliers d’ouvrir un compte chez un buraliste au moyen
d’une simple pièce d’identité et d’un numéro de téléphone mobile.
Le compte est ouvert immédiatement, fonctionne instantanément et le
client obtient un relevé d’identification bancaire et une carte bancaire
Mastercard qu’il va pouvoir utiliser pour un montant modique de frais
annuels, à l’origine 20 euros. La carte permet des retraits dans les
distributeurs de billets, des retraits d’espèces chez les buralistes et
éventuellement des dépôts d’espèces également chez les buralistes avec
chaque fois des frais relativement limités.
L’inconvénient, ou l’intérêt selon les points de vue, du compte Nickel
est qu’il n’autorise pas de découvert, les utilisateurs savent qu’ils ne
risquent pas d’avoir un problème et que, dans la limite des sommes
déposées, ils peuvent se servir de leur carte sans souci.
En pratique, cela a conduit un nombre appréciable de titulaires de
compte Nickel à y domicilier leurs revenus et à en faire de ce fait leur
banque principale. Dans certains cas, le compte Nickel a facilité l’inclusion
dans le système bancaire de personnes qui n’avaient pas de compte bancaire
ou qui ne s’en servaient pas vraiment.
En 2017, le Compte Nickel avait réussi à ouvrir 300 000 comptes et
l’entreprise a été rachetée par BNP-Paribas qui l’a conservée comme une
filiale autonome, respectant les règles de conformité de toutes les banques,
qui sont celles de BNP-Paribas en ce qui concerne la connaissance des
clients et leur suivi.
En conservant une marque et un mode de distribution et de gestion
distincts, BNP-Paribas a pu poursuivre le développement en termes de
nombre de clients. Aujourd’hui le Compte Nickel a dépassé le cap du
million de clients et BNP-Paribas commence à offrir aux clients du Compte
Nickel des services ou des produits complémentaires.
Un autre exemple original est tout récent. Annoncé en mai 2019, Kard
est pour l’instant un simple service de paiement, ce qui nécessite un
agrément beaucoup plus simple à obtenir de la part de l’Autorité de contrôle
prudentiel et de régulation.
Son caractère original est qu’il s’adresse aux 12-25 ans, c’est-à-dire
aussi à des adolescents, qui sont les plus jeunes des jeunes millenials. Kard
reprend des éléments du Compte Nickel ou des comptes les plus simples
dans la mesure où c’est une carte de paiement Mastercard ouverte sur un
compte qui ne peut jamais être à découvert. Bien entendu, si le client à
moins de 18 ans, il ou elle doit avoir l’autorisation de ses parents pour
ouvrir le compte. Ce compte permettra non seulement d’utiliser la carte
pour les paiements dans la limite du montant qui existe au crédit du compte
à un moment donné, mais aussi très probablement de faire des petits
virements entre porteurs de la carte.
La première proposition de Kard suggère aux personnes qui regardent le
site de parrainer « des potes », en échange de quoi la personne qui parraine
reçoit un cadeau de 1 euro, de même que la personne qui a été parrainée.
Kard a pour objectif de constituer le plus vite possible un portefeuille de
clients potentiels en visant délibérément les plus jeunes avant qu’ils ne
soient clients d’autres banques du même type.
Le rapport de l’Autorité de contrôle prudentiel et de régulation sur les
banques directes comporte une conclusion assez pertinente sur leur
rentabilité. Il constate que sauf exception la rentabilité est pénalisée par
deux éléments : d’une part, le fait que la plupart de ces banques surtout les
plus récentes offrent un cadeau d’entrée sous forme en général d’espèces,
montant qui n’est pas négligeable et qui pénalise dès le départ la
rentabilité ; d’autre part, le fait que les taux d’intérêt des dépôts des banques
à la banque centrale soient non seulement nuls mais négatifs, c’est-à-dire
que les dépôts coûtent de l’argent aux banques, actuellement 0,20 % ce qui,
là encore, n’est pas négligeable. On est loin de la situation des années 1990
où l’argent déposé par les banques leur rapportait plusieurs points d’intérêts
en étant prêté même à court terme.
Enfin, les virements interpersonnels ou les virements internationaux
étaient traditionnellement relativement chers et un des arguments de ces
nouveaux prestataires de services de paiement et notamment des banques
directes est que ces virements sont gratuits ou très bon marché. Là encore,
c’est une source de rentabilité qui n’existe plus pour ce type de banque.

Les néobanques des millenials


Une source importante de revenus pour les banques est le placement de
produits d’épargne et d’assurance-vie, qui génère des commissions. Ces
commissions représentent aujourd’hui une part croissante des revenus des
banques, d’autant plus que la marge d’intermédiation pour les crédits est
très réduite. Il en résulte que les banques directes les plus anciennes,
comme Boursorama, qui ont réussi à offrir à leurs clients une gamme de
services, de crédits, d’épargne et d’opérations boursières, sont arrivées à
une certaine rentabilité, même si leur part du marché total reste encore
limitée.
Ce n’est pas encore le cas de toutes les autres nouvelles banques, dont
les perspectives de rentabilité sont plus lointaines. Un certain nombre de
banques directes ont néanmoins été créées après 2008, le plus souvent en
commençant de fonctionner comme entreprises de paiement ce qui
nécessite un agrément par l’Autorité de contrôle prudentiel et de résolution
moins lourd que celui pour avoir le statut de banque.
Trois cas de ce type sont intéressants, il s’agit de Lydia, de N26 et de
Revolut.

Lydia
Lydia a été conçu en 2011 et lancé en juillet 2013 comme un service de
paiement qui se voulait universel. Le nom a été choisi par référence à la
Lydie, pays de l’Antiquité qui se trouvait être le pays où coulait le fleuve
Pactole. Le choix du nom est révélateur de l’ambition des créateurs, Cyril
Chiche et Antoine Porte.
Lydia a levé 3,6 millions d’euros en 2014 avec un tour de table mené
par CNP Assurance avec différents fonds, ce qui lui a permis de se
développer. En 2016 et 2017, deux nouvelles levées de fonds de 7 millions
et de 13 millions d’euros respectivement, ont permis à Lydia d’étendre son
service en Irlande, en Espagne, au Royaume-Uni, au Portugal, en
Allemagne. Fin 2018, Lydia disait avoir 1,625 million de clients dans les
pays où la carte était utilisée.
Lydia se développe en grande partie par le bouche-à-oreille, notamment
dans le milieu des étudiants. Une des premières utilisations de la carte était
d’ailleurs de payer dans les cantines et cafétérias des universités.
Le service comporte deux niveaux : un service gratuit qui permet
d’effectuer les virements et les prélèvements avec des limites relativement
basses au départ et un service dit « premium » qui pour 3,99 euros par mois
permet d’accéder à un montant nettement plus important et à des crédits à la
consommation. À noter que ce service premium est gratuit pour les
internautes ayant moins de 25 ans.
Comme les autres, Lydia se développe grâce à une interface très simple
sur les smartphones et a clairement une stratégie d’extension du service en
modulant les montants des transactions possibles suivant différents
paramètres et en ajoutant des produits traités par des partenaires
réglementés, assureurs ou banques.

N26 et Revolut, des stratégies du style


Amazon
La stratégie d’Amazon avait été de se développer le plus vite possible
en accumulant les pertes financières s’il le faut mais en s’efforçant de
toucher le plus grand nombre de clients et en augmentant peu à peu l’offre
de services. C’est une stratégie devenue typique de la révolution numérique
actuelle.
La stratégie de N26 et d’autres services de paiement comme Revolut
fait penser à celle d’Amazon sur ce point : il s’agit de conquérir le plus
rapidement possible un nombre important de clients quitte à dépenser des
millions d’euros ou de dollars pour y arriver avant les autres, dans l’espoir
que ces clients donneront suffisamment d’informations pour qu’il soit
possible ensuite de vendre de la publicité et des produits financiers ciblés.
C’est l’explication des levées de millions ou de dizaines de millions d’euros
ou de dollars que ces nouveaux acteurs réalisent.
N26 a été créé à Berlin en 2013. Son nom est inspiré par le Rubik’s
Cube, composé de 26 cubes articulés et colorés, qu’il est très difficile de
remettre dans l’ordre si on ne connaît pas la règle. L’idée de N26 est que ce
cube symbolise l’état actuel de complexité d’accès aux services financiers
et l’entreprise a la prétention de donner la règle simple qui permet de
faciliter considérablement l’accès à ces services.
En 2016, N26 a levé 10 millions d’euros auprès d’un fonds
d’investissement qui a été fondé par Peter Thiel, un des cofondateurs de
PayPal. Moyennant cet argent, N26 a obtenu une licence bancaire en
Allemagne ce qui lui a permis d’annoncer que les services seront lancés
dans six pays européens dont la France.
En 2017, N26 s’est ouvert aux autoentrepreneurs et aux professionnels
et a introduit d’ailleurs à cette occasion des frais là où les services étaient
gratuits.
En 2017, N26 a annoncé avoir 500 000 clients en Europe dont 100 000
en France, et son intention de se développer également en Grande-Bretagne
et aux États-Unis.
En 2017 également, N26 s’est ouvert à Apple Pay et a proposé des
crédits à la consommation en partenariat avec une start-up financière
Younited Credit.
En mars 2017, deuxième levée de fonds, cette fois-ci de 160 millions de
dollars auprès de l’entreprise Internet chinoise Tencent et du fonds Alliance
X, suivie en janvier 2019 par une levée de fonds de 300 millions de dollars
auprès du fonds souverain de Singapour CIC et de PayPal qui revient au
capital.
Cette dernière levée de fonds qui a porté d’ailleurs le total des fonds
levés par N26 depuis l’origine à environ 513 millions de dollars a permis à
N26 d’annoncer son intention de se lancer aux États-Unis tout en affichant
2 millions de clients en Europe avec 1,5 milliard d’euros de transactions par
mois.
La licence bancaire allemande de N26 lui permet d’opérer dans toute
l’Union européenne en utilisant les références allemandes dont elle dispose,
et en principe de donner à ses clients accès aux distributeurs de billets et la
possibilité de faire des virements dans le cadre de la réglementation
européenne.
La dernière levée de fonds a été réalisée sur la base d’une valorisation
globale de N26 de 2,7 milliards de dollars.
Les clients de N26 ont le choix entre différentes modalités : selon ce
qu’ils paient, ils peuvent avoir un compte de base qui est gratuit, mais ils
paient pour les retraits sur les distributeurs de billets ; ils paient aussi pour
d’autres opérations mais à des niveaux relativement limités, y compris pour
les transactions internationales au sein de l’Union européenne.
Le développement très rapide de N26 ne s’est pas fait sans quelques
problèmes d’organisation. Fin mai, un avertissement sérieux est venu du
gendarme allemand des banques qui a demandé une amélioration des
mesures de prévention contre le blanchiment d’argent et le financement du
terrorisme. Quelques problèmes aussi d’annulation de comptes ou de
blocages intempestifs ont fait l’objet de commentaires. Mais tout cela
n’empêche pas N26 d’afficher aujourd’hui plus de 2,5 millions de clients
dans 24 pays européens dont 800 000 en France.
Cette stratégie est partagée par au moins un concurrent de N26 qui
s’appelle Revolut, une entreprise financière anglaise devenue aujourd’hui
une banque.
Fondée en 2014 par deux citoyens britanniques d’origine russe qui
venaient tous les deux des marchés, l’un comme trader, l’autre comme
technicien, Revolut avait comme idée de départ de proposer des transferts
basés sur une carte de type Mastercard, y compris entre monnaies
différentes, en assurant que les conversions de monnaies, par exemple celle
de la livre sterling britannique en euro, seraient effectuées au taux
interbancaire. C’était un argument original et séduisant pour des clients
voyageant souvent entre Londres et le continent et qui n’avaient pas
l’expérience de ce type de tarification.
Revolut a levé de l’argent rapidement et a pu proposer ses services dans
un certain nombre de pays européens, toujours sur la base d’une carte et de
services de virement. En juillet 2017, Revolut a fait une levée de 66
millions de dollars et, en avril 2018, une fois que le développement en
Europe était déjà important, une autre levée très importante de 250 millions
de dollars auprès d’un fonds basé à Hong Kong.
Ce fonds s’appelle DST Global et c’est en fait le fonds d’investissement
d’un personnage assez exceptionnel, Yuri Milner, milliardaire d’origine
russe vivant aux États-Unis et ayant fait fortune avec des investissements
dans de nombreuses entreprises nouvelles de l’Internet. Cela lui donne les
moyens à travers son fonds DST Global de faire des investissements de
montants très élevés comme celui dans Revolut. Ce dernier investissement
valorisait Revolut à 1,7 milliard de dollars, qui devenait ainsi une licorne de
la fintech. Fin 2018, Revolut affichait 3,2 millions de clients en Europe
dans plusieurs pays dont 400 000 clients en France.
L’offre comportait trois niveaux de services : l’offre gratuite permettant
les virements et des retraits très limités dans tous les distributeurs de
l’Union européenne ; l’offre à 7,99 euros par mois donne un peu plus de
possibilités y compris une possibilité originale de transférer des
cryptomonnaies ; et enfin une offre plus haut de gamme à 14,99 euros par
mois qui permet des retraits plus importants et éventuellement l’utilisation
de la carte pour retirer du cash chez les commerçants en l’utilisant pour un
montant plus élevé que le montant de l’achat.
En décembre 2018, Revolut a obtenu une licence bancaire européenne
après de la Banque centrale de Lituanie, donc dans l’Union européenne,
licence qui lui donne un « passeport européen ».
Il se trouve que la Lituanie est un des marchés importants de
développement de Revolut, ce qui contribue à expliquer son obtention
d’une licence bancaire. À partir de là, le projet de Revolut est d’élargir la
gamme de ses produits, y compris à des produits d’épargne et de crédit, et
éventuellement de se développer au-delà de l’Europe suivant les mêmes
principes. Revolut est particulièrement populaire auprès des jeunes Français
qui travaillent à Londres ou qui ont des raisons d’aller souvent en Grande-
Bretagne dans la mesure où leur carte est acceptée et permet effectivement
des dépenses soit en euros, soit en livres sterling en ne payant que le taux
interbancaire pour la conversion de monnaie.
Les fintechs spécialisées
Un grand nombre de fintechs ont été créées en visant un segment
particulier de l’activité financière réglementée, par exemple le crédit et
l’assurance.
Deux exemples en sont Younited Credit et Alan.
Younited Credit a été créé en 2009 par trois Français sous le nom de
Prêt-d’union. En 2011, l’entreprise a changé de nom pour s’appeler
Younited Credit et a obtenu l’agrément de l’Autorité de contrôle prudentiel
et de résolution comme établissement de crédit ainsi que l’agrément de
l’AMF comme prestataire de services d’investissement.
En effet, le fonctionnement de Younited Credit comme distributeur de
prêts à la consommation ressemble plus à celui d’une entreprise
d’investissement qu’à celui d’une entreprise de prêts à la consommation
type Cetelem, car le financement des crédits n’est pas assuré par des
emprunts de Younited Credit sur le marché monétaire mais directement par
des investisseurs.
Ceux-ci sont tous des « investisseurs qualifiés », c’est-à-dire des
professionnels ou des gens dont les caractéristiques sont jugées par
l’Autorité des marchés financiers (AMF) comme les rendant capables de
comprendre et d’assumer le risque d’un investissement qui n’est pas liquide
et qui comporte un risque de non-remboursement.
En effet, chacun de ces investisseurs va placer un minimum de 1 000
euros dans un fonds spécifique, créé par Younited Credit, lequel utilisera
leur argent pour porter des crédits à la consommation distribués et gérés par
Younited Credit.
Comme demandé par l’Autorité des marchés financiers, la sélection des
investisseurs est stricte, elle a pour objet de ne pas faire prendre de risque à
des gens qui n’en sont pas conscients ou qui ne sont pas capables de
supporter une perte. La sélection des emprunteurs est stricte, elle aussi,
puisqu’il semblerait que seule une demande de crédit à la consommation sur
vingt soit acceptée.
Cela permet à Younited Credit de répartir les crédits qui sont distribués
entre des fonds plus ou moins risqués suivant le risque représenté par les
emprunteurs qui y sont regroupés. Les fonds offrent un rendement variant
de 3 à 6 % suivant le degré de risque des crédits portés, et les investisseurs
ont le choix de la combinaison risque/rendement.
C’est une transposition au crédit à la consommation des méthodes de la
titrisation, à la différence importante que les investisseurs ne disposent pas
d’obligations négociables et doivent accepter de n’être remboursés qu’au
fur et à mesure des remboursements par les emprunteurs. Un investisseur
qui veut vendre doit trouver un acheteur. La valeur estimée de chaque fonds
est publiée chaque mois par Younited Credit.
Younited Credit a levé en une série d’opérations un total de 103 millions
d’euros de capital auprès d’un groupe d’investisseurs qui comprend des
institutionnels et quelques investisseurs privés, entrepreneurs connus qui
ont choisi d’investir systématiquement dans des start-up prometteuses.
Younited Credit a franchi courant 2019 le seuil de 1 milliard de crédits
distribués, ce qui est un chiffre significatif pour ce type d’opérations et
montre qu’il existe un marché, surtout à un moment où les taux d’intérêt
offerts sur les placements bancaires sont nuls ou même négatifs.
Son activité a pu être étendue en Italie et en Allemagne, notamment
avec un partenariat avec la banque directe N26 que Younited Credit fournit
en crédits à la consommation.
Il existe un grand nombre d’autres fintechs autour du financement, mais
plutôt des financements par des communautés, par exemple Litchee pour les
cagnottes, qui a connu un moment de célébrité pendant la crise des gilets
jaunes fin 2018 en acceptant une cagnotte au bénéfice des blessés des forces
de l’ordre, ou encore des financements que l’on appelle le crowdfunding qui
permettent à des particuliers de prendre directement le risque d’un
investissement ou d’un crédit en plaçant chacun une petite somme, pour
financer ensemble un crédit ou un investissement plus important.
Certaines de ces opérations ont assez bien réussi et il n’est pas exclu
qu’un jour une innovation permette de créer une grande entreprise de crédit
à la consommation qui utiliserait l’accès par smartphone et l’économie de la
relation directe pour obtenir une part significative des marchés, ce qui n’est
pas le cas pour le moment.
Cela étant, une entreprise comme Cetelem a déjà une longue histoire
d’utilisation de la technologie, qui remonte en fait même au Minitel puisque
les premières innovations de Cetelem à l’époque du Minitel datent de la fin
des années 1980. Pour la première fois, les commerçants pouvaient obtenir
immédiatement un crédit pour leurs clients sur le lieu de vente. Cetelem,
qui continue à innover, est donc un bon candidat pour devenir cette fintech
du crédit, mais dans le cadre d’une grande banque, BNP-Paribas.

Les « assurtechs »
Le domaine de l’assurance se prête particulièrement bien à la création
de fintechs dans différents secteurs de l’activité. Il y en a beaucoup et le
terme « assurtech » est utilisé pour les désigner.
À titre d’exemple, une société comme Alan propose de l’assurance
santé pour les entreprises sous une forme particulièrement simple et
utilisable mais en se basant sur les assureurs existants pour la couverture
des risques par réassurance.
Alan a été créé en 2016 pour donner aux entreprises la possibilité
d’offrir à leurs salariés une assurance mutuelle santé financée à hauteur de
50 % au moins par l’employeur. Cette faculté des employeurs est devenue
obligatoire en 2016, ce qui a donné aux fondateurs d’Alan l’idée de rendre
très simple le respect de cette obligation par l’employeur et son utilisation
par les salariés. La simplicité des opérations est un argument de poids pour
les patrons de TPE et de PME qui passent souvent leur week-end à remplir
des papiers pour la gestion administrative et sociale de l’entreprise.
Alan a l’ambition de pénétrer aussi le marché des grandes entreprises,
qui représente un potentiel important mais où le processus de décision est
plus long et compliqué. Dans ce but et avec le soutien de CNP Assurances
et de Partech, auxquels se sont joints par la suite Index Ventures et Xavier
Niel, Alan a levé successivement 12 millions d’euros puis 23 millions en
2018 et 40 millions en 2019 pour un total de 75 millions à ce jour.
Alan a le statut d’entreprise d’assurances, réassurée par CNP et Swiss
Re, ce qui la conforte vis-à-vis de ses clients. Son principal atout est la
grande simplicité de la souscription tant pour l’entreprise que pour ses
salariés, et cette start-up ne manque pas de témoignages positifs
d’employeurs et de collaborateurs.
Alan n’est qu’un exemple parmi littéralement des centaines de fintechs
de l’assurance en Europe si l’on se réfère au recensement que publie
L’Argus de l’assurance, la revue professionnelle qui se réfère elle-même
pour 2018 au recensement effectué par un fonds spécialisé Astorya DC. Ce
fonds a relevé 1 788 start-up liées de plus ou moins près à l’assurance en
Europe dont 230 assurtechs pures, ayant le statut d’assureur, et cite un
chiffre de levées de fonds de 800 millions d’euros pour les 75 Assurtechs
qui ont augmenté leurs ressources.
Beaucoup de ces entreprises offrent en fait des services aux assureurs ou
aux entreprises pour améliorer la productivité de la gestion ou de la
prévention des risques, sans être elles-mêmes réglementées comme
assureurs. Plusieurs cas sont intéressants à citer pour leur originalité.

Détection des faux sinistres en assurance


Le premier est Shift Technology, créé en 2015 par trois jeunes, après un
stage dans une compagnie d’assurances. Eric Sibony, David Durrelman et
Jeremy Jawish constatent au cours de leur stage que la gestion des fraudes à
l’assurance est un problème important des assureurs qui doivent y consacrer
des moyens et de l’intelligence pour à la fois détecter les fraudes
éventuelles, mais aussi ne pas décourager ou maltraiter leurs clients qui ne
sont pas en situation de fraude. Il faut également que les réponses aux
demandes des clients soient rapides pour l’image de la compagnie
d’assurances malgré la proportion non négligeable de fraudes.
La détection des fraudes est donc un élément essentiel de la rentabilité
d’une compagnie d’assurances, élément dont la qualité et la rapidité jouent
sur sa réputation.
Cette analyse des demandes de remboursement représente apparemment
un coût tout à fait important dans la mesure où chaque « sinistre », comme
les assurances appellent les demandes de remboursement, doit être examiné
de près pour vérifier s’il est légitime ou s’il n’est pas le résultat d’une
fraude.
L’idée de ces trois jeunes gens était d’utiliser leur expérience mais aussi
une analyse à la fois psychologique et algorithmique, c’est-à-dire par des
programmes d’intelligence artificielle, des situations de ceux qui déclarent
un sinistre et de la nature du sinistre pour aider les gestionnaires de
l’assureur à détecter les fraudes. Ceux-ci doivent prendre ensuite la décision
de rembourser ou pas le sinistre, et Shift Technology leur donne des
éléments pour les aider à prendre cette décision dans les meilleures
conditions possibles.
Ils insistent sur le fait que ce n’est pas un ordinateur qui décide, mais
qu’ils donnent à l’assurance des éléments à partir de leur analyse des faits et
des informations dont ils disposent, éléments qui permettent ensuite au
personnel chargé de la gestion des sinistres chez l’assureur, de prendre une
décision. Celle-ci peut être d’accepter le sinistre ou de le refuser, c’est leur
décision et non pas celle de l’algorithme ou de Shift Technology.
Les créateurs de l’entreprise ont réussi à faire quatre levées de fonds
successives depuis sa naissance, pratiquement une tous les ans en
commençant par 1,4 million d’euros en décembre 2014, suivie d’une
première levée de fonds internationale de 10 millions de dollars en
mai 2016 puis 28 millions de dollars en octobre 2017 et plus récemment en
mars 2019 de 60 millions de dollars.
Dans toutes ces levées de fonds un certain nombre d’investisseurs
internationaux et français sont intervenus et chaque fois ont permis à
l’entreprise de développer son marché en dehors de la France en proposant
les mêmes services, pratiquement dans le monde entier. Avoir des
investisseurs internationaux a joué un rôle important dans leur accès aux
grands assureurs de différents pays, car chaque pays et chaque assureur
nécessitent un investissement pour adapter les méthodes d’analyse et,
notamment, les programmes d’intelligence artificielle aux situations
spécifiques du pays et de la compagnie d’assurances.

Les pirates vertueux


Un autre cas intéressant, qui, lui, ne se limite pas au secteur de
l’assurance, s’applique en fait à toutes les entreprises utilisant Internet et
craignant d’être attaquées par des fraudeurs ou des malveillants, et se
posant la question de la sécurité de leur système.
Yes We Hack a repris en Europe le principe d’une activité qui a
rencontré un certain succès aux États-Unis et dont le nom anglais la résume
bien : « bug bounty », ce qui veut dire en clair obtenir une prime (bounty,
« butin ») en détectant des faiblesses d’un système informatique (bug).
Lancée en 2015 par deux spécialistes de la sécurité sur Internet, elle a
levé 1,7 million d’euros en 2017 et ensuite, en 2019, 4 millions d’euros
supplémentaires fournis par Open CNP, la filiale de CNP assurance dédiée à
l’investissement. Yes We Hack regroupe un certain nombre de hackers, le
terme devenu usuel pour désigner des spécialistes de la pénétration de sites
informatiques Ceux-ci ont décidé d’utiliser leur technique dans un cadre
légal pour la rentabiliser. L’entreprise Yes We Hack propose qu’un de ses
hackers teste la sécurité d’un site informatique, celui d’une entreprise ou
d’un fournisseur de produits ou de services sur Internet, en étant rémunéré
en fonction de l’importance des failles qu’il détecte et du risque que
peuvent représenter ces failles.
Cela suppose bien entendu une grande rigueur de la part de l’entreprise
et de ceux qu’elle emploie, et naturellement une réelle compétence aussi
chez les entreprises clientes qui doivent juger si les failles qui ont été
détectées par Yes We Hack valent effectivement ce que Yes We Hack
estime qu’elles peuvent valoir.
Les créateurs de Yes We Hack affirment avoir accès à un réseau de près
de 7 000 « hackers éthiques » qui s’engagent à respecter la charte de
l’entreprise, c’est-à-dire à ne pas se servir des failles qu’ils auront trouvées
autrement que pour demander à l’entreprise la récompense correspondant à
l’importance de la faille.
Quand les Autorités de contrôle prudentiel et de résolution des
entreprises financières passent en revue les risques de ces entreprises pour
décider du niveau de fonds propres qui leur est nécessaire, le risque de
cyberattaque fait partie des risques majeurs, d’autant plus que les
entreprises financières sont particulièrement vulnérables en cas d’attaque
aboutissant à une pénétration illégale de leur système. D’où l’intérêt de ce
nouveau service auquel font appel des entreprises diverses, en accord bien
entendu, avec les responsables informatiques de l’entreprise qui ont besoin
de ce regard externe de spécialistes pour vérifier que leur système est
résistant aux attaques.

Ledger, un portefeuille pour


cryptomonnaies
Un autre cas original de fintech est Ledger, qui vend des portefeuilles
sécurisés pour conserver les codes de cryptomonnaies.
Le concept de cryptomonnaie a eu beaucoup de succès. Il s’en est créé
un très grand nombre avec des sorts variables y compris le cas intéressant,
du point de vue de la confiance sur Internet, de perte totale cité au début
de ce livre. La plus connue de ces créations est le bitcoin qui aurait 30
millions d’utilisateurs.
Le fait est que ces cryptomonnaies ont connu un succès tel qu’une start-
up française, Ledger, s’est créée en 2014 pour concevoir et réaliser un
portefeuille physique permettant aux possesseurs de cryptomonnaies de
stocker leurs clés d’utilisation de manière sécurisée. Ce portefeuille est
physiquement enregistré dans un dispositif lui-même protégé par un code.
De quoi s’agit-il ? Il faut commencer par rappeler ce qu’est la
blockchain et ce que sont les cryptomonnaies. Le sujet est revenu au
premier plan de l’actualité par l’annonce par Facebook d’une « monnaie »
basée sur une blockchain privée.
Pour comprendre la blockchain, il faut imaginer un registre virtuel,
c’est-à-dire incorporel, où seraient enregistrées les unes à la suite des autres
des transactions ou des archives généralement quelconques, par exemple
des dossiers concernant une affaire donnée ou toute autre information que
l’on souhaite conserver de manière sécurisée sans faire appel à un tiers de
confiance ni à un support physique. Cela peut être des transactions ou des
montants de monnaie, mais bien d’autres choses aussi.
Le principe de la blockchain est que chacune des données archivées
dans ce registre virtuel a été chiffrée selon un code qui nécessite, pour être
utilisé, un traitement mathématique complexe et long qui fait que le
cryptogramme ne peut pas être déchiffré par quelqu’un de non autorisé.
Ce registre virtuel devient donc de plus en plus long au fur et à mesure que
des données y sont inscrites et validées. Une fois vérifiée et validée, une
donnée ne peut être modifiée qu’en utilisant la clé qui lui est spécifique.
La caractéristique centrale de la blockchain est qu’il n’y a pas une
autorité centrale qui la gère et la contrôle mais que c’est un ensemble de
gestionnaires de la chaîne qui vont vérifier toute nouvelle donnée ou toute
modification d’une donnée avant de l’enregistrer.
Cette technique de la blockchain a été utilisée pour créer les monnaies
virtuelles, que sont les cryptomonnaies. Dans ce cas, chaque dossier de la
chaîne contient les informations concernant une transaction sur cette
monnaie, un achat ou une vente, qui aura été enregistrée après autorisation
par les gestionnaires de la chaîne qui sont chaque fois dotés d’ordinateurs
assez puissants pour traiter la chaîne au fur et à mesure en vérifiant le
cryptage des enregistrements. Une fois enregistrée, chaque donnée, c’est-à-
dire chaque transaction de la monnaie, ne peut pas être effacée, mais elle
peut être lue et donc utilisée pour être transférée d’un propriétaire à un
autre, c’est-à-dire pour réaliser une transaction, un échange. Le bitcoin a été
et est encore la cryptomonnaie la plus connue et la plus utilisée.
Créé en 2008, décidément une année fatidique, le bitcoin est peu à peu
devenu un bien de spéculation un peu comme les bulbes de tulipes en
Hollande au XVIIe siècle. Le prix du bitcoin est parti de pratiquement 0
jusqu’à 20 000 dollars avant de retomber et fluctuer en dessous de 10 000
dollars.
Ses créateurs ont atteint le premier objectif, le bitcoin ne dépend de
personne. En revanche le second n’a pas été atteint du tout, car les
fluctuations du bitcoin en font tout sauf une monnaie.
Ledger a été créé en 2014 par des spécialistes de l’informatique et de la
blockchain, installés aux États-Unis pour plus de visibilité tandis que la
fabrication est en France.
En 2016, le premier produit, un « portefeuille électronique sécurisé »
pour les cryptomonnaies a été lancé et Ledger a fait 600 000 euros de
chiffre d’affaires, puis en 2017 46 millions de chiffre d’affaires en vendant
ces portefeuilles sécurisés à des détenteurs de cryptomonnaies qui
souhaitaient avoir un moyen physique de les conserver sans avoir à noter
quelque part des codes très longs, et sans risque que quelqu’un s’en saisisse
ou, surtout, de les perdre.
En mars 2017, Ledger a levé 7 millions de dollars pour se développer
et, en janvier 2018, ayant déjà réussi à vendre un million de ces
portefeuilles électroniques sécurisés pour cryptomonnaies, la start-up a fait
une nouvelle levée de fonds, cette fois-ci de 75 millions de dollars.
Dans cette dernière opération, il semblerait que Samsung ait participé
au financement, sans que cela soit confirmé officiellement, et l’idée qui
circule est que, possiblement, un jour si la blockchain continue de se
développer, les smartphones intégreraient dans leur système d’exploitation,
au moins pour les plus avancés, l’équivalent logiciel de ce portefeuille
sécurisé physique qui deviendrait un élément intégral du smartphone
compte tenu de la généralisation escomptée pour les applications de la
blockchain.
Si l’on reprend les caractéristiques élémentaires d’une monnaie, c’est-à-
dire un instrument d’échange et de conservation de valeur, on voit que les
cryptomonnaies seraient des monnaies tout à fait imparfaites.
En effet, leur valeur n’est garantie par personne, tout au moins à ce jour.
Elles peuvent donc fluctuer considérablement, l’expérience l’a prouvé.
Mais c’est à la fois un moyen de spéculation et un moyen de paiement non
traçable pour des transactions notamment illégales, drogue, chantage.
Même si les cryptomonnaies n’auront pas nécessairement l’avenir que
leur prédisent leurs prophètes, le concept de blockchain est solide et il a
déjà de nombreuses applications, notamment dans la finance, sous la forme
de blockchains privées. Il s’agit en effet d’un système d’archivage sécurisé,
permanent, inviolable, qui peut être créé et géré par n’importe quel groupe
d’acteurs ayant un intérêt commun. Cela peut être un ensemble de banques
participant au financement d’un projet important, cela peut être également
un moyen de gérer des valeurs ou des documents que l’on souhaite
conserver de manière durable, sécurisé, et à l’abri d’interventions autres que
celles des participants au système. Des applications de la blockchain par des
groupes fermés d’utilisateurs commencent à se multiplier.

L’intelligence artificielle appliquée


Beaucoup des fintechs dont il a été question disent, à un moment ou à
un autre, utiliser l’intelligence artificielle pour leurs applications.
Qu’est-ce que ce terme très utilisé recouvre en pratique ?
Il s’agit d’un ensemble de méthodes d’apprentissage dont l’objectif est
d’« apprendre » à une machine, en l’occurrence un programme
informatique, à traiter un problème en lui faisant traiter un très grand
nombre de cas dont on sait à l’avance quelles réponses il faut apporter à
chacun. Le programme qui permet cela est décrit souvent comme étant un
réseau neuronal. Chaque carrefour du programme équivaut à un neurone
avec plusieurs entrées et sorties. Ces sorties seront pondérées comme étant
plus ou moins favorables suivant la façon dont le programme aura traité
dans la phase d’apprentissage un cas donné et le résultat qu’il aura obtenu.
Cela fait qu’un programme d’apprentissage est un programme dans
lequel celui qui dirige l’apprentissage va injecter un très grand nombre de
cas en notant pour chacun quelle est la bonne réponse. Le programme traite
cette information en modifiant les pondérations des différents nœuds du
réseau de manière à ce que, de proche en proche, le réseau donne des
réponses qui sont les réponses souhaitées par le formateur pendant
l’apprentissage.
C’est le principe de l’apprentissage appliqué à l’algorithme dans un
ordinateur, et le résultat est que si ce programme est bien appliqué, si
l’apprentissage est fait de manière intelligente, quand on soumettra à ce
programme un cas nouveau, il va utiliser ce qu’il a pu « apprendre » avec
tous les cas qu’il a déjà vus pour donner une réponse qui, en principe, est
bonne, en tout cas la meilleure.
La similitude avec l’apprentissage humain est que le « maître »
enseigne notamment en disant à l’élève si une réponse ou une technique est
bonne ou pas. La différence est que la machine n’est pas intelligente et qu’il
lui faut un nombre énorme de cas pour arriver à trouver la « bonne »
réponse, contrairement au cerveau humain.
L’apprentissage informatique est utilisé pour la reconnaissance faciale.
C’est aussi la technique qui a été utilisée pour faire un programme qui a
battu un des meilleurs joueurs du monde du jeu de go. La société qui avait
développé ce programme, DeepMind, a d’ailleurs été rachetée par Google
400 millions de dollars en 2014.
Revenons à l’intelligence artificielle pour souligner qu’elle n’est pas
toujours parfaite pour deux raisons.
La première est qu’elle dépend de la qualité de l’apprentissage et, en
particulier si l’on n’y prend garde, on peut introduire des biais au stade de
l’apprentissage qui vont donner des résultats tout à fait indésirables. Par
exemple, si on utilise un programme que l’on souhaite former à la détection
de qualités professionnelles de candidats pour une certaine fonction, le
choix de la population qui servira à l’apprentissage du programme sera très
important. Ce choix peut biaiser les résultats, en favorisant par exemple un
type de formation qui est surreprésenté dans la population choisie pour
l’apprentissage. Il est très possible que le programme donne des résultats
qui seront anormalement biaisés, en positif ou négatif, dans le cas de
personnes n’ayant pas ce type de formation.
On peut donc créer des biais dans le système qui sont tout à fait
indésirables.
L’autre raison est qu’elle a des limites. Par exemple, celles de la
reconnaissance faciale : un spécialiste de ce type de technique a « formé »
un programme de reconnaissance faciale en faisant défiler les visages de
tous les détenus dans les prisons américaines. Une fois le programme ainsi
formé pour en quelque sorte repérer des criminels ou des gens faisant
l’objet d’un emprisonnement, il a ensuite fait défiler dans son programme
tous les membres du Congrès américain. Le programme a trouvé des traits
identifiant des tendances criminelles chez plusieurs des membres du
Congrès, ce qui est peut-être plausible mais disqualifierait ce programme
s’il servait à filtrer les candidats à une élection.
En fait, l’intelligence artificielle est comme la langue d’Ésope, la
meilleure et la pire des choses. Il y a heureusement aujourd’hui
suffisamment d’expérience sur son utilisation pour que les méthodes qui
permettent d’éviter à la fois les biais et les erreurs d’application soient
connues. Mais cela veut dire tout de même qu’on ne peut pas l’utiliser à tort
et à travers et qu’il ne suffit pas de dire qu’on s’en sert pour être un expert
indiscutable.

Les agrégateurs et la directive européenne


sur les services de paiement
Selon une étude citée par Les Échos, près de 5 % des Français changent
de banque chaque année. C’est deux fois plus qu’en 2014 et les banques en
ligne y sont pour quelque chose.
En effet, les millenials en particulier, mais pas seulement eux, n’hésitent
pas à tester un nouveau service et, par le bouche-à-oreille, le développement
de banques en ligne comme Revolut, Lydia ou N26 a été étonnamment
rapide.
Ce développement s’explique par plusieurs facteurs : leur utilisation est
très facile et elle peut même être suggérée par un ami qui vous envoie de
l’argent par Lydia ou par Revolut, et, nous l’avons vu déjà, la confiance
n’est plus un problème. C’est d’autant plus vrai que beaucoup de ces
services ne sont au départ que des services de paiement, c’est-à-dire que
l’internaute qui s’en sert ne dispose sur son compte que des montants qu’il a
lui-même virés à ce compte. Il n’a pas de risque de découvert ni de risque
de perte importante dans la mesure où ce montant est limité.
Bien entendu, l’objectif de ces banques en ligne est de passer du service
de paiement à la relation bancaire complète y compris à la gestion de
dépôts. C’est un des facteurs qui expliquent la multiplication de ce qu’on
appelle la multibancarisation : les clients ne quittent pas leur banque mais
ouvrent un ou plusieurs comptes de dépôt ailleurs.
Cela a conduit au développement d’un nouveau type de services qui
s’appelle l’agrégation des données, avec des start-up appelées
« agrégateurs ». Ce service a été rendu possible par une très importante
directive européenne (directive pour les services de paiement) dont la
version actuelle est citée sous le sigle DSP2.
La fonction des agrégateurs est de fournir à leur client internaute, sur un
seul rapport, la situation d’ensemble de tous ses comptes bancaires. Cela
suppose que l’internaute a donné son accord à chacune de ses banques pour
que l’agrégateur ait accès à son compte chez elle. Pour rendre ce service
attractif, les agrégateurs proposent à leurs clients de qualifier les opérations
suivant leur objet, ce qui permet ensuite d’en tirer un état des dépenses par
nature et donc une gestion du budget. Si l’internaute va jusqu’à fixer des
points d’alerte et des objectifs, les données agrégées lui permettent de gérer
sur son smartphone son budget mensuel. Les agrégateurs peuvent ajouter
encore des services qui permettent de gérer sur une année son budget,
d’avoir des suggestions éventuellement de produits, bref, ils développent
une relation avec l’internaute qui a vocation à devenir la relation principale.
Cette fonction a été rendue possible par une directive européenne, la
directive des services de paiement DSP2, qui est entrée en vigueur le 13
janvier 2018 et dont l’application détaillée devait être effective le 14
septembre 2019. Cette directive a pour objet de développer la concurrence
au sein de l’Union européenne dans le domaine des services de paiement.
En fait, cette concurrence fonctionne déjà bien, il suffit de constater la chute
du coût des virements interbancaires ou interpays depuis quelques années.
Mais la directive veut visiblement aller au-delà et, en tout cas, rendre
obligatoire l’ouverture à la concurrence en donnant à des start-up, à des
entreprises de paiement notamment, accès aux comptes des clients des
banques. Le débat a eu lieu sur la portée de cet accès : les banques
souhaitaient le limiter aux comptes de dépôt qui sont en fait le seul élément
mis en jeu dans les services de paiement, alors que les concurrents
souhaitaient bien entendu avoir accès à tout l’ensemble de l’information des
clients y compris les comptes d’épargne et même de crédit. Les banques ont
résisté, arguant à juste titre de la confidentialité des informations dont il
s’agissait si elles couvraient l’ensemble des crédits et de l’épargne.
Une fois de plus, la question de la concurrence au sein de l’Union
européenne s’est posée en termes de choix entre deux voies : une première
approche privilégie les consommateurs en augmentant de plus en plus la
concurrence pour tout ce qui les concerne sans se préoccuper des
conséquences sur les fournisseurs, et en faisant confiance à l’initiative et à
la créativité des entreprises pour qu’elles s’adaptent avec succès. L’autre
approche consiste à prendre un point de vue plus large et à examiner les
conséquences de cette concurrence sur la situation des entreprises au sein de
l’Union européenne par rapport à leurs concurrents mondiaux.
Dans le cas des entreprises financières, la question se pose également en
ces termes. En effet, la situation des banques européennes dans leur
ensemble est beaucoup moins bonne aujourd’hui que celle des banques
américaines et a fortiori des entreprises financières, non bancaires,
chinoises. L’Europe imposerait à ses entreprises des contraintes que n’ont
pas leurs homologues hors Europe.
Quoi qu’il en soit, la décision finalement retenue pour l’application
détaillée en France de cette directive, pour prendre effet le 14 septembre
2019, limite l’échange de données à ce qui concerne directement les
services de paiement, c’est-à-dire les comptes de dépôt.
Ce faisant, la France a évité ce qu’on appelle la « surtransposition » des
directives européennes en étant « plus royaliste que le roi » et en imposant
aux entreprises françaises, au nom de la concurrence, des contraintes allant
plus loin que la seule transposition des directives européennes. Cela
n’empêchera pas les agrégateurs de proposer à leurs clients des services
différents, que ce soit de l’épargne, de l’assurance vie ou du crédit, et ils
seront bien placés pour le faire puisqu’ils auront l’information sur
l’ensemble des comptes de chacun de leurs clients.
Enfin, c’est un sujet différent mais important, l’application de cette
directive comprend un certain nombre de sécurités supplémentaires pour
assurer la lutte contre la fraude et la correction des erreurs éventuelles en
cas de prélèvement par des commerçants ou dans le cadre d’un virement.
La mise en œuvre de la directive DSP2 devait être effective en
septembre 2019 si les problèmes pratiques qu’elle pose sont réglés à temps.
Elle permettra, une fois appliquée, de voir se multiplier les fonctions
offertes par les agrégateurs. Des fonctions pourront être intégrées par
d’autres fintechs qui utiliseront la possibilité d’accéder au compte des
internautes pour augmenter l’information dont ils peuvent disposer avec,
bien entendu, chaque fois l’accord préalable et formel de ces internautes.
Une question spécifique se pose pour les banques mais aussi pour les
assureurs et les gérants de patrimoine par l’application de la directive
européenne sur les services de paiement DSP2 par les agrégateurs. En
codant les dépenses de leurs clients selon leur nature, ils permettent aux
clients de suivre leurs dépenses et leur budget.
Les entreprises financières classiques vont-elles laisser aux agrégateurs
de l’univers Internet le monopole de fait de la fourniture aux internautes des
éléments pour la gestion de leur budget, comme ils le proposent déjà ?
L’accès aux données financières est limité aux dépôts et ne concerne pas
l’ensemble du patrimoine. Mais la gestion du budget de dépenses est déjà
une étape importante et nouvelle dans la relation de confiance entre
l’internaute et la finance. Les entreprises financières classiques auront elles
aussi la faculté de proposer à leurs clients un service de suivi de l’ensemble
de leurs dépenses si ceux-ci le souhaitent, et de renforcer ainsi leurs
relations avec leurs clients. Elles auront intérêt à le faire au moment où elles
recevront l’autorisation donnée par le client de donner accès à leur compte à
un agrégateur.

Une licorne financière inconnue du grand


public
Dans le domaine des services aux entreprises, il existe une licorne
française qui offre un service ayant une certaine parenté avec la fonction
des agrégateurs pour les particuliers. Il s’agit de Kyriba, une entreprise
fondée en 2000, bien avant l’apparition des smartphones et de l’Internet 4G.
Elle avait levé une première fois, en 2004, des fonds auprès d’un groupe
d’actionnaires institutionnels et privés afin d’offrir un service de gestion de
trésorerie pour les entreprises. En effet, les entreprises, surtout les
multinationales et les entreprises qui traitent beaucoup de devises, ont
besoin d’avoir une centralisation de leur trésorerie qui leur permette à tout
moment d’optimiser leur situation, de gérer leurs risques de change et leur
financement en assurant leur liquidité au moindre coût. Kyriba offre ce
service de centralisation des trésoreries avec un certain nombre de
compléments qui permettent d’aider le trésorier de l’entreprise à mieux
gérer l’ensemble de la trésorerie et à utiliser des instruments financiers qui
peuvent améliorer ses résultats.
Kyriba s’est développé à l’international et, en mars 2019, le fonds
Bridgepoint, qui est un fonds de capital investissement, a pris le contrôle de
Kyriba en apportant 160 millions de dollars de fonds supplémentaires, ce
qui a permis, d’une part à la plupart des actionnaires d’origine de sortir avec
une plus-value importante et, d’autre part, de donner à Kyriba les moyens
de développer son activité internationale. Kyriba avait déjà 2 000 clients
internationaux et est bien placé pour augmenter sa part de marché mondial.
Kyriba peut apporter ses services aux entreprises en utilisant le cloud
qui permet de regrouper les informations rapidement sans risque pour les
entreprises qui les fournissent.
L’intention du dirigeant de Kyriba, qui en est également le développeur,
est d’ajouter aux produits qu’il offre déjà des instruments de gestion du
risque de change et de liquidité et de lutte contre la fraude.

Les robots-conseillers
Un certain nombre de fintechs proposent des services de conseil pour la
gestion de patrimoine sous la forme de propositions d’allocation d’actifs et
éventuellement de produits correspondants à leurs propositions.
À titre d’exemple, la société Gambit Financial Solution est ce qu’on
appelle un robot-conseiller : à l’aide d’un programme qui utilise les
informations du client sur ses revenus et ses perspectives de besoins et de
retraits, il propose ses solutions patrimoniales, pour l’allocation des actifs et
avec des propositions de placement. Gambit ne traite pas directement avec
les clients des gérants de fonds, mais avec les professionnels du conseil en
investissement. Elle leur propose ces conseils sous sa propre marque mais
aussi ce que l’on appelle en « marque blanche », c’est-à-dire que ses
propositions peuvent être reprises par le conseiller en investissement sous
son nom sans faire apparaître Gambit.
Gambit Financial Solutions a été racheté par BNP-Paribas et continue
de fonctionner sous sa propre marque de façon indépendante, ce qui lui
permet de proposer aussi ses services à d’autres banques ou conseils en
investissement. Cela est possible sans conflit d’intérêts car les conseils de
Gambit sont neutres vis-à-vis des produits offerts par les banques, y
compris par BNP-Paribas.
Il y a d’autres exemples de robots-conseillers repris par des groupes
bancaires ou des sociétés de gestion de patrimoine et certains utilisent
également des modèles basés sur l’intelligence artificielle pour adapter leur
offre au profil des clients conseillés.

Quelles fintechs demain ?


Les quelques exemples de fintechs qui ont été présentés donnent une
idée de la variété des modèles de ces entreprises. Ils montrent également
que, comme beaucoup de start-up, les fintechs évoluent au cours de leur
développement et ajoutent des offres à leur offre initiale pour élargir leur
clientèle : par exemple les agrégateurs peuvent offrir soit de la comparaison
de produits financiers, soit du conseil en gestion de patrimoine et de
placement.
On constate également à ce jour que ce sont les fintechs tournées vers
les paiements qui se développent le plus rapidement, car c’est un service
utilisé très fréquemment, pour lequel la commodité et l’ergonomie du
smartphone sont particulièrement adaptées. Certaines de ces start-up ont
réussi à lever des fonds très importants en démontrant leur capacité de
croissance rapide.
Deux des modèles qui paraissent susceptibles du développement le plus
rapide, au moins aujourd’hui, sont les agrégateurs et les « néobanques » si
l’on qualifie ainsi celles des entreprises de gestion de paiement qui ont pu
prendre le statut de banque et traiter directement les comptes et les
internautes sans passer par une carte de paiement ou une banque tierce.
Dans les deux cas, il va se poser une question de rentabilité, même si les
internautes acceptent de payer un abonnement mensuel pour bénéficier d’un
service plus complet. Mais ces deux types de fintechs ont la possibilité
d’offrir des produits plus classiques, notamment d’épargne et d’assurance-
vie en partenariat éventuellement avec des entreprises du secteur
réglementé, ce qui permet d’augmenter leurs revenus.
Au total, les chiffres globaux de l’activité des fintechs, qu’il s’agisse du
nombre de clients ou de volume des transactions, sont impressionnants si
l’on se rappelle qu’ils partent de zéro il y a un petit nombre d’années. Mais
ces chiffres restent encore limités si on les rapporte à l’ensemble du marché
des services financiers proposés. La croissance et le potentiel de
développement des fintechs en font cependant des concurrents
potentiellement très importants des entreprises classiques. Leur
développement à ce jour montre qu’elles ont bénéficié jusqu’ici de la
confiance que les internautes font à tout ce qui passe par leur smartphone.
L’offre des fintechs s’ajoute à celles des GAFA pour constituer une
concurrence potentiellement très importante pour les entreprises classiques,
banques, assurances et gestion de patrimoine. Ces dernières doivent non
seulement y faire face mais elles peuvent aussi s’associer à des fintechs ou
les racheter pour utiliser la révolution numérique à leur avantage. C’est
nécessaire et possible, mais exigeant, nous allons le voir.
CHAPITRE 6

Forces et faiblesses des entreprises


financières classiques

Les Français peuvent être, dans certains cas, étonnamment confiants et


dans d’autres cas extrêmement méfiants. Yann Algan et Pierre Cahuc ont
publié en 2007 un livre de référence sur La Société de défiance, montrant
comment le caractère défiant des Français avait des conséquences parfois
désastreuses sur le modèle économique et social du pays.
Cette défiance peut avoir des conséquences coûteuses quand elle
s’applique aux clients des banques. À titre anecdotique, au moment de la
crise de 2008, un client inquiet avait retiré tout son argent de sa banque
pour le cacher sous son matelas, moyennant quoi dans les jours suivants un
cambrioleur l’avait dépossédé de cet argent.
S’agissant des banques et des assurances, les sondages d’opinion
donnent souvent comme résultat une défiance majoritaire à l’égard des
banques et des assureurs en général, mais une confiance à l’égard de sa
propre banque ou de son propre assureur.
La confiance peu risquée des internautes
Ces paradoxes apparents sont en fait le résultat de comportements
rationnels. L’exemple des cartes de paiement est significatif. Leur
utilisation a longtemps été relativement limitée et quasi marginale en France
jusqu’au jour où les paiements par carte bancaire ont été suffisamment
garantis en cas de fraude ou de perte de la carte, et le nombre d’incidents
suffisamment faible, pour que cela devienne aujourd’hui un moyen de
paiement sûr et considéré sans risque.
Aujourd’hui, les Français utilisent la carte bancaire de préférence au
chèque et même aux espèces.
Les fintechs de paiement utilisent aussi la carte des internautes pour
alimenter le compte qui sert aux paiements par leur intermédiaire.
De même, la confiance apparemment illimitée des internautes dans tout
ce qui passe par leur smartphone n’est pas irrationnelle : les internautes
savent, ou au moins se doutent bien, que l’information servira à leur faire
des offres publicitaires ou des offres de produits, ce qui en soit ne présente
pas un risque. Et les risques sociaux dont ils entendent parler, infox (fake
news), incitation à la haine et au racisme, manipulation politique, ne
touchent pas directement leur portefeuille. Même les scandales occasionnels
sur des cryptomonnaies n’ébranlent pas leur confiance dans ce qui passe par
leur smartphone.
Dans le cas d’opérations financières, par exemple un paiement effectué
en utilisant le smartphone et le site d’une fintech spécialisée, les montants
en jeu pour chaque opération sont relativement limités. De plus, dans
beaucoup de cas, le risque financier total est réduit parce que le compte
utilisé chez le fournisseur de services de paiement ne peut pas se retrouver à
découvert.
En revanche, quand la question a été posée dans le cadre de l’enquête
citée par Bain & Company (Les Échos, 27 mars 2019), la confiance des
millenials dans les fintechs n’allait pas encore jusqu’à ce qu’ils leur
confient toute leur épargne, mais, comme pour la carte bancaire,
l’expérience va jouer et on peut penser que cette confiance va s’étendre à
l’ensemble des produits financiers dans l’avenir.
Cela n’empêche pas qu’il y ait des cas potentiels de pertes
significatives. Le cas déjà cité de la perte de 300 millions de dollars par un
ensemble d’investisseurs canadiens qui avaient fait confiance à une
cryptomonnaie est significatif mais suffisamment rare pour ne pas remettre
en question l’ensemble du système qui s’est construit autour d’Internet.
Le modèle économique des entreprises financières est basé, lui, sur
deux fonctions : la transformation financière et la gestion des risques. Ce
sont des fonctions essentielles pour que les entreprises financières jouent
leur rôle au service de l’économie. Elles reposent sur la confiance du public
et leur solidité est essentielle pour le bon fonctionnement de l’économie.
C’est pourquoi elles font l’objet des réglementations renforcées depuis la
crise de 2008.
Revenons sur ces deux clés du modèle économique des entreprises
financières.
Dans le cas des banques, la transformation financière est ce qu’elles
font quand elles prêtent à moyen et long terme des ressources qui sont par
nature à court terme, que ce soient les dépôts de leurs clients ou l’argent
qu’elles empruntent à court terme sur les marchés.
Le service rendu à l’économie est d’adapter l’offre et la demande
d’argent dans le temps et dans l’espace, c’est-à-dire en assurant le
financement des crédits à long terme et des investissements dont
l’économie a besoin et en faisant ces financements là où les besoins existent
et non pas nécessairement là où sont les dépôts des clients. Les dépôts des
retraités installés dans le Midi peuvent financer, à travers le bilan des
banques, des investissements dans une autre région.
Quand elles font de la transformation financière, les banques sont
rémunérées par la différence qui existe la plupart du temps entre les taux
d’intérêt à long terme et les taux d’intérêt à très court terme. Elles peuvent
prendre le risque que cette transformation représente car elles sont
réglementées, et ont des fonds propres importants, ce qui assure la
confiance des déposants et de leurs créanciers.
Dans le cas des banques françaises, le fait que les taux d’intérêt à long
terme soient très bas et les taux d’intérêt sur les dépôts légèrement négatifs
fait que cette transformation est beaucoup moins rentable actuellement et le
restera tant que la situation des taux très bas actuelle durera. Mais le besoin
de financements à long terme, par exemple les prêts pour acquérir des
logements, demeure et les banques assurent cette fonction.
Nous avons vu, dans le cas de Younited Credit, que cette fintech ne fait
pas de transformation financière puisqu’elle ne peut pas se refinancer en
empruntant sur le marché. Cela ne l’empêche pas de se développer mais les
ordres de grandeur restent très faibles par rapport à l’ensemble du marché
du financement de l’économie ou même seulement du crédit à la
consommation.
Cela dit, la situation actuelle des taux d’intérêt, même si elle peut être
durable, n’a pas de raison d’être définitive et, avec une vision de plus long
terme, il faut considérer que les fintechs et les GAFA disposent de données
nombreuses qui leur permettraient d’offrir des crédits aux particuliers.
Grâce aux données dont ils disposent, ils peuvent faire une analyse de
risque pour sélectionner ces crédits et ils peuvent, en utilisant Internet et les
occasions de contact avec les internautes, distribuer ces crédits à un coût
plus faible que les entreprises traditionnelles. Il resterait à gérer ces crédits
dans la durée, et il faut garder à l’esprit que, du point de vue du prêteur, si
un ou deux crédits sur cent ne sont pas remboursés, le prêteur est en perte.
Dans le cas des assureurs, le cœur de leur modèle économique est la
couverture des risques de leurs clients, moyennant la perception d’une
prime d’assurance. Il peut s’agir, pour l’assurance-vie, de risque de santé,
de longévité (le coût de la dépendance) ou de décès. Dans le cas de
l’assurance dite « accidents et risques divers », elle couvre un champ très
vaste depuis l’assurance auto des particuliers jusqu’à l’assurance des
risques majeurs, tremblement de terre ou ouragan pour les entreprises et les
collectivités.
Dans tous les cas, il s’écoule un délai plus ou moins long et surtout
incertain entre la perception de la prime et le versement de l’indemnité liée
au « sinistre », suivant le terme utilisé en assurance pour qualifier la
survenance de l’événement dont le risque est garanti. L’assureur utilise ce
délai pour investir les primes perçues. Le produit de ces placements, une
fois couverts les frais de fonctionnement de l’entreprise, lui permet de
rémunérer ses fonds propres réglementaires et au total de percevoir des
primes plus faibles que s’il ne disposait pas du produit des placements. Là
encore, le modèle économique repose d’une part sur l’analyse des données
historiques et des données présentes des risques couverts pour fixer le
montant des primes et d’autre part sur le rendement du placement de ces
primes.
Ce deuxième élément est aujourd’hui pénalisé par les contraintes
réglementaires qui limitent les risques que l’assureur peut prendre et, en
particulier, il limite ou pénalise par une exigence de fonds propres
supplémentaires les investissements en actions, en moyenne plus
rémunérateurs dans le temps que des obligations moins risquées.
Dans les deux cas, le crédit et l’assurance, dont nous avons décrit
brièvement le cœur du modèle économique, l’analyse des données joue un
rôle essentiel.
Il est possible d’imaginer que les concurrents venant du monde
numérique qui disposent aussi de données importantes sur les internautes,
s’en servent pour faire concurrence directement aux banques et aux
assurances sur leur cœur de métier. Mais dans les deux cas, la mise en place
d’un crédit ou d’un contrat d’assurance n’est pas un événement qui se
produit plusieurs fois par jour, comme un paiement ou la consultation d’un
programme de recherche sur Internet ni même par mois. Cela réduit la
fréquence du recueil des nouvelles données qui sont une des sources de
rentabilité pour beaucoup d’entreprises d’Internet. La disposition de
données nombreuses sur les internautes et les possibilités de traitement font
cependant du crédit et de l’assurance des produits tentants pour les
entreprises du numérique.
Si elles les proposent à leurs clients, elles seront soumises aux mêmes
réglementations que les banques et les assureurs, ce qui représente
aujourd’hui des contraintes beaucoup plus importantes qu’à la veille de la
crise financière. Ces contraintes s’appliqueront aux entreprises du
numérique elles-mêmes ou les conduiront à passer des accords de
partenariat avec les entreprises traditionnelles qui accepteraient de fournir
ces services en sous-traitance.
Le modèle économique de la gestion de patrimoine est différent de celui
des banques ou des assurances. Il repose sur une analyse des besoins des
clients, qu’il s’agisse de particuliers, de familles ou d’institutions et sur la
technicité que représentent le choix des investissements et la gestion des
opérations de placement. La technicité dans ce cas comprend la
connaissance des marchés et des produits, la capacité d’adapter l’allocation
d’actifs aux besoins des clients, quels qu’ils soient, et celle de réaliser une
performance comportant un degré de risque cohérent avec l’attente des
clients.
L’analyse de ce choc des modèles économiques permet d’examiner les
risques et les perspectives des trois secteurs traditionnels de la finance :
banques, assurances, gérants de patrimoine dans l’ordre croissant des
risques pour les entreprises traditionnelles.
La gestion de patrimoine, un métier
de confiance
Le marché de la gestion de patrimoine, et plus généralement de la
gestion des actifs, comporte une grande diversité d’intervenants et de
situations. C’est un marché réglementé par l’Autorité des marchés
financiers dans la mesure où il traite une clientèle de particuliers et où s’y
appliquent également les nouvelles règles sur les relations entre gérants de
fonds et courtiers en valeurs mobilières et en produits financiers.
Sur le premier point, la réglementation de l’Autorité des marchés
financiers porte sur les interdictions diverses d’opérations qui pourraient
aller contre l’intérêt des clients et sur le contrôle de la qualité des opérations
des gérants, étant entendu que l’AMF dispose d’un pouvoir de sanction très
significatif.
Pour ce qui concerne les relations entre gérants et intermédiaires
financiers avec lesquels ils travaillent, c’est la directive MIFID2 de l’Union
européenne qui s’applique et qui a pour objet de s’assurer que les
commissions que perçoivent éventuellement les gérants sur les opérations
qu’ils traitent, bénéficient bien aux clients et leur soient donc transmises à
travers la tarification des services de gestion.
En pratique, les gérants de patrimoine ont transféré à leurs clients
particuliers les commissions qu’ils pouvaient percevoir des courtiers, et
compensé leur perte de recette par une majoration de la commission fixe de
gestion qu’ils perçoivent des clients.
Le résultat devrait être neutre pour les clients, si MIFID2 est bien
appliquée. Et, de toutes les façons, les clients jugent les gérants sur la
performance nette de frais de leurs placements. En fait le niveau de la
commission de gestion joue surtout au moment du choix d’un gérant.
La clientèle de la gestion de patrimoine est très diverse et s’étend depuis
les très grands fonds institutionnels à la gestion des particuliers.
Les institutionnels sont des fonds de retraite, des fondations ou des
institutions telles que banques centrales pour leur placement de réserves. La
taille des clients institutionnels peut aller d’un petit nombre de millions
d’euros pour une fondation à des centaines de millions, voire des milliards
pour certaines institutions financières ou internationales.
Dans tous ces cas, les clients sont des entités personnes morales et non
pas des personnes physiques. Quand il s’agit de personnes physiques ou
plus généralement de clients privés, là aussi les montants gérés varient entre
moins de 50 000 euros pour des particuliers qui veulent se faire conseiller
ou faire gérer leurs économies, jusqu’à des dizaines de millions d’euros
pour ce que l’on appelle les family offices qui sont les structures gérant la
fortune de familles ou d’investisseurs importants en assurant une diversité
de placements des fonds qu’ils gèrent.
Le marché présente donc une grande diversité mais un certain nombre
de points sont communs à tous les cas.
Les rémunérations représentent un pourcentage très faible par rapport
aux fonds gérés avec parfois une partie fixe elle-même limitée, ce qui fait
qu’il y a des effets d’échelle significatifs dans la mesure où une grande
partie des coûts sont des coûts techniques ou des coûts humains fixes, par
exemple la rémunération des analystes financiers, salariés de l’entreprise de
gestion, qui étudient les entreprises cotées pour conseiller les personnes qui
gèrent les fonds des clients.
La volatilité de la clientèle est variable selon les cas, elle est
relativement faible pour les clients particuliers qui ont tendance à ne
changer de gestionnaire, que celui-ci soit une personne physique ou une
entreprise, que si le service est vraiment très mauvais ou la performance
durablement médiocre. En revanche quand il s’agit de fonds institutionnels,
le choix et le suivi d’un gérant sont souvent liés à des règles formelles de
mise en concurrence, d’examen régulier de la performance et du service,
dans le cadre de la gouvernance du fonds. Le changement de prestataire
peut donc être plus fréquent.
Compte tenu de ces caractéristiques, le véritable danger auquel est
exposée la profession n’est pas tant la conséquence directe de la révolution
numérique, mais l’évolution des choix des clients, tant particuliers
qu’institutionnels, vers ce que l’on appelle la gestion passive et qui existait
bien avant la crise de 2008.
La gestion passive consiste à remplacer la sélection par un gérant
d’actifs spécifiques, par exemple des actions, par un placement dans un seul
actif dont la performance reflète plus ou moins celle de l’ensemble des
actions parmi lesquelles le gérant aurait son choix.
Par exemple, au lieu de demander au gérant de choisir une par une des
sociétés européennes cotées qu’il juge les meilleures pour acheter leurs
actions, ce que fait un gestionnaire classique, il est possible d’acheter en
Bourse une action dont la valeur suit celle de l’indice Eurostox 50 qui
représente la valeur pondérée des actions des 50 entreprises cotées les plus
importantes de la zone euro. Cette action, qu’on appelle un fonds indiciel
ou en abrégé un tracker, va suivre à la trace l’évolution de l’indice, et peut
être achetée et vendue instantanément. La choisir dispense donc le
gestionnaire de faire une analyse action par action ou fonds par fonds, mais
une fois ce choix fait, la gestion est passive, la performance est celle de
l’indice suivi.
Des trackers existent maintenant pour un très grand nombre d’actifs,
actions de tel ou tel secteur ou de tel ou tel pays, matières premières, etc.
La gestion passive permet de réduire considérablement les commissions
et les frais. Elle est de plus en plus utilisée pour une partie des
investissements des institutionnels. Un très grand nombre de fonds indiciels
existent qui permettent à peu de frais d’avoir, par exemple, la même
performance que l’ensemble d’une Bourse comme l’indice CAC40 ou un
ensemble de matières premières. Ainsi, il existe des trackers liés au cours
du pétrole ou à un cours de métal ou encore aux indices de Bourses
étrangères que l’on ne connaît pas bien, bref des dizaines, voire des
centaines de fonds indiciels qui ont en commun de comporter très peu de
frais de souscription et de gestion et d’être en principe parfaitement
liquides, c’est-à-dire que l’on peut acheter et vendre ces fonds à tout
moment.
La gestion indicielle représente une part importante et croissante du
total des fonds gérés pour les investisseurs institutionnels. Certains trackers
sont parfois inclus dans les portefeuilles gérés pour des clients particuliers.
Il est clair que le développement de la gestion passive pèse sur le
volume des recettes de l’ensemble du secteur, et bénéficie aux sociétés
spécialisées dans la conception et la gestion de trackers.
Il faut ici rappeler la phrase que l’Autorité des marchés financiers
impose à toute publicité ou communication sur les performances d’une
gestion. Son sens général est que « les performances passées ne garantissent
pas les performances futures ». Ceci est exact et fait que les gestionnaires
de patrimoine et plus généralement d’actifs financiers exercent un métier où
la confiance est essentielle. Cette confiance peut être liée à une institution,
mais aussi très souvent à des personnes physiques dont l’expérience a
montré que leur gestion donnait des bons résultats, sans pourtant que ce soit
une garantie.
Cela n’exclut pas de mauvaises surprises, ainsi le scandale qui a éclaté à
Londres en juin 2019 autour d’un gérant vedette, Neil Woodford, après une
trajectoire fulgurante depuis qu’il s’était mis à son compte en 2014.
L’histoire relativement courante dans le métier est qu’à ses débuts Neil
Woodford travaillait pour un grand fonds, Invesco, pour lequel il avait
obtenu des résultats spectaculaires, en prenant avec succès des paris contre
le marché sur la baisse de valeur des actions des entreprises dont il pensait
qu’elles étaient surévaluées.
En 2014, il s’est mis à son compte en créant une société de gestion. Sur
la foi de sa réputation, il parvient à collecter dans sa nouvelle structure plus
de 10 milliards de livres sterling au sommet de sa forme. Il se lance ensuite
dans des investissements beaucoup plus aventureux dans des petites
entreprises de biotechnologie peu connues, des entreprises de services et
dans l’immobilier. Ses performances baissent et commencent à inquiéter ses
clients qui retirent peu à peu leurs fonds, ce qui l’oblige à revendre à perte
des actions.
Les fonds gérés retombent à 5 milliards de livres.
Le coup possiblement mortel est porté par une autorité locale anglaise,
le conseil du comté de Kent, quand il demande au cours de la première
semaine de juin 2019 le remboursement de ses placements qui s’élèvent à
environ 270 millions de livres sterling. Craignant que cette sortie n’en
entraîne d’autres, Neil Woodford décide de geler les sorties de fonds, ce qui
achève de tuer la confiance dans son entreprise. Il reconnaît dans une
interview au Financial Times que c’est peut-être la fin de son entreprise.
Les clients restants subiront peut-être d’autres pertes quand les actifs seront
liquidés.
L’autorité britannique de régulation financière va probablement revoir
ses méthodes de contrôle des gérants de fonds à la lumière de cette affaire
pour essayer de rétablir la confiance dans sa propre compétence.
La révolution numérique ne représente pas un danger particulièrement
nouveau pour cette profession ou cette industrie, mais plutôt un ensemble
d’opportunités. En effet, elle doit permettre d’améliorer la qualité de
l’exécution et de réduire les coûts de gestion, un des éléments du choix des
clients. De plus rien n’empêche les gérants de fonds d’utiliser l’intelligence
artificielle et les mêmes techniques que les fintechs pour améliorer leurs
performances et leurs prestations.
Les autorités financières qui contrôlent la gestion de fonds sont en
France l’Autorité des marchés financiers (AMF) et aux États-Unis la
Securities and Exchange Commission (SEC). Elles imposent une certaine
transparence à ces gérants, ce qui fait que les investisseurs, peuvent porter
un jugement sur les risques si la transparence est respectée. Cependant, il
faut se rappeler que, dans les milliards que le Conseil de stabilité financière
qualifie de shadow banking, la finance de l’ombre, les organismes de
placements collectifs de valeurs mobilières représentent une part
considérable.
Tous ne sont donc pas transparents, en particulier ceux qu’on appelle les
hedge funds qui sont en fait des fonds spéculatifs dont certains ont des
performances spectaculaires. Ils se contentent d’indiquer les principes
généraux suivant lesquels ils opèrent sans donner beaucoup de détails et
encore moins le détail des opérations. Il faut se rappeler que to hedge veut
dire couvrir un risque, et les hedge funds prennent systématiquement des
risques en se rémunérant sur la performance.
Mais ce sont les investisseurs qui ont en fait pris le risque. Car ces
hedge funds promettent des performances élevées, et se rémunèrent
principalement par une fraction de la performance qui dépasse un certain
niveau. En contrepartie, ils prélèvent aussi des frais de gestion importants
chaque année et ne garantissent pas le capital investi. Malgré ces conditions
très coûteuses, malgré le risque de perte et l’obscurité de leurs méthodes de
gestion, ils ont pu lever des fonds considérables en donnant l’espoir de
performances élevées.
Dans un environnement de taux d’intérêt très bas, les placements peu
risqués, obligations d’État ou obligations d’entreprises importantes, ont des
rendements très faibles et les fonds spéculatifs qui proposent des
rendements plus élevés sont de ce fait très attrayants, même si ces
rendements sont assortis de commissions et de frais très élevés, mais
prélevés en principe pour l’essentiel en cas de succès.
Dans le cas de Neil Woodford, on peut penser que la publication des
actifs qui composaient ses investissements pouvait déjà inciter à la
prudence, ce qui d’ailleurs a finalement été le cas, puisque le total des actifs
gérés avait été fortement réduit avant même la crise de juin 2019.
Il y a aussi le cas de montages que l’on appelle pyramidaux, que les
Anglo-Saxons appellent des schémas de Ponzi du nom d’un Américain
appelé Ponzi. Celui-ci avait monté un tel schéma en 1919-1920 à Boston.
Ponzi proposait en 1919 un rendement de 50 % en 90 jours sur la base
d’une conception assez fumeuse de coupons-réponses internationaux non
utilisés, supposés lui permettre de réaliser ces rendements
exceptionnellement élevés. Il a réussi à convaincre quarante mille
personnes qui ont investi 15 millions de dollars, somme énorme à l’époque,
et le principe de son schéma consistait à rémunérer les investisseurs en
utilisant l’argent versé par les investisseurs suivants, d’où le nom de schéma
pyramidal. Les derniers ont perdu tout leur argent quand le schéma a été
découvert.
Le signal d’alerte est, ou devrait être, une combinaison d’absence de
transparence et de performance exceptionnellement bonnes. Dans le cas de
Bernard Madoff, c’était beaucoup plus subtil. Il ne garantissait un
rendement « que » de 8 % par an, année après année, ce qui même avant
2008 était exceptionnellement favorable, mais pas aberrant.
Sa performance était disait-il basée sur des arbitrages subtils mais très
peu précis dans les descriptions très vagues qu’il en faisait. Surtout il avait
réussi à convaincre un grand nombre de personnalités connues et tout à fait
respectables d’investir, ce qui lui a permis de lever des fonds considérables
car les noms de ces investisseurs donnaient confiance aux investisseurs
suivants.
Comme tous les plans Ponzi, le fonds géré par Madoff s’est effondré au
moment où certains investisseurs ont demandé plus de remboursements que
n’apportaient les nouveaux investisseurs et l’argent a été perdu en grande
partie.
Madoff est en prison à vie où, paraît-il, il donne des conseils boursiers à
ses codétenus…
Bien que la Securities and Exchange Commission pour les États-Unis
ou la Financial Conduct Authority pour la Grande-Bretagne surveillent le
comportement des gérants et mettent en garde contre les placements
risqués, ces deux cas montrent que les autorités réglementaires ne suffisent
pas à éviter les pertes des investisseurs en cas de mauvaise gestion ou de
fraude.
C’est un domaine où la confiance doit aussi être fondée sur la réputation
sur plus longue période des institutions, complétée par le jugement
personnel ou institutionnel des investisseurs. Les entreprises de l’univers
Internet, GAFA et fintechs, n’ont pas d’avantage compétitif structurel dans
ce domaine.

L’assurance, la technicité de la gestion


des risques
En France, l’assurance est un grand marché. Si on le mesure par le
montant des primes versées, l’équivalent du chiffre d’affaires pour
l’assurance, il dépasse largement les 200 milliards d’euros par an. Mais
c’est un marché qui recouvre un grand nombre de domaines spécifiques et
chaque fois il s’agit d’un vrai métier avec des compétences, des modes de
distribution et un modèle économique différents. Leur point commun,
comme nous l’avons déjà vu, c’est dans tous les cas la gestion des risques et
le placement des primes d’assurance reçues.
Dans le cas particulier de l’assurance-vie, c’est un peu devenu l’ordre
inverse : l’assurance-vie est aujourd’hui avant tout un produit de placement.
Le risque de décès existe bien entendu, mais ce n’est pas l’élément essentiel
de la gestion ni de la distribution.
La confiance repose, comme pour toutes les entreprises financières, sur
la capacité qu’a l’entreprise de tenir les engagements pris dans le temps,
puisque ce sont toujours des engagements à terme, et sur la qualité de la
gestion de sa relation avec les assurés.
La qualité de la gestion des sinistres est spécialement importante pour
l’assurance des biens matériels, auto, habitation, incendie, etc. Notons à
nouveau que le terme français de « sinistre » pour qualifier la survenue de
l’événement assuré est particulièrement malheureux car il donne une image
négative du métier alors que sa traduction anglaise qui est claim veut dire
simplement « exigence justifiée », ce qui est la réalité du contrat entre
l’assurance et son client. Les assureurs évitent donc de parler de « sinistre »
avec leurs clients mais le mot reste le terme officiel dans leurs rapports
financiers et professionnels.
Il faut examiner, brièvement mais de manière complète, pour chacun
des secteurs compris dans l’assurance d’une part quels sont les risques
représentés par l’irruption d’entreprises du numérique, les GAFA ou les
fintechs, et d’autre part quels sont les apports de cette révolution numérique
au fonctionnement des entreprises classiques d’assurance.
Il ne faut pas d’ailleurs considérer que l’arrivée des fintechs dans le
secteur soit un risque, l’exemple que nous avons vu de la fintech Alan
montre au contraire que c’est un complément intéressant de l’activité de
CNP Assurance puisqu’il lui permet, en réassurant les contrats placés par
Alan, d’accéder au marché des entrepreneurs individuels et des PME de
manière très efficace.
Le risque de perte de parts de marché existe plutôt dans les domaines du
grand public. Les assureurs sont parfois dépendants de modes de
distribution relativement coûteux, notamment en personnel. Ces coûts
peuvent permettre l’entrée de concurrents qui utiliseraient les moyens
d’accès économiques que sont les smartphones pour proposer des produits à
des prix plus bas.
Le premier cas est celui de l’assurance-vie, vue comme un produit
d’épargne.
C’est un marché dont les filiales des banques ont déjà pris plus de 60 %
en s’appuyant sur une distribution auprès de leurs clients bancaires, moins
coûteuse que celle des réseaux traditionnels de l’assurance, courtiers ou
agents.
L’entrée sur ce marché, soit des GAFA, soit des fintechs qui ont une
activité de banque directe, a déjà eu lieu et en général sous forme de
partenariat de distribution, mais on pourrait imaginer qu’elles aillent plus
loin et que certaines décident de créer leur propre filiale d’assurance-vie
soumise à la réglementation.
Ce risque se matérialiserait encore plus vite si les taux d’intérêt
remontaient, auquel cas de nouveaux entrants pourraient bénéficier de taux
plus élevés de rémunération des fonds placés pour le compte de leurs
clients, alors que les assureurs en place doivent gérer des encours
importants de contrats plus anciens dont le rendement ne remonterait que
plus lentement au fur et à mesure de nouveaux placements.
Le risque que représente pour l’assurance-vie une remontée des taux
d’intérêt est bien connu et les assureurs prennent des précautions en faisant
des provisions pour tenir compte d’une éventuelle montée des taux d’intérêt
qu’ils ne pourraient pas répercuter tout de suite sur le rendement offert aux
clients.
Mais ce marché de l’épargne fait déjà l’objet d’une concurrence très
active entre les différents types de compagnies d’assurances, filiales de
banques et mutualistes.
Les Français ont le choix dans une offre très large qui comporte des
contrats à frais d’entrée très réduits du type de ceux que pourraient proposer
de nouveaux entrants venant du monde numérique. La presse spécialisée et
les comparateurs sur Internet se chargent déjà de comparer très souvent les
produits. Les assureurs sont habitués à la concurrence sur les frais et sur les
rendements.
Dans le cas des assurances auto et habitation, la situation est différente.
Dans les deux cas, le coût de distribution et de gestion des sinistres est
plus important.
La part de marché que les filiales bancaires ont réussi à obtenir est
beaucoup moins élevée que pour l’assurance-vie et surtout la confiance des
clients repose beaucoup sur la qualité de la gestion des remboursements des
sinistres. C’est un domaine où les courtiers d’assurance jouent un rôle
important, mais c’est aussi un domaine où l’informatique peut apporter des
progrès significatifs dans la rapidité de traitement des demandes de
paiement en cas d’accident ou de dégâts.
Ces progrès sont possibles aussi pour les compagnies traditionnelles qui
ne s’en privent pas.
La détection des fausses déclarations et des fraudes est un élément très
important du métier. Nous avons vu plus haut qu’une fintech spécialisée
dans ce domaine a réussi à apporter un service très utile aux assureurs. Il y a
donc des possibilités d’entrer dans ce secteur pour de nouveaux acteurs et
même éventuellement pour certaines des GAFA d’étendre leur offre.
Il reste que rien n’empêche les entreprises traditionnelles d’utiliser les
mêmes technologies et de tirer parti des avantages structurels qu’elles ont
aujourd’hui du fait de la masse de données dont elles disposent et de la
confiance que leur accordent encore les particuliers. Dans le cas d’un
accident important, d’un incendie ou d’une inondation, la capacité de
l’assureur à traiter rapidement et en confiance, c’est le mot qui s’impose,
l’indemnisation est un élément essentiel de la qualité de la relation avec les
clients. Dans ce domaine le bouche-à-oreille fonctionne et ses répercussions
sont importantes. Les décisions de changement d’assureur, auto ou
habitation, bien que relativement faciles à mettre en œuvre, supposent un
écart important de prix ou de qualité de prestation pour être justifiées.
Ce secteur de l’assurance pose d’ailleurs des problèmes nouveaux de
responsabilité donc d’assurance du fait de l’évolution des modes de vie,
notamment des jeunes et des millenials. C’est le problème par exemple du
partage des moyens de transport mis à libre disposition, autos, scooters et
même trottinettes. À terme, ce sera un problème encore plus compliqué
avec les véhicules autonomes, circulant sans chauffeur.
Si l’on se place maintenant du point de vue des apports de la révolution
numérique aux métiers de l’assurance, il y en a beaucoup de
potentiellement positifs et d’importants. D’abord au niveau de la gestion et
de la relation avec les clients par les assureurs qui peuvent tout aussi bien
que les fintechs ou les GAFA utiliser Internet et les smartphones pour
faciliter ces relations et augmenter leur propre productivité. Enfin, ils ont
des systèmes de distribution et de gestion des risques où agents
indépendants et courtiers tiennent une place plus importante que celle des
agences dans les banques de détail, ce qui donne plus de flexibilité aux
assureurs qu’aux banques.
Les assureurs sont également des utilisateurs naturels des techniques de
l’intelligence artificielle et de traitement de masse des données,
considérablement développées avec la révolution numérique, et ils
disposent par leur métier même des données nécessaires.
À cet égard les assureurs ont une longue expérience de l’arbitrage
délicat entre mutualisation et spécialisation des risques. Le métier de
l’assurance a consisté d’abord à mutualiser les risques pour réduire le coût
moyen par l’effet statistique de la loi des grands nombres. Mais il était
naturel aussi que les meilleurs risques puissent bénéficier de primes
d’assurance plus basses. Par exemple, les primes d’assurance auto sont
modulées suivant l’expérience constatée du conducteur. Et les assureurs-vie
tiennent compte de la santé des souscripteurs pour fixer les primes
d’assurance-décès. Mais jusqu’où moduler sans détruire la mutualisation ?
Les données de masse et l’intelligence artificielle posent ce problème
classique du métier en termes nouveaux, car le traitement des données
poussé à l’extrême aboutirait théoriquement à une tarification
complètement individualisée des primes, par exemple pour l’assurance
santé. Cela remettrait en question le principe même de l’assurance aux yeux
du public.
Ce risque de spécialisation extrême existe dans des domaines de
l’assurance moins sensibles que la santé. Il est tentant pour des nouveaux
entrants ou même pour les entreprises traditionnelles de se servir des
nouveaux outils de traitement des données pour cibler exclusivement les
meilleurs risques. C’est aux entreprises, et à l’Autorité de contrôle
prudentiel et de résolution, de veiller à ce que la profession dans son
ensemble continue de jouer son rôle de mutualisation raisonnée des risques.
C’est aussi une des conditions de la confiance dans l’assurance.
Au total, les entreprises de l’univers Internet seront probablement une
nouvelle concurrence pour les assureurs classiques, mais sans disposer a
priori d’avantages compétitifs écrasants. Par ailleurs, certaines fintechs
peuvent aussi être non pas des concurrents mais des auxiliaires des
entreprises classiques qui les aident à améliorer leur efficacité. Enfin,
beaucoup des nouvelles technologies numériques peuvent être utilisées au
moins aussi bien par les entreprises classiques d’assurance que par celles de
l’univers Internet.

Les banques, la rupture numérique est là


Les Français ont en général une bonne image de leurs propres banques
et une image médiocre de l’ensemble des banques. Leur relation avec les
banques en général est ambiguë, ils font confiance aux banques pour y
laisser leur argent, mais ils sont facilement critiques du service comme ils le
sont d’ailleurs de la plupart des institutions. La valeur symbolique des
banques a fait que quelques agences ont été la cible des casseurs pendant les
samedis des gilets jaunes qui ont animé la fin de 2018 et le début de 2019,
au même titre d’ailleurs que certaines boutiques de luxe, notamment celles
qui avaient des montres ou du matériel électronique revendable.
Cela dit, le secteur bancaire français joue un rôle très important dans
l’économie : sa contribution au PIB en 2017 était de 2,1 % et il représentait
1,9 % de l’emploi privé. L’importance économique des banques et le rôle
qu’elles jouent dans la vie quotidienne des particuliers et des entreprises
font que le secteur bancaire est une cible naturelle des entreprises du
numérique, qu’il s’agisse des GAFA ou des fintechs.
L’exemple de la Chine, même s’il n’est pas immédiatement
transposable à la France, est frappant. Qu’il s’agisse d’Alipay ou de
WeChat Pay, filiales d’Alibaba et de Tencent respectivement, ce sont des
géants avec des centaines de millions de clients à qui ils offrent l’ensemble
des services financiers y compris paiement, crédit, assurance, épargne. Ils
seront tentés d’étendre ces modèles à l’étranger dans certains pays, en tous
les cas en Asie et en Afrique, quand la croissance de leur marché en Chine
ralentira.
Nous avons vu aussi, qu’il s’agisse des GAFA ou des fintechs, que les
services de paiement sont les premiers secteurs dans lesquels ils
développent leur présence dans le monde de la finance. Mais dans un
certain nombre de cas les fintechs deviennent elles-mêmes des banques. Ces
néobanques représentent encore une part extrêmement minoritaire du
marché, mais se développent rapidement. Ce développement est fait en
grande partie en s’appuyant d’abord sur les systèmes existants, qu’il
s’agisse de cartes Visa ou Mastercard ou des banques elles-mêmes.
Il convient donc d’examiner les forces et les faiblesses des banques par
rapport à la révolution numérique et aussi, bien entendu, les opportunités
que cette révolution présente aux banques et les conditions de leur
développement pour la suite de l’histoire.
Les banques françaises sont fondamentalement solides mais leur modèle
économique est pénalisé en ce moment du fait des conditions financières et
réglementaires. La rentabilité des banques repose pour l’essentiel sur la
marge sur les crédits qu’elles gèrent et sur les commissions qu’elles
perçoivent pour les services et sur l’épargne de leurs clients. La marge de
transformation, qui est rappelons-le, l’écart entre les taux des crédits et le
prix des ressources, est particulièrement faible dans le contexte de taux très
bas que nous connaissons, contexte qui paraît durable. S’ajoutent à ces
marges les commissions perçues sur les produits d’épargne et d’assurance-
vie ainsi que sur la gestion des opérations sur les comptes. Les dépenses,
elles, sont largement fixes et élevées puisqu’elles couvrent à la fois les
coûts des agences, du personnel et de l’informatique, postes qui
représentent à chaque fois des montants élevés.
Enfin, du fait des nouvelles réglementations depuis 2008 nous avons vu
que les banques doivent avoir aujourd’hui des niveaux de fonds propres
beaucoup plus élevés, ce qui fait que leur rentabilité est faible. Cela se
traduit par le fait que leur valeur boursière est aujourd’hui inférieure et
parfois même sensiblement inférieure à leur valeur nette comptable, c’est-à-
dire la somme de leurs actifs moins la somme de leurs dettes, valeur nette
qui représente théoriquement leur valeur liquidative. Les banques doivent
donc adapter leurs moyens et leur stratégie à ces conditions économiques
peu favorables, et en même temps réagir et s’adapter aux évolutions que
leur impose la révolution numérique, ce qui suppose notamment des
investissements importants. Elles peuvent y arriver mais c’est un défi
majeur.
Les banques françaises peuvent et même doivent faire de cette
révolution numérique une occasion d’améliorer radicalement leurs
performances économiques dans leur propre intérêt et pas seulement pour
résister à la concurrence des entreprises du numérique. Elles doivent aussi
répondre au défi que représentent les millenials : leurs habitudes, leur
comportement, leurs exigences sont très différentes de celles de leurs
parents. Leur attitude à l’égard des banques est ambiguë : bien
qu’exprimant une méfiance globale notamment du fait de leur expérience
pas toujours favorable de leur utilisation des applications informatiques des
banques, ils préfèrent encore leur confier leur argent même s’ils utilisent
beaucoup les services de paiement sur smartphone des néobanques. Pour le
moment, ils considèrent que, dès qu’il s’agit de leur argent, ils font encore
confiance d’abord à leur banque.
Il n’est pas interdit de regarder à l’étranger pour voir comment d’autres
grandes banques ont réagi à cette révolution numérique.
La revue américaine Global Finance a fait un classement des meilleures
banques numériques dans le monde et, en 2018, la banque qui venait en tête
était Citicorp.
Dans les déclarations d’autosatisfaction que Citicorp a faites à
l’occasion de la remise de ce prix, il faut noter un point intéressant : la
direction de Citicorp affirme que cela fait un grand nombre d’années que
toute la réorganisation de la banque et de son informatique est conçue
autour du mobile, autrement dit du smartphone.
C’est une remarque très importante et qui bien évidemment suppose des
changements radicaux dans l’organisation de la banque, de son
informatique et de son personnel.
Les conditions du métier bancaire aux États-Unis sont beaucoup plus
favorables qu’en France pour de nombreuses raisons, la première étant que
paradoxalement les banques américaines ont été moins touchées que les
banques européennes par la crise de 2008 car leur part du marché du
financement de l’économie est plus faible qu’en Europe, l’économie
américaine est financée en majorité par les marchés et en minorité par les
banques alors que c’est l’inverse en Europe.
Cela dit, revenons en France. Il n’y a pas une stratégie unique pour
toutes les banques bien entendu, mais il y a cependant un certain nombre de
points communs qui sont des indications sur les changements
indispensables et les opportunités que présente la révolution numérique
pour les banques.
Construire une banque de détail autour des smartphones pour la relation
quotidienne avec les clients et autour de l’agence pour le contact humain est
un défi considérable. Mais il est indispensable de le faire pour faire face à la
concurrence des nouvelles banques qui sont parties elles de la relation
autour des smartphones pour ajouter peu à peu, dans certains cas seulement,
un peu de contact humain.
Il est clair que cela ne peut pas se faire très rapidement et que cela
représente un investissement informatique considérable, mais c’est un
investissement à long terme fondamental. Il est nécessaire aux banques non
seulement pour continuer à se développer et à rétablir leur rentabilité en
France, mais également aussi pour les banques qui ont l’ambition de se
développer à l’étranger et même celle de regarder un jour les pays
émergents.
Le magazine The Economist daté du 8 juin 2019 présente des chiffres
impressionnants à cet égard. D’abord, le fait qu’aujourd’hui un peu plus de
la moitié de la population mondiale a déjà accès à l’Internet, alors que tout
cela a commencé il y a seulement vingt-cinq ans, ensuite que là où le
développement est le plus rapide, c’est dans les pays émergents.
L’accès à Internet se développe encore en Chine, mais en Occident le
pourcentage de personnes ayant accès à Internet est déjà si élevé que la
progression est nécessairement limitée.
Ce qui est intéressant, c’est que, dans ces pays, notamment en Inde qui
est le plus peuplé et celui qui se développe le plus vite, le smartphone
apparaît d’abord comme un outil pour les loisirs en plus de sa fonction de
base originelle qui est le téléphone comme moyen de communication.
C’est ce qui s’est produit en Occident pour les enfants et les adolescents
qui sont devenus ensuite les millenials et qui seront les clients de demain.
Ils ont développé avec les smartphones une relation que l’on peut qualifier
d’amicale, qui est la base de leur confiance.
Ne pas centrer la relation avec ses clients sur le smartphone serait donc
une erreur stratégique majeure. Construire une relation des banques avec
leurs clients autour des smartphones suppose non seulement un
investissement important en informatique mais aussi un changement d’état
d’esprit pour donner la priorité à la simplicité et à l’ergonomie des
applications. Les banques doivent respecter des règles de sécurité
importantes, et ce sont les mêmes que celles que doivent respecter les
néobanques. Mais il y a encore une marge de simplification des applications
d’accès à distance des comptes bancaires des banques traditionnelles, car
ces applications ont été d’abord conçues pour l’accès par ordinateur, alors
que les fintechs ont en général conçu d’emblée leurs applications autour du
seul smartphone.
Plus généralement et de manière plus moderne, il n’est pas interdit aux
banques d’utiliser la technologie pour améliorer leur offre, au contraire.
La blockchain en est un excellent exemple : JP Morgan a annoncé en
mai 2019 un partenariat stratégique avec Microsoft qui permettra de
proposer aux clients de JP Morgan et de Microsoft la mise en œuvre du
modèle de la blockchain pour gérer les archives ainsi que des applications
utilisant ce modèle. Leur idée est que les grandes entreprises ont de plus en
plus besoin de disposer de moyens pour partager leur processus de
fonctionnement et leurs données de manière parfaitement sécurisée dans le
cadre de leurs différents projets et de leurs différentes activités.
JP Morgan a déjà appliqué le principe de la blockchain pour les
transactions de fonds entre la banque et ses clients, entreprises et
institutions. La banque a annoncé la création d’un « JPM coin », valant 1
dollar, que ses clients peuvent transférer instantanément entre leurs comptes
en toute sécurité. De même, Microsoft a mis au point une utilisation de la
blockchain pour le paiement des redevances sur la Xbox, sa console de jeux
et de divertissement. Les utilisations de la blockchain paraissent
aujourd’hui dépasser la mode des cryptomonnaies pour arriver dans le
domaine des services financiers classiques.
Et, bien entendu, l’annonce le 15 juin 2019 d’un projet de
cryptomonnaie privée lancé par Facebook avec un grand nombre de
partenaires est une étape majeure si elle aboutit car il s’agirait
potentiellement de 2,5 milliards d’utilisateurs dans le monde.

Les GAFA, partenaires ou concurrents ?


Aujourd’hui, les GAFA qui développent les services de paiement ont
besoin des banques, soit directement, soit à travers les cartes que les
banques gèrent.
Nous l’avons vu dans les cas de Google et d’Apple. Par exemple, Apple
Pay a passé des partenariats avec BNP-Paribas, de même que Samsung pour
les smartphones utilisant le système d’exploitation Android de Google. Le
partenariat a été mis en place début 2019 chez BNP-Paribas, pour sa filiale
Hello Bank, et chez HSBC. Ce sont les cartes Visa qui sont éligibles à
Apple Pay de même que le site de BNP Net qui permet d’avoir accès à ces
comptes par Internet. De nombreuses autres banques sont compatibles avec
l’offre d’Apple Pay et a priori toutes les grandes banques devraient l’être
progressivement.
Le partenariat avec Apple Pay paraît moins risqué pour la protection des
données bancaires du fait de la politique affichée par Apple de respecter la
confidentialité des données de ses clients. On peut imaginer que dans le
climat actuel de suspicion à l’égard des grands réseaux d’Internet, les
porteurs d’iPhone seront les premiers à réagir s’ils s’aperçoivent que cette
confidentialité n’est pas respectée. Leur intérêt converge donc avec celui
des banques partenaires.
En revanche, Facebook lance avec Libra un défi majeur aux banques :
quelles que soient les promesses initiales, Libra peut devenir non seulement
une monnaie mondiale mais aussi un gigantesque système bancaire non
réglementé car rien ne l’empêchera de faire du crédit.
La question se posera différemment pour les néobanques, c’est-à-dire
toutes les fintechs qui, partant des systèmes de paiement, ont développé une
activité bancaire élargie, telles que N26, Lydia ou Revolut. Elles aussi
utilisent les cartes qui sont des cartes bancaires et donc elles sont
indirectement des partenaires des banques. De plus, elles bénéficient de la
directive DSP2, tout comme les agrégateurs, et il y a là bien entendu une
concurrence possible lorsque agrégateurs et néobanques élargiront leur offre
à des produits autres que les paiements. Comme les banques ne peuvent pas
empêcher cette concurrence, c’est une raison de plus pour elles d’offrir
elles-mêmes une qualité de service sur smartphone au même niveau
d’ergonomie et rapidité que les néobanques.
Plus généralement, les grandes banques doivent se poser la question de
leurs relations avec les autres fintechs. Certaines sont partenaires dans la
mesure où elles apportent un service complémentaire que les banques
peuvent intégrer ou conserver en filiale et l’offrir pour le proposer à des
tiers. C’est le cas par exemple de Gambit, racheté par BNP-Paribas, et qui
offre un « robot conseiller » de gestion de patrimoine.

Agences ou smartphones ? Les deux


Une question stratégique pour les grandes banques françaises est la
gestion des marques qui sont dans leur groupe. Il peut s’agir de filiales
spécialisées qui avaient leur propre marque et qui maintenant reprennent la
marque du groupe, par exemple dans le cas de BNP-Paribas Cardif qui
devient BNP Assurance tout en conservant dans certains cas une marque
Cardif là où elle est utile. De même, Cetelem devient Personal Finance
BNP-Paribas, PF BNP-Paribas, tout en conservant Cetelem comme marque
commerciale très connue.
Il y a le cas des marques créées délibérément pour une approche
différente de la banque comme Hello Bank chez BNP-Paribas et il y a celui
d’une marque rachetée qui conserve sa personnalité comme le compte
Nickel.
La question de l’utilisation par les banques des données de leurs
relations avec les clients, tant présents qu’historiques, est importante.
Dans leurs relations avec les entreprises, notamment les plus grandes,
les banques ont depuis longtemps organisé la coordination entre leurs
différentes activités, crédit, trésorerie, conseil, etc., souvent en créant une
fonction pour assurer le suivi de la relation au plus haut niveau de
l’entreprise.
Les grandes entreprises attendent de leur banque qu’elle leur apporte un
ensemble de services avec une relation centrale avec leur direction
financière. Les banques d’investissement l’ont compris et elles ont toutes
mis en place des équipes de chargés de la relation clients pour les grands
groupes, en y affectant des collaborateurs d’expérience. Ceux-ci vont
centraliser l’information sur l’ensemble des relations avec chaque grand
groupe, qu’il s’agisse de relations de trésorerie, de conseil ou de crédit, en
France ou dans n’importe quel pays étranger.
Dans le cas de la clientèle particulière, la question se pose autrement et
c’est d’ailleurs un des moyens de différencier les banques de Google,
Facebook et Amazon. En effet, au contraire de ces trois entreprises, les
banques ne basent pas leur rentabilité sur la vente à des annonceurs de
publicité ciblée visant leurs clients. Elles n’ont pas besoin de rassembler le
maximum de données sur la vie de leurs clients pour faire du profit.
Mais les clients peuvent avoir des relations multiples avec la banque, y
compris avec ses filiales spécialisées de crédit à la consommation ou
d’assurance. De plus, une partie croissante de ces clients a plusieurs
banques.
Dans le premier cas, les banques ont intérêt à avoir une vision
d’ensemble des relations financières de leur client avec leurs filiales. Les
clients s’y attendent et cela ne devrait poser de problème ni à la banque ni
aux clients, une fois ceux-ci informés pour avoir leur accord si nécessaire.
Dans le deuxième cas, les comptes des clients pourraient être agrégés
par leur banque principale dans le cadre de la directive européenne DSP2,
avec leur accord. Cette agrégation leur sera proposée aussi par des fintechs.
Ce serait normal, si les clients acceptent l’agrégation des comptes, que ce
soit leur banque principale qui leur offre ce service.
Mais cela doit être l’occasion d’offrir plus de services par ce moyen.
Cela peut être, comme le font les fintechs, pour proposer une gestion des
dépenses et du budget. Cela peut être aussi pour offrir des conseils de
gestion patrimoniale.
On constate que, dans les activités de banque privée, les clients
acceptent et même souhaitent trouver un ingénieur patrimonial qui les
conseille sur l’ensemble de leur situation financière et donc qui ait accès à
toutes leurs données financières.
Étendre ce genre de relations à une clientèle plus large devient possible
avec les moyens numériques, certaines fintechs y arrivent, les banques
pourraient s’en inspirer et l’offrir à plus de clients.
Autant les clients les plus âgés risquent d’être réticents face à ce qu’ils
considéreraient peut-être comme une intrusion non désirable dans leur vie
privée, autant les millenials qui auront déjà utilisé ce service avec une des
néobanques le trouveront normal.
À cet égard, les réseaux d’agences doivent être vus comme un atout et
pas seulement comme une dépense à réduire ou à éliminer. Non seulement
il ne faut pas renoncer aux agences, mais les considérer au contraire,
comme le moyen de différenciation entre banques traditionnelles et
néobanques. Ces dernières n’ont pas d’agences, et même si les Français
vont très rarement visiter leur agence bancaire, ils tiennent à ce qu’elle
existe et ils veulent savoir qu’il y en a une pas trop loin à laquelle ils
peuvent avoir accès facilement.
À titre d’exemple, les coffres en agence ont probablement très mauvaise
presse auprès des contrôleurs de gestion des banques. Ils occupent de
l’espace, leur entretien coûte de l’argent et ils ne rapportent pas grand-
chose. Mais imaginez un instant que les millenials découvrent l’intérêt
d’utiliser un coffre et comprennent que leur usage n’est pas réservé à leurs
parents qui en ont pris l’habitude et qui ne souhaitent pas y renoncer. Il y a
là un investissement existant considérable, qui n’a pas de concurrent, et qui
peut se transformer d’élément de coût, agaçant pour les contrôleurs de
gestion, en atout compétitif difficile à égaler.
Cela nous amène à un point très important : les banques ont intérêt à se
différencier le plus possible sur les plans du modèle économique et de la
philosophie des relations avec les clients des entreprises purement
numériques. Se différencier veut dire centrer la relation de manière ou
d’une autre sur une relation humaine, même si en pratique le client peut
traiter l’ensemble de ses opérations courantes à travers son smartphone de
façon simple et rapide.
Ce qui nous amène à revenir sur la question des agences. Les agences
bancaires sont un des éléments importants sinon le plus important du coût
de la banque de détail en France. Si l’on regarde ce qui s’est passé à
l’étranger sur une longue période on constate qu’il y a eu un mouvement de
balancier avec successivement fermetures et ouvertures d’agences avec un
cycle de plusieurs années.
De même, on constate qu’un certain nombre de banques Internet
décident finalement d’avoir des points de rencontre pour leurs clients en
créant des agences d’un type particulier à cet effet. Les banques doivent
donc considérer le réseau d’agences comme un atout et une opportunité et
non pas seulement comme un centre de coût.
CONCLUSION

Le choc des confiances,


quel avenir pour la finance ?

La confiance est indispensable au fonctionnement des sociétés


humaines.
La confiance est un sentiment à la fois simple et intuitif : on a ou on n’a
pas confiance.
Mais l’importance d’avoir confiance est très variable suivant les
situations : la confiance en un chirurgien pour une intervention vitale est
fondamentale ; la confiance de parents en une nourrice à qui ils confient
leur enfant l’est aussi ; il n’en va pas forcément de même pour les actes de
la vie quotidienne même si pratiquement tous impliquent une certaine
confiance, que ce soient un achat, un déplacement, le fait de mettre une
lettre à la poste ou même une conversation avec un ami.
Le cas de la finance n’est pas différent. Glisser sa carte bancaire dans un
distributeur de billets implique la confiance dans le fait qu’elle nous sera
rendue avec les billets demandés, mais ce n’est pas le même degré ni la
même nature de confiance que quand on emprunte une somme importante
pour acheter sa maison ou quand on souscrit un contrat d’assurance-vie
pour protéger sa famille.
Or nous avons vu qu’en matière financière, deux univers différents de
confiance existent aujourd’hui : d’une part, celui d’Internet et des
smartphones et, d’autre part, celui des entreprises financières classiques.
Nous avons vu que la confiance dans les entreprises financières
classiques repose en partie sur l’ensemble des réglementations mises en
place depuis la crise de 2008. En partie seulement car très peu de clients en
connaissent le détail, mais ils savent que ces réglementations existent.
En revanche, nous avons vu que la confiance dans l’univers Internet
repose en général simplement sur la confiance des internautes dans ce qui
passe par leur smartphone, quand ils utilisent un réseau ou un site connu ou
recommandé par une relation. Et leur confiance est confortée quand leurs
innombrables utilisations des smartphones se déroulent bien.
Ces deux univers de confiance ont des relations complexes : ils sont en
concurrence quand les GAFA et les fintechs offrent des services de
paiement ou proposent du crédit, de l’épargne ou de l’assurance, mais ils
coopèrent quand le service de paiement offert est basé sur une carte
bancaire, ou qu’une entreprise financière classique utilise un outil comme le
cloud pour son informatique ou encore quand une fintech aide les assureurs
classiques à détecter les fausses déclarations de sinistres.

Choc des confiances ou synthèse dans un univers plus large ?


Sur Internet, quand il s’agit d’opérations financières, ce sont jusqu’à
présent principalement des transactions de paiement et des virements : par
exemple, virer 1 000 euros sur un compte Revolut pour couvrir les dépenses
en livres sterling pendant un week-end à Londres. Le risque financier pris
par l’internaute est limité.
Mais en matière financière, quel que soit l’univers, quand les sommes
en jeu sont importantes, par exemple un investissement de plusieurs
millions par un fonds de retraite ou une demande d’assurance par un
armateur pour un porte-conteneurs géant, la confiance est d’un autre niveau,
et un contact direct avec un interlocuteur compétent dans ce domaine est
jugé nécessaire aujourd’hui.
Aux yeux de celui qui la pose, l’importance d’une question financière
ne dépend pas de son montant absolu mais de son importance relative, pour
lui-même, par rapport à ses revenus ou à son patrimoine. Ainsi, l’achat
d’une maison est très souvent la décision financière la plus importante de
toute une vie. Et celui qui demande un crédit pour cet achat demande aussi
à en parler avec un interlocuteur compétent, et de confiance à ses yeux.

Aujourd’hui, en France, un contact humain compétent est probablement


indispensable dans tous les cas où se pose une question financière qui est
jugée importante par celui qui la pose, qu’il s’agisse de banque,
d’assurance ou de gestion de patrimoine.
On peut ajouter à cette hypothèse le fait que le crédit, l’assurance et
l’épargne sont des domaines réglementés. L’Autorité de contrôle prudentiel
et de résolution et l’Autorité des marchés financiers doivent s’assurer
notamment de la solidité financière des entreprises qui y interviennent, de
leur respect des règles antiblanchiment de l’argent et de la protection de
l’intérêt des clients.
La psychologie des clients et la réglementation suffiront-elles ensemble
à protéger l’univers de confiance des entreprises financières classiques ? Ce
serait une erreur de le croire, sa disruption par les entreprises de l’univers
de confiance de l’Internet, GAFA et fintechs se poursuivra.
En premier lieu, parce que les fintechs ou les GAFA qui voudront aller
plus loin dans l’offre de produits financiers auront ou trouveront les moyens
pour proposer un contact humain compétent si c’est nécessaire.
Le contact humain pourrait être assuré par les équipes d’une entreprise
financière classique, dans le cadre d’un partenariat avec l’entreprise de
l’univers Internet. Néanmoins, nouer un partenariat avec une entreprise
classique, banque, assurance ou gestionnaire de patrimoine, peut poser des
problèmes de partage des données et des marges. C’est quand même le
choix qu’Apple semble avoir fait en s’alliant à Goldman Sachs.
Le contact de confiance pourrait être assuré en créant des points de
rencontre avec des interlocuteurs humains compétents et responsables. Dans
ce cas, ce serait un investissement coûteux en personnel et en formation
surtout à l’échelle du nombre élevé de clients que visent les entreprises de
l’univers Internet.
Il est possible aussi que les internautes se contentent des services de
centres d’appels téléphoniques ayant du personnel très compétent en
matière de crédits, d’assurances ou de placements.
Quelle que soit la solution choisie, elle sera coûteuse et le modèle
économique des entreprises de l’univers Internet ne sera plus exactement le
même.
Mais les GAFA ont les moyens de faire les investissements nécessaires
et les meilleures fintechs ont prouvé qu’elles peuvent trouver de gros
financements si leur projet paraît viable.
Aucune de ces considérations, ni la psychologie des clients, ni la
réglementation, ni les coûts, ni la combinaison des trois ne protégera les
entreprises financières classiques de l’irruption de l’univers Internet dans
leur métier.
Cette irruption qui a commencé avec les services de paiement connaîtra
une accélération si le projet de « monnaie Facebook » se met en place,
malgré les problèmes de toute nature qu’il soulève, y compris celui d’une
trace carbone probablement inacceptable.
Telle qu’elle est présentée en juin 2019 au moins, Libra pourrait devenir
non seulement une nouvelle monnaie mais un système bancaire parallèle.
Elle aurait de fortes chances de s’étendre au crédit, à l’épargne et à
l’assurance. La probabilité qu’un ou plusieurs GAFA, voire un des géants
chinois, prennent des initiatives dans ces domaines dans les trois ans qui
viennent est élevée.
Dans ce cas aussi, les banques ne peuvent pas compter seulement sur le
Conseil de stabilité financière pour contrôler le risque que cela
représenterait pour l’économie mondiale. D’autres initiatives, ou bien une
version différente de celle-ci, verront le jour.

Aussi, la seule option des entreprises classiques de la finance est


d’entrer elles-mêmes dans l’univers Internet.
Les entreprises financières classiques ne vont évidemment pas se
transformer ni en GAFA ni en fintechs. Mais même si elles sont déjà
conscientes qu’elles doivent changer pour s’adapter à la révolution
numérique, elles n’ont peut-être pas mesuré l’ampleur du changement
nécessaire.
Un changement de cette importance doit être focalisé sur les clients que
l’on vise. Dans le cas présent, ce sont les millenials, des adolescents aux
jeunes adultes. Tous les clients sont bien entendu importants, mais ce sont
les millenials qui font qu’une entreprise fait partie ou non de l’univers
Internet.
Ils la jugent au premier contact sur la qualité de son offre Internet sur
smartphone, puis, sur la durée, sur la qualité de son accueil et de son
exécution des services demandés.
Les millenials sont particulièrement exigeants sur ces points précis.
Leur expérience habituelle des applications sur smartphone est caractérisée
par la simplicité et l’instantanéité des réponses. Leur expérience des
services après-vente dans l’univers Internet, quand ils en ont, est souvent
excellente.
Leur première expérience des services financiers dans Internet peut
s’être produite avec un service de paiement, avec une néobanque
découverte par bouche-à-oreille et « essayée » comme ils essaient une
nouvelle application signalée par une relation de leur génération.
La simplicité et l’ergonomie des applications des fintechs et des GAFA
sur leur smartphone vont devenir leur standard en matière de relations
financières. Peu d’entreprises financières classiques sont aujourd’hui à la
hauteur de ce standard. Beaucoup en sont très loin.
Quelques mauvaises expériences du service d’une entreprise financière
classique, que ce soit pour une demande traitée par smartphone ou à
l’occasion d’un contact direct, remettent en cause la confiance des
millenials, non pas dans la solidité de l’entreprise, mais dans sa capacité à
fournir le service qu’ils attendent.
Perdre un millenial comme client, c’est risquer de le perdre pour
quarante ans ou plus.
À ce propos, nous avons rappelé que le patron de Citicorp, classée
meilleure banque numérique du monde pour 2018 par Global Finance
Magazine, a dit que depuis plusieurs années, tous leurs systèmes
informatiques étaient pensés autour de la mobilité et des smartphones.
Transposée dans le contexte français, cette idée devrait être centrale au
moment où les grandes entreprises financières investissent des milliards
pour adapter leur informatique aux nouvelles exigences des clients. Le
standard devrait être la simplicité de l’utilisation des applications proposées
par les meilleures néobanques. Il n’est pas acceptable de faire moins bien !
Au même niveau de priorité, il convient de placer l’évolution de
l’organisation pour l’adapter aux demandes des millenials à tous les
niveaux.
Il ne s’agit pas de « jeunisme » mais de reconnaître que les générations
de millenials ont grandi en utilisant les smartphones dès l’enfance. Leurs
réflexes et leurs exigences sont différents de ceux de leurs aînés qui
constituent aujourd’hui l’essentiel du personnel et surtout de l’encadrement
et des directions des entreprises financières classiques.
Les adaptations nécessaires le sont surtout au niveau des collaborateurs
au contact de la clientèle, contact direct dans les agences bancaires ou dans
les réseaux des assureurs, et contact indirect dans les services administratifs
qui assurent l’exécution des opérations. Les formations nécessaires doivent
porter sur la qualité de service face à ces exigences nouvelles, en impliquant
les équipes dans l’identification des améliorations possibles.
La relation avec les fintechs a déjà été identifiée par certaines grandes
entreprises financières comme une source d’innovations et de
développement.
Les entreprises financières qui ont développé des relations avec les
fintechs ont mis en place les moyens pour identifier les opportunités le plus
tôt possible, les suivre, et imaginer des formules variées allant du
partenariat non exclusif ou exclusif à l’acquisition, suivie ou pas
d’intégration.
L’acquisition de fintechs, puis la réussite de leur intégration, est un
moyen d’élargir la clientèle de millenials et ces fintechs peuvent servir de
modèle pour le reste de l’organisation.

Les changements nécessaires sont difficiles à exécuter.


On peut en mesurer la difficulté en disant qu’il s’agit de transformer en
fintechs les entreprises financières classiques elles-mêmes, dans leur
organisation, leur esprit et dans toutes leurs prestations Internet pour les
clients, tout en respectant les procédures strictes qu’impose la
réglementation.

La première condition pour y parvenir est de décider au plus haut


niveau que c’est possible.
Sans angélisme excessif, on peut imaginer que les entreprises
financières classiques et celles de l’univers Internet utilisent leurs forces
respectives pour se renforcer mutuellement, par la concurrence, par des
partenariats et d’éventuelles acquisitions de fintechs. Réussir cette synthèse
renforcerait non seulement le secteur financier français mais l’ensemble de
l’économie.
Inscrivez-vous à notre newsletter !

Vous serez ainsi régulièrement informé(e) de nos nouvelles


parutions et de nos actualités :

https://www.odilejacob.fr/newsletter
TABLE

Introduction

La confiance réglementée contre la confiance tacite


2008 : début de la rupture numérique

Le règne des données


La croissance exponentielle des réseaux

La confiance et l'argent : une question vieille comme l'humanité


La monnaie fiduciaire marque le début des temps modernes

L'invention utile des banques et des assurances

Années 1980 : première coordination mondiale des régulateurs de la finance

Le choc des deux confiances a commencé

Chapitre 1 - L'acte I : de 1971 à la crise de 2008, une longue euphorie qui finit mal
1971-2001, trente ans d'inflation
Les années 1980 et la déréglementation des marchés financiers

Deux innovations financières, la titrisation et les produits dérivés


Les dérives de la finance américaine et la fin de la fête
Août 2007, les premiers craquements

Vendredi 13 septembre, un week-end fatidique


Le G20 : « Plus jamais ça ! »

Chapitre 2 - La confiance réglementée, mais chèrement


Pour assurer la liquidité, revoir le refinancement
Pour assurer la solvabilité, augmenter les fonds propres
Pour lutter contre la fraude et le blanchiment, connaître les clients

La mise en œuvre de la réglementation financière


Plus de capital, donc moins d'effet de levier

Refinancement plus stable donc moins de transformation financière


« Shadow banking », la finance parallèle
La lutte contre le blanchiment et la fraude et la fin des abus du secret bancaire

La confiance rétablie
Chapitre 3 - Réseaux sociaux : le produit c'est vous !

2004 : un trombinoscope nommé Facebook


Les géants des réseaux
Les données, pétrole du xxie siècle ?

Les abus de confiance des réseaux et le mythe de l'autorégulation


Chapitre 4 - Finance : les géants arrivent en force
La confiance par l'expérience, même sur Internet

Le Guide Michelin, toujours vaillant


La confiance par le contact humain personnel

Avec les données, la confiance devient accessoire : les géants d'Internet


Le modèle chinois est-il notre avenir ?

Dès maintenant, les GAFA dans la finance


Microsoft : mon business c'est d'abord le business
Amazon ou comment un libraire en ligne devient un géant de la distribution

Apple, protecteur des données privées


Apple, banquier privé ?

Google, le géant de la publicité ciblée


Trois géants différents mais avec des stratégies parallèles
Facebook, le seul produit c'est vous !

Chapitre 5 - Les start-up de la finance : les fintechs


Les fintechs et les nouveaux clients
Le financement des fintechs et les incubateurs
Les « ancêtres » des fintechs, succès et échecs

Les « néobanques » après 2008


Les néobanques des millenials
Lydia
N26 et Revolut, des stratégies du style Amazon
Les fintechs spécialisées

Les « assurtechs »
Détection des faux sinistres en assurance
Les pirates vertueux
Ledger, un portefeuille pour cryptomonnaies
L'intelligence artificielle appliquée

Les agrégateurs et la directive européenne sur les services de paiement


Une licorne financière inconnue du grand public
Les robots-conseillers
Quelles fintechs demain ?
Chapitre 6 - Forces et faiblesses des entreprises financières classiques

La confiance peu risquée des internautes

La gestion de patrimoine, un métier de confiance


L'assurance, la technicité de la gestion des risques
Les banques, la rupture numérique est là
Les GAFA, partenaires ou concurrents ?

Agences ou smartphones ? Les deux

Conclusion - Le choc des confiances, quel avenir pour la finance ?

Pour en savoir plus

Vous aimerez peut-être aussi