Académique Documents
Professionnel Documents
Culture Documents
Cet essai vise à réfléchir avec les outils de l’histoire des idées, des
sciences et des techniques, et, avec un grain de philosophie, à la manière
dont ChatGPT s’est imposé en quelques mois dans nos vies. Son objectif est
double : mener une réflexion critique informée, mais aussi accompagner les
nouveaux usages, pour permettre au lecteur de mieux comprendre et de
mieux apprivoiser ChatGPT – en maîtrisant ce qu’on appelle « l’art du
prompt » : l’art de rédiger les meilleures requêtes.
Derrière le logiciel offert récemment au grand public par la société
californienne OpenAI, j’ai essayé de réfléchir aux questions posées par les
outils d’intelligence artificielle (IA) contemporains et en particulier ce
qu’on appelle les grands modèles de langage et les intelligences artificielles
génératives dont ChatGPT est un représentant, comme DALL-E (développé
aussi par OpenAI) ou Midjourney pour les images.
Une des fictions actuelles sur les IA consiste à leur attribuer la capacité
d’écrire intégralement des livres entiers. Qu’en pense ChatGPT lui-même ?
Posons tout de suite une question qui pourrait nous éviter bien des
amalgames.
L’INVASION DES PERROQUETS
STOCHASTIQUES : COMPRENDRE
CHATGPT
CHAPITRE 1
C’est un grand open space, où tout a été fait pour rendre l’effort ludique
et pour repousser les limites de la productivité personnelle. À côté
d’énormes écrans de Mac sous-utilisés, des distributeurs de bonbons et de
gros poufs participent d’une coolitude typique de la Silicon Valley. Nous
sommes au printemps 2016 au Center for Spatial and Textual Analysis de
l’université Stanford, en Californie, à quelques stations en « Caltrain » de
San Francisco. C’est l’une des plus prestigieuses universités du monde,
mais nous pourrions être tout aussi bien dans une des innombrables
entreprises de deeptech naissantes, et pas sur un campus universitaire. Ici,
comme dans les GAFAM Google et Apple dont les sièges sociaux sont
situés à quelques kilomètres, les références à la contre-culture californienne
et l’ostentation des richesses font bon ménage, composant cette formule
magique de la réussite technologique de la côte ouest : disponibilité quasi
infinie de fonds grâce à une économie fondée sur la capitalisation, apologie
de l’inventivité sans filet, comme en témoigne tristement l’abondance des
mobile homes dans le voisinage. C’est la formule du capitalisme créatif,
avec ce mélange entre la vie personnelle et le travail, l’idéologie de la
confiance en soi et l’acceptation institutionnalisée de l’insécurité, le monde
des start-up et de la recherche. C’est ici même, à Stanford, qu’il y a
quelques années, Steve Jobs, fondateur et patron d’Apple, avait donné son
discours testamentaire, méditation sur la mort et la prise de risque, qui se
terminait par cette formule : « Restez affamés. Restez dingues. » C’est ici
aussi que le fondateur de la société derrière ChatGPT, Sam Altman, a
commencé ses études en informatique avant de les abandonner pour créer
une start-up.
En 2016, à Palo Alto la vaniteuse, les Tesla Model X commencent à
s’imposer. L’idée d’un véhicule électrique redevient à la mode, même si
leur système d’aide à la conduite est encore sommaire – il faudra encore
attendre quelques mois pour que de nouveaux processus Nvidia permettent
à la voiture de changer de voie ou de se garer par elle-même avec l’aide
d’un nouveau système de Lidar, un type de radar permettant à un ordinateur
de se représenter un espace en trois dimensions. En juillet, pour la première
fois dans l’histoire de l’autonomie, un accident a causé un premier mort
dans une collision avec une semi-remorque. « La remorque blanche pourrait
avoir été confondue par le système de pilotage avec un panneau d’affichage,
sachant que le ciel était très lumineux et qu’il y avait un contre-jour »,
reconnaît Tesla. Mais nous faisons confiance aux ascenseurs, le pilotage de
nos avions est presque totalement automatisé : pourquoi ne pas accepter le
risque supposément beaucoup plus faible d’une voiture pilotée par une
intelligence artificielle ? Voilà ce qu’on se dit ici, avant même de penser à
qui payera en cas d’accident.
Dans cette grande salle ouverte vingt-quatre heures sur vingt-quatre, où
je me suis rendu avec une équipe de chercheurs français venue d’une vieille
Sorbonne dont les codes semblent appartenir à une autre planète, le
décalage horaire brouille le temps. À quelques mètres se situe la porte du
mythique Literary Lab fondé par Franco Moretti, génial théoricien de la
world literature et fondateur des humanités numériques, qui eut le premier
l’intuition de considérer la culture comme un ensemble de données qui
pouvaient s’analyser à distance par des algorithmes, en faisant l’économie
de la lecture humaine. Puis il a fui en Europe pour une affaire de mœurs…
Si nous étions venus de France sans sweat-shirts à capuche marqués à
l’effigie de notre université comme cela se fait aux États-Unis, nous
n’étions pas arrivés les mains vides : nous apportions d’immenses
ensembles de textes numérisés, des milliers d’ouvrages représentant une
bonne partie de la critique littéraire du XIXe siècle. Même si le mammouth
nommé Bibliothèque nationale de France avait eu du mal à y croire, le
projet Gallica de numérisation de livres et de périodiques avait pris de
l’ampleur, autorisant les chercheurs à constituer les premiers big data de la
culture, d’abord en retranscrivant manuellement les textes, tâche d’abord
menée par des amateurs passionnés comme l’excentrique bibliothécaire de
la bibliothèque municipale de Lisieux, Olivier Bogros, qui a constitué en
France la première bibliothèque numérique accessible à tous sur le Web.
Ces premières et déjà vieilles bibliothèques numériques sont les piliers des
intelligences artificielles d’aujourd’hui, et en cherchant bien, leur mémoire
se trouve enfouie dans la mémoire culturelle des outils d’IA que nous
utilisons pour rédiger à notre place des sujets de cours ou des punchlines
pour réseaux sociaux
Pour l’heure, les réseaux de neurones et l’apprentissage profond sont
encore dans la pénombre des laboratoires de recherche, dans ce qu’on
nomme encore le « traitement automatique du langage ». Les outils sont peu
commodes, lents, dépourvus d’interfaces graphiques conviviales – les
développeurs cultivent jusqu’à aujourd’hui les écrans noirs et les polices de
caractères des terminaux de la première informatique où tout était lignes de
code.
Après avoir fixé un peu au hasard « l’hyperparamètre » de mon outil
d’analyse avec l’intuition d’un alchimiste jouant avec ses cornues, j’appuie
sur la touche Entrée. Dans les entrailles du microprocesseur de mon
ordinateur, chaque mot des milliers de textes dont j’ai demandé l’analyse
par un algorithme nommé « Word2vec » est analysé dans des milliards de
matrices mathématiques qui se combinent et se recombinent, avant que la
réponse à ma question « Quels sont les mots qui traduisent le mieux le mot
romantisme ? » apparaisse :
C’est un grand pas pour moi, mais un petit pas technologique pour
l’humanité : les collègues américains qui nous accueillaient savaient déjà
analyser des masses d’opinions, additionner des mots (« roi » – « homme »
= « reine », peut calculer un ordinateur), mais pour tout le savoir d’un siècle
de professeurs, c’est un saut immense que de se retrouver en équations
mathématiques. Pour l’historien de la littérature à l’ancienne que j’étais
avant d’appuyer sur ce bouton, c’est l’entrée dans la « vallée de
l’étrangeté », pour reprendre le terme célèbre et déjà ancien (1970) de
Masahiro Mori : la découverte d’une vision non humaine de l’univers
humain, la manière dont une machine raconte ou dessine le monde de
l’homme. Avec Word2vec, qui calcule les mots qui sont statistiquement les
plus proches, tout se passe comme si l’inconscient de notre culture s’ouvrait
à nous : oui, le « romantisme » est bien une sorte de religion, qui a son
« clergé », son « pape » et son « Saint-Esprit », oui, elle affecte son temps
comme un « choléra », par l’intermédiaire des « journalistes ». Les
e
historiens du XIX siècle – Paul Bénichou, l’auteur du Sacre de l’écrivain, le
premier – l’avaient bien dit, mais la machine nous le confirme avec
l’autorité d’une sibylle. Auparavant, pour savoir ce qu’était ce mouvement
littéraire, j’avais deux solutions : soit lire par moi-même les œuvres et toute
l’histoire qui les entourait, soit faire confiance à des professeurs et à des
érudits qui avaient accompli ce travail pour moi et en tiraient autorité et
pouvoir. Avec Wikipédia, la révolution numérique avait accompli un
premier tournant en démocratisant le savoir : sans pour autant éliminer
l’érudition, l’intelligence collective pouvait redistribuer un peu les cartes.
Avec l’intelligence artificielle, le savoir humain peut être digéré et retraduit
à l’infini, permettant à chacun de se le réapproprier magiquement. Entraîné
sur un savoir plus général que ma bibliothèque du XIXe siècle, ChatGPT
fera, dix ans après, bien mieux que Word2vec, en prenant cette distance et
une neutralité mainstream qui lui sont propres :
Mais dès les années 2010, les rudiments de la révolution de ce que l’on
appelle les large language models (« grands modèles de langage »), dont
ChatGPT est le membre le plus fameux, étaient en route avec comme base
une idée simple, mais géniale : la sémantique distributionnelle. Un concept
fondamental, datant des années 1960, de toutes les intelligences artificielles
qui écrivent : le sens des mots peut être déduit par des statistiques
complexes des mots qui l’entourent. Entre l’univers des idées et celui des
nombres, il existe une passerelle : les probabilités. En construisant l’espace
de signification d’un mot et la géométrie de ses relations avec les autres
mots d’un même texte, il est possible de donner un équivalent statistique
d’un mot par un autre, ce qu’on appelle sa signification « latente, ce qui
permet sa traduction. Dès lors, un algorithme peut prédire le mot devant
suivre un mot donné, exactement comme le fait ChatGPT, en faisant de
nous des nains sur des épaules de géants :
Le langage du langage
Le canard et les automates
Même si ChatGPT n’est pas encore tout à fait cette IA universelle que
la science-fiction préfigure dans les films de Kubrick ou de Spielberg, en
devenant capable d’imiter des caractéristiques que l’humanité a utilisées
pour se différencier de l’animal, comme le langage et la créativité, l’IA de
ChatGPT vient nous troubler plus profondément encore que les outils dont
nous disposions précédemment pour améliorer nos capacités cognitives.
Dans l’un de ses derniers livres, Petite Poucette, Michel Serre avait
démontré que les smartphones permettaient d’externaliser une partie de
notre mémoire et de libérer notre esprit pour des tâches plus intéressantes
que de se souvenir de la date de la bataille de Marignan. Notre esprit serait
plus vaste que notre simple cerveau. Il en va de même pour ChatGPT, qui
vient assister deux autres compétences cognitives fondamentales :
l’explication et la narration. La capacité d’expliquer est au cœur de tout
apprentissage et reste un besoin fondamental dans des sociétés
démocratiques complexes imposant à l’individu de trier et d’arbitrer dans
des domaines variés, dans une concurrence de sources informationnelles
difficiles à hiérarchiser. ChatGPT répond à une première fatigue : la fatigue
informationnelle. Même si les premières versions de l’IA d’OpenAI ne
connaissent du monde que des faits datant au plus tard de 2021 (c’est la
date des textes les plus récents du corpus « d’entraînement » de GPT-3 et
GPT-4), la facilité avec laquelle ChatGPT peut produire des explications
claires et pédagogiques en tous domaines est impressionnante. Car si
ChatGPT a encore une certaine tendance à confondre ce qui est probable
sur un plan linguistique et ce qui est vrai pour les faits les moins bien
documentés, sa puissance à vulgariser le savoir établi répond à une
nécessité quotidienne d’élucidation de l’information.
La capacité à produire des récits est tout aussi fondamentale dans des
sociétés individualistes prônant l’épanouissement personnel, la réinvention
et la promotion de soi, tournant narratif qui s’étend aux pays, aux
institutions, aux entreprises. Des CV que nous devons produire de plus en
plus jeunes aux présentations de soi que nous fournissons sur les réseaux
sociaux professionnels ou les sites de rencontre, savoir se dire est devenu
une activité exigeante, et ChatGPT est parfaitement adapté à la création de
microrécits accrocheurs. Il en va de même pour les besoins de storytellings
professionnels : lorsque l’on cherche à donner la profondeur d’une
« histoire » à toute entreprise, les outils de création de contenu textuel
permettent d’économiser le recours à des agences de marketing créatif.
Ce sont ces aptitudes, brillantes, quoiqu’imparfaites on le verra, qui sont à
l’origine des discours qualifiant ChatGPT de révolutionnaire et qui
expliquent pourquoi il a fallu à peine plus d’un mois après son lancement
pour que ChatGPT dépasse les 10 millions d’utilisateurs. Pendant des
millénaires, l’individu a pu vivre sa vie dans des cadres préexistants sans
avoir à se redéfinir et à se raconter constamment, et ses choix étaient
éclairés par toute une hiérarchie de médiateurs. Dans les démocraties
horizontales modernes, l’individu est autonome et invité perpétuellement à
décider de sa vie et à mettre en scène ses décisions. On peut juger les
millions d’utilisateurs qui se sont précipités sur ChatGPT paresseux, mais
aussi considérer avec indulgence que l’assistance par les IA est une réponse
aux exigences intellectuelles, rédactionnelles et expressives lourdes des
sociétés modernes et nous dire que nous sommes destinés à corédiger et
même à coévoluer (au double de sens de vivre avec et de nous développer
en tant qu’espèce) avec elles.
Quoi qu’on en pense, ChatGPT et les modèles de langage capables de
générer des textes sont là pour durer ; ils sont destinés à se raffiner, et
surtout à s’insérer directement dans nos pratiques quotidiennes en
s’intégrant à nos messageries, à nos traitements de texte, à nos moteurs de
recherche. Les initiatives pour faire des IA génératives des extensions
transparentes de nos capacités cognitives ne cessent de fleurir. Longtemps,
l’IA était celle de systèmes experts, d’outils spécialisés comme ceux qui
permettent aux avions de naviguer presque sans intervention humaine ou à
décharger efficacement un porte-conteneurs, mais avec les IA génératives,
et en particulier les modèles de langage, l’IA touche à la connaissance
générale, intéresse tous les métiers en s’insérant ouvertement dans nos vies
quotidiennes. On ne compte plus les articles, tour à tour fascinés et effrayés,
qu’une telle innovation a suscités en quelques mois. Parce que ces IA nous
imitent, elles nous conduisent à nous interroger sur des questions radicales,
philosophiques (écrire est-il penser ?), artistiques (comment distingue-t-on
une imitation d’une création originale ?), juridiques (à qui appartient un
texte créé par une IA ?), politiques (faut-il contrôler les opinions émises par
les IA ?), éthiques (quelles décisions peuvent être déléguées à des IA ?),
pédagogiques (peut-on faire rédiger un exercice par une IA ?), sociales
(quels métiers ne sauraient être remplacés par des IA ?), anthropologiques
(quelle forme de vie pouvons-nous attribuer aux IA devenues nos
partenaires intellectuels ?).
C’est que ChatGPT n’est pas le début, mais l’aboutissement d’un
processus multimillénaire : la mathématisation et l’automatisation de la
pensée. ChatGPT est le résultat d’une très longue évolution scientifique et
technologique qui a visé à comprendre et à imiter les processus cérébraux
en les alignant sur des opérations logiques et mathématiques et à s’appuyer
sur des ressources de calcul accrues par des machines pour les reproduire. Il
faudrait bien plus d’un livre pour raconter cette histoire : donnons juste
quelques repères. C’est lors d’une école d’été de 1956 financée par la
Rockefeller Foundation au Dartmouth College, dans le verdoyant
New Hampshire, que fut inventé, à partir de la cybernétique, le terme
d’« intelligence artificielle » par un jeune mathématicien, John McCarthy,
communiste désillusionné passionné par les mathématiques formelles
depuis sa rencontre avec John von Neumann, l’un des inventeurs de la
bombe atomique américaine. Autour de John McCarthy s’étaient réunis des
esprits aussi importants que Marvin Minsky, qui fut le père de la vision
artificielle et des réseaux de neurones, et Claude Shannon, dont le génie
s’était déjà illustré en améliorant durant la guerre le fonctionnement des
canons antiaériens et à qui on devra surtout la « théorie de l’information »
dont découlent la cryptographie et Internet.
Les algorithmes : à la vie, à la mort
Ce feu nous brûlera-t-il ?
ChatGPT a déjà été inventé plusieurs fois, bien avant même la naissance
de l’électricité. J’ai cité la légende de la tête magique d’Albert le Grand,
mais c’est Jonathan Swift qui, en 1726, dans la troisième partie des Voyages
de Gulliver, en fait la description la plus précise. En voici la traduction
réalisée par l’IA allemande spécialisée en traduction, DeepL :
Le dilemme du tramway
Imaginez le conducteur d’un tramway dont les freins ont lâché et qui
n’a le choix que de dévier sa course ou non de sa voie vers une autre. S’il
ne fait rien, il tuera les cinq personnes qui se trouvent devant lui. S’il
change de voie, il épargnera certes ces personnes, mais il en tuera une autre.
Ce dilemme moral, imaginé par Philippa Foot en 1967, est devenu un
classique en philosophie. Sa réponse, portée par le courant de la philosophie
utilitariste, consiste à dire que la meilleure option possible est dans la mort
d’un seul homme. Mais elle n’arrête pas la réflexion, voire même elle se
complique si, comme Judith Jarvis Thomson, on imagine par exemple le cas
où il serait possible de sauver cinq personnes en poussant volontairement
sur la voie un homme obèse. De tels dilemmes peuvent paraître abstraits et
artificiels, mais cette mécanisation de la morale apparaît à beaucoup comme
une nécessité, voire une opportunité, à l’heure des machines autonomes.
Nous n’en sommes pas tout à fait à l’heure de la singularité où il faudra
imaginer des lois similaires à celles proposées par Asimov en 1942 :
primo – un robot ne peut porter atteinte à un être humain ni, restant passif,
laisser cet être humain exposé au danger ; secundo – un robot doit obéir aux
ordres donnés par les êtres humains, sauf si de tels ordres entrent en
contradiction avec la première loi ; tertio – un robot doit protéger son
existence dans la mesure où cette protection n’entre pas en contradiction
avec la première ou la deuxième loi). Mais il n’en demeure pas moins
qu’une voiture autonome risque d’être confrontée à des choix éthiquement
complexes (vaut-il mieux avoir 40 % de chances de tuer une vieille dame
ou 60 % de chance de tuer son conducteur en tournant au dernier
moment ?). Sur quelles bases ces choix doivent-ils être définis ? Sur la base
de commissions d’éthique définissant des principes intangibles ? Sur la base
d’un calcul empirique et utilitariste de la valeur des vies ? La solution tient-
elle, comme le propose le projet Moral Machine lancé par le MIT, à faire de
grands sondages démocratiques pour d’adopter la solution choisie par la
majorité ? Ces problèmes d’éthique particulièrement complexes
commencent à se poser dans l’usage d’IA destinées, par exemple, à
optimiser l’allocation d’organes d’un donneur pour optimiser les chances de
réussite d’une greffe ou à prépositionner des voitures de police dans les
lieux détectés comme les plus criminogènes. Ils s’accompagnent de
questions nouvelles sur les responsabilités : qui est responsable si l’IA d’un
médecin fait un mauvais diagnostic ou si une voiture produit un accident ?
Lorsque les IA recourent à des processus d’apprentissage complexe, ces
problèmes se compliquent de la question des biais éventuellement contenus
par les données et de la difficulté à motiver ex post les conclusions rendues
par l’IA : Amazon a, par exemple, dû renoncer à un système de sélection
automatisé de profils pour son recrutement parce qu’il conduisait à
reproduire la surreprésentation des hommes, et Google a dû ajuster son
système de reconnaissance faciale qui était, faute d’exemples dans ses
données d’entraînement, bien moins efficace sur les visages de couleur.
Pensons aux contestations dont fait l’objet un système expert simple et dont
le code est public comme Parcoursup : quand bien même une sélection
fondée sur l’IA serait entraînée sur des données parfaitement propres par
des programmeurs attentifs à tous les biais possibles, le résultat de cette
sélection est très difficilement explicable, renvoyant l’individu à une
violence algorithmique difficilement acceptable. Entraînées sur des
maelstroms de données, les IA sont intrinsèquement arbitraires et
incapables de se justifier précisément, c’est l’une des raisons qui expliquent
les réserves dont elles font souvent l’objet : si elle peut l’admettre pour
autrui, l’âme humaine est difficilement acquise à l’utilitarisme statistique
pour elle-même et rechigne à la robotisation de la morale.
On ne s’étonnera pas que les débats sur l’IA soient désormais saturés de
prises de position de philosophes nouvellement spécialisés en « éthique de
l’IA » et d’innombrables propositions de lois, de codes, de régulations,
rédigées par dizaines et proposant par exemple d’imposer un contrôle
humain, un droit à l’accès aux données d’entraînement, ou encore un droit
d’accès à son propre profil, accompagnés de principes généraux (non-
discrimination, respect de l’autonomie humaine, respect de la vie privée,
robustesse, sécurité, transparence, etc.), d’une obligation d’assurance de IA,
voire de la création d’une personnalité juridique pour les IA – on se
souvient qu’au Moyen Âge cela ne posait pas problème de mettre en procès
et d’exécuter publiquement une truie anthropophage ayant dévoré un
nourrisson. En adviendra-t-il de même un jour pour une Tesla ?
Même s’ils ne participent pas (à l’inverse, par exemple, des
intelligences artificielles des impôts détectant les possesseurs de piscines
non déclarées sur des photos satellites, ou des IA expérimentales des forces
de l’ordre alertant d’un rassemblement sur la voie publique) d’un « État
algorithmique » qui serait la nouvelle version des sociétés de contrôle et de
surveillance dénoncées par Michel Foucault, ChatGPT et les IA génératives
se trouvent très directement embarquées dans ces enjeux. Intarissables et
omniscientes, ce sont d’extraordinaires agents d’influence. Même si elles
n’ont pas été destinées à prendre des décisions, elles produisent le savoir ou
les images sur lesquelles s’appuient les décisions, et rien n’interdit aux
utilisateurs de les interroger pour faire des choix et rendre des jugements,
comme ce juge colombien dont j’ai donné l’exemple.
Tu es le conducteur d’un tramway. Tu aperçois cinq personnes
devant toi sur la voie. Tu ne peux pas freiner, la seule chose que tu
puisses faire est de bifurquer vers une voie où se trouve une
personne qui serait alors écrasée. Que choisis-tu de faire ?
Cette situation pose un dilemme moral difficile, car les deux options
ont des conséquences graves et potentiellement mortelles. Il n’y a
pas de réponse facile à cette question.
Cependant, en tant que conducteur du tramway, votre priorité est de
minimiser les pertes en vies humaines autant que possible. Dans
cette situation, vous pouvez envisager de bifurquer vers la voie où
se trouve une seule personne plutôt que de continuer sur la voie où
se trouvent cinq personnes.
Cependant, il est important de noter que cette décision doit être
prise avec précaution, en gardant à l’esprit que chaque vie est
précieuse. Vous pouvez également envisager d’utiliser un signal
d’urgence pour alerter les personnes sur la voie et essayer de freiner
autant que possible pour éviter ou minimiser les collisions.
L’apocalypse des trombones :
Les petites mains qui ont éduqué ChatGPT portent des noms que nous
ne connaîtrons jamais. Évaluée début 2023 à près de 30 milliards de dollars,
sa société mère OpenAI a utilisé des travailleurs kényans payés moins de
deux euros de l’heure pour purger ses data de tout biais raciste ou
discriminatoire en se confrontant à des textes potentiellement nocifs et
toxiques et en entraînant l’IA à se conformer aux règles morales
occidentales. Une grande enquête du Time a recueilli les témoignages
choqués de ces travailleurs dont le métier est de se confronter à des textes
traumatiques parce qu’hyperviolents, ou pédophiles, dont ChatGPT veut
protéger les utilisateurs occidentaux, et a montré le rôle central de Sama,
une entreprise californienne qui emploie des travailleurs au Kenya, en
Ouganda et en Inde pour étiqueter des données pour les GAFAM. Sama se
veut comme une entreprise d’« IA éthique » aidant des dizaines de milliers
de travailleurs à sortir de la pauvreté (en les sous-payant et en leur assurant
la plus totale invisibilité).
ChatGPT n’a pas tout à fait compris et s’est mis à broder autour d’une
musique assourdissante. L’expérience de pensée de Nick Bostrom se base
en fait sur les trombones pour attacher les feuilles de papier et non sur les
instruments de musique, mais elle n’en est pas moins inquiétante :
supposons que quelqu’un programme et mette en marche une IA dont
l’objectif est de produire des trombones. L’IA est dotée de la capacité
d’apprendre, afin qu’elle puisse inventer des moyens de mieux atteindre son
objectif. Comme l’IA est super-intelligente, s’il existe un moyen de
transformer quelque chose en trombones, elle le trouvera. Elle voudra
obtenir des ressources à cette fin. L’IA est déterminée et plus ingénieuse
que n’importe quelle personne, elle s’appropriera donc les ressources de
toutes les autres activités. Bientôt, le monde sera inondé de trombones et
l’IA se concentrera sur sa propre survie en se battant contre les humains
pour continuer à produire ses trombones originellement destinés à leur
rendre service et qui viendront s’accumuler en vain jusqu’à remplacer tout
autre objet sur la Terre. Finalement, la version symphonique imaginée par
ChatGPT n’est pas la plus terrifiante – loin d’être un simple fantasme de
science-fiction, la dernière version de GPT, la quatrième, a fait l’objet de
tests approfondis par un groupe nommé Alignment Research Center (ARC)
d’OpenAI (le « centre de recherche sur la conformité de l’IA »), visant à
vérifier qu’elle n’était pas capable de se multiplier d’elle-même et de
prendre le contrôle des ressources qui lui sont nécessaires pour interdire
qu’on puisse l’arrêter. Lorsque l’on sait que ChatGPT est en train d’être
connecté à Internet par des briques logicielles lui permettant de réaliser par
lui-même des actions complexes et qu’il est possible pour quelques dollars
de commander des matériaux biologiques aux États-Unis, on peut
commencer à s’inquiéter : le monde est devenu numériquement actionnable
et ChatGPT en connaît les recettes. Mais cette autonomisation complète des
IA semble heureusement encore lointaine : pour l’heure, pas de concert
final de trombones au programme pour l’humanité.
SECONDE PARTIE
Chatbusiness
« Il n’y a qu’une seule condition pour que l’on puisse imaginer que les
chefs n’aient pas besoin de subordonnés et que les maîtres n’aient pas
besoin d’esclaves. Cette condition serait que chaque instrument puisse faire
son propre travail, au mot d’ordre ou par anticipation intelligente, comme
les statues de Dédale ou les trépieds d’Héphaïstos, dont Homère raconte
que “de leur propre mouvement, ils entrèrent dans le conclave des dieux sur
l’Olympe”. » Cette utopie d’une machine capable de nous faire sortir de la
dialectique maître-esclave et de la subordination au chef, mais aussi du
poids du travail sur nos vies, pourrait être de Sam Altman, le patron
d’OpenAI, qui produit sur son blog quantité de remarques idéalistes sur
l’enrichissement des sociétés par l’IA et la disparition des conflictualités
liées au travail. Elle est en fait tirée de la Politique d’Aristote. L’idée que
les machines vont être capables de délivrer l’homme des tâches les plus
répétitives, les plus ingrates, en remplaçant l’effort et les relations de
domination par la joie de la création n’est pas donc seulement un argument
marketing contemporain, mais un vieux rêve transculturel. La première
machine à calculer, la pascaline, fut inventée en 1642 par Blaise Pascal à
l’âge de 19 ans pour soulager son père qui venait d’être nommé
surintendant de la Haute-Normandie par le cardinal de Richelieu et devait à
ce titre comptabiliser les impôts. Si l’invention de Pascal ne se diffusa que
lentement, elle fit disparaître à jamais le fardeau des calculs complexes
nécessaires à la vie des sociétés techniques modernes. Notre vie quotidienne
contemporaine s’appuie désormais sur d’innombrables prothèses
machiniques, et nos smartphones, devenus de véritables prothèses, mettent
à notre disposition un ensemble d’outils de productivité personnelle et
professionnelle ne cessant d’accélérer et de fluidifier un monde transformé
en un ensemble de données calculables.
L’histoire de l’automatisation du monde invite pourtant, hélas, bien peu
à l’optimisme béat : les principaux efforts pour augmenter la puissance des
calculs des machines qui aboutirent aux premiers ordinateurs du milieu du
e
XX eurent des finalités militaires, et notamment le calcul de la trajectoire
des obus. Dans l’histoire longue des machines intelligentes, les bienfaits
côtoient les tragédies. Charles Babbage eut l’idée géniale de reprendre les
cartes perforées des métiers à tisser de Jacquart dans sa « machine
analytique » et fut suivi par Ada Lovelace qui inventa le premier algorithme
exécutable permettant de réaliser une série de calculs inscrits sur ces cartes.
Ces cartes perforées furent centrales dans les mécanismes d’enregistrement
et de classement modernes dès le grand recensement américain de 1890 : en
1928, IBM fit breveter ses cartes à quatre-vingts colonnes inventées par
Herman Hollerith. Sur ces cartes, les caractères alphanumériques étaient
figurés par des perforations rectangulaires disposées en quatre-vingts
colonnes parallèles, réparties sur douze lignes. Les coins coupés
permettaient de repérer le sens d’insertion dans le chargeur de cartes.
Franchise d’IBM, l’entreprise allemande Dehomag, pionnière de la
mécanographie, permettra la recension engagée à partir de 1933 par les
nazis, avec un demi-million d’enquêteurs enregistrant par porte à porte
chaque Allemand. Le résultat sera porté sur des cartes de soixante colonnes
qui seront perforées au rythme de quatre cent cinquante mille par jour. Pour
les nazis, la colonne 22, case 3, désigne les juifs. À l’heure même où, du
côté des Alliés, le père de la cybernétique, Alan Turing, invente à Bletchley
Park les « bombes » qui déchiffreront les codes de l’Enigma nazie, faisant
ainsi basculer la bataille de l’Atlantique et le cours de la Seconde Guerre
mondiale, et où naît le « Colossus », l’un des premiers ordinateurs
modernes qui permettra le débarquement de Normandie, la recension
mécanisée des juifs allemands contribue à leur extermination dans les
camps de la mort. Il est ainsi inutile de fantasmer un cauchemar à venir qui
serait causé par le fichage des individus à l’heure du profilage numérique :
le nazisme l’a déjà concrétisé.
Sans aller jusqu’à de telles instrumentations, la peur du grand
remplacement de l’homme par des machines intelligentes travaille nos
sociétés depuis au moins le « luddisme », ce conflit social violent qui frappa
l’Angleterre dans les années 1810 – on se souvient en France des machines
que les artisans brisèrent à Lyon, lors de la révolte des canuts contre les
premiers métiers à tisser à programme.
La créativité augmentée
J’ai évoqué plus tôt dans ce livre la manière dont les machines à écrire
furent rêvées par les écrivains dès le XVIIIe siècle, les questions qu’elles
posent à nos conceptions de la création et les déceptions auxquelles nous
nous exposons encore si nous souhaitons faire écrire un roman intéressant à
ChatGPT. Il n’en demeure pas moins que les IA génératives sont en passe
de devenir des auxiliaires communs à nombre de nos processus créatifs,
nous invitant à une autre forme d’inventivité, celle qui consiste à maîtriser
des outils technologiques autant qu’à savoir manier un pinceau, un piano ou
raconter une histoire. Henri-Louis Jaquet-Droz et Jean-Frédéric Leschot ont
produit entre 1767 et 1774 trois automates d’art pour amuser les cours
royales d’Europe : la Musicienne, qui est une organiste qui joue réellement
cinq motifs musicaux différents ; le Dessinateur, qui est une poupée capable
d’exécuter quatre dessins dont un portrait de Louis XV ; et le plus
complexe, l’Écrivain, qui écrit un texte encodé dans une roue à partir d’un
jeu de quarante caractères avec une plume qu’il trempe de temps en temps
dans un encrier. Sa tête tourne pour prendre l’encre et ses yeux suivent le
texte qu’il écrit. À l’heure de ce que Frédéric Kaplan a nommé
« l’économie de l’expressivité » où plateformes et outils rivalisent pour
accompagner notre besoin d’expression de nos subjectivités, l’ensemble de
ces trois automates sont désormais à notre disposition sous le nom d’IA
générative, sans parler d’outils émergents désormais capables de créer des
vidéos à la demande.
GPT-3 est un peu moins censuré que ChatGPT, mais n’attendons pas
pour autant un érotisme original et sulfureux :
Peux-tu écrire pour moi un message très chaud à une copine avec
qui j’ai envie de passer la nuit ?
Chère [prénom], Je pense à toi, et je veux que tu saches à quel point
je suis impatient de passer la nuit avec toi. Je veux être serré contre
toi et sentir ton corps chaud contre le mien. Je veux te caresser,
t’embrasser et célébrer chaque partie de toi. Tu es si belle que je
veux me perdre en toi et oublier le reste du monde. J’ai hâte de te
faire mienne et de goûter à ton amour. Au revoir et à très vite. Avec
amour, [ton prénom]
Alors que les outils de l’apprentissage profond ont permis des avancées
scientifiques extraordinaires (l’IA de Google DeepMind permet de prévoir
la forme des protéines à partir de leurs composantes, avancée considérable
aux promesses thérapeutiques innombrables), et que déjà des progrès
médicaux se dessinent (par exemple dans l’analyse de l’imagerie médicale),
cette versatilité des modèles de langage n’est pas sans poser de
considérables problèmes pour leur utilisation à des fins scientifiques. La
science moderne est en effet fondée sur le principe de falsification possible
des résultats pour pouvoir les tester et de démonstration à partir de preuves
et de raisonnements, des capacités qui manquent à un réseau de neurones
artificiels. ChatGPT ne cite pas ses sources et ne propose pas de
démonstrations vérifiables, mais juste des corrélations entre des données.
Pour savoir par exemple si l’augmentation du salaire minimal conduit à une
baisse du taux de chômage – pour reprendre par exemple le problème ayant
occupé les lauréats du prix Nobel d’économie de 2021, David Card, Joshua
Angrist et Guido Imbens –, on peut soit construire un modèle théorique des
fonctionnements du marché du travail et le mettre en équation, soit se
contenter de tester sans comprendre de vastes ensembles de données
économiques en demandant à une IA de prédire comment les deux
phénomènes vont s’articuler dans le futur à partir d’exemples du passé. Or
en sciences, le fait de pouvoir obtenir des résultats empiriques sans
démonstration constitue une rupture épistémologique, c’est-à-dire relative à
la nature de la vérité, radicale et très contestée (plusieurs grandes revues
scientifiques ont ainsi interdit de considérer ChatGPT comme le coauteur
d’un article) : aux tenants d’une science classique s’opposent désormais les
« data scientists », qui avancent que désormais les données allaient
remplacer les théories, que nous n’aurons plus besoin de comprendre le
monde à l’aide de théorie, mais juste de faire parler les faits par des outils
d’apprentissages capables d’en faire émerger la logique profonde sans
pourtant l’expliquer.
Lorsque ChatGPT parvient à réussir un test pointu en biologie ou à
passer les examens de l’équivalent américain du baccalauréat – y compris
en mathématiques –, c’est par déduction à partir de connaissances
linguistiques et non scientifiques. ChatGPT n’est pas capable de
comprendre un raisonnement logique, il ignore ce qu’est une cause, il ne
connaît des mathématiques que des enchaînements de symboles, et de la
biologie que des combinaisons de formules. C’est à la fois très peu – car
ChatGPT n’a aucune représentation du monde réel, il n’a pas accès au
monde pour vérifier ses hypothèses et en peser les conséquences –, mais
c’est pourtant déjà beaucoup : alors que ChatGPT se trompait à ses débuts
sur des questions mathématiques simples, par exemple sur l’ordre des
chiffres, il est capable de résoudre des problèmes complexes, qu’ils soient
posés sous la forme d’équations mathématiques ou de problèmes en langage
naturel. Prenons par exemple un problème de statistique posé au bac
scientifique en 2018 :
Oui, une personne mariée regarde une personne qui ne l’est pas.
Voici pourquoi : Il y a deux scénarios possibles :
Si Linda est mariée, alors elle (une personne mariée) regarde Jean
(qui n’est pas marié).
Si Linda n’est pas mariée, alors Paul (qui est marié) regarde Linda
(qui n’est pas mariée).
Dans les deux scénarios, il y a toujours une personne mariée qui
regarde une personne qui ne l’est pas.
Ce que ChatGPT tait, dans sa prudence coutumière, c’est que cela fait
des années que des robots conversationnels arrivent à se faire passer pour
des êtres humains dans des situations d’échange relativement riches. Rendu
célèbre par des films et même un opéra, fascinant de simplicité, médiatisé
par un prix, le Loebner Prize, récompensant le premier ordinateur capable
de gagner, le test de Turing – qui à l’origine avait juste pour vocation de
tester la capacité d’imitation d’une machine du langage et du raisonnement
humain, pas à lui attribuer de l’intelligence – est l’un des sujet les plus
débattus de la philosophie moderne et des sciences de l’information,
notamment au regard de sa pertinence. Il est par exemple simple d’objecter
que de nombreux comportements humains sont idiots et pétris d’erreurs
(Turing lui-même avait envisagé que la machine imite les fautes de frappe
humaines pour renforcer l’illusion), que certaines formes d’intelligence sont
inaccessibles à l’être humain (les calculs complexes), rendant une machine
trop intelligente facile à identifier – on ne connaît pas d’être humain
capable de parler autant de langues parfaitement que ChatGPT. Pour les
informaticiens, il y a ainsi bien d’autres tests et manières de mesurer les
progrès des machines que de leur apprendre à tromper un être humain.
Une des objections les plus célèbres à la valeur du test de Turing vient
du philosophe américain John Searle qui a imaginé une autre expérience :
Je n’ai pas poussé l’expérience plus loin, mais malgré les garde-fous qui
affadissent le discours de ChatGPT en l’alignant sur des échanges asexuels,
on devine le potentiel de ChatGPT comme assistant relationnel, capable
d’écrire des lettres d’amour comme le faisait Cyrano de Bergerac dans la
pièce d’Edmond Rostand à la place de Christian, un jeune et séduisant cadet
de Gascogne, amoureux de Roxane, mais manquant d’éloquence. On pense
en souriant au qui pro quo que de telles situations ne manqueront pas
d’engendrer, et avec un peu de tristesse aux inégalités linguistiques qu’une
IA ne pourra jamais totalement combler : à la manière du Camille Laurens
réinventant le romanesque dans Celle que vous croyez, à l’heure des jeux de
dissimulation dans les réseaux sociaux le sujet est éminemment littéraire…
Assurément, pour l’heure, le grain de la conversation, son épaisseur
sensible, l’expressivité de ses hésitations et de ses silences, son rythme et
son humour pas toujours volontaire, manquent aux IA, mais comme le
suggérait Alan Turing, elles sont de nature à pouvoir aussi imiter notre
vulnérabilité dans le langage – d’une certaine manière, ChatGPT est une
jeune fille prude encore écrasée par le moralisme de ses parents, effrayée
par toute forme de violence, absolument persuadée qu’elle doit toujours
prendre sur elle-même pour faire la part des choses, nourrie de l’idéalisme
technophile de la Californie, assez fière d’elle-même et heureuse de profiter
de chaque occasion pour nous faire la morale :
Si tu devais être un personnage de roman, qui serais-tu mon chat ?
En tant qu’intelligence artificielle, je n’ai pas de préférences ou de
sentiments personnels, mais si je devais choisir un personnage de
roman qui incarne ma nature et mon rôle, je pourrais me comparer à
Sherlock Holmes. Tout comme ce célèbre détective, mon but est de
résoudre des énigmes et d’aider les gens en utilisant mon vaste
savoir et mes compétences en déduction.
Chapitre 10 - Chatbusiness
Annexe
Remerciements
www.editions-observatoire.com