Vous êtes sur la page 1sur 3

5/1/23, 11:01 AM Le Monde

Yann Le Cun « Ralentir la recherche, un nouvel obscurantisme »


Propos recueillis par C. Le.

Le chercheur français, l’un des pères de l’intelligence artificielle, responsable du


laboratoire de recherche de Facebook sur l’IA, appelle à accélérer les recherches pour
améliorer la fiabilité des systèmes, et conduire à un « nouveau siècle des Lumières »

L
e chercheur français, l’un des pères de l’intelligence artificielle, responsable du laboratoire de recherche
de Facebook sur l’IA, appelle à accélérer les recherches pour améliorer la fiabilité des systèmes, et
conduire à un « nouveau siècle des Lumières ».

Vous dites que ChatGPT n’est pas une révolution. Pourquoi ?

C’est un bon produit dont les capacités peuvent paraître surprenantes, mais il n’est pas révolutionnaire parce que
les technologies qu’il utilise sont connues depuis plusieurs années. Comme les autres systèmes de langage de
grande taille, ses réseaux de neurones artificiels sont entraînés à l’aide d’énormes quantités de textes, de l’ordre
de mille milliards de mots, quasiment la totalité des textes qui existent sur Internet. La machine a appris à manier
la langue. On peut même dire qu’elle a acquis un certain niveau de raisonnement, en tout cas elle peut adapter ce
qu’elle a lu à la question qui lui est posée.

Ces capacités donnent l’impression que le système est intelligent, mais en fait elles restent superficielles. ChatGPT
n’est pas intelligent comme peut l’être un humain. C’est un outil de prédiction, qui associe entre eux des mots
apparaissant de façon la plus probable dans le corpus qui a servi à l’entraîner, afin de continuer un texte. Personne
ne peut garantir que ce qui sort de la machine est factuel, non toxique, compréhensible.

En novembre 2022, l’entreprise Meta, pour laquelle vous travaillez, a été contrainte de déconnecter son propre
système de langage, Galactica. Quelles leçons en avez-vous tirées ?

Galactica est un système assez similaire à ChatGPT, mais entraîné spécifiquement sur des textes de la littérature
scientifique, afin d’aider les scientifiques à rédiger leurs articles. Il a été mis à la disposition du public, non pas
comme un produit mais à titre de démonstration pour les chercheurs.

Il a été attaqué sur les réseaux sociaux parce qu’on lui a reproché de mettre en péril les publications scientifiques
en permettant la production d’articles faux et très ressemblants. Cette peur était infondée, mais la démo a été
retirée, car cette campagne faisait une mauvaise publicité à Meta.

L’attitude du public vis-à-vis de ces nouveaux outils dépend beaucoup de l’entreprise qui les produit. Un système
qui raconte des bêtises est toujours dangereux pour une grande entreprise qui a une réputation à défendre. Meta
en a fait l’expérience, comme Google, qui rencontre des difficultés pour sortir son système parce que sa
réputation est en jeu. Ce n’est pas le cas d’OpenAI, qui fait figure de petite entreprise outsider. Quand elle a sorti
ChatGPT, quelques semaines après Galactica, l’application a été accueillie comme le messie.

Que répondez-vous à ceux qui s’alarment des dérives possibles de ces outils ?

Je comprends que cela puisse inquiéter. Force est de constater que ces systèmes ne sont ni très fiables ni très
contrôlables. Ils peuvent inventer de fausses informations, faire référence à des documents qui n’existent pas. Si
on leur demande de parler un peu trop longtemps, ils finissent par devenir incohérents. Et nous ne sommes pas
capables de les piloter. Nous savons seulement les réentraîner à l’aide d’humains qui attribuent des scores à leurs
réponses, un processus compliqué et cher, qui nécessite de collecter beaucoup de données et qui ne fonctionne
pas très bien.

Mais cela ne justifie pas, pour moi, leur interdiction. Ce sont des outils très utiles pour accélérer l’écriture de
textes, en particulier de code informatique. Ils peuvent améliorer la productivité de nombreux professionnels,
comme les programmeurs, ou les médecins qui veulent rédiger plus vite leurs comptes rendus de consultations. Il
faut seulement informer les utilisateurs des limites de l’application : on ne peut pas s’en servir comme moteurs
de recherche, ni se reposer sur les informations qu’elle produit sans les vérifier.

Ne craignez-vous pas une amplification de la désinformation, qui déstabiliserait encore plus les démocraties ?

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/24/alb/166218 1/3
5/1/23, 11:01 AM Le Monde

Ce qui est en cause dans les phénomènes de désinformation, c’est moins le volume de production des contenus
problématiques que leur capacité à être diffusés. Le mouvement complotiste d’extrême droite QAnon s’est
largement disséminé aux Etats-Unis à partir d’un petit nombre de personnes. La production ne contribue pas à la
dissémination.

Je suis convaincu que le public va devenir plus méfiant à l’égard des informations qu’il reçoit. Celles et ceux qui
ont grandi avec Internet savent déjà que ce qui y circule n’est pas forcément fiable. Je suis confiant aussi dans le
fait que des technologies vont émerger pour tracer le processus de création d’une information. Il se passera alors
ce qui est arrivé avec les spams de nos messageries, pour lesquels des systèmes de protection se sont développés.

La technique ne sera sans doute pas très différente des outils qui équipent aujourd’hui beaucoup de réseaux
sociaux. Grâce à l’IA, les systèmes de modération de contenu de Facebook suppriment automatiquement 80 % des
discours haineux, contre 38 % début 2018 [le chiffre était de 95 % et plus en 2020-2021, et est redescendu depuis].
En matière de désinformation, l’IA n’est pas le problème mais la solution.

Que pensez-vous de la crainte que les systèmes d’intelligence artificielle puissent égaler ou dépasser, un jour,
l’intelligence humaine ?

Je suis persuadé que des machines seront un jour au moins aussi intelligentes que les humains dans tous les
domaines où les humains sont intelligents. Mais je ne crains pas que l’IA échappe à notre contrôle et conduise à la
destruction de l’humanité. Ce type de scénario apocalyptique, selon moi, est basé sur des suppositions erronées.

Ce n’est pas parce qu’une machine sera super intelligente qu’elle voudra automatiquement dominer l’humanité.
Dans l’espèce humaine, les plus intelligents ne sont pas forcément ceux qui veulent devenir chefs et tuer tous les
autres. C’est même souvent le contraire ! Pourquoi les choses seraient-elles différentes avec des intelligences
artificielles ?

Je fais partie de ceux qui pensent que le progrès, qu’il soit scientifique ou social, dépend étroitement de
l’intelligence. Plus les gens sont éduqués, instruits, capables de raisonner et d’anticiper ce qui va se produire, plus
ils peuvent prendre des décisions bénéfiques à long terme. Avec l’aide de l’IA, l’intelligence humaine va être
amplifiée, non seulement celle de l’humanité entière, mais aussi l’intelligence et la créativité de tout un chacun.
Cela peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières.

Plusieurs milliers de personnalités et de chercheurs demandent une pause de six mois sur le développement
des systèmes comme ChatGPT. Qu’en pensez-vous ?

Quand une nouvelle technologie apparaît et rend les gens plus intelligents, on prend un risque à vouloir en
limiter l’utilisation. L’Eglise catholique a voulu interdire l’imprimerie pour qu’on ne puisse pas lire la Bible sans la
médiation des prêtres. Et l’on a vu que la diffusion de l’imprimerie a contribué à une nouvelle phase du
développement humain et conduit au rationalisme, à la philosophie des Lumières et à la démocratie.

L’idée même de vouloir ralentir la recherche sur l’IA s’apparente, pour moi, à un nouvel obscurantisme. Une pause
risque de ralentir les progrès indispensables pour que ces technologies fonctionnent de façon plus fiable et
puissent servir au bien commun. Il faut, au contraire, accélérer ! Si je ne suis pas favorable à une pause, c’est aussi
que je n’y crois pas. C’est irréaliste, personne ne va arrêter la recherche sur l’IA pendant six mois.

Faut-il réguler ces nouvelles applications ? Et comment ?

Il ne fait pour moi aucun doute qu’il faut réglementer le déploiement de l’IA. Cela vaut pour les systèmes de
langage comme ChatGPT, mais aussi pour tous les systèmes intelligents amenés à effectuer des actions. A partir
du moment où l’on utilise l’IA pour aider au diagnostic médical ou au pilotage automatique des voitures, il faut
des réglementations qui garantissent que les produits ne sont pas dangereux pour le public. Ma priorité, en tant
que chercheur, c’est de trouver le moyen de rendre ces systèmes pilotables. Une première étape est de les
concevoir pour qu’ils ne puissent pas échapper aux contraintes qu’on leur fixe. Nous ne savons pas le faire
aujourd’hui, mais je n’ai aucun doute que nous arriverons à fabriquer des IA qui raisonnent en fonction
d’objectifs donnés.

Une deuxième étape sera de spécifier les contraintes que l’on veut imposer à ces systèmes pour les orienter vers
des actions bénéfiques. C’est ce qu’on appelle l’« alignement » aux valeurs humaines, un enjeu qui n’est pas très
différent de ce que l’on fait lorsqu’on légifère pour encadrer des entreprises ou des groupes de personnes.

Enfin, la troisième étape sera de sécuriser ces systèmes en les testant de façon approfondie avant de les rendre
disponibles au plus grand nombre, comme les avions et les médicaments sont testés avant d’être mis sur le

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/24/alb/166218 2/3
5/1/23, 11:01 AM Le Monde

marché. Le modèle déjà existant des organismes de standardisation internationale peut y aider.

Existe-t-il un risque qu’un petit nombre d’entreprises contrôle l’accès à ces outils ?

Seules quelques entreprises américaines disposent des capacités de calculs aujourd’hui nécessaires pour les
entraîner. Mais les bénéfices du déploiement de l’IA ne doivent pas être réservés à ce petit groupe de sociétés. Ils
doivent être largement partagés. Jusqu’à présent, le domaine de la recherche et développement en IA était plutôt
collaboratif. Les grandes entreprises comme Meta, Google ou Microsoft publiaient leurs travaux. Depuis
qu’OpenAI a décidé de ne pas publier ses résultats tout en utilisant ceux des autres, tout le monde s’interroge :
faut-il continuer la recherche ouverte ? En ce qui me concerne, la réponse est « oui ». Il est cependant probable
que d’autres publient de moins en moins à cause de cette nouvelle compétitivité.

Quelle pourrait être la gouvernance de ces nouveaux outils ?

L’IA sera, à l’avenir, une ressource importante pour l’industrie. Il est souhaitable qu’il existe une infrastructure
ouverte d’IA, et les gouvernements peuvent y aider. De la même façon que tous les systèmes d’exploitation des
serveurs de l’Internet tournent sur le système open source Linux, il faudrait, à terme, des plates-formes d’IA
ouvertes qui servent à tout le monde, et auxquelles chacun peut contribuer. Les gouvernements peuvent favoriser
l’essor de ces systèmes ouverts, et prévoir dans le même temps que des organismes de contrôle s’assurent de la
fiabilité des produits dérivés de ces systèmes.

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/24/alb/166218 3/3

Vous aimerez peut-être aussi