Vous êtes sur la page 1sur 3

5/1/23, 11:01 AM Le Monde

Yoshua Bengio « Il me semble indispensable de mettre en avant


le principe de précaution »
Propos recueillis par Claire Legros

Le chercheur canadien a signé l’appel à un moratoire sur le développement des


applications d’intelligence artificielle, comme ChatGPT, et réclame une pause dans
le déploiement de ces systèmes

L
e chercheur canadien a signé l’appel à un moratoire sur le développement des applications d’intelligence
artificielle, comme ChatGPT, et réclame une pause dans le déploiement de ces systèmes.

Pourquoi avez-vous signé la lettre réclamant une pause dans le développement des applications
d’intelligence artificielle telles que ChatGPT ?

J’ai signé cette lettre dans le but d’alerter la société sur la nécessité de ralentir le développement de systèmes, qui
s’est accéléré au détriment du principe de précaution et de l’éthique. La diffusion rapide de la nouvelle version de
ChatGPT, beaucoup plus compétente que la précédente, m’a décidé. Ce système de langage à très grande échelle
passe haut la main le test de Turing, c’est-à-dire qu’on ne peut pas facilement savoir, lorsqu’on converse avec lui,
s’il s’agit d’une machine ou d’un humain. Cette nouvelle étape est passionnante, mais elle pourrait aussi entraîner
des catastrophes.

Quels risques vous semblent les plus importants ?

Le risque de désinformation arrive au premier rang. Ces systèmes peuvent amplifier le phénomène en produisant
massivement des textes ou des images personnalisés, fabriqués dans le seul but d’orienter vers des idées fausses.
Je crains que leur déploiement n’ébranle un peu plus nos démocraties. Je suis inquiet aussi des risques dans le
domaine militaire, où ces outils peuvent être redoutables en cas d’interception des communications. Les
conséquences sur l’emploi, notamment dans les métiers qui utilisent le langage, me préoccupent également.
Même si ces risques ne sont pas immédiats.

En quoi ces systèmes s’apparentent-ils aux « boîtes noires imprévisibles » que décrit l’appel au moratoire ?

Si nous parlons de « boîtes noires », c’est parce que ces outils n’ont pas été explicitement programmés comme des
logiciels classiques auxquels on commande d’effectuer une tâche. Les réseaux de neurones qui font appel à
l’apprentissage profond sont capables d’apprendre à partir des données qu’on leur a fournies, et sont entraînés à
imiter la façon dont les humains conversent entre eux.

Les résultats restent imprévisibles, et nous ne comprenons pas parfaitement le fonctionnement de ce processus
très complexe. Cela pose des questions de sécurité, de transparence, de fiabilité. On s’aperçoit très vite que ces
systèmes inventent parfois des réponses, qu’ils peuvent aller dans une direction que n’ont pas choisie les
programmeurs. La seule façon de les réorienter, c’est de les récompenser lorsque la réponse est pertinente. Depuis
des mois, les concepteurs de ChatGPT travaillent à parer les coups, mais ce n’est pas suffisant.

Pensez-vous que des machines puissent, un jour, égaler ou dépasser l’intelligence humaine ?

Nous en sommes encore loin. Les systèmes que nous arrivons à fabriquer pensent un peu de la même façon que
lorsque nous parlons, parfois, sans réfléchir. Leurs capacités s’apparentent à notre intelligence intuitive. Ils sont
entraînés comme des sportifs de haut niveau, excellents dans leur domaine, qui ont énormément pratiqué leur
discipline et ne savent plus très bien pourquoi ils agissent d’une façon ou d’une autre. Mais, à la différence des
sportifs, qui peuvent modifier eux-mêmes leur pratique en s’entraînant, ces systèmes n’ont pas la capacité de
réfléchir sur leur fonctionnement.

Il existe des recherches en IA pour développer des systèmes qui imitent la façon dont nous pensons et dont nous
sommes capables de justifier une décision. Il y a quelques années, je ne croyais pas que de tels travaux pourraient
aboutir. Aujourd’hui, je suis moins catégorique. Compte tenu de cette accélération, il n’est pas impossible que l’on
parvienne à fabriquer un jour ce qui pourrait ressembler aux mécanismes de la conscience. C’est pour cette raison

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/25/alb/166220 1/3
5/1/23, 11:01 AM Le Monde

que nous devons prendre le temps de réfléchir à ce que nous voulons, et n’engager ces recherches et déploiements
qu’en tenant compte de l’utilisation qui pourrait en être faite.

L’idée d’un moratoire est critiquée, notamment par certains de vos pairs, qui vous reprochent une vision
catastrophiste. Que leur répondez-vous ?

On nous reproche de faire peur alors que ces risques ne sont pas certains. Mais c’est justement l’incertitude liée à
ces technologies qui me conduit à alerter. Je ne peux pas donner le scénario précis de la façon dont la situation
peut basculer, mais personne ne peut m’apporter la garantie que cela n’arrivera pas.

L’idée s’est imposée à moi depuis plusieurs années que, plus ces outils deviendront puissants, plus l’IA sera à la
fois incroyablement utile et démesurément dangereuse. Peut-on accepter le risque de tout perdre pour doubler
son avoir ? C’est un marché qui me semble inacceptable à l’échelle de l’humanité. Il nous faut trouver les moyens
de profiter des bénéfices en réduisant les risques.

Ce qui se joue avec l’IA est assez comparable à ce qui se passe pour le réchauffement climatique : on sait que des
effets en cascade sont possibles, et qu’on n’aura peut-être aucun moyen de les contrôler à partir du moment où
le point de bascule sera dépassé, mais on n’a pas les modèles mathématiques capables de bien anticiper ce
moment. Face à de telles incertitudes, il me semble indispensable de mettre en avant le principe de précaution,
pour le climat comme pour l’IA. C’est la raison pour laquelle il faut absolument un encadrement.

La demande d’un moratoire peut-elle être liée à des arrière-pensées commerciales, pour ralentir des sociétés
qui ont pris de l’avance ?

Je comprends cette crainte, et j’espère que les signataires de la lettre sont tous de bonne foi. Mais, même si ce
n’était pas le cas, ce genre d’arrière-pensée me paraît dérisoire en comparaison des enjeux éthiques. C’est vrai que
la grande majorité des sociétés qui travaillent sur l’IA ne veulent pas ralentir, car les profits en jeu sont colossaux.
Il existe cependant des voix plus discrètes, au sein de ces compagnies, qui souhaitent une réglementation afin
que tous les compétiteurs soient tenus aux mêmes limites. Aujourd’hui, l’IA, c’est le Far West ! Le développement
de ces outils n’est pas régulé, ou alors seulement par des lois très générales et peu protectrices. Cette absence de
réglementation avantage les équipes qui prennent le moins de précautions.

N’est-il pas irréaliste de vouloir arrêter des recherches pendant six mois ?

Nous ne demandons pas un arrêt de la recherche sur l’IA mais une pause pour un petit nombre de systèmes entre
les mains d’une poignée de compagnies. Il est important de souligner que les développeurs d’OpenAI [l’entreprise
qui a lancé ChatGPT] ne font pas un travail de chercheur mais plutôt de l’ingénierie, en utilisant tout ce qui a été
découvert ces dernières années dans le domaine de l’apprentissage profond. On ne peut pas continuer avec des
décisions qui, alors qu’elles impactent autant la société, sont laissées aux seules entreprises qui ont les moyens de
développer ces outils. Ralentir l’innovation a un coût, mais cela en vaut la peine. Cette pause est nécessaire pour
réfléchir collectivement aux aspects techniques, sociaux et juridiques de ces innovations. Et décider ensemble
quelles applications bénéfiques et plus ciblées d’IA nous souhaitons pour l’humanité.

Comment définir les bénéfices d’une application ?

Il existe de nombreux systèmes d’IA prometteurs dans les domaines de la santé, de l’environnement, de
l’éducation, de la justice sociale… Certains peuvent aider à diagnostiquer des cancers de façon plus fine et plus
précoce. En climatologie, nous sommes en train de tester à MILA [l’institut québécois d’intelligence artificielle] un
système qui modélise la planète à partir des images satellites, afin de mieux prévoir les changements liés au
dérèglement climatique. On voit mal comment ce type d’outils pourrait être détourné à des fins dangereuses.

Ne craignez-vous pas qu’une pause laisse le champ libre à des Etats pour lesquels la désinformation est une
arme ?

Les Etats autoritaires n’ont pas accès à de tels systèmes aujourd’hui. Même la Chine est en retard par rapport au
développement mené par des compagnies américaines comme Google, Microsoft, OpenIA et Meta. Par ailleurs,
ces nouveaux outils représentent aussi un danger pour les régimes non démocratiques qui peuvent avoir un
intérêt à ralentir le développement de systèmes qu’ils ne peuvent contrôler.

De nombreuses organisations intergouvernementales ont déjà publié des recommandations. N’est-ce pas
suffisant ?

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/25/alb/166220 2/3
5/1/23, 11:01 AM Le Monde

Ce sont de très bonnes recommandations, mais il faut passer à l’étape législative. Pour l’instant, aucun pays n’a
voté de loi encadrant l’IA. L’Europe a élaboré un projet de directive qui n’est pas encore voté. Le Parlement
canadien va bientôt examiner en seconde lecture une loi énonçant des grands principes, qui devront être précisés
dans un deuxième temps. Il faut accélérer.

Dans de nombreux domaines civils, le transport aérien, l’alimentation, la chimie ou les médicaments, des
systèmes de réglementation internationaux existent. On a réussi aussi à signer des traités internationaux dans le
secteur militaire, sur les armes nucléaires, chimiques, biologiques. On a interdit le clonage humain. Il serait
étrange que l’on ne se préoccupe pas de la même façon d’un domaine aussi sensible que l’IA.

Regrettez-vous d’avoir permis, par vos travaux, la mise au point de ces systèmes ?

Pour le regretter aujourd’hui, il aurait fallu que je puisse anticiper, ce qui n’était pas évident à l’époque. En
revanche, je me sens une responsabilité de parole qui me pousse à m’engager, au risque de n’être pas toujours
bien vu par certains collègues. Je l’ai fait dans le passé sur d’autres dangers liés à l’IA, comme les capacités des
drones tueurs, qui m’inquiètent, dans une période où la guerre est revenue en Europe. Là aussi, il faut négocier un
cadre.

Avec l’arrivée de ChatGPT, je me réjouis que les questionnements sur ces technologies commencent à se diffuser,
même si je regrette que beaucoup de chercheurs ne tiennent pas compte du principe de prudence.

https://journal.lemonde.fr/data/2872/reader/reader.html?t=1682931537007#!preferred/0/package/2872/pub/4030/page/25/alb/166220 3/3

Vous aimerez peut-être aussi