Vous êtes sur la page 1sur 5

16/08/2022 16:30 Attention à ne pas confondre un chatbot avec un être humain - Sciences et Avenir

 WEB

Attention, un chatbot est un robot et pas un être humain


Par
Dominique Leglu
le 10.11.2021 à 14h34

 Lecture 7 min.

Un avis sur les enjeux éthiques des agents conversationnels, plus connus sous le nom de
"chatbots", a été remis mardi 9 novembre par le Comité national pilote d’éthique du
numérique (CNPEN), selon lequel de multiples recherches sont indispensables pour que ces
robots ne manipulent pas nos opinions et ne nous induisent pas en erreur, notamment dans
le domaine de la santé. Il énonce 13 préconisations pour que les concepteurs ne fabriquent
pas de machines créant un dangereux brouillage entre humain et non-humain.

Un chatbot ouvert sur un smartphone.


 LIONEL BONAVENTURE / AFP

https://www.sciencesetavenir.fr/high-tech/web/les-enjeux-ethiques-des-chatbots_158994 1/5
16/08/2022 16:30 Attention à ne pas confondre un chatbot avec un être humain - Sciences et Avenir

A l’heure où la lanceuse d’alerte Frances Haugen a dénoncé, ce mercredi 10 novembre, à


l’Assemblée nationale les agissements de Facebook, l’avis de 40 pages sur les enjeux éthiques
que posent les chatbots, émis par le Comité national pilote d’éthique du numérique (CNPEN)
et présenté mardi 9 novembre par ses deux rapporteurs Laurence Devillers et Alexei
Grinbaum, ne pouvait pas mieux tomber. Il fait suite au "Manifeste pour une éthique
numérique" qui rappelle à quel point "le numérique bouleverse le rapport à l’autre ; Il
interroge la notion d’intimité à travers l’exposition de la vie privée à une échelle inédite dans
l’histoire humaine ; la manière dont nous considérons l’autonomie humaine, les rapports
sociaux et politiques est remise en jeu".

Promoted Links Sponsored Links

Wenn du Zeit am Computer totschlagen musst, ist dieses Vintage


Spiel ein Muss. Kein Install.
Forge Of Empires - Free Online Game

L’histoire de Joshua Barbeau, ce Canadien qui a conversé pendant plusieurs mois avec
Jessica, sa fiancée morte des années auparavant, via un chatbot (un agent conversationnel)
créé par lui grâce à un logiciel d’intelligence artificielle, le GPT-3, est bouleversante. En juillet
dernier, au San Francisco Chronicle qui a dévoilé cette saga d’incroyables échanges, il a
raconté à quel point "intellectuellement [il savait] que ce n’était pas réellement Jessica, sauf
que vos émotions ne sont pas quelque chose d’intellectuel". Doté par Joshua de
caractéristiques de Jessica, le chatbot a pu recréer l’illusion fascinante de la présence de cette
femme morte, pour son créateur même.

Des machines capables "d'engager une conversation libre sur


beaucoup de sujets"

https://www.sciencesetavenir.fr/high-tech/web/les-enjeux-ethiques-des-chatbots_158994 2/5
16/08/2022 16:30 Attention à ne pas confondre un chatbot avec un être humain - Sciences et Avenir

Cette question des robots, qui se présentent avec un nom, une personnalité, une capacité de
dialogue social avec une voix particulière, donc de tenir une conversation – le "chat" en
anglais, d’où le nom de chatbots - est au cœur de l’avis sur "les enjeux éthiques des agents
conversationnels", annoncé mardi 9 novembre par le Comité national pilote d’éthique du
numérique (CNPEN). Comme pour Joshua, il ne s’agit plus de fiction, telle que racontée dans
le film "Her" de Spike Jonze, où l’on voyait l’écrivain Théodore tomber amoureux du logiciel
d’intelligence artificielle (IA) nommé Samantha, doté de la voix de Scarlett Johansson. C’est la
réalité d’aujourd’hui. Une véritable révolution. "Jusqu’à présent les chatbots avaient un
langage réduit, donnant l’impression qu’ils n’avaient aucune imagination, mais leurs
concepteurs cherchent aujourd’hui à leur donner un langage beaucoup plus réaliste",
constate Laurence Devillers, professeure d’IA et d’éthique à l’université Paris-Sorbonne, co-
rapporteuse de l’avis du CNPEN avec Alexei Grinbaum, physicien et philosophe au CEA.
"Grâce au traitement statistique du langage sur des milliards de données ou avec
l’apprentissage machine sur de multiples conversations, comme le fait Google, les machines
peuvent faire des phrases à la volée qui leur permettent d’engager une conversation libre sur
beaucoup de sujets". Or, il n’aura échappé à personne que nous, humains, avons la tendance
innée à anthropomorphiser ce qui nous entoure. On croit voir des visages dans les nuages,
des animaux dans certaines formes de rochers et qui n’a jamais sermonné sa propre voiture
parce qu’elle ne voulait pas démarrer par un jour d’hiver ? Pour l’instant, le véhicule ne
répond pas. Mais que se passera-t-il quand il le fera, indiquant quel équipement il estime
défectueux et dictant à l’humain ce qu’il devrait faire pour réussir le démarrage ? De quoi se
réjouir du conseil ? Ou se sentir coincé(e) ? Brusquement privé(e) de sa liberté d’action… avec
comme une envie de donner un coup de pied dans les pneus.

Une dizaine de questions éthiques fondamentales sur les chatbots

https://www.sciencesetavenir.fr/high-tech/web/les-enjeux-ethiques-des-chatbots_158994 3/5
16/08/2022 16:30 Attention à ne pas confondre un chatbot avec un être humain - Sciences et Avenir

En une quarantaine de pages, après deux ans de réflexion et un questionnaire auquel ont
répondu une centaine de personnes, l’avis du CNPEN – "le 1er au monde sur le sujet, un
travail global" insiste Claude Kirchner, directeur de recherche émérite d’Inria, à la tête du
comité – dresse une dizaine de questions éthiques fondamentales que posent les usages des
chatbots. A commencer par leur statut. "Un système informatique est conçu pour réaliser un
objectif décidé par son concepteur, tandis qu’un être humain est libre de se donner ses
propres objectifs ou de parler sans se poser cette question", énonce l’avis. Finalité, rôle, ce ne
sont pas les mêmes pour l’humain et la machine… Des évidences, ricaneront certains, alors
même qu’on les oublie facilement ! Parce que les humains se projettent tout le temps, parce
qu’ils ne cesseront pas d’attribuer, ni aujourd’hui, ni demain, des traits humains à une
machine - "genre, pensée, volonté, désir, conscience, représentation du monde". La première
des 13 préconisations du rapport, qu’on ne saurait toutes citer ici, porte ainsi sur la nécessité
pour les concepteurs de "limiter la personnification du chatbot". Anthropomorphisation,
danger n°1, on vient de le rappeler. Or, c’est exactement l’inverse qui se passe actuellement,
souligne Laurence Devillers avec véhémence : "Les concepteurs cherchent à personnaliser les
machines en imitant les émotions des humains, en détectant leur comportement émotionnel
afin de mieux adapter les stratégies de dialogue". Le risque ? Il est multiple, outre créer une
addiction au dialogue avec le fascinant chatbot, inciter à changer d’opinion, à acheter des
objets, à prendre telle décision plutôt que telle autre. Gare aux dérives, avec mensonges, fake
news voire racisme, comme cela eut lieu en 2016 avec le chatbot Tay, devenu raciste en
moins de 24 heures d’interaction sur Twitter et retiré dare-dare par Microsoft. Dans le
domaine de la santé, comment prévenir d’éventuelles erreurs de diagnostics et prescriptions
établis par "un(e) médecin virtuel(le)" ou un(e) infirmier(e) virtuel(le), préconisant tel ou tel
traitement. Sa voix sera-t-elle d’ailleurs celle d’un homme ou celle d’une femme ? Le choix
sera-t-il laissé à l’humain utilisateur/trice ? Une loi californienne, le Bolstering Online
Transparency Act (California Senate bill 1001) "oblige les concepteurs des agents
conversationnels utilisés pour vendre un produit ou convaincre un électeur à révéler aux
interlocuteurs de leurs chatbots qu’ils dialoguent avec une machine", rappelle l’avis tout en
notant qu’"il n’existe actuellement aucun texte comparable en droit français".

Ne pas répondre aux insultes... par des insultes !


Dans un registre que tous les amateurs de chatbots et autres humains fréquentant les
réseaux sociaux comprendront cinq sur cinq, l’avis interroge sur l’art de savoir… "traiter les
insultes", l’alerte raciste de 2016 étant un exemple précurseur flagrant. Si la préconisation
n°4 insiste sur le fait que le chatbot "ne devrait pas répondre aux insultes par des insultes et
ne pas les rapporter à une autorité", c’est qu’il les a comprises !

https://www.sciencesetavenir.fr/high-tech/web/les-enjeux-ethiques-des-chatbots_158994 4/5
16/08/2022 16:30 Attention à ne pas confondre un chatbot avec un être humain - Sciences et Avenir

Cela devrait faire l’objet de nouvelles recherches. "Il est nécessaire de développer des
méthodes de caractérisation automatique par les agents conversationnels de propos non
désirables, notamment des insultes", explicite ainsi la "Question de recherche n°1" de l’avis.
Pour les rapporteurs, il est en effet évident que les enjeux éthiques poussent à des recherches
d’un type nouveau, si on ne veut pas se contenter d’"ethicswashing", comme le souligne
Alexei Grinbaum, l’équivalent dans le domaine du numérique du "greenwashing" pour
l’environnement. Prétendre adopter des mesures, alors qu’on ne fait pas grand-chose… Une
dizaine de questions en tout, clairement énoncées par l’avis, devraient donner du fil à
retordre aux chercheurs : étudier les mensonges proférés par les chatbots, les effets éducatifs
inédits qu’ils peuvent avoir ainsi que leur impact sur l’organisation du travail ou sur
l’environnement… Les spécialistes des réseaux neurones très performants, appelés
"transformeurs", capables de traiter et générer du langage, domaine en plein boom, sont
également interpellés pour que soit évaluée "la conformité [de ces réseaux] aux valeurs
éthiques".

On l’aura compris, cet avis entend sonner l’alerte avec l’entrée dans une ère généralisée de
conversation avec les machines. Dans le Métavers, annoncé récemment par Marck
Zuckerberg, sera-t-on encore capable de distinguer l’avatar 3D d’un(e) ami(e) de celui d’un
robot programmé pour être votre ami(e)… L’informatique émotionnelle, capable de "générer
une expressivité émotionnelle par le langage ou le comportement non-verbal du chatbot"
commence tout juste à ébranler individus et sociétés.

 COMMENTER

CHATBOT
FACEBOOK

© Sciences et Avenir - Les contenus, marques, ou logos du site sciencesetavenir.fr sont soumis à la protection de la
propriété intellectuelle.

Audience certifiée par 

https://www.sciencesetavenir.fr/high-tech/web/les-enjeux-ethiques-des-chatbots_158994 5/5

Vous aimerez peut-être aussi