Vous êtes sur la page 1sur 6

Les géants de l'IA invités à la Maison

Blanche pour évoquer la régulation


du secteur
Publié le : 04/05/2023 - 15:48

Le logo de ChatGPT, un agent conversationnel utilisant l'intelligence artificielle et développé par


OpenAI. © Lionel Bonaventure, AFP

Texte par :FRANCE 24Suivre

4 mn

Google, Microsoft, OpenAI et Anthropic sont invités jeudi à la Maison Blanche pour
évaluer les risques liés aux technologies ayant recours à l'intelligence artificielle.

PUBLICITÉ
Comment réguler le secteur de l'IA ? La question est au cœur d'une réunion à la Maison
Blanche à laquelle participent jeudi les dirigeants de Google, Microsoft, OpenAI et
Anthropic. Objectif : évaluer les risques liés à l'intelligence artificielle (IA), alors que la
régulation de cette technologie majeure reste pour l'instant essentiellement du ressort
des entreprises elles-mêmes.

"Notre objectif est d'avoir une discussion franche sur les risques actuels et à court-terme
que nous percevons dans les développements de l'IA", indique l'invitation consultée par
l'AFP mardi.

L'administration veut aussi envisager "des mesures à prendre pour réduire ces risques et
d'autres façons de travailler ensemble pour nous assurer que le peuple américain
bénéficie des avancées dans l'IA tout en le protégeant des dangers".

Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) et Dario Amodei
(Anthropic) ont confirmé leur participation, selon la Maison Blanche. Ils s'entretiendront
avec plusieurs membres du gouvernement, dont la vice-présidente des Etats-Unis,
Kamala Harris.

PUBLICITÉ

L'intelligence artificielle est très présente dans le quotidien depuis des années, des
algorithmes de recommandation sur les réseaux sociaux aux logiciels de recrutement, en
passant par de nombreux appareils ménagers haut de gamme.

Course à l'innovation
Microsoft et Google se sont lancés cet hiver dans une course effrénée à l'IA générative,
depuis qu'OpenAI a mis en ligne ChatGPT, une interface capable de produire toutes
sortes de textes sur simple requête en langage naturel.

Principal investisseur d'OpenAI, Microsoft vient également d'ouvrir au grand public son
moteur de recherche Bing gonflé à l'IA, transformant ainsi la recherche en ligne en un
dialogue avec un chatbot.

Mais le déploiement de ces technologies suscitent à la fois de l'enthousiasme et des


inquiétudes d'une ampleur nouvelle.

>> À lire aussi :

L’intelligence artificielle va-t-elle faire émerger une "classe de supersalariés"


?

Surtout quand Sam Altman, le patron d'OpenAI, évoque l'avènement prochain de l'IA dite
"générale", quand les programmes seront "plus intelligents que les humains en général".

Les dangers vont de la discrimination par des algorithmes, à l'automatisation de tâches


remplies par des humains, au vol de propriété intellectuelle ou encore à la désinformation
sophistiquée à grande échelle, entre autres.

"Les modèles de langage capables de générer des images, du son et de la vidéo


constituent un rêve devenu réalité pour ceux qui veulent détruire les démocraties" estime
David Harris, professeur à l'université de Berkeley, spécialiste des politiques publiques et
de l'IA.
Des principes non contraignants

La Maison Blanche a publié fin 2022 un "plan pour une Déclaration des droits sur l'IA", qui
énumère des principes généraux tels que la protection contre les systèmes dangereux ou
faillibles. Le National Institute of Standards and Technology (NIST), un centre affilié au
gouvernement, a lui conçu un "cadre pour la gestion des risques" liés à l'IA.

Et le président Joe Biden a "clairement" dit récemment que les entreprises "doivent
s'assurer que leurs produits sont sûrs avant de les mettre à disposition du grand public",
mentionne l'invitation.

Mais "ces lignes directrices et déclarations n'obligent pas les sociétés concernées à faire
quoi que ce soit", souligne David Harris, qui a été directeur de recherche sur une IA
responsable chez Meta.

"Les patrons réclament eux-mêmes davantage de régulation", remarque-t-il, mais


Facebook a longtemps "appelé publiquement" à mieux réglementer la confidentialité des
données personnelles, "tout en payant des lobbies pour se battre contre les projets de
loi".

Un équilibre entre risques et bénéfices

Les géants de l'IA ne nient pas l'existence de risques, mais craignent que l'innovation ne
soit bridée par des lois trop contraignantes.

"Je suis sûr que l'IA va être utilisée par des acteurs malveillants, et oui, cela va causer des
dégâts", a déclaré mercredi Michael Schwarz, économiste en chef de Microsoft, lors d'un
débat au World Economic Forum à Genève, d'après Bloomberg.
Mais il a appelé les législateurs à ne pas se précipiter. Et, quand il y aura des "dommages
réels", à s'assurer que "les bénéfices de la régulation soient plus importants que le coût
pour la société".

Lina Khan, la présidente de l'agence américaine de protection des consommateurs a


comparé le choix actuel avec l'avènement des grandes plateformes numériques dans les
années 2000.

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont
marqué la semaine

Je m'abonne

Dans une tribune publiée dans le New York Times mercredi, elle explique que leur modèle
économique, fondé sur les données d'utilisateurs, aux dépens de leur "sécurité", n'était
"pas inévitable".

>> À lire aussi :

Musique et intelligence artificielle :


"l'idée d'une substitution de l'artiste
est un fantasme"

Les autorités ont la responsabilité de s'assurer que l'histoire ne se répète pas", assène
cette juriste réputée pour son hostilité aux grandes sociétés technologiques.
De l'autre côté de l'Atlantique, l'Europe espère à nouveau montrer la voie avec un
règlement ad hoc sur l'IA, comme elle l'avait fait avec la loi sur les données personnelles.

Vous aimerez peut-être aussi