Académique Documents
Professionnel Documents
Culture Documents
Les pirates
IA à venir
Bruce Schneier
E S S AY
20 AVRIL 21
Le projet Cyber
Conseil pour l'utilisation responsable de l'IA
Belfer Center for Science and International Affairs
Harvard Kennedy School
79, rue JFK
Cambridge, MA 02138, États-Unis
www.belfercenter.org/ Cyber
Les déclarations et les points de vue exprimés dans ce rapport sont uniquement ceux des auteurs et
n'impliquent pas l'approbation de l'Université Harvard, de la Harvard Kennedy School, du Belfer Center
for Science and International Affairs ou du gouvernement américain.
Les pirates
IA à venir
Bruce Schneier
E S S AY
20 AVRIL 21
À propos de l'auteur
Bruce Schneier est membre du Cyber Project, au Belfer Center for
Science and International Affairs. Il est l' auteur à succès du New
York Times de 14 livres, dont Click Here to Kill Everybody, ainsi que
de centaines d'articles, d'essais et de documents universitaires. Il
publie la lettre d'information mensuelle Crypto-Gram et le blog
Schneier on Security.
Schneier est également membre du Berkman Klein Center for Internet and
Society de l'Université Harvard, maître de conférences en politique
publique à la Harvard Kennedy School, membre du conseil
d'administration de l'Electronic Frontier Foundation, d'AccessNow et du
projet Tor, et membre du conseil consultatif de l'EPIC et de
VerifiedVoting.org. Il est le chef de l'architecture de sécurité chez Inrupt,
Inc. Il peut être trouvé en ligne à www.schneier.com et contacté à l'adresse
schneier@schneier.com.
Remerciements
Je tiens à remercier Nicholas Anway, Robert Axelrod, Robert Berger,
Vijay Bolina, Ben Buchanan, Julie Cohen, Steve Crocker, Kate Darling,
Justin DeShazor, Simon Dickson, Amy Ertan, Gregory Falco, Harold
Figueroa, Brett M. Frischmann, Abby Everett Jaques, Ram Shankar Siva
Kumar, David Leftwich, Gary McGraw, Andrew Odlyzko, Cirsten Paine,
Rebecca J. Parsons, Anina Schwarzenbach, Victor Shepardson, Steve
Stroh, Tarah Wheeler et Lauren Zabierek, qui ont tous lu et commenté une
ébauche de cet article.
Introduction...................................................................................................... 1
Hacks et piratage.............................................................................................. 2
L'omniprésence du piratage..............................................................................7
Le problème de l'explicabilité.......................................................................24
Piratage de récompenses............................................................................... 26
De la science-fiction à la réalité.......................................................................33
Remarquez les détails. Le piratage n'est pas de la triche. C'est suivre les
règles, mais subvertir leur intention. Ce n'est pas intentionnel. C'est une
exploitation. C'est « jouer avec le système ». Les films de câpres sont
remplis de hacks. MacGyver était un hacker.
Les hacks sont intelligents, mais pas les innovations. Et, oui, c'est une
définition subjective.deux
1 Le regretté hacker Jude Mihon (St. Jude) aimait cette définition : « Le piratage est le contournement
intelligent des limites imposées, que ces limites soient imposées par votre gouvernement, votre propre
personnalité ou les lois de la physique. » Jude Mihon (1996), Hackers Conference, Santa Rosa, Californie.
2 Tout cela est tiré d'un livre que je suis en train d'écrire, probablement à paraître en 2022.
3 Federal Trade Commission (22 juillet 2019), « Règlement sur les violations de données d'Equifax : ce que
vous devez savoir », https:// www.consumer.ftc.gov/blog/2019/07/equifax-data-breach-settlement-what-
you-should-know.
4 Naomi Jagoda (14 novembre 2019), « Les législateurs sous pression pour adopter un correctif
d'avantages sociaux pour les familles de militaires », Hill, https://thehill.com/policy/national-
security/470393-lawmakers-under-pressure-to-pass-bene-fits-fix-for-military-families .
5 New York Times (28 avril 2012), « Double Irish with a Dutch Sandwich » (infographie).
Centre Belfer pour la Science et les Affaires Internationales | École Kennedy 5
de Harvard
https://archive.nytimes. com/www.nytimes.com/interactive/2012/04/28/business/Double-Irish-With-A-
Dutch-Sandwich.html.
6 Niall McCarthy (23 mars 2017), « L'évasion fiscale coûte aux États-Unis près de 200 milliards de dollars
chaque année » (infographie), Forbes, https://www.forbes.com/sites/niallmccarthy/2017/03/23/tax-
avoidance-costs-the-u-s-nearly-200-milliard-every-year-infographic.
7 Alexandra Thornton (1er mars 2018), « Promesses non tenues : plus d'avantages fiscaux et
d'échappatoires en vertu de la nouvelle loi fiscale »,
https://www.americanprogress.org/issues/economy/reports/2018/03/01/447401/broken-promises-
special-interest-breaks-loopholes-new-tax-law/.
8 Microsoft (12 janvier 2020), « Lignes de code Windows 10 ».
https://answers.microsoft.com/en-us/windows/fo-rum /all/windows-10-lines-of-code/a8f77f5c-0661-
4895-9c77-2efd42429409.
Nous pouvons parfois utiliser ces mêmes méthodes avec le code des
impôts. La loi fiscale de 2017 a plafonné les déductions d'impôt sur le
revenu pour les impôts fonciers. Cette disposition n'est pas entrée en
vigueur en 2018, alors quelqu'un a eu l'astuce de payer à l'avance les
impôts fonciers de 2018 en 2017. Juste avant la fin de l'année, l'IRS a
statué sur le moment où c'était légal et quand cela ne l'était pas.10
Réponse courte : la plupart du temps, ce n'était pas le cas.
Ce n'est souvent pas aussi facile. Certains piratages sont inscrits dans la loi
ou ne peuvent pas être exclus. L'adoption d'une loi fiscale est un gros
problème, surtout aux États-Unis, où la question est si partisane et
controversée. (Cela fait presque quatre ans, et le problème de l'impôt sur le
revenu gagné pour les familles de militaires n'a toujours pas été corrigé. Et
c'est facile ; Tout le monde reconnaît que c'était une erreur.) Il peut être
difficile de savoir qui est censé corriger le code des impôts : est-ce le
législateur, les tribunaux, les autorités fiscales ? Et puis cela peut prendre
des années. Nous n'avons tout simplement pas la capacité de corriger le
code fiscal avec la même agilité que nous avons pour corriger les logiciels.
9 Dylan Matthews (29 mars 2017), « Le mythe du code fiscal fédéral de 70 000 pages », Vox.
https://www. vox.com/policy-and-politics/2017/3/29/15109214/tax-code-page-count-complexity-
simplification-re-forme-façons-moyens.
10 IRS (27 déc. 2017), « Les impôts fonciers prépayés peuvent être déductibles en 2017 s'ils sont évalués et
payés en 2017 », avis de l'IRS, https://www.irs.gov/newsroom/irs-advisory-prepaid-real-property-taxes-
may-be-deductible-in-2017-if-assessed-and-paid-in-2017.
Tout est un système, chaque système peut être piraté, et les humains sont
des hackers naturels.
Et enfin, les gens peuvent être piratés. Notre cerveau est un système, qui a
évolué pendant des millions d'années pour nous maintenir en vie et, plus
important encore, pour nous permettre de nous reproduire. Il a été
optimisé grâce à une interaction continue avec le
Centre Belfer pour la Science et les Affaires Internationales | École Kennedy 9
de Harvard
environnement. Mais il a été optimisé pour les humains qui vivent en
petits groupes familiaux dans les hauts plateaux d'Afrique de l'Est en 100
000 avant notre ère. Il n'est pas aussi bien adapté au New York, à Tokyo
ou à Delhi du XXIe siècle. Et parce qu'il englobe de nombreux raccourcis
cognitifs – il évolue, mais pas à l'échelle qui compte ici – il peut être
manipulé.
Ce qui est nouveau, ce sont les ordinateurs. Les ordinateurs sont des
systèmes, et sont piratés directement. Mais ce qui est plus intéressant, c'est
l'informatisation de systèmes plus traditionnels. Les finances, la fiscalité,
la conformité réglementaire, les élections, tout cela et bien d'autres encore
ont été informatisés. Et quand quelque chose est informatisé, la façon dont
il peut être piraté change. L'informatisation accélère le piratage dans trois
dimensions : la vitesse, l'échelle et la portée.
11 Bruce Schneier (24 août 2006), « Ce que veulent les terroristes », Schneier sur la sécurité, p.
https://www.schneier. com/blog/archives/2006/08/what_the_terror.html.
12 Robert L. Leahy (15 février 2018), « Comment penser au terrorisme », Psychology Today,
https://www.psycholo-gytoday.com/us/blog/anxiety-files/201802/how-think-about-terrorism .
Enfin, la portée. Les ordinateurs sont partout, affectant tous les aspects
de nos vies. Cela signifie que les nouveaux concepts de piratage
informatique sont potentiellement applicables partout, avec des résultats
variables.
13 Bruce Schneier (19 novembre 1999), « Un plaidoyer pour la simplicité », Schneier on Security,
https://www.schneier.com/ essays/archives/1999/11/a_plea_for_simplicit.html .
14 Paul Robinette et al. (mars 2016), « Overtrust of robots in emergency evacuation scenarios », Conférence
internationale ACM/IEEE 2016 sur l'interaction homme-robot.
https://www.cc.gatech.edu/~alanwags/pubs/Robi-nette-HRI-2016.pdf .
L'une des distinctions que je dois faire est entre l'IA spécialisée, parfois
appelée « étroite », et l'IA générale. L'IA générale est ce que vous voyez
dans les films. C'est l'IA qui peut sentir, penser et agir d'une manière très
générale et humaine. S'il est plus intelligent que les humains, il s'appelle
« superintelligence artificielle ». Combinez-le avec la robotique et vous
obtenez un androïde, qui peut ressembler plus ou moins à un humain.
Les robots de cinéma qui tentent de détruire l'humanité sont tous des IA
générales.
15 Marvin Minsky (éd.) (1968), Traitement sémantique de l'information, The MIT Press.
16 Laboratoire de recherche de l'armée de l'air (18 juin 2020), « Intelligence artificielle ».
https://afresearchlab.com/technology/artifi-intelligence-cielle.
17 Graham Oppy et David Dowe (automne 2020), « Le test de Turing », Stanford Encyclopedia of Philosophy.
https:// plato.stanford.edu/entries/turing-test.
L'IA spécialisée est conçue pour une tâche spécifique. Un exemple est le
système qui contrôle une voiture autonome. Il sait comment diriger le
véhicule, comment respecter le code de la route, comment éviter les
accidents et quoi faire lorsque quelque chose d'inattendu se produit,
comme une balle d'enfant qui rebondit soudainement sur la route. L'IA
spécialisée en sait beaucoup et peut prendre des décisions basées sur ces
connaissances, mais uniquement dans ce domaine limité.
Une blague courante parmi les chercheurs en IA est que dès que quelque
chose fonctionne, ce n'est plus de l'IA ; Ce n'est qu'un logiciel. Cela
pourrait rendre la recherche sur l'IA quelque peu déprimante, car par
définition, les seules choses qui comptent sont les échecs, mais il y a une
part de vérité là-dedans. L'IA est par nature un terme de science-fiction
mystificateur. Une fois qu'il devient réalité, il n'est plus mystificateur.
Nous avions l'habitude de supposer que la lecture des radiographies
thoraciques nécessitait un radiologue, c'est-à-dire un
intelligent avec une formation appropriée. Maintenant, nous nous rendons
compte qu'il s'agit d'une tâche routinière qui peut également être effectuée
par un ordinateur.
18 Kate Darling (2021), La nouvelle race : ce que notre histoire avec les animaux révèle sur notre avenir avec les robots,
Henry Holt & Co.
Ce n'est pas seulement que nous traiterons les IA comme des personnes.
Ils agiront également comme des personnes d'une manière qui sera
délibérément conçue pour nous tromper. Ils utiliseront des astuces
cognitives.
31 Will Heaven (21 janvier 2020), « L'IA de débat d'IBM juste pour beaucoup plus près d'être un outil utile
», MIT Technology Review, https://www.technologyreview.com/2020/01/21/276156/ibms-debating-ai-
just-got-a-lot-closer-to-being-a-useful tool/ .
32 Max Weiss (17 décembre 2019), « Les soumissions de bots deepfake aux sites Web de commentaires
publics fédéraux ne peuvent pas être distinguées des soumissions humaines », Technology Science,
https://techscience.org/a/2019121801/.
33 Adam Rawnsley (6 juillet 2020), « Les médias de droite dupés par une campagne de propagande au
Moyen-Orient », Daily Beast, https://www.thedailybeast.com/right-wing-media-outlets-duped-by-a-
middle-east-propagan-da-campaign .
34 Philip Sherwell (5 janvier 2020), « La Chine utilise Taïwan pour la pratique de la cible de l'IA afin
d'influencer les élections », Australian. https://www.theaustralian.com.au/world/the-times/china-uses-
taiwan-for-ai-target-practice-to-influence-elections /news-story/57499d2650d4d359a3857688d416d1e5.
L'ajout de la robotique ne fera que rendre ces hacks plus efficaces, ce que
Kate Darling a relaté dans son livre The New Breed.41 Nous, les humains,
avons développé des raccourcis cognitifs assez efficaces pour reconnaître
les autres. Nous voyons des visages partout ; Deux points au-dessus d'une
ligne horizontale ressemblent à un visage sans aucun problème. C'est
pourquoi même les illustrations minimalistes sont
si efficace. Si quelque chose a un visage, alors c'est une créature d'une
sorte ou d'une autre : avec des intentions, des sentiments et tout ce qui
vient avec des visages du monde réel. Si ce quelque chose parle ou,
mieux encore, converse, alors nous croyons qu'il a des intentions, des
désirs et de l'agentivité.
Les robots ne font pas exception. Beaucoup de gens ont des relations
sociales avec leurs aspirateurs robots, se plaignant même lorsque
l'entreprise leur propose
40 Brett Frischmann et Deven Desai (29 novembre 2016), « The Promise and Peril of Personalization »,
Center for Internet and Society, Stanford Law School.
41 Kate Darling (2021), La nouvelle race : ce que notre histoire avec les animaux révèle sur notre avenir avec les robots,
Henry Holt & Co.
Les artistes en profitent depuis des générations pour rendre leurs créations
plus sympathiques. Les poupées pour enfants sont conçues de cette façon.
Les personnages de dessins animés sont dessinés de cette façon, dès Betty
Boop dans les années 1930 et Bambi en 1942. Dans le film d'action en
direct de 2019 Alita : Battle Angel, le personnage principal avait les yeux
améliorés par ordinateur pour être plus grands.46 ans
Nous pourrions intuitivement savoir qu'il ne s'agit que d'un dinosaure vert
en plastique. Mais un grand visage associé à un petit corps nous fait
penser à un enfant. Soudain, nous pensons qu'il s'agit d'une créature dotée
de sentiments et que nous allons la protéger du mal.48 Et bien que cela
puisse être bénin, que se passe-t-il lorsque ce robot regarde ses
propriétaires humains avec ses grands yeux tristes et leur demande de lui
acheter une mise à niveau logicielle ?49 ans
Parce que nous, les humains, sommes enclins à faire une erreur de
catégorie et à traiter les robots comme des créatures vivantes avec des
sentiments et des intentions, nous sommes enclins à être manipulés par
eux. Les robots pourraient nous persuader de faire des choses que nous ne
ferions peut-être pas autrement. Ils pourraient nous effrayer et nous
empêcher de faire des choses que nous pourrions faire autrement. Dans
une expérience, un robot a été capable d'exercer une « pression de pair »
sur des sujets, les encourageant à prendre plus de risques.50 Combien de
temps faudra-t-il avant qu'un robot sexuel ne suggère des achats intégrés
dans le feu de l'action ?51
Les IA s'amélioreront dans tout cela. Déjà, ils essaient de détecter les
émotions en analysant nos écrits52, en lisant nos expressions faciales53 ou
en surveillant notre respiration et notre rythme cardiaque.54 Ils se trompent
la plupart du temps, mais il est probable qu'ils s'amélioreront. Et, comme
tant d'autres domaines de l'IA, ils
47 Sherry Turkle (2010), « En bonne compagnie », dans Yorick Wilks, éd., Close Engagements with Artificial
Compan- ions, John Benjamin Publishing Company,
http://web.mit.edu/people/sturkle/pdfsforstwebpage/Turkle_ In%20Good%20Company.pdf.
48 Kate Darling (2021), La nouvelle race : ce que notre histoire avec les animaux révèle sur notre avenir avec les robots,
Henry Holt & Co.
49 Woodrow Hartzog (4 mai 2015), « Unfair and deceptive robots », Maryland Law Review, p.
https://papers.ssrn. com/sol3/papers.cfm ?abstract_id=2602452.
50 Yaniv Hanoch et al (18 novembre 2020), « Le robot m'a fait le faire : interaction homme-robot et
comportement de prise de risque », en ligne avant impression,
https://www.liebertpub.com/doi/10.1089/cyber.2020.0148.
51 Kate Darling (octobre 2017), « Qui est Johnny ? Cadrage anthropomorphique dans l'interaction,
l'intégration et la politique homme-robot », dans Patrick Lin, Keith Abney et Ryan Jenkins, dir., Robot
Ethics 2.0 : From Autonomous Cars to Artificial Intelligence, Oxford Scholarship Online,
https://papers.ssrn.com/sol3/papers.cfm?ab-stract_id =2588669.
52 Francisca Adoma Acheampong, Chen Wenyu et Henry Nunoo-Mensah (28 mai 2020), « Détection
d'émotions textuelle : avancées, défis et opportunités », Engineering Reports 2 n° 7, https://onlinelibrary.
wiley.com/doi/full/10.1002/eng2.12189.
53 Tim Lewis (17 août 2019), « L'IA peut lire vos émotions. Est-ce que ça devrait l'être ? Guardian,
https://www.theguardian.com/ technology/2019/aug/17/emotion-ai-artificial-intelligence-mood-realeyes-
amazon-facebook-emotient.
Au fur et à mesure que les IA et les robots autonomes assument des tâches
plus réelles, la confiance humaine dans les systèmes autonomes sera
piratée, avec des conséquences dangereuses et coûteuses.
Mais n'oubliez jamais qu'il y a des pirates humains qui contrôlent les
pirates de l'IA. Tous les systèmes seront conçus et payés par des humains
qui veulent qu'ils nous manipulent d'une manière particulière dans un but
particulier. J'en reparlerai plus tard.
55 Jia Song et Jim Alves-Foss (novembre 2015), « Le grand défi cybernétique de la DARPA : le point de vue
d'un concurrent », IEEE Security and Privacy Magazine 13 (6),
https://www.researchgate.net/publication/286490027_The_
DARPA_cyber_grand_challenge_A_competitor%27s_perspective.
56 Tom Simonite (1er juin 2020), « Ce bot chasse les bogues logiciels pour le Pentagone », Wired,
https://www.wired. com/story/bot-hunts-software-bugs-pentagon/.
57 Bruce Schneier (mars 2018), « L'intelligence artificielle et l'équilibre attaque/défense », IEEE Security and
Priva- cy, https://www.schneier.com/essays/archives/2018/03/artificial_intellige.html.
58 Gary J. Saavedra et al. (13 juin 2019), « Un examen des applications d'apprentissage automatique dans le
fuzzing », ArXiv, https:// arxiv.org/abs/1906.11133.
59 Bruce Schneier (18 décembre 2018) « L'apprentissage automatique transformera la façon dont nous
détectons les vulnérabilités logicielles », Schneier sur la sécurité,
Centre Belfer pour la Science et les Affaires Internationales | École Kennedy 31
de Harvard
https://www.schneier.com/essays/archives/2018/12/machine_learning_wil.html.
Tout cela s'améliorera avec le temps. Les pirates, quels qu'ils soient, ne
sont aussi bons que s'ils comprennent le système qu'ils ciblent et la façon
dont il interagit avec le reste du monde. Les IA capturent d'abord cette
compréhension grâce aux données avec lesquelles elles sont formées, mais
elles continuent de s'améliorer au fur et à mesure qu'elles sont utilisées.
Les IA modernes s'améliorent constamment en ingérant de nouvelles
données et en ajustant leur propre fonctionnement interne en conséquence.
Toutes ces données entraînent en permanence l'IA et enrichissent son
expérience. L'IA évolue et s'améliore en fonction de ces expériences au
cours de son fonctionnement. C'est pourquoi les systèmes de véhicules
autonomes se vantent du nombre d'heures de route qu'ils ont eues.
60 Economist (12 juin 2018), « Les cabinets d'avocats montent à bord du wagon de l'IA »,
https://www.economist.com/busi-ness /2018/07/12/law-firms-climb-aboard-the-ai-wagon.
Dans The Hitchhiker's Guide to the Galaxy, une race d'êtres hyper-
intelligents et pandimensionnels construit l'ordinateur le plus puissant
de l'univers, Deep Thought, pour répondre à la question ultime de la
vie, de l'univers et de tout. Après 7,5 millions d'années de calcul, la
Pensée Profonde les informa que la réponse était 42. Et n'a pas été en
mesure d'expliquer sa réponse, ni même quelle était la question.61 ans
Les IA ne résolvent pas les problèmes comme le font les humains. Leurs
limites sont différentes des nôtres. Ils envisageront plus de solutions
possibles que nous. Plus important encore, ils examineront d'autres types
de solutions. Ils emprunteront des chemins que nous n'avons tout
simplement pas envisagés, des chemins plus complexes que les
Ce n'est pas l'idéal. Ce que nous voulons, c'est que le système d'IA ne se
contente pas de cracher une réponse, mais qu'il fournisse également une
explication de sa réponse dans un format que les humains peuvent
comprendre. Nous les voulons pour être plus à l'aise avec les décisions
de l'IA, mais c'est aussi ainsi que nous pouvons nous assurer que nos
systèmes d'IA n'ont pas été piratés pour prendre des décisions biaisées.
63 George A. Miller (1956), « Le nombre magique sept, plus ou moins deux : certaines limites à notre
capacité à traiter l'information », Psychological Review, http://psychclassics.yorku.ca/Miller/.
64 Cade Metz (16 mars 2016), « En deux mouvements, AlphaGo et Lee Sedol ont redéfini l'avenir », Wired,
https://www. wired.com/2016/03/two-moves-alphago-lee-sedol-redefined-future/.
65 Will Knight (11 avril 2017), « Le sombre secret au cœur de l'IA », MIT Technology Review,
https://www.technol-ogyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/ .
Piratage de récompenses
Comme je l'ai écrit plus haut, les IA ne résolvent pas les problèmes de la
même manière que les humains. Ils tomberont invariablement sur des
solutions que nous, les humains, ne pourrions jamais trouver
et certains vont subvertir l'intention du système. C'est parce que les IA ne
pensent pas en termes d'implications, de contexte, de normes et de valeurs
que les humains partagent et tiennent pour acquises.
Ce sont tous des hacks. Vous pouvez les blâmer pour des objectifs ou des
récompenses mal spécifiés, et vous auriez raison. Vous pouvez souligner
qu'ils se sont tous produits dans des environnements simulés, et vous
auriez également raison. Mais le problème est plus général : les IA sont
conçues pour optimiser vers un objectif. Ce faisant, ils pirateront
naturellement et par inadvertance les systèmes d'une manière à laquelle
nous ne nous attendrons pas.
Tout bon système d'IA trouvera naturellement des hacks. S'il y a des
problèmes, des incohérences ou des failles dans les règles, et si ces
propriétés conduisent à une solution acceptable telle que définie par les
règles, alors les IA les trouveront. Nous pourrions regarder
à ce que l'IA a fait et a dit : « Eh bien, techniquement, elle a suivi les règles. » Pourtant, nous
70 Ivaylo Popov et al. (10 avril 2017), « Apprentissage par renforcement profond efficace des données pour
la manipulation habile », ArXiv, https://arxiv.org/abs/1704.03073.
71 David Ha (10 octobre 2018), « Reinforcement learning for improving agent design », https://designrl.github.io/.
72 Dario Amodei et al. (25 juil. 2016), « Problèmes concrets dans la sécurité de l'IA », ArXiv,
https://arxiv.org/ pdf/1606.06565.pdf.
73 @Smingleigh (7 novembre 2018), Twitter, https://twitter.com/smingleigh/status/1060325665671692288.
Nous avons tous appris ce problème dès l'enfance, avec l'histoire du roi
Midas. Lorsque le dieu Dionysos lui accorde un vœu, Midas demande
que tout ce qu'il touche se transforme en or. Midas finit par mourir de
faim et de misère lorsque sa nourriture, sa boisson et sa fille se
transforment en or immangeable, impotable et peu aimable. C'est un
problème d'alignement des objectifs ; Midas a programmé le mauvais
objectif dans le système.
Nous savons également que les génies sont très précis sur la formulation
des souhaits et peuvent être malicieusement pédants lorsqu'ils les
exaucent. Mais voilà : il n'y a aucun moyen de déjouer le génie. Quoi que
vous souhaitiez, il sera toujours capable de le faire d'une manière que vous
souhaiteriez qu'il n'ait pas. Le génie sera toujours en mesure de pirater
votre souhait.
C'est en grande partie acceptable dans les interactions humaines, car les
gens comprennent le texte et agissent généralement de bonne foi. Nous
sommes tous socialisés, et dans le processus de le devenir, nous acquérons
généralement un bon sens sur la façon dont les gens et le monde
fonctionnent. Nous comblons toutes les lacunes dans notre compréhension
à la fois par le contexte et par la bonne volonté.
74 Abby Everett Jaques (2021), « Le problème de la sous-spécification et l'IA : pour l'amour de Dieu,
n'envoyez pas un robot prendre un café », manuscrit non publié.
Nous ne pouvons pas spécifier complètement les objectifs d'une IA. Et les
IA ne seront pas en mesure de comprendre complètement le contexte. Lors
d'une conférence TED, le chercheur en IA Stuart Russell a plaisanté sur un
assistant IA fictif provoquant un retard d'avion afin de retarder l'arrivée de
quelqu'un à un dîner. L'auditoire a ri, mais comment un programme
informatique saurait-il que provoquer un dysfonctionnement de
l'ordinateur d'un avion n'est pas une réponse appropriée à quelqu'un qui
veut sortir du dîner ?75 (blague sur Internet de 2017 : Jeff Bezos : « Alexa,
achète-moi quelque chose sur Whole Foods. » Alexa : « D'accord, j'achète
Whole Foods. »)
75 Stuart Russell (avril 2017), « 3 principes pour créer une IA plus sûre », TED2017,
https://www.ted.com/talks/stu-art_russell_3_principles_for_creating_safer_ai .
77 Jack Ewing (24 juillet 2016), « Les chercheurs qui ont exposé VW gagnent peu de récompense du succès
», New York Times. https://www.nytimes.com/2016/07/25/business/vw-wvu-diesel-volkswagen-west-
virginia.html.
78 Mike Isaac (3 mars 2017), « Comment Uber trompe les autorités du monde entier », New York Times,
https://www. nytimes.com/2017/03/03/technology/uber-greyball-program-evade-authorities.html.
De même, en 2015, une IA a appris à jouer au jeu vidéo des années 1970
Breakout. L'IA n'a rien appris sur les règles ou la stratégie du jeu. On lui
a juste donné les commandes et on l'a récompensé pour avoir maximisé
son score.
Qu'il ait appris à jouer n'est pas intéressant, tout le monde s'y attendait.
Mais il a découvert indépendamment, et optimisé à un degré jamais vu
chez les joueurs humains, la tactique consistant à « creuser un tunnel » à
travers une colonne de briques pour faire rebondir la balle sur le mur du
fond.82
Rien de ce que je dis ici ne sera nouveau pour les chercheurs en IA, et
beaucoup envisagent actuellement des moyens de se défendre contre le
piratage des objectifs et des récompenses. L'une des solutions consiste à
enseigner le contexte aux IA. Le terme général pour ce type de recherche
est « alignement des valeurs » : comment pouvons-nous créer des IA qui
reflètent nos valeurs ? Vous pouvez penser à des solutions en termes de
deux extrêmes. La première est que nous pouvons spécifier explicitement
ces valeurs. Cela peut être fait aujourd'hui, plus ou moins, mais c'est
vulnérable à tout le piratage que je viens de décrire. L'autre extrême, c'est
que nous pouvons créer des IA qui apprennent nos valeurs, peut-être en
observant les humains dans les
ou en ingérant tous les écrits de l'humanité : notre histoire, notre
littérature, notre philosophie, etc. C'est dans de nombreuses années (les
chercheurs en IA ne sont pas d'accord sur l'échelle de temps). La plupart
des recherches actuelles se situent à cheval entre ces deux extrêmes.83
80 Zeynep Tufekci (10 mars 2018), « YouTube, the great equalizer », New York Times, p.
https://www.nytimes. com/2018/03/10/opinion/sunday/youtube-politics-radical.html. Renee DiResta
(11 avril 2018), « À suivre : un meilleur système de recommandation », Wired,
https://www.wired.com/story/creating-ethical-recommenda-tion-engines/ .
81 Nick Statt (26 mai 2020), « Facebook aurait ignoré ses propres recherches montrant que les
algorithmes divisent les utilisateurs », Verge.
https://www.theverge.com/2020/5/26/21270659/facebook-division-news-feed-algorithms.
82 Jacob Aron (25 février 2015), « Google DeepMind AI surpasse les humains aux jeux vidéo », New
Scientist, https:// www.newscientist.com/article/dn27031-google-deepmind-ai-outplays-humans-at-
Centre Belfer pour la Science et les Affaires Internationales | École Kennedy 43
de Harvard
video-games/.
83 Iason Gabriel (1er octobre 2020), « Intelligence artificielle, valeurs et alignement », Minds and
Machines 30, https:// link.springer.com/article/10.1007%2Fs11023-020-09539-2 .
De la science-fiction à la réalité
La faisabilité de tout cela dépend beaucoup du système spécifique
modélisé et piraté. Pour qu'une IA puisse même commencer à optimiser
une solution, sans parler du piratage d'une solution complètement
nouvelle, toutes les règles de l'environnement doivent être formalisées
de manière à ce que l'ordinateur puisse les comprendre.
Des objectifs, connus sous le nom de fonctions objectives dans le domaine
de l'IA, doivent être établis. L'IA a besoin d'une sorte de rétroaction sur
ses performances afin d'améliorer ses performances.
Parfois, il s'agit d'une question triviale. Pour un jeu comme Go, c'est
facile. Les règles, l'objectif et la rétroaction – avez-vous gagné ou perdu ?
– sont tous précisément spécifiés. Et il n'y a rien en dehors de ces choses
pour brouiller les pistes. L'IA d'apprentissage automatique GPT-3 peut
écrire des essais cohérents parce que son « monde » n'est que du texte.
C'est pourquoi la plupart des exemples actuels de piratage d'objectifs et
de récompenses proviennent d'environnements simulés. Celles-ci sont
artificielles et contraintes, avec toutes les règles spécifiées à l'IA.
Cette ambiguïté finit par être une défense de sécurité à court terme contre
le piratage de l'IA. Nous n'aurons pas de hacks sportifs générés par l'IA
tant que les androïdes ne joueront pas réellement au sport, ou jusqu'à ce
qu'une IA généralisée soit développée, capable de comprendre le monde
au sens large et avec des nuances éthiques. Il en va de même pour les
piratages de jeux de casino ou les piratages du processus législatif. (Une
IA pourrait-elle découvrir de manière indépendante le gerrymandering ?)
Il faudra beaucoup de temps avant que les IA
être capable de modéliser et de simuler la façon dont les gens travaillent,
individuellement et en groupe, et avant qu'ils ne soient capables de trouver
de nouvelles façons de pirater les processus législatifs.
Mais voici le problème avec l'IA. Les progrès sont discontinus et contre-
intuitifs. Les choses qui semblent faciles s'avèrent être difficiles, et les
choses qui semblent difficiles s'avèrent faciles. Nous ne le savons pas
jusqu'à ce que la percée se produise. Quand j'étais étudiant au début des
années 1980, on nous a appris que le jeu de Go ne serait jamais maîtrisé par
un ordinateur en raison de l'énorme complexité du jeu : pas les règles, mais
le nombre de coups possibles.
Et maintenant, un ordinateur a battu un champion du monde humain. Cela
était dû en partie aux progrès de la science de l'IA, mais la plupart des
améliorations étaient simplement dues à l'augmentation de la puissance de
calcul du problème.
Le piratage est aussi vieux que l'humanité. Nous sommes des résolveurs
de problèmes créatifs. Nous sommes des exploiteurs d'échappatoires.
Nous manipulons les systèmes pour servir nos intérêts. Nous aspirons à
plus d'influence, plus de pouvoir, plus de richesse. Le pouvoir sert le
pouvoir, et le piratage en fait toujours partie.
Dans son livre de 2005, The Corporation, Joel Baken a comparé les
entreprises à des sociopathes immortels.84 Parce qu'ils sont optimisés
pour la rentabilité
et tentent d'optimiser le bien-être de leurs gestionnaires, ils sont plus
susceptibles de pirater les systèmes pour leur propre bénéfice. Pourtant,
les entreprises sont constituées de personnes, et ce sont les personnes qui
prennent les décisions. Même dans un monde où les systèmes d'IA fixent
les prix de manière dynamique – les sièges d'avion en sont un bon
exemple – cela limite encore une fois le piratage.
84 Joel Bakan (2005), La société : la poursuite pathologique du profit et du pouvoir, Free Press.
Les ordinateurs sont beaucoup plus rapides que les humains. Un processus
humain qui peut prendre des mois ou des années peut être comprimé en
jours, en heures ou même en secondes.
Que se passe-t-il lorsque vous fournissez à une IA l'ensemble du code
fiscal américain et que vous lui ordonnez de trouver toutes les façons de
minimiser le montant de l'impôt dû ? Ou, dans le cas d'une multinationale,
lui donner les codes fiscaux de la planète entière ? Découvrira-t-il, sans
qu'on le lui dise, qu'il est judicieux de s'incorporer au Delaware et
d'immatriculer son navire au Panama ? Combien de vulnérabilités –
d'échappatoires – trouvera-t-il que nous ne connaissons pas déjà ?
Dizaines? Centaines? Milliers? Nous n'en avons aucune idée, mais nous le
saurons probablement au cours de la prochaine décennie.
Nous avons des systèmes sociétaux qui traitent des piratages, mais ceux-ci
ont été développés lorsque les pirates étaient des humains et reflètent le
rythme des pirates humains. Nous n'avons pas de système de gouvernance
capable de faire face à des centaines, et encore moins à des milliers,
d'échappatoires fiscales récemment découvertes. Nous ne pouvons tout
simplement pas corriger le code fiscal aussi rapidement. Nous ne sommes
pas en mesure de faire face à des gens qui utilisent Facebook pour pirater
la démocratie, et encore moins à ce qui se passera lorsqu'une IA le fera.
Nous ne serons pas en mesure de nous remettre d'une IA qui découvre des
piratages imprévus mais légaux des systèmes financiers. À la vitesse de
l'ordinateur, le piratage devient un problème que nous, en tant que société,
ne pouvons plus gérer.
Nous le voyons déjà dans la finance assistée par ordinateur, avec le trading
à haute fréquence et d'autres piratages financiers à la vitesse de
l'ordinateur. Ce ne sont pas des systèmes d'IA ;
Centre Belfer pour la Science et les Affaires Internationales | École Kennedy 49
de Harvard
Ce sont des systèmes automatiques utilisant des règles et des stratégies
générées par l'homme. Mais ils sont capables d'exécuter à des vitesses
surhumaines, et cela fait toute la différence. C'est un précurseur de ce qui
est à venir. Au fur et à mesure que les systèmes commerciaux deviendront
plus autonomes, à mesure qu'ils s'orienteront vers un comportement
semblable à celui de l'IA consistant à découvrir de nouveaux piratages
plutôt que de se contenter d'exploiter ceux découverts par l'homme, ils
domineront de plus en plus l'économie.
Ce n'est pas seulement une question de vitesse, mais aussi d'échelle. Une
fois que les systèmes d'IA commenceront à découvrir des piratages, ils
seront en mesure de les exploiter à une échelle à laquelle nous ne sommes
pas prêts. Nous en voyons déjà des prémices. Un service gratuit basé sur
l'IA appelé Donotpay. com automatise le processus de contestation des
contraventions de stationnement. Il a contribué à annuler des centaines de
milliers de contraventions dans des villes comme Londres et New York.85
Le service s'est étendu à d'autres domaines, aidant les utilisateurs à
recevoir une indemnisation pour les vols aériens retardés et à annuler une
variété de services et d'abonnements.86
La portée croissante des systèmes d'IA rend également les piratages plus
dangereux. L'IA prend déjà des décisions importantes qui affectent nos
vies, des décisions que nous pensions auparavant être du ressort exclusif
des humains. Les systèmes d'IA prennent des décisions en matière de
mise en liberté sous caution et de libération conditionnelle.88 Ils aident à
décider qui reçoit des prêts bancaires.89
85 Samuel Gibbs (28 juin 2016), « Un avocat chatbot renverse 160 000 contraventions de stationnement à
Londres et à New York », Guardian, https://www.theguardian.com/technology/2016/jun/28/chatbot-ai-
lawyer-donotpay-parking-tickets-london-new-york .
86 Lisa M. Krieger (28 mars 2019), « La quête d'un étudiant de Stanford pour effacer les contraventions de stationnement mène à des « avocats robots »
»
Mercury News, https://www.mercurynews.com/2019/03/28/joshua-browder-22-builds-robot-lawyers/.
87 La Californie a une loi obligeant les bots à s'identifier. Renee RiResta (24 juillet 2019), « Une nouvelle loi
oblige les bots à s'identifier eux-mêmes – c'est le problème », Wired, https://www.wired.com/story/law-
makes-bots-iden-tify-yourself/.
88 Karen Hao (21 janvier 2019), « L'IA envoie des gens en prison et se trompe », MIT Technology
90 Andrea Murad (8 février 2021), « Les ordinateurs rejettent votre demande d'emploi », BBC News,
https://www.bbc. com/news/business-55932977.
91 DJ Pangburn (17 mai 2019), « Les écoles utilisent des logiciels pour aider à choisir qui peut entrer.
Qu'est-ce qui pourrait mal tourner ? Fast Company, https://www.fastcompany.com/90342596/schools-
are-quietly-turning-to-ai-to-help-pick-qui-entre-cette-ce-qui-pourrait-mal-tourner .
92 Tiffany Fishman, William D. Eggers et Pankaj Kamleshkumar Kishnani (18 octobre 2017), « Services
d'employés augmentés par l'IA : Utiliser les technologies cognitives pour transformer la prestation des
programmes », Deloitte, https://www2.deloitte. com/us/en/insights/industry/public-sector/artificial-
intelligence-technologies-human-services-programs. HTML.
93 Laim Vaughan (2020), Flash Crash : un savant du trading, une chasse à l'homme mondiale et le krach
boursier le plus mystérieux de l'histoire, Doubleday.
94 Shannon Connellan (2 mai 2018), « Un temple bouddhiste japonais accueille les funérailles de plus de
100 chiens robots Sony Aibo », Mashable, https://mashable.com/2018/05/02/sony-aibo-dog-funeral/.
95 Ry Crist (28 juin 2019). « Oui, le chien robot a mangé votre vie privée », CNET,
https://www.cnet.com/news/yes-the-robot-dog-ate-your-privacy/.
Pour s'assurer que la défense l'emporte dans ces cas plus généraux, il
faudra mettre en place des structures de gouvernance résilientes capables
de répondre rapidement et efficacement aux piratages. Cela ne servira à
rien s'il faut des années pour corriger le code des impôts, ou si un piratage
législatif devient si enraciné qu'il ne peut pas être corrigé politiquement.
Les logiciels modernes sont continuellement corrigés ; Vous savez à
quelle fréquence vous mettez à jour vos ordinateurs et vos téléphones.
Nous avons besoin que les règles et les lois de la société soient tout aussi
correctives.
La solution primordiale ici, ce sont les gens. Ce que j'ai décrit, c'est
l'interaction entre les systèmes humains et informatiques, et les risques
inhérents lorsque les ordinateurs commencent à jouer le rôle des humains.
Il s'agit là aussi d'un problème plus général que celui des pirates
informatiques. C'est aussi celui sur lequel les technologues et les
futurologues écrivent. Et bien qu'il soit facile de laisser la technologie
nous guider vers l'avenir, nous sommes bien mieux lotis si, en tant que
société, nous décidons du rôle que devrait jouer la technologie dans notre
avenir.
Tout cela est quelque chose que nous devons comprendre maintenant,
avant que ces IA ne se connectent et ne commencent à pirater notre
monde.
97 Gillian K. Hadfield (2016), Règles pour un monde plat : pourquoi les humains ont inventé le droit et
comment le réinventer pour une économie mondiale complexe, Oxford University Press.
98 Julie E. Cohen (2019), Entre vérité et pouvoir : les constructions juridiques du capitalisme informationnel,
Presses de l'Université d'Oxford.
99 Joshua A. T. Fairfield (2021), La technologie en fuite : le droit peut-il suivre le rythme ? Presses de l'Université de Cambridge.
www.belfercenter.org/ Cyber