Académique Documents
Professionnel Documents
Culture Documents
L’étude explore les manières dont l’IA pourrait être exploitée pour menacer à la fois les systèmes de
sécurités physiques et numériques, ou pourrait créer de nouveaux dangers. Le texte formule ensuite
plusieurs recommandations, notamment adressées aux ingénieurs, pour qu’ils aient conscience des
usages qui pourraient être faits de leurs travaux.
Tout d’abord, le rapport invite les décideurs politiques à «collaborer étroitement avec les
chercheurs pour étudier, prévenir et modérer les utilisations malveillantes potentielles de l’IA».
Numérique,
physique,
politique :
trois domaines
à risques dans
le futur
L'étude se hasarde à
quelques prévisions
pratiques. Les
chercheurs expliquent
qu'ils se basent sur l'état
actuel de
développement de
l'intelligence
artificielle, ou sur ce
qu'ils estiment possible à court terme (5 ans) afin d'éviter d'entrer dans des suppositions trop
hasardeuses.
Ils précisent que certains scénarios se « produisent déjà sous forme limitée aujourd'hui », mais
qu'ils pourront être largement renforcés à l'avenir. De plus, de nouveaux vecteurs d'attaques
auxquels on n'a pas encore pensé seront également mis sur pied. Il ne s'agit donc ici que d'exemples
dans les mondes numérique, physique et politique (nous y reviendrons), pas d'une étude sur
l'ensemble des risques possibles et imaginables.
Dans le cas du monde numérique, les chercheurs évoquent un phishing très élaboré et parfaitement
ciblé en fonction des centres d'intérêt et de la position géographique d'une personne, afin de
l'envoyer sur une page dédiée pour la piéger le plus discrètement possible. Une intelligence
artificielle peut également traduire dans de nombreuses langues les emails destinés à hameçonner
les internautes, facilitant le travail des pirates.
Si le résultat n'est pas encore parfait aujourd'hui (il est souvent très facile d'identifier les tentatives
de phishing), il s'améliore grandement au fil des années et cela ne devrait pas se calmer. Est aussi
évoqué le cas d'un malware extrêmement virulent cherchant à infecter un maximum de machines à
l'aide d'une base de données de vulnérabilités régulièrement et automatiquement mise à jour.
Dans le cas des risques dans le monde physique, l'étude met en avant le cas d'un robot ménager
détourné de ses fonctions pour identifier et tenter de tuer une personne. Placé dans le parking
souterrain d'un ministère, il attend le passage d'autres robots de la même marque pour se mélanger
discrètement à la cohorte.
Une fois fondu dans la masse, il réalise les mêmes tâches que ses petits camarades jusqu'au moment
où la « cible » (un ministre dans le cas présent) est identifiée via un logiciel de reconnaissance
visuelle, des solutions facilement accessibles sur Internet. Le robot s'approche alors de la personne
et explose pour tenter de la tuer.
Plein de risque se présentent aussi suite à l’utilisation de L’AI comme par exemple :
La discrimination :
Étant donné que les machines peuvent collecter, suivre et analyser tellement de choses sur vous, il
est très possible que ces machines utilisent ces informations contre vous. Il n’est pas difficile
d’imaginer une compagnie d’assurance vous affirmant que vous n’êtes pas assurable en fonction du
nombre de fois où vous avez été filmé devant une caméra en train de parler au téléphone en
conduisant par exemple. Ou un employeur peut retenir une offre d’emploi basée sur votre «
pointage de crédit social ».
La perte de contrôle :
Jusqu’à présent, le développement d’une nouvelle technologie signifie toujours que l’humain
(chercheurs, ingénieurs…) ont le contrôle sur l’orientation à suivre.
Le cas de l’IA est quelque peu différent. L’apprentissage non supervisé, c’est-à-dire que l’IA traite,
analyse et tire des règles d’un ensemble de données sans aucune aide humaine, n’est pas encore au
point, mais cela ne saurait tarder. Il sera alors crucial de lui fixer des limites, et espérer qu’elle s’y
tiendra.
Le chômage :
Au-delà du fait que l’apparition de l’IA crée de nouveaux emplois, il est certain qu’elle va aussi en
supprimer beaucoup d’autres comme l’agent d’entretien , caissier …
Un risque politique
Mais, pour lui, «le risque le plus sérieux, même s'il est moins probable, est le risque politique. Nous
avons déjà vu comment des gens se servaient de la technologie pour essayer d'interférer dans les
élections et la démocratie. Si l'IA permet à ces menaces de devenir plus fortes, plus difficiles à
repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer
peut-être à déclencher des guerres », estime Seán Ó hÉigeartaigh.
Avec l'IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être
utilisé pour discréditer des responsables politiques, avertit le rapport. Les États autoritaires vont
aussi pouvoir s'appuyer sur l'IA pour renforcer la surveillance de leurs citoyens, ajoute-t-il. Ce n'est
pas la première fois que des inquiétudes s'expriment concernant l'IA. Dès 2014, l’astrophiysien
stephen hawking lançait une mise en garde sur les risques qu'elle pourrait faire courir à l'humanité,
en dépassant l'intelligence humaine. L'entrepreneur Elon Musk et d'autres ont aussi tiré la ssonnette
d'alarme.
Des rapports spécifiques sur l'utilisation de drones tueurs ou sur la façon dont l'IA pourrait affecter
la sécurité des États-Unis ont également été publiés. Ce nouveau rapport apporte « une vue
d'ensemble sur la façon dont l'IA crée de nouvelles menaces ou change la nature des menaces
existantes dans les domaines de la sécurité numerique , physique et politique », explique Seán Ó
hÉigeartaigh.
Appel à l'action
Apparue dès les années 1950, l’intelligence artificielle correspond à des algorithmes sophistiqués
qui permettent de résoudre des problèmes pour lesquels les humains utilisent leurs capacités
cognitives. Ces dernières années, elle a fait des progrès substantiels notamment dans les domaines
liés à la perception, comme la reconaissance vocal et l'analyse d'images.
« Actuellement, il y a encore un écart important entre les avancées de la recherche et ses
applications possibles. Il est temps d'agir », déclare à l'AFP Miles Brundage, chargé de recherche
au Future of Humanity Institute de l'université d'Oxford. Cet expert a animé en février 2017 à
Oxford un atelier sur les risques d'un usage malveillant de l'IA, qui a donné naissance à ce rapport.
« Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques
doivent à présent collaborer pour tenter de prévenir [ces risques] », conclut Seán Ó hÉigeartaigh.
Le Basilic de Roko
Le basilic de Roko est l’une des nombreuses propositions pour décrire le comportement de la
Singularité technologique. Cette théorie a été publiée sur le site Less Wrong et il est important de
connaitre le jargon et les croyances de cette communauté. La plupart des membres de Less Wrong
estime qu’une Singularité technologique va se produire dans le futur. On expliquera les principes
d’une singularité, mais on peut la résumer par le fait que c’est une intelligence artificielle dont la
puissance dépasserait l’entendement humain.
Le principal argument du Basilic de Roko est qu’une super intelligence artificielle pourrait punir
ceux qui n’ont pas aidés à sa création et récompenser ceux qui l’ont fait. Ce n’est pas un cliché du
genre : Prosternez-vous devant l’IA ou allez en enfer. En fait, l’IA et la personne qui est punie n’ont
aucune interaction causale et la personne punie pourrait être morte des décennies ou même des
siècles auparavant. Mais l’intelligence artificielle pourrait punir une simulation de la personne
qu’elle pourrait construire à partir des données numériques, biologiques et comportementales de la
personne. Cela nécessiterait une quantité phénoménale de donnée pour reconstruire une réplique de
la personne.
De plus, le chatiment serait pour ceux qui connaissaient l’importance de la tâche, mais qui n’ont pas
aidé de manière suffisante. Et en se basant sur ce postulat, moi, l’auteur de cet article et vous,
lecteur ou lectrice de cet article sont déjà concernés par ce chatiment hypothétique par cette
intelligence artificielle hypothétique. Ce n’est pas la peine de cliquer sur Précédent, vous étiez déjà
au courant.
Notons que cette intelligence artificielle n’est pas malveillante comme on peut le voir dans des
films avec Skynet ou Ultron. Cette IA sera Friendly si l’humanité ne se débrouille pas pour créer
une intelligence artificielle maléfique et que les progrès actuels de l’IA ne soient pas perturbés. La
raison pour laquelle cette intelligence artificielle Friendly vous punira est qu’à chaque jour que l’IA
n’avait pas été crée, des gens mourraient, les guerres faisaient rage, les maladies proliféraient. De ce
fait, le chatiment de cette IA est un impératif moral pour que vous contribuez à sa création au
moment présent pour qu’elle sauve l’humanité le plus vite possible.
On a également un Basilic de Slick qui est connecté à celui de Roko, mais le premier va chatier
l’humain pour qu’il ne fasse plus le mal pour éviter des catastrophes. Le Basic de Slick s’inspire du
fruit de l’arbre défendu (Une petite connaissance interdite a plongé les humains dans un monde de
souffrance).