Académique Documents
Professionnel Documents
Culture Documents
d’apprentissage automatique?
Cet article fait partie de Démystifier l’IA, une série de messages qui
(essayer de) désambiguïser le jargon et les mythes entourant l’IA.
l n’est pas difficile de dire que l’image ci-dessous montre trois
choses différentes: un oiseau, un chien et un cheval. Mais pour
un apprentissage automatique, tous les trois pourraient la
même chose: une petite boîte blanche avec un contour noir.
Cet exemple dépeint l’une des caractéristiques dangereuses des
modèles d’apprentissage automatique, qui peuvent être exploités
pour les forcer à mal classer les données. (En réalité, la boîte
pourrait être beaucoup plus petite; Je l’ai agrandi ici pour la
visibilité.)
Les algorithmes d’apprentissage automatique peuvent rechercher
les mauvaises choses en images
Il s’agit d’un exemple d’empoisonnement des données, d’un type
spécial d’attaque contradictoire, d’une série de techniques qui
ciblent le comportement de l’apprentissage automatique et des
modèles d’apprentissage profond.
S’il est appliqué avec succès, l’empoisonnement aux données peut
fournir aux acteurs malveillants un accès détourné aux modèles
d’apprentissage automatique et leur permettre de contourner les
systèmes contrôlés par des algorithmes d’intelligence artificielle.