Cet article fait partie de Démystifier l’IA, une série de messages qui
(essayer de) désambiguiser le jargon et les mythes entourant
l’intelligence artificielle.
E
n septembre 2012, Alex Krizhevsky et Ilya Sutskever, deux
chercheurs en IA de l’Université de Toronto, ont écrit l’histoire
d’ImageNet, un concours populaire dans lequel les
participants développent des logiciels qui peuvent reconnaître des
objets dans une vaste base de données d’images numériques.
Krizhevsky et Sutskever, et leur mentor, geoffrey Hinton, pionnier de
l’IA, ont soumis un algorithme basé sur l’apprentissage profond et les
réseaux neuronaux, une technique d’intelligence artificielle que la
communauté de l’IA considérait avec scepticisme en raison de ses
lacunes passées.
AlexNet, l’algorithme d’apprentissage profond développé par les
chercheurs de l’Université de T, a été en mesure de gagner le
concours avec un taux d’erreur de 15,3 pour cent, un énorme 10,8
pour cent de mieux que le finaliste. Selon certains témoignages,
l’événement a déclenché la révolution de l’apprentissage profond,
créant l’intérêt pour le domaine par de nombreuses organisations
académiques et commerciales.
Aujourd’hui, l’apprentissage profond est devenu essentiel à de
nombreuses applications que nous utilisons chaque jour, telles que
les systèmes de recommandation de contenu, les applications de
traduction, les assistants numériques, les chatbots et les systèmes de
reconnaissance faciale. L’apprentissage profond a également
contribué à créer des progrès dans de nombreux domaines spéciaux
tels que les soins de santé, l’éducation et les voitures autonomes.
La renommée de l’apprentissage profond a également conduit à
la confusion et l’ambiguïté sur ce qu’il est et ce qu’il peut faire. Voici
une brève ventilation de ce que sont l’apprentissage profond et les
réseaux neuronaux, ce qu’ils peuvent (et ne peuvent pas faire) et
quelles sont leurs forces et leurs limites.