Académique Documents
Professionnel Documents
Culture Documents
La naissance de l’IA
La création du domaine au milieu du 20e siècle
Suite à l’invention de l’ordinateur numérique au milieu du XXe siècle, les scientifiques ont
commencé à se demander si les ordinateurs pouvaient aller au-delà d’une simple exécution de
calculs et d’instructions déterministes.
Un ordinateur pourrait-il faire preuve d’intelligence ? Pourrait-il penser comme un humain ?
Cette question a suscité un large éventail de questions philosophiques étant donné que la
définition même de l’intelligence humaine inclut déjà des concepts difficiles, comme par
exemple la conscience.
C’est Alan Turing, considéré comme le fondateur de l’informatique moderne, qui a proposé
une méthode pour mesurer l’intelligence des machines. Dans son ouvrage de référence,
Computing Machinery and Intelligence, Turing a abordé la question "Une machine peut-elle
penser ?" en se demandant si une machine pouvait faire preuve d’intelligence humaine par son
comportement et imiter la capacité de penser. En d’autres termes, la machine pourrait-elle se
faire passer pour un humain ?
Il a ensuite proposé un test pour les machines, appelé le jeu d’imitation, qui permettrait de
décider si une machine est intelligente ou non. Ce test a été baptisé “test de Turing” et, dans
sa forme originale, il considérait qu’une machine était intelligente si elle était capable d'avoir
une conversation textuelle avec un humain sans que celui-ci ne puisse débusquer qu’elle soit
une machine et non un être humain.
Alors, à quoi ressemble le test de Turing ? Imaginez-vous un instant dans une conversation en
ligne par le biais de messages textuels (type “chat”). Vous pouvez poser des questions et
évaluer les réponses. Si vous interagissez avec une machine, mais que vous ne pouvez pas
affirmer avec certitude que c’est une machine d’après les réponses qu’elle donne, alors nous
pouvons dire que la machine a passé le test de Turing avec succès, et donc qu’elle est
intelligente !
Cette idée de Turing a reçu beaucoup de soutien, mais aussi quelques critiques. Cela dit,
même malgré les craintes que le test ne soit pas idéal pour évaluer l’intelligence des
machines, il reste encore largement utilisé aujourd’hui.
La principale préoccupation de Turing était que les machines seraient limitées par la mémoire
et n’en auraient jamais assez pour passer son test. Il a prédit dans les années 50 qu’un
ordinateur serait capable de réussir le test seulement s’il pouvait stocker 100 Mo de mémoire,
et cela donc d’ici l’an 2000. Et pourtant, la mémoire des machines a beau avoir dépassé
largement les 100 Mo de mémoire il y a quelques années, celles qui réussissent le test de
Turing restent extrêmement rares.
Et même en réussissant le test, certains scientifiques se demandent si les machines peuvent
vraiment être considérées comme des imitations réussies de l’intelligence humaine. Les
débats sur le test de Turing ont mis en lumière à quel point il est difficile de mesurer et de
comparer la complexité de l’intelligence humaine avec les capacités des machines.
Dans les années qui ont suivi le test de Turing, les domaines de l’intelligence des machines et
des machines pensantes ont commencé à prendre forme. Le terme “intelligence artificielle” a
été utilisé pour la première fois par John McCarthy lors du projet de recherche d’été de
Dartmouth sur l’intelligence artificielle de 1956, également connu sous le nom d’atelier de
Dartmouth. Il s’agissait d’un rassemblement de certains des plus éminents scientifiques,
ingénieurs, mathématiciens et psychologues de l’époque. Pendant deux mois, ils ont combiné
leurs expertises, créant alors un nouveau domaine d’étude que McCarthy a ensuite dûment
nommé “intelligence artificielle”.
L’atelier de Dartmouth est considéré comme l'événement fondateur dans l'histoire de l'IA. De
nombreux concepts encore utilisés aujourd’hui, tels que les “réseaux neuronaux” et le
“traitement du langage naturel” ont été débattus lors de cette conférence.
La révolution
Les données massives (big data) et l’apprentissage profond (deep learning) du 21e siècle.
Le battage médiatique actuel autour de l’IA est largement attribuable aux progrès sans
précédent du deep learning qui ont été rendus possibles par la disponibilité de larges quantités
de données, et les machines surpassent maintenant continuellement les humains dans des
tâches complexes.
Le deep learning commence vraiment à décoller au début des années 2010, grâce notamment
au travail des scientifiques américains Yoshua Bengio, Geoffrey Hinton et du français Yann
LeCun. L’abondance des données, les progrès des algorithmes d’apprentissage et
l’augmentation de la puissance de calcul ont donné aux pionniers comme eux l’occasion de
réaliser des prouesses époustouflantes en matière de reconnaissance vocale, de traitement du
langage naturel, de reconnaissance visuelle et d’apprentissage par renforcement.
L’histoire relativement courte de l’IA a déjà de précieuses leçons à nous enseigner sur le
contrôle du battage publicitaire et la gestion des spéculations ou des attentes trop
ambitieuses. Nous nous devons de canaliser notre enthousiasme pour cette technologie
fascinante de manière à produire des progrès continus, et éviter de vivre un nouvel “hiver” de
l’IA.
Pour ce faire, nous devons mieux comprendre la complexité de l’intelligence humaine et les
limites de l’IA.
Concept de IA
Quelques-unes :
Générateur de texte
Générateur d’image
Diffusion Stable
Crayon