Vous êtes sur la page 1sur 39

République Algérienne Démocratique et Populaire

Ministère de L’enseignement supérieur et de la Recherche


Scientifique
Université Dr tahar Moulay
Faculté de la Technologie
Département D’informatique
Exposé

Titre :

L’histoire de l’intelligence Artificielle


Membres:

M : Bouhafs Daoui

Février 2023

1
1-Introduction

Les premiers jalons historiques de l'intelligence artificielle (ou IA) datent


de la Protohistoire, où mythes, légendes et rumeurs dotent des êtres
artificiels, réalisés par des maîtres-artisans, d'une intelligence ou d'une
conscience ; comme l'écrit Pamela McCorduck , l'intelligence
artificielle commence avec « le vieux souhait de jouer à Dieu.

L'intelligence artificielle comme nous l'entendons aujourd'hui a été initiée


par les philosophes classiques, dont Gottfried Wilhelm Leibniz avec
son calculus ratiocinator, qui essaient de décrire le processus de
la pensée humaine comme la manipulation mécanique de symboles,
sans pour autant vouloir fabriquer des spécimens. Cette réflexion s'est
concrétisée avec l'invention de l'ordinateur programmable dans les
années 1940. Cet instrument et les idées qu'il sous-tend ont inspiré les
scientifiques qui ont commencé à évoquer sérieusement la faisabilité
d'un cerveau électronique .

La recherche en intelligence artificielle a vraiment commencé après


une conférence tenue sur le campus de Dartmouth College pendant l'été
1956. À la suite de cette réunion, certains participants se sont investis
dans une recherche sur l'intelligence artificielle. Certains utopistes ont
pronostiqué qu'une machine aussi intelligente qu'un être humain
existerait en moins d'une génération et des millions de dollars ont alors
été investis pour réifier cette prédiction. Avec le temps, il est apparu que
les difficultés inhérentes à cette annonce avaient été grossièrement
sous-estimées. En 1973, en réponse aux critiques des scientifiques,
notamment de James Lighthill et aux pressions continuelles des
parlementaires, les gouvernements britannique et américain stoppent les
subventions à la recherche en intelligence artificielle sans orientation.

2
Sept ans plus tard, à la suite de l'initiative prophétique du Cabinet du
Japon, les gouvernements et l'industrie réinvestissent dans l'intelligence
artificielle, mais à la fin des années 1980 les décideurs désabusés
retirent à nouveau leurs fonds. On peut donc dire que ce cycle en dents
de scie, où alternent périodes de gel et de dégel, caractérise le soutien à
l'intelligence artificielle. Mais il reste toujours des idéalistes pour faire des
prédictions osées.

Quoi qu'il en soit, malgré des hauts et des bas et malgré les réticences
des technocrates et des investisseurs, l'intelligence artificielle progresse.
Des problèmes qu'on pensait inaccessibles en 1970 ont été résolus et
leurs solutions sont distribuées commercialement. Cela est aussi dû aux
progrès de l'algorithmique qui a permis de programmer des solutions que
l'on ne pouvait atteindre autrefois que par des heuristiques. Néanmoins,
aucune machine dotée d'une intelligence artificielle forte n'a encore été
construite, contrairement aux prévisions optimistes de la première
génération de chercheurs. « Nous ne pouvons qu'entrevoir le court
terme » a concédé Alan Turing, dans un article célèbre de 1950 qui
préfigure la recherche moderne sur les machines pensantes Mais,
ajoute-t-il, nous ne pouvons pas envisager l'ampleur du travail qui reste
à accomplir .

Au départ, deux approches se confrontent : l'approche logiciste ou


symbolique, qui vise à recréer les « lois universelles » de la pensée et
s'inspirent du concept de machine de Turing, et l'approche neuronale,
incarnée par Frank Rosenblatt, qui essaie d'imiter les processus
biologiques cérébraux. Si l'approche logiciste, inspirée des travaux
de Russell, Frege, du cercle de Vienne, de logique mathématique, etc.,
l'emporte à la DARPA, principal organisme finançant les recherches en

3
intelligence artificielle, l'approche neuronale refait surface dans
les années 1980, inspirant les travaux sur le connexionnisme.

Comme l'intelligence artificielle s'est développée surtout au départ aux


États-Unis, cet article se focalisera essentiellement sur ce pays.

2-Automates

Des automates anthropomorphes réalistes ont été construits par des


artisans de toutes les civilisations, dont Yan Shi qui travaillait pour Ji
Man9, Héron d'Alexandrie, Al-Djazari11 et Wolfgang von Kempelen. Les
plus vieux automates sont les statues sacrées d'ancienne Égypte et
de Grèce antique. Les croyants étaient persuadés que les artisans
avaient imprégné ces statues avec des esprits réels, capables de
sagesse et d'émotion — Hermès Trismégiste a écrit qu'« en découvrant
la vraie nature des dieux, l'homme a été capable de le reproduire.
L'automate de Vaucanson du XVIIIe siècle qui représente un canard est
une mise en œuvre saisissante d'un être artificiel réalisant certaines
fonctions du vivant, tandis que le turc joueur d'échec de Johann
Wolfgang von Kempelen est une supercherie.

3- Raisonnement formel

L'intelligence artificielle se fonde sur l'hypothèse que le processus de


pensée humaine peut être mécanisé. L'étude du raisonnement
mécanique — ou « formel » — a un long historique. Les
philosophes chinois, indiens et grecs ont tous développé des méthodes
structurées de déduction formelle au cours du premier millénaire apr. J.-
C. Leurs idées ont été développées à travers les siècles par des
philosophes comme Aristote (qui a donné une analyse formelle
du syllogisme), Euclide (dont les Éléments ont été un modèle de
4
raisonnement formel), Al-Khawarizmi (auquel on doit l'algèbre et dont le
nom a donné « algorithme ») et les philosophes scolastiques européens
comme Guillaume d'Ockham et Duns Scot.

Le philosophe majorquin Raymond Lulle (1232–1315) a conçu


plusieurs machines logiques dédiées à la production de connaissance
par des moyens logiques ; Lulle décrit ses machines en tant qu'entités
mécaniques qui pouvaient combiner des vérités fondamentales et
indéniables via de simples opérations logiques, générées par la machine
grâce à des mécanismes, de manière à produire tout le savoir possible.
Le travail de Lulle a une grande influence sur Leibniz, qui a redéveloppé
ses idées.

Au XVIIe siècle, Gottfried Wilhelm Leibniz, Thomas Hobbes et René


Descartes ont exploré la possibilité que toute la pensée rationnelle
puisse être aussi systématique que l'algèbre ou la géométrie. Dans
le Léviathan de Hobbes, on retrouve la célèbre phrase : la raison n'est
rien d'autre que le fait de calculer . Leibniz imaginait un langage
universel du raisonnement (sa characteristica universalis) qui assimilerait
l'argumentation à un calcul, afin qu'« il n'y a[it] pas plus de besoin de se
disputer entre deux philosophes qu'entre deux comptables. Car il leur
suffirait de prendre leur crayon et leur ardoise en main, et de se dire l'un
l'autre (avec un ami en témoin, au besoin) : Calculons !. Ces philosophes
ont commencé à articuler les hypothèses d'un système de symboles
physiques qui deviendra par la suite l'un des dogmes de la recherche en
IA.

Au XXe siècle, l'étude de la logique mathématique a fourni l'essentiel des


avancées qui ont rendu plausible l'intelligence artificielle. Les bases ont
été mises en place avec des œuvres telles que Les Lois de la
Pensée de Boole et Idéographie de Frege. S'appuyant sur le système de

5
Frege, Russell et Whitehead ont présenté un traitement formel des
fondements des mathématiques dans leur chef-d'œuvre Principia
Mathematica en 1913. Inspiré par le succès de Russell, David Hilbert a
défié les mathématiciens des années 1920-1930 de répondre à cette
question fondamentale : « Le raisonnement mathématique peut-il être
entièrement formalisé On répondit à sa question par les théorèmes
d'incomplétude de Gödel, la machine de Turing et le lambda-
calcul de Church. Leur réponse était surprenante à plusieurs titres. Tout
d'abord, ils prouvèrent qu'il y avait, en fait, des limitations dans ce que la
logique mathématique pouvait accomplir.

Mais aussi (et plus important encore pour l'IA) leurs travaux ont suggéré
que, sous ces conditions, toute forme de raisonnement mathématique
pouvait être mécanisée. La thèse de Church impliquait qu'un appareil
mécanique, manipulant des symboles aussi simples que des 0 et des 1,
pouvait imiter tout processus concevable de déduction mathématique.
Cette notion-clé se traduisit par la machine de Turing — une simple
construction théorique qui capturait l'essence de la manipulation de
symboles abstraits. Cette invention inspira une poignée de scientifiques
qui commencèrent alors à discuter de la possibilité de machines
pensantes.

4- Intelligence artificielle et premiers


ordinateurs
Les machines à calculer sont apparues dès l'Antiquité et ont été
améliorées tout au long de l'histoire par de nombreux mathématiciens et
ingénieurs, dont Leibniz. Au début du XIXe siècle, Charles
Babbage conçoit la machine à calculer programmable (la Machine
analytique), sans jamais la construire. À sa suite, Ada Lovelace spécule

6
que la machine peut composer des pièces de musique élaborées et
scientifiques de toutes complexité et longueur.

Les premiers ordinateurs modernes sont les machines massives


de cryptanalyse de la Seconde Guerre mondiale (telles que le Z3,
l'ENIAC et le Colossus), conçues, en ce qui concerne les deux dernières,
à partir des fondements théoriques établis par Alan Turing et développés
par John von Neumann.

5- Naissance de l'intelligence artificielle


1943−1956

Dans les années 1940 et 1950, une poignée de scientifiques d'une


large gamme dedomaines (mathématiques, psychologie, ingénierie,
économie et science politique) ont commencé à discuter de la
possibilité de créer un cerveau artificiel. Ce domaine de recherche
de l'intelligence artificielle a été fondé en tant que discipline
académique en 1956.

6- Cybernétique et premiers réseaux neuronaux

Les toutes premières recherches dans le domaine des machines


pensantes ont été inspirées par une convergence d'idées qui se sont
progressivement répandues de la fin des années 1930 au début des
années 1950. De récentes recherches en neurologie ont montré que le
cerveau était un réseau électrique de neurones qui envoyaient des
impulsions de type tout-ou-rien. La cybernétique de Norbert Wiener a
décrit les contrôles et la stabilité dans les réseaux électriques. La théorie
de l'information de ClaudeShannon détaille des signaux numériques (i.e.,
7
signaux tout-ou-rien). La théorie du calcul d'Alan Turing montre que toute
forme de calcul peut être représentée numériquement. Les relations
étroites entre ces idées suggèrent la possibilité de construire un cerveau
artificiel.

On peut citer comme exemples de travaux de cette veine les robots tels
que les Tortues de Bristol de William Grey Walter et la Bête de Johns
Hopkins (en). Ces machines n'utilisent pas d'ordinateurs, d'électronique
numérique ni de raisonnement symbolique ; elles étaient entièrement
contrôlées par des circuits analogiques

Walter Pitts et Warren McCulloch ont analysé des réseaux de neurones


artificiels idéaux et ont montré comment ils pourraient effectuer de
simples opérations logiques. Ils ont été les premiers à évoquer ce que
des chercheurs plus tard appelleraient un réseau neuronal.

Un des étudiants inspirés par Pitts et McCulloch était Marvin Minsky, à


l'époque jeune étudiant de 24 ans. En 1951 (avec Dean Edmonds), il
construisit la première machine à réseau neuronal, le SNARC. Minsky
allait devenir l'un des plus importants leaders et innovateurs en IA des
cinquante années suivantes.

7- L'intelligence artificielle dans les jeux

En 1951, en utilisant la machine Ferranti Mark I de l'université de


Manchester, Christopher Strachey a écrit un programme de jeu de
dames et Dietrich Prinz un programme de jeu d'échecs. Le jeu de
dames d'Arthur Samuel, développé au milieu des années 1950 et au
début des années 1960, a fini par acquérir un niveau suffisant pour
défier un bon amateur. De fait, l'intelligence artificielle dans les
jeux sert d'étalon des avancées de l'intelligence artificielle.

8
8- Test de Turing

En 1950 Alan Turing publie un article mémorable dans lequel il spécule


sur la possibilité de créer des machines dotées d'une véritable
intelligence. Il remarque qu'il est difficile de définir l'« intelligence » et
imagine son célèbre test de Turing. Si une machine peut mener une
conversation (par téléscripteur interposé) qu'on ne puisse différencier
d'une conversation avec un être humain, alors la machine pouvait être
qualifiée d'« intelligente ». Cette version simplifiée du problème a permis
à Turing d'argumenter de manière convaincante qu'une « machine
pensante » était au-moins plausible, cet article répondant à toutes les
objections classiques à cette proposition. Le test de Turing a été la
première hypothèse sérieuse dans le domaine de la philosophie de
l'intelligence artificielle.

9- Raisonnement symbolique et le théoricien


logique
Quand l'accès aux ordinateurs est devenu possible au milieu des années
1950, des scientifiques, en petit nombre au début, ont compris qu'une
machine qui pouvait manipuler des nombres pouvait aussi manipuler des
symboles et que cette manipulation de symboles pouvait potentiellement
être l'essence-même de la pensée humaine. Cela a conduit à
l'élaboration des premières machines pensantes.

En 1955, Allen Newell et le futur prix Nobel d'économie, Herbert Simon,


avec l'aide de Cliff Shaw, ont créé le « Théoricien logique ». Le
programme finira par démontrer 38 des 52 premiers théorèmes
des Principia Mathematica de Russell et Whitehead, et a même trouvé

9
des démonstrations inédites et élégantes. Simon raconte qu'ils ont
« résolu le vénérable problème corps-esprit, expliquant comment un
système composé de matière peut avoir des propriétés de l'esprit ».
C'est l'une des premières formulations d'un mouvement philosophique
que John Searle appellera plus tard « intelligence artificielle forte » :
comme les humains, les machines peuvent posséder un esprit.

10- La traduction automatique des langages


En 1949, Warren Weaver publie son memorandum sur la traduction
automatique des langues naturelles41 qui est à la fois visionnaire et
optimiste sur le futur de ce problème fondamental de l'intelligence
artificielle.

11- Conférence de Dartmouth de 1956


naissance de l'intelligence artificielle

La conférence de Dartmouth de 1956 a été organisée par Marvin


Minsky, John McCarthy et deux scientifiques seniors : Claude
Shannon et Nathan Rochester (en) d'IBM. La thèse de la conférence
incluait cette assertion : « chaque aspect de l'apprentissage ou toute
autre caractéristique de l'intelligence peut être si précisément décrit
qu'une machine peut être conçue pour le simuler ». Parmi les
participants on retrouve Ray Solomonoff, Oliver Selfridge, Trenchard
More, Arthur Samuel, Allen Newell et Herbert Simon, qui vont tous créer
des programmes importants durant les premières décennies de la
recherche en IA. À la conférence, Newell et Simon ont débutéle
« Théoricien Logique » (logic theorist) et McCarthy a convaincu
l'auditoire d'accepter l'expression « Intelligence Artificielle » comme
intitulé du domaine. La conférence de Dartmouth de 1956 a été le
moment-clé où l'intelligence artificielle a été appelée comme telle, a
10
défini ses objectifs, a concrétisé ses premières réussites et a réuni ses
acteurs importants. Cette conférence est largement considérée, dans le
monde occidental, comme le moment fondateur de l'intelligence
artificielle en tant que discipline théorique indépendante (de
l'informatique.

12-L'âge d'or 1956−1974


Les années qui suivent la conférence de Dartmouth sont une ère de
découverte, de conquêtes effrénées de nouvelles contrées du savoir.
Les programmes développés à l'époque sont considérés par la plupart
des gens comme simplement « extraordinaires47 » : des ordinateurs
résolvent des problèmes algébriques de mots, démontrent des
théorèmes en géométrie et apprennent à parler anglais. À cette époque,
peu croient que de tels comportements « intelligents » soient possibles
pour des machines48. Les chercheurs font preuve alors d'un optimisme
intense dans le privé comme dans leurs articles, ils prédisent qu'une
machine complètement intelligente sera construite dans les 20 ans à
venir49. Les agences gouvernementales comme la DARPA investissent
massivement dans ce nouveau domaine50.

13-Les percées
.

Raisonnement par tâtonnements

Ils sont nombreux parmi les premiers programmes d'intelligence


artificielle à utiliser le même algorithme fondamental. Pour remplir
certains objectifs (comme gagner un jeu ou démontrer un théorème), ils
procèdent pas à pas vers la solution (en effectuant un mouvement ou
une déduction à la fois) comme s'ils naviguent dans un

11
labyrinthe, revenant en arrière dès qu'ils se heurtent à une impasse. Ce
paradigme est appelé « raisonnement par tâtonnements » ou retour sur
trace.

La principale difficulté réside dans le fait que, pour beaucoup de


problèmes, le nombre de chemins possibles vers la solution est
astronomique, c'est la fameuse « explosion combinatoire ». Des
chercheurs ont alors essayé de réduire l'espace de recherche à l'aide
d'heuristiques ou de « règles empiriques » qui éliminent la plupart des
chemins dont il est peu probable qu'ils mènent à une solution.

Newell et Simon essaient de capturer une version générale de cet


algorithme dans un programme appelé le General Problem
Solver (« solutionneur de problème général »). Certains programmes de
« recherche » sont capables d'accomplir des tâches jugées à l'époque
impressionnantes comme la résolution de problèmes géométriques et
algébriques, tels que le Geometry Theorem Prover d'Herbert Gelernter
(1958) et le SAINT, écrit par James Slagle, un des étudiants
de Minsky54 (1961). D'autres programmes cherchent à travers des
objectifs et sous-objectifs pour planifier des actions, comme le
système STRIPS développé à Stanford pour contrôler le comportement
de leur robot, Shakey.

14-Langage naturel
Un but majeur de la recherche en IA est de permettre aux ordinateurs de
communiquer en langage naturel comme l'anglais. Un des premiers
succès était le programme STUDENT de Bobrow, qui pouvait résoudre
des problèmes algébriques rédigés pour lycéens.

Un réseau sémantique représente des concepts (par ex. « maison »,


« porte ») à l'aide de nœuds et les relations entre les concepts (par ex.

12
« possède un ») par des liaisons entre ces nœuds. Le premier
programme d'IA à utiliser un réseau sémantique a été écrit par Ross
Quillian57 et la version la plus performante (et controversée) a été
la Conceptual dependency theory de Roger Schank.

ELIZA de Joseph Weizenbaum pouvait mener des conversations si


réalistes que certains utilisateurs se sont laissé abuser en croyant
communiquer avec un être humain et non un programme. En réalité,
ELIZA n'avait aucune idée de ce dont elle parlait. Elle donnait
simplement une « réponse-bateau » ou reformulait en réponse grâce à
quelques règles de grammaire. ELIZA était le premier agent
conversationnel.

15-Micro-mondes
À la fin des années 1960, Marvin Minsky et Seymour Papert du
Laboratoire d'IA du MIT ont proposé que la recherche d'IA se concentre
sur des situations artificiellement simplifiées appelées aussi micro-
mondes. Ils ont mentionné à juste titre que dans les sciences
performantes comme la physique, les principes fondamentaux étaient
souvent mieux compris en utilisant des modèles simplifiés tels que des
avions sans friction, ou des corps parfaitement rigides. La majorité de la
recherche s'est alors centrée sur un « monde-blocs », qui consistait en
un ensemble de blocs colorés de formes et tailles variées disposés sur
une surface plane.

Ce paradigme a permis des travaux innovants dans la vision industrielle


de Gerald Sussman (qui dirigeait l'équipe), Adolfo Guzman, David
Waltz (qui inventa la « propagation de contraintes »), et surtout Patrick
Winston. Au même moment, Minsky et Papert construisait un bras
robotique qui empilait des blocs, insufflant la vie dans ces monde-blocs.

13
La plus grande réussite de ces programmes micro-mondes a été
le SHRDLU de Terry Winograd. Ce dernier pouvait communiquer en
anglais à l'aide de phrases ordinaires, planifier des opérations et les
exécuter.

16-L'optimisme
La première génération de chercheurs en IA fait les prévisions suivantes
à propos de leur travail :

● En 1958, H. Simon et Allen Newell : « d'ici dix ans un ordinateur sera


le champion du monde des échecs » et « d'ici dix ans, un ordinateur
découvrira et résoudra un nouveau théorème mathématique
majeur ».
● En 1965, H. Simon : « des machines seront capables, d'ici vingt ans,
de faire tout travail que l'homme peut faire ».
● En 1967, Marvin Minsky : « dans une génération [...] le problème de
la création d'une 'intelligence artificielle' [sera] en grande partie
résolu ».
● En 1970, Marvin Minsky (dans le magazine Life) : « Dans trois à huit
ans nous aurons une machine avec l'intelligence générale d'un être
humain ordinaire ».

17-Le financement
En juin 1963 le MIT reçoit une subvention de 2,2 millions de dollars de la
toute jeune ARPA (« Agence pour les projets de recherche avancée »,
qui deviendra plus tard la DARPA). L'argent est utilisé pour financer
le Projet MAC (en) qui englobe le « Groupe IA » fondé
par Minsky et McCarthy cinq ans plus tôt. L'ARPA continue à fournir trois
millions de dollars par an jusqu'aux années 1970. L'ARPA fait des

14
subventions similaires au programme de Newell et Simon à Carnegie-
Mellon et au projet Stanford I.A. (fondé par John McCarthy en 1963). Un
autre laboratoire important d'IA est établi à l'université
d'Édimbourg par Donald Michie en 1965. Ces quatre institutions
continuent d'être les principaux centres de recherche en IA au niveau
académique pendant de nombreuses années.

L'argent est distribué avec peu de contrôle. L'ancien professeur de


Minsky à Harvard, J. C. R. Licklider, alors à la tête du « Bureau des
Techniques de Traitement de l'Information » (IPTO) et directeur du
Programme Command & Control de l'ARPA, pense que son organisation
doit « financer des personnes, pas des projets ! » et autorise les
chercheurs à poursuivre toutes les pistes qui leur semblent
intéressantes. Cela crée une atmosphère de liberté totale au MIT qui
donne ainsi naissance à la culture hacker. À Licklider (1962-64)
succèdent Ivan Sutherland (1964-66), Robert Taylor (1966-69) et
Lawrence Roberts (1969-1972), tous proches du MIT et dans la
continuité de Licklider vis-à-vis de l'IA. Néanmoins cette attitude non
interventionniste ne dure pas.

18-La première hibernation de l'intelligence


artificielle (1974−1980)
Dans les années 1970, l'intelligence artificielle subit critiques et revers
budgétaires, car les chercheurs en intelligence artificielle n'ont pas une
vision claire des difficultés des problèmes auxquels ils sont confrontés.
Leur immense optimisme a engendré une attente excessive et quand les
résultats promis ne se matérialisent pas, les investissements consacrés
à l'intelligence artificielle s'étiolent. Dans la même période,
le connexionisme a été presque complétement mis sous le boisseau

15
pour 10 ans par la critique dévastatrice de Marvin Minsky sur
les perceptrons73. Malgré l'image négative de l'intelligence artificielle
dans le grand public à la fin des années 1970, de nouvelles idées sont
explorées en programmation logique, raisonnement de bon sens et dans
d'autres directions.

19-Les problèmes
Au début des années 1970, les capacités des programmes d'IA sont
limitées. Les plus performants peinent à manipuler des versions
simplistes des problèmes qu'ils sont supposés résoudre et tous les
problèmes sont, d'une certaine manière, des « broutilles ». De fait, les
chercheurs en IA font face à plusieurs limites fondamentales
insurmontables et bien que certaines limites soient dépassées depuis,
d'autres demeurent de vrais obstacles.

20-Limites de la puissance de calcul


La puissance et la mémoire de l'époque étaient considérées à juste titre
comme un véritable frein à des applications pratiques ; elles suffisaient à
peine pour démontrer des modèles simplistes.

Ainsi, le travail de Ross Quillian sur le langage naturel est limité à un


vocabulaire de vingt mots, car la mémoire ne peut pas en contenir plus.

En outre, Hans Moravec se plaint en 1976 du fait que les ordinateurs


soient des millions de fois trop faibles pour faire montre d'une
quelconque intelligence, qu'ils sont loin d'atteindre le seuil critique
minimal. Pour mieux faire comprendre ce qu'il entend par seuil, il utilise
l'analogie suivante : « En dessous d'un certain niveau de puissance, un
avion reste plaqué au sol et ne peut pas décoller du tout, c'est juste

16
impossible ». Néanmoins comme la puissance informatique augmente,
ça finira par devenir possible.

Quant à la vision par ordinateur, Moravec estime que le simple fait


d'égaler les capacités de la rétine humaine à détecter les mouvements et
les contours en temps réel (problème simple de nos jours) nécessiterait
un ordinateur générique capable de 10 opérations/seconde
(1 000 MIPS). Par comparaison, l'ordinateur le plus rapide en 1976,
le Cray-1 (vendu entre 5 et 8 000 000 $), est seulement capable
d'environ 80 à 130 MIPS, et un ordinateur de bureau typique de l'époque
n'atteint même pas 1 MIPS. En fait, son estimation, impressionnante
pour l'époque, s'est avérée trop optimiste : en 2011, les applications de
vision par ordinateur concrètes ont besoin de dix à mille fois plus de
puissance, se situant plutôt entre 10 000 à 1 000 000 MIPS.

21-Limites inhérentes : la complétude NP


En 1972, à la suite du théorème de Cook, Richard Karp a montré qu'il y
avait de nombreux problèmes très difficiles, pour lesquels trouver des
solutions optimales était impensable, avec comme conséquence que les
problèmes fondamentaux de l'intelligence artificielle ne passeront pas à
l'échelle.

22-Raisonnement et base de connaissance de


culture générale
De nombreuses applications majeures d'intelligence artificielle comme
la vision par ordinateur ou le traitement automatique du langage
naturel ont besoin d'énormes quantités d'information du monde réel pour
mettre en place des programmes capable de « comprendre » ce qu'il voit
ou de discuter. Dès les années 1970, les chercheurs dans ces domaines

17
découvrent que la quantité d'information correspondante est très grande,
bien qu'un enfant l'acquière très rapidement. À cette époque, il n'était
pas envisageable de construire une telle base de données ni un
programme capable de gérer autant d'information.

23-Le paradoxe de Moravec


.

Les chercheurs en intelligence artificielle et en robotique Hans Moravec,


Rodney Brooks et Marvin Minsky mirent en évidence que le
raisonnement de haut niveau est souvent plus facile à reproduire et
simuler par un programme informatique que les aptitudes
sensorimotrices humaines. Ceci peut sembler contre-intuitif du fait qu'un
humain n'a pas de difficulté particulière à effectuer des tâches relevant
de cette dernière catégorie, contrairement à la première.

Par exemple, démontrer des théorèmes ou résoudre des problèmes


géométriques est relativement faisable par les ordinateurs, mais une
tâche plus simple pour un humain, comme reconnaître un visage ou
traverser une pièce sans collision, a longtemps été très compliqué pour
les machines. Ainsi, la recherche en vision par ordinateur et
en robotique a fait peu de progrès au milieu des années 1970.

24-Le cadre et les problèmes de qualification


Les chercheurs en IA (comme John McCarthy) qui se sont servis de
la logique ont découvert qu'ils ne pouvaient pas représenter des
déductions ordinaires qui impliquaient de la planification ou des
raisonnements par défaut sans avoir à modifier la structure de la logique
elle-même. Ils ont dû développer de nouvelles logiques (comme

18
les logiques non monotones et modales) pour essayer de résoudre ces
problèmes.

25-La fin des investissements


Les agences qui ont investi dans la recherche en IA (comme
le gouvernement britannique, la DARPA et le NRC, Conseil américain de
la recherche) deviennent frustrées par le manque de progrès et finissent
par couper pratiquement tous les fonds de recherche fondamentale en
IA. Ce comportement commence dès 1966 quand un rapport de
l'ALPAC paraît critiquer les efforts de traduction automatisée. Après avoir
dépensé 20 millions de dollars, le NRC décide de tout arrêter. En 1973,
le Rapport Lighthill (en) sur l'état de la recherche en IA en Angleterre a
critiqué l'échec lamentable de l'IA à atteindre ses « ambitieux objectifs »
et a conduit au démantèlement de la recherche en IA dans ce pays (Ce
rapport mentionne en particulier le problème d'explosion
combinatoire comme une des raisons des échecs de l'IA). Quant à la
DARPA, elle a été extrêmement déçue par les chercheurs travaillant
dans le programme Speech Understanding Research à Carnegie-
Mellon et a annulé une subvention annuelle de trois millions de dollars.
Vers 1974, trouver des financements pour des projets d'IA était donc
chose rare.

Hans Moravec a attribué la crise aux prédictions irréalistes de ses


collègues. « Beaucoup de chercheurs se sont retrouvés piégés dans un
entrelacs d'exagérations croissantes. » Un autre problème est apparu :
le vote de l'amendement Mansfield en 1969, a mis la DARPA sous une
pression croissante pour qu'elle ne finance que des « recherches
directement applicables, plutôt que des recherches exploratoires
fondamentales ». Un financement pour de l'exploration créative, en roue
libre, tel qu'il avait cours dans les années soixante ne viendrait plus de la
19
DARPA. Au lieu de cela, l'argent était redirigé vers des projets
spécifiques avec des objectifs précis, comme des chars de combat
autonomes ou des systèmes de gestion de batailles.

26-Critiques universitaires
Plusieurs philosophes émettent de fortes objections aux affirmations des
chercheurs en IA. Un des premiers opposants est John Lucas, qui
s'appuie sur le théorème d'incomplétude de Gödel pour contester
l'aptitude des démonstrateurs automatiques de théorèmes à démontrer
certaines affirmations. Hubert Dreyfus ridiculise les promesses non
tenues des années soixante et critique les hypothèses de l'IA,
argumentant que le raisonnement humain avait en fait besoin de très
peu de « traitement symbolique » mais surtout de sentiment
d’embodiment, d'instinct, d'un « savoir-faire » inconscient. L'argument de
la chambre chinoise avancé par John Searle en 1980, tente de montrer
qu'on ne peut pas dire qu'un programme « comprend » les symboles
qu'il utilise (une qualité appelée « intentionnalité »). Si les symboles n'ont
aucun sens pour la machine, on ne peut, dixit Searle, qualifier la
machine de « pensante ».

Ces critiques ne sont pas vraiment prises en considération par les


chercheurs en IA, tant certaines ne visent pas l'essence du problème.
Les questions telles que l'indécidabilité, la complexité inhérente ou la
définition de la culture générale semblent beaucoup plus immédiates et
graves. Ils pensent que la différence entre le « savoir-faire » et
l'« intentionnalité » n'apporte presque rien à un programme
informatique. Minsky dit de Dreyfus et Searle qu'« ils ont mal compris la
question et on devrait les ignorer ». Les critiques de Dreyfus, qui
enseigne au MIT, sont accueillies fraîchement : il a plus tard avoué que
les chercheurs en IA « n'osaient pas manger avec moi de peur que nous
20
soyons vus ensemble ». Joseph Weizenbaum, l'auteur d'ELIZA,
considère, lui, que le comportement de ses collègues à l'égard
de Dreyfus est non professionnel et infantile. Bien qu'il critique
ouvertement les positions de Dreyfus, il fait clairement comprendre que
ce n'est pas [comme cela] qu'il faut traiter quelqu'un.

Weizenbaum commence à avoir de sérieux doutes éthiques à propos de


l'IA quand Kenneth Colby écrit DOCTOR, un agent
conversationnel thérapeute. Weizenbaum est gêné par le fait que Colby
voit en son programme sans esprit un outil thérapeutique sérieux. Une
querelle éclate alors, et la situation empire quand Colby omet de
mentionner la contribution de Weizenbaum au programme. En
1976, Weizenbaum publie Puissance informatique et raison
humaine (en) qui explique que le mauvais usage de l'intelligence
artificielle peut potentiellement conduire à dévaloriser la vie humaine.

27-Perceptrons et la période sombre du


connexionnisme
Un perceptron est un type de réseaux neuronaux introduit en 1958
par Frank Rosenblatt. Comme la plupart des chercheurs en IA de
l'époque, il est optimiste, prédisant qu'« un perceptron pourra être
capable d'apprendre, de prendre des décisions, et de traduire les
langues ». Un programme de recherche dynamique sur ces concepts est
mené dans les années soixante, mais il s'arrête brutalement après la
publication du livre de Minsky et Papert en 1969 intitulé Perceptrons. Ce
livre constate plusieurs limites à ce que les perceptrons peuvent faire et
note plusieurs exagérations dans les prédictions de Frank Rosenblatt.
L'effet du livre est dévastateur : aucune recherche dans le domaine
du connexionnisme ne se fait pendant dix ans. Ce n'est qu'après une

21
décennie, qu'une nouvelle génération de chercheurs se réattaque au
problème, notamment en France, Guy Perennou et Serge Castan.

28-Les élégants : calcul des prédicats, Prolog


et systèmes experts
John McCarthy introduit l'usage de la logique en IA dès 1958, dans
son Advice Taker. En 1963, J. Alan Robinson découvre une méthode
relativement simple pour implémenter la déduction. Pour cela il invente
les concepts de résolution et d'unification. En effet, des implémentations
plus directes, comme celles essayées par McCarthy et ses étudiants à la
fin des années soixante, se sont révélées particulièrement inefficaces,
car les algorithmes requièrent un nombre astronomique d'étapes pour
démontrer des théorèmes très simples. Une utilisation plus fructueuse de
la logique a été développée dans les années 1970 par Alain
Colmerauer et Philippe Roussel à l'université de Marseille-
Luminy et Robert Kowalski (en) à l'université d'Édimbourg qui ont créé
le langage de programmation Prolog. Prolog utilise un sous-ensemble
du calcul des prédicats, les clauses de Horn, qui permet des calculs plus
efficaces. D'autres chercheurs utilisent des règles de production,
notamment les systèmes experts d'Edward Feigenbaum et les logiciels
d'Allen Newell et Herbert Simon qui conduit à Soar et la Théory unifiée
de la cognition [« Unified Theory of Cognition »], 1990.

L'approche logique a été critiquée dès son apparition. Ainsi Hubert


Dreyfus note que les êtres humains se servent rarement de logique
quand ils résolvent des problèmes. Les expériences de psychologues
tels que Peter Wason, Eleanor Rosch, Amos Tversky, Daniel
Kahneman et d'autres corroborent plus ou moins cet avis. McCarthy a
rétorqué que ce que les humains font n'est pas pertinent, expliquant que

22
le but est d'avoir des machines qui peuvent résoudre des problèmes, pas
des machines qui pensent comme des humains. Mais la critique la plus
sévère de l'approche fondée sur la déduction automatique vient du
théoricien de l'informatique Stephen Cook qui montre dans son célèbre
article The Complexity of Theorem-Proving Procedures (« La complexité
des procédures de démonstration de théorèmes ») qu'il n'y a pas de
procédures automatiques efficaces de démonstration de théorèmes sauf
si P = NP.

29-Les brouillons : cadres et scripts


Parmi les critiques de l'approche de McCarthy on trouve ses collègues à
travers le pays au MIT Marvin Minsky, Seymour Papert et Roger
Schank ont essayé de résoudre des problèmes comme la
« compréhension d'une histoire » et la « reconnaissance d'objets » qui
requièrent d'une machine de penser comme une personne. Pour
manipuler des concepts ordinaires comme une « chaise » ou un
« restaurant », elles doivent faire toutes les mêmes hypothèses plus ou
moins logiques que les gens font habituellement. Malheureusement, de
tels concepts imprécis sont difficiles à représenter en logique. Gerald
Sussman observe qu'« utiliser un langage précis pour décrire des
concepts imprécis ne rend pas ces derniers plus précis». Schank décrit
ces approches alogiques comme « brouillonnes (en) », qu'il oppose aux
paradigmes « élégants (en) » utilisés par McCarthy,
Kowalski, Feigenbaum, Newell et Simon.

En 1975, Minsky remarque que beaucoup de ses pairs « brouillons »


utilisent la même approche, à savoir un cadre de travail qui englobe
toutes les hypothèses de culture générale (en) d'un thème donné. Par
exemple, si on manipule le concept « oiseau », une pléiade de faits

23
viennent à l'esprit, ainsi on peut prétendre qu'il vole, qu'il mange des
vers, etc.. On sait que ces faits ne sont pas toujours vrais et que les
déductions à partir de ces faits ne sont pas toutes « logiques », mais ces
ensembles structurés d'hypothèses font partie du contexte de nos
discussions ou de nos pensées. Minsky appelle ces structures des
« cadres ». Schank, quant à lui, introduit une variante des cadres qu'il
appelle des « scripts » afin de répondre à des questions sur des romans
anglophones. Certains affirment que quelques années plus tard
la programmation orientée objet empruntera aux cadres de l'intelligence
artificielle la notion d'« héritage ».

30-Le boom 1980–1987


Dans les années 1980, des programmes d'IA appelés « systèmes
experts » sont adoptés par les entreprises et la connaissance devient le
sujet central de la recherche en IA. Au même moment, le gouvernement
japonais finance massivement l'IA à travers son initiative « ordinateurs
de cinquième génération (en) ». Un autre évènement est la
renaissance du connexionnisme à travers les travaux de John
Hopfield et David Rumelhart.

31-La montée des systèmes experts


Un système expert est un programme qui répond à des questions ou
résout des problèmes dans un domaine de connaissance donné, à l'aide
de règles logiques dérivées de la connaissance des experts humains de
ce domaine. Les tout premiers exemplaires sont développés par Edward
Feigenbaum et ses étudiants. Dendral, commencé en 1965, identifie des
composants chimiques à partir de relevés spectrométriques. Mycin,
développé en 1972, permet de diagnostiquer des maladies infectieuses
du sang. Ces programmes confirment la viabilité de l'approche.
24
Les systèmes experts se limitent volontairement à un petit domaine de
connaissance spécifique (esquivant ainsi le problème de culture
générale) et leur conception simple permet de construire ces logiciels
relativement facilement et de les améliorer une fois déployés.
Finalement, ces programmes se révèlent utiles, car c'est la première fois
que l'intelligence artificielle trouve une application pratique.

En 1980, un système expert appelé Xcon, dont l'objectif est d'optimiser


la configuration des ordinateurs VAX à livrer aux clients, est réalisé
par Carnegie-Mellon pour DEC. Le succès est énorme, car l'entreprise
peut économiser dès 1986 jusqu'à 40 millions de dollars par an. Dès
lors, les sociétés de par le monde commencent à développer et à
déployer leurs systèmes experts et vers 1985 plus d'un milliard de
dollars est dépensé en intelligence artificielle, majoritairement dans les
centres industriels de recherche et développement. Tout un secteur
industriel se crée autour des systèmes experts, dont des constructeurs
de matériel informatique comme Symbolics et LMI (Lisp Machines, Inc.)
et des éditeurs de logiciels tels que IntelliCorp et Aion.

32-La révolution de la connaissance


La puissance des systèmes experts vient de l'expertise qu'ils
contiennent. Ils font partie d'une nouvelle direction de recherche en IA
qui a gagné du terrain dans les années 1970. « Les chercheurs en IA
commençaient à soupçonner — avec réticence, car ça allait contre le
canon scientifique de parcimonie — que l'intelligence puisse très bien
être basée sur la capacité à utiliser une large quantité de savoirs divers
de différentes manières » remarque Pamela McCorduck. « La grande
leçon des années soixante-dix a été que les comportements intelligents
dépendaient énormément du traitement de la connaissance, parfois
d'une connaissance très avancée dans le domaine d'une tâche
25
donnée. » Les systèmes de bases de connaissance et l'ingénierie des
connaissances sont devenus centraux dans la recherche en intelligence
artificielle des années 1980.

Les années 1980 ont aussi vu la naissance de Cyc, la première tentative


d'attaque frontale du problème de culture générale : une base de
données gigantesque a été créée dans le but de contenir tous les faits
triviaux qu'une personne moyenne connaît. Douglas Lenat, qui a
démarré et dirigé le projet, argumente qu'il n'y a aucun raccourci ― le
seul moyen pour des machines de connaître la signification de concepts
humains était de leur apprendre, un concept à la fois, et manuellement.
On s'attend bien sûr à ce que le projet se déroule sur plusieurs
décennies.

33-L'argent est de retour : projets de la


cinquième génération
En 1981, le ministère japonais de l'Économie, du Commerce et de
l'Industrie réserve 850 millions de dollars pour le projet des ordinateurs
de cinquième génération (en). Leur objectif est d'écrire des
programmes et de construire des machines qui peuvent tenir des
conversations, traduire, interpréter des images et raisonner comme des
êtres humains. Au grand dam des tenants de l'approche
brouillonne (en), ils choisissent Prolog comme langage informatique
principal de leur projet, qu'ils modifient d'ailleurs assez profondément
pour qu'il s'adapte à leur besoin.

D'autres pays répondent avec de nouveaux programmes équivalents. Le


Royaume-Uni démarre le projet Alvey (en) de 350 millions de livres. Un
consortium d'entreprises américaines forment la Microelectronics and
Computer Technology Corporation (ou MCC) pour financer des projets

26
en informatique et en intelligence artificielle à grande échelle.
La DARPA a aussi réagi en fondant la Strategic Computing
Initiative (Initiative Informatique Stratégique) et en triplant ses
investissements en IA entre 1984 et 1988.

Un réseau d'Hopfield à quatre nœuds.

34-La renaissance du connexionnisme


En 1982, le physicien John Hopfield a démontré qu'un certain type de
réseau neuronal (désormais appelé un « réseau de Hopfield ») pouvait
apprendre et traiter de l'information d'une manière totalement inédite. Au
cours de la même période, David Rumelhart a rendu populaire une
nouvelle méthode de formation des réseaux neuronaux appelée
« rétropropagation du gradient » (découverte quelques années avant
par Paul Werbos). Ces deux nouvelles découvertes ont fait renaître le
champ du connexionnisme qui avait été largement abandonné depuis
1970.

Le tout jeune domaine a été unifié et inspiré par l'apparence


du Traitement Parallèle Distribué de 1986 — une collection d'articles en
deux volumes éditée par Rumelhart et le psychologue McClelland. Les
réseaux neuronaux deviendront un succès commercial dans les années
1990, quand on commencera à les utiliser comme moteurs d'applications
telles que la reconnaissance optique de caractères et la reconnaissance
vocale.

27
35-La crise : le second hiver de l'IA
1987−1993
La fascination de la communauté économique pour l'intelligence
artificielle a gonflé puis chuté dans les années 1980 en suivant le
schéma classique d'une bulle économique. L'effondrement de l'IA a eu
lieu au niveau de la perception que les investisseurs et les agences
gouvernementales en avaient — le domaine scientifique continue ses
avancées malgré les critiques. Rodney Brooks et Hans Moravec,
chercheurs dans le domaine voisin de la robotique, plaident pour une
approche entièrement neuve de l'intelligence artificielle.

36-Une seconde hibernation


L'expression « hiver de l'IA » a circulé parmi les chercheurs qui, ayant
déjà vécu les coupes de budget de 1974, réalisent avec inquiétude que
l'excitation autour des systèmes experts est hors de contrôle et qu'il y
aurait sûrement de la déception derrière. Leurs craintes sont
effectivement fondées : entre la fin des années 1980 et le début des
années 1990, l'intelligence artificielle a subi une série de coupes
budgétaires.

Les premiers indices d'une tempête à venir ont été le brusque


effondrement du marché du matériel informatique spécialiste de
l'intelligence artificielle en 1987. Les ordinateurs de bureau
d'Apple et IBM ont progressivement amélioré leur vitesse et leur
puissance et en 1987 ils deviennent plus performants que les fleurons du
marché, tels que la meilleure machine Lisp de Symbolics. Il n'y a donc
plus aucune raison de les acheter. Du jour au lendemain, une industrie
d'un demi-milliard de dollars disparaît totalement.

28
Finalement, les premiers systèmes experts à succès comme le Xcon ont
un coût de maintenance trop élevé. Ils sont difficiles à mettre à jour, ils
ne peuvent pas apprendre, ils sont trop « fragiles (en) » (ainsi, ils
peuvent faire des erreurs grotesques quand les paramètres sortent des
valeurs habituelles), et s'empêtrent dans des problèmes (tels que le
problème de qualification). Les systèmes experts se sont révélés utiles,
mais uniquement dans des contextes très spécifiques.

À la fin des années 1980, la Strategic Computing Initiative de la DARPA


a complétement et abruptement coupé ses subsides à l'intelligence
artificielle. Une nouvelle direction de la DARPA ayant conclu que
l'intelligence artificielle n'est plus de « dernière mode », elle a redirigé les
subventions vers des projets plus propices à des résultats rapides.

Vers 1991, les objectifs impressionnants listés en 1981 par le Japon


pour ses Ordinateurs de cinquième génération n'ont pas été atteints.
D'ailleurs certains d'entre eux, comme le fait de « mener une
conversation ordinaire » ne l'ont toujours pas été vingt ans plus tard.
Comme pour d'autres projets en intelligence artificielle, la barre a été
placée beaucoup trop haut.

37-L'importance du corps : Nouvelle


intelligence artificielle et embodiment
À la fin des années 1980, plusieurs chercheurs plaident pour une
approche de l'intelligence artificielle complétement inédite, centrée sur la
robotique. Ils pensent que pour mettre en évidence une vraie
intelligence, une machine doit avoir conscience de son corps — elle doit
percevoir, bouger, survivre et évoluer dans le monde. Ils expliquent que
ces capacités senso-motrices sont essentielles aux capacités de plus
haut niveau telles que le raisonnement de culture générale et que le

29
raisonnement abstrait est en fait la capacité humaine
la moins intéressante ou importante (cf. le paradoxe de Moravec). Ils
défendent une intelligence « par la base. »

L'approche ravive des concepts nés de la cybernétique et de


la régulation qui ont perdu de leur impact depuis les années soixante. Un
des précurseurs, David Marr, est arrivé au MIT à la fin des années 1970
fort de réussites passées en neuroscience théorique afin d'y diriger le
groupe étudiant la vision. Il réfute toutes les approches symboliques (à la
fois la logique de McCarthy et les cadres de Minsky), arguant que
l'intelligence artificielle a besoin de comprendre la machinerie physique
de la vision par le bas avant qu'un traitement symbolique puisse être mis
en place. Son travail a été brusquement interrompu par la leucémie qui
l'a frappé en 1980.

Dans un article de 1990 intitulé Elephants Don't Play Chess (« Les


éléphants ne jouent pas aux échecs »), le chercheur en
robotique Rodney Brooks vise directement l'hypothèse de système
symbolique physique, expliquant que les symboles ne sont pas toujours
nécessaires car « le monde est son propre modèle et c'est le meilleur. Il
est toujours parfaitement à jour. Il contient toujours tous les détails
nécessaires. Ce qu'il faut, c'est le mesurer correctement de manière
répétée ». Dans les années 1980 et 1990, beaucoup
de cogniticiens rejettent également le modèle de traitement symbolique
de l'esprit en expliquant que le corps est essentiel dans le raisonnement,
une thèse appelée embodiment.

38-L'intelligence artificielle depuis 1993


Le champ de l'intelligence artificielle, avec plus d'un demi-siècle derrière
lui, a finalement réussi à atteindre certains de ses plus anciens objectifs.

30
On a commencé à s'en servir avec succès dans le secteur
technologique, même sans avoir vraiment été mise en avant. Quelques
réussites sont venues avec la montée en puissance des ordinateurs et
d'autres ont été obtenues en se concentrant sur des problèmes isolés
spécifiques et en les approfondissant avec les plus hauts standards
d'intégrité scientifique. Néanmoins, la réputation de l'IA, dans le monde
des affaires au-moins, est loin d'être parfaite. En interne, on n'arrive pas
à vraiment expliquer les raisons de l'échec de l'intelligence artificielle à
répondre au rêve d'un niveau d'intelligence équivalent à l'Homme qui a
captivé l'imagination du monde dans les années 1960. Tous ces facteurs
expliquent la fragmentation de l'IA en de nombreux sous-domaines
concurrents dédiés à une problématique ou une voie précise, allant
même parfois jusqu'à choisir un nom qui évite l'expression désormais
souillée d'« intelligence artificielle ». L'IA a du coup été à la fois plus
prudente mais aussi plus fructueuse que jamais.

39-Verrous qui sautent et loi de Moore


Le 11 mai 1997, Deep Blue est devenu le premier système informatique
de jeu d'échecs à battre le champion du monde en titre, Garry Kasparov.
En 2005, un robot de Stanford a remporté le DARPA Grand
Challenge en conduisant de manière autonome pendant 131 milles sur
une piste de désert sans avoir fait de reconnaissance préalable. Deux
ans plus tard, une équipe de Carnegie-Mellon remporte le DARPA Urban
Challenge, cette fois en naviguant en autonome pendant 55 milles dans
un environnement urbain tout en respectant les conditions de trafic et le
code de la route. En février 2011, dans un match de démonstration
du jeu télévisé Jeopardy!, les deux plus grands champions de Jeopardy!,
Brad Rutter et Ken Jennings ont été battus avec une marge confortable

31
par le système de questions-réponses conçu par IBM, au centre de
recherche Watson.

Ces succès ne reposent pas sur de nouveaux paradigmes


révolutionnaires, mais sur une application minutieuse des techniques
d'ingénierie et sur la puissance phénoménale des ordinateurs. En effet,
la machine Deep Blue est 10 millions de fois plus rapide que la Ferranti
Mark I à qui Christopher Strachey a appris à jouer aux échecs en 1951.
Cette augmentation spectaculaire suit la loi de Moore, qui prédit que la
vitesse et la capacité de mémoire des ordinateurs doublent tous les deux
ans. N'est-on pas en train de faire sauter le verrou de la « puissance
informatique » ?

40-Agents intelligents
Un nouveau paradigme, les « agents intelligents », s'est
progressivement imposé au cours des années 1990. Bien que les
premiers chercheurs aient proposé des approches modulaires de type
« diviser pour régner » en intelligence artificielle, l'agent intelligent n'a
pas atteint sa forme moderne avant que Judea Pearl, Allen Newell et
d'autres n'y amènent des concepts de théorie de la décision et
d'économie. Quand la définition économique de l'agent rationnel s'est
combinée à la définition informatique de l'objet ou encore du module, le
paradigme de l'agent intelligent s'installe.

Un agent intelligent est un système qui perçoit son environnement et


entreprend des actions qui maximisent ses chances de réussite. Grâce à
cette définition, de simple programmes qui résolvent des problèmes
spécifiques sont des « agents intelligents », tout comme le sont des
êtres humains et des organisations d'êtres humains comme
les entreprises. Le paradigme de l'agent intelligent définit l'intelligence

32
artificielle comme l'« étude des agents intelligents ». C'est une
généralisation de certaines des premières définitions de l'IA : elle va au-
delà de l'étude de l'intelligence humaine ; elle étudie tout type
d'intelligence.

Ce paradigme a ouvert aux chercheurs la voie vers l'étude de problèmes


isolés ; les solutions trouvées sont à la fois vérifiables et utiles. Un
langage commun permet de décrire les problèmes et partager leurs
solutions entre les uns et les autres, et d'autres domaines ont également
utilisé ce concept d'agents abstraits, comme l'économie et la régulation.
On pense qu'une « architecture agent » (comme la Soar de Newell)
permettrait un jour à des chercheurs de construire des systèmes plus
polyvalents et intelligents à base d'agents intelligents.

41-Victoire des élégants


Les chercheurs en intelligence artificielle développent et utilisent des
outils mathématiques sophistiqués comme jamais auparavant. Ils
prennent conscience que de nombreux problèmes que l'intelligence
artificielle doit résoudre ont déjà été traités dans d'autres domaines
comme les mathématiques, l'économie ou la recherche opérationnelle.
En particulier, les mathématiques permettent à la fois d'améliorer la
collaboration avec des disciplines plus solidement fondées et conduisent
à des fertilisations croisées et à la collecte de données mesurables et
démontrables ; l'intelligence artificielle progresse vers l'« orthodoxie
scientifique ». Russell et Norvig 2003 qualifie cela de rien de moins
qu'une « révolution » et de la « victoire des élégants (en) ».

Le livre-charnière de 1988 de Judea Pearl intègre les probabilités et


la théorie de la décision avec les réseaux bayésiens, les modèles de
Markov cachés, la théorie de l'information, le calcul stochastique et plus

33
généralement l'optimisation mathématique. Des descriptions
mathématiques s'appliquent aux paradigmes primordiaux de
l'« intelligence computationnelle » comme les réseaux neuronaux et
les algorithmes évolutionnistes.

42-L'IA, travailleur de l'ombre


Des algorithmes initialement développés par des chercheurs en
intelligence artificielle commencent à faire partie de systèmes plus
larges. L'IA a résolu beaucoup de problèmes très complexes et leurs
solutions ont servi à travers tout le secteur technologique, tels que
l'exploration de données, la robotique industrielle, la logistique,
la reconnaissance vocale, des applications bancaires, des diagnostics
médicaux, la reconnaissance de formes, et le moteur de recherche
de Google.

Le domaine de l'intelligence artificielle n'a quasiment reçu aucun crédit


pour ces réussites. Certaines de ses plus grandes innovations ont été
réduites au statut d'un énième item dans la boîte à outils de
l'informatique. Nick Bostrom explique : « Beaucoup d'IA de pointe a filtré
dans des applications générales, sans y être officiellement rattachée car
dès que quelque chose devient suffisamment utile et commun, on lui
retire l'étiquette d'IA. »

Beaucoup de chercheurs en intelligence artificielle dans les années


quatre-vingt-dix ont volontairement appelé leurs études par d'autres
noms, tels que l'informatique, les systèmes à base de connaissances,
les systèmes cognitifs ou l'intelligence computationnelle. Cela peut être
partiellement car ils considèrent leur domaine comme fondamentalement
différent de l'IA, mais aussi car ces nouveaux noms facilitent les
financements. Dans le secteur commercial au-moins, les promesses non

34
tenues de l'hiver de l'IA continuent de hanter la recherche en intelligence
artificielle, comme le New York Times le rapporte en 2005 : « Les
scientifiques en informatique et les ingénieurs logiciel ont évité
l'expression 'intelligence artificielle' par crainte d'être considérés comme
de doux illuminés rêveurs. »

43-Mais où est HAL 9000


En 1968, Arthur C. Clarke et Stanley Kubrick imaginent que dès
l'année 2001, une machine aura une intelligence comparable, voire
excédant les capacités des êtres humains. Le personnage qu'ils
créent, HAL 9000, s'appuie sur une opinion répandue chez nombre de
chercheurs en intelligence artificielle à savoir qu'une telle machine
existera en 2001.

Marvin Minsky s'interroge : « pourquoi n'avons-nous pas eu HAL en


2001? » et pense que des problèmes centraux comme le raisonnement
de culture générale, sont négligés, car la plupart des chercheurs se
concentrent sur des aspects tels que des applications commerciales des
réseaux neuronaux ou des algorithmes génétiques. John McCarthy, d'un
autre côté, blâme encore le problème de qualification. Pour Ray
Kurzweil, le problème réside dans le manque de puissance de calcul et,
en s'appuyant sur la loi de Moore, il prédit que les machines avec une
intelligence comparable à l'humain arriveront vers 2030. Pour d'autres
chercheurs, une intelligence artificielle forte (ou intelligence artificielle
générale) ne serait possible que dans plusieurs décennies, voire
plusieurs siècles.

En pratique, on constate l'arrivée de l'assistant personnel


« intelligent » Apple Siri en 2007, Google Now en 2012 et Microsoft

35
Cortana en 2014. Mais ces assistants restent du domaine de
l'intelligence artificielle faible.

La recherche en intelligence artificielle en France débute vers la fin des


années soixante-dix, avec notamment le GR 22 (appelé aussi groupe de
recherche Claude-François Picard où travaillent Jacques Pitrat et Jean-
Louis Laurière) à Paris, le GIA (sic) (autour d'Alain Colmerauer) à
Marseille, le LIMSI à Orsay, le CRIN à Nancy, le CERFIA à Toulouse et
le Laboria (autour de Gérard Huet et dans un domaine très fondamental)
à Rocquencourt.

Un congrès national annuel Reconnaissance de formes et intelligence


artificielle est créé en 1979 à Toulouse. En lien avec l'organisation de la
conférence IJCAI (en) à Chambéry en 1993, et la création d'un
GRECO-PRC intelligence artificielle, en 1983, il donne naissance à une
société savante, l'AFIA en 1989, qui, entre autres, organise des
conférences nationales en intelligence artificielle. C'est de cette école
française qu'est issu Yann Le Cun.

44-Depuis 2010 : un nouvel essor à partir des


données massives et d’une nouvelle puissance
de calcul
Deux facteurs expliquent le nouvel essor de la discipline aux alentours
de 2010.

- L’accès tout d’abord à des volumes massifs des données. Pour pouvoir
utiliser des algorithmes de classification d’image et de reconnaissance
d’un chat par exemple, il fallait auparavant réaliser soi-même un
échantillonnage. Aujourd’hui, une simple recherche sur Google permet
d’en trouver des millions.

36
- Ensuite la découverte de la très grande efficacité des processeurs de
cartes graphiques des ordinateurs pour accélérer le calcul des
algorithmes d’apprentissage. Le processus étant très itératif, cela pouvait
prendre des semaines avant 2010 pour traiter l’intégralité d’un
échantillonnage. La puissance de calcul de ces cartes, (capables de plus
de mille milliards d’opérations par seconde) a permis un progrès
considérable pour un coût financier restreint (moins de 1000 euros la
carte).

Ce nouvel attirail technologique a permis quelques succès publics


significatifs et a relancé les financements : en 2011, Watson, l’IA d’IBM,
remportera les parties contre 2 champions du « Jeopardy ! ». En 2012,
Google X (laboratoire de recherche de Google) arrivera à faire
reconnaître à une IA des chats sur une vidéo. Plus de 16 000
processeurs ont été utilisés pour cette dernière tâche, mais le potentiel
est alors extraordinaire : une machine arrive à apprendre à distinguer
quelque chose. En 2016, AlphaGO (IA de Google spécialisée dans le jeu
de Go) battra le champion d’Europe (Fan Hui) et le champion du monde
(Lee Sedol) puis elle-même (AlphaGo Zero). Précisons que le jeu de Go
a une combinatoire bien plus importante que les échecs (plus que le
nombre de particules dans l’univers) et qu’il n’est pas possible d’avoir
des résultats aussi significatifs en force brute (comme pour Deep Blue
en 1997).

D’où vient ce miracle ? D’un changement complet de paradigme par


rapport aux systèmes experts. L’approche est devenue inductive : il ne
s’agit plus de coder les règles comme pour les systèmes experts, mais
de laisser les ordinateurs les découvrir seuls par corrélation et
classification, sur la base d’une quantité massive de données.

37
Parmi les techniques d’apprentissage machine (machine learning), c’est
celle de l’apprentissage profond (deep learning) qui paraît la plus
prometteuse pour un certain nombre d’application (dont la
reconnaissance de voix ou d’images). Dès 2003, Geoffrey Hinton (de
l’Université de Toronto), Yoshua Bengio (de l’Université de Montréal) et
Yann LeCun (de l’Université de New York) avaient décidé de démarrer
un programme de recherche pour remettre au goût du jour les réseaux
neuronaux. Des expériences menées simultanément à Microsoft, Google
et IBM avec l’aide du laboratoire de Toronto de Hinton ont alors
démontré que ce type d’apprentissage parvenait à diminuer de moitié les
taux d’erreurs pour la reconnaissance vocale. Des résultats similaires
ont été atteints par l’équipe de Hinton pour la reconnaissance d’image.

Du jour au lendemain, une grande majorité des équipes de recherche se


sont tournées vers cette technologie aux apports incontestables. Ce type
d’apprentissage a aussi permis des progrès considérables pour la
reconnaissance de texte, mais, d’après les experts comme Yann LeCun,
il y a encore beaucoup de chemin à parcourir pour produire des
systèmes de compréhension de texte. Les agents conversationnels
illustrent bien ce défi : nos smartphones savent déjà retranscrire une
instruction mais ne parviennent pas la contextualiser pleinement et à
analyser nos intentions.

38
Bibliographie :

1. McCorduck 2004
2. Kurzweil 2005 maintient ↑ Turing 1950, p. 460
3. McCorduck 2004, McCorduck 2004 ; Russell et Norvig 2003,
4. McCorduck 2004, ; Buchanan 2005, McCorduck 2004,
5. Butler 1863
6. Needham 1986,

39

Vous aimerez peut-être aussi