Vous êtes sur la page 1sur 230

Intelligence

artificielle
recherche de moyens susceptibles de doter
les systèmes informatiques de capacités
intellectuelles comparables à celles des
êtres humains

Pour les articles homonymes, voir A.I.


Intelligence artificielle (film), IA .
Les assistants personnels intelligents sont l'une des
applications concrètes de l'intelligence artificielle dans
les années 2010.

L'intelligence artificielle (IA) est


« l'ensemble des théories et des techniques
mises en œuvre en vue de réaliser des
machines capables de simuler
l'intelligence »[1]. Elle correspond donc à un
ensemble de concepts et de technologies
plus qu'à une discipline autonome
constituée[2]. D'autres, remarquant la
définition peu précise de l'IA, notamment la
CNIL, introduisent ce sujet comme « le
grand mythe de notre temps »[3].
Souvent classée dans le groupe des
sciences cognitives, elle fait appel à la
neurobiologie computationnelle
(particulièrement aux réseaux neuronaux),
à la logique mathématique (partie des
mathématiques et de la philosophie) et à
l'informatique. Elle recherche des
méthodes de résolution de problèmes à
forte complexité logique ou algorithmique.
Par extension elle désigne, dans le langage
courant, les dispositifs imitant ou
remplaçant l'homme dans certaines mises
en œuvre de ses fonctions cognitives[4].

Ses finalités et son développement


suscitent, depuis toujours, de nombreuses
interprétations, fantasmes ou inquiétudes
s'exprimant tant dans les récits ou films de
science-fiction que dans les essais
philosophiques. La réalité semble encore
tenir l'intelligence artificielle loin des
performances du vivant ; ainsi, l'IA reste
encore bien inférieure au chat dans toutes
ses aptitudes naturelles[5].

Définition
Le terme « intelligence artificielle », créé
par John McCarthy, est souvent abrégé par
le sigle « IA » (ou « AI » en anglais, pour
Artificial Intelligence). Il est défini par l’un de
ses créateurs, Marvin Lee Minsky, comme
« la construction de programmes
informatiques qui s’adonnent à des tâches
qui sont, pour l’instant, accomplies de
façon plus satisfaisante par des êtres
humains car elles demandent des
processus mentaux de haut niveau tels
que : l’apprentissage perceptuel,
l’organisation de la mémoire et le
raisonnement critique »[a],[6]. On y trouve
donc le côté « artificiel » atteint par l'usage
des ordinateurs ou de processus
électroniques élaborés et le côté
« intelligence » associé à son but d'imiter le
comportement. Cette imitation peut se
faire dans le raisonnement, par exemple
dans les jeux ou la pratique des
mathématiques, dans la compréhension
des langues naturelles, dans la perception :
visuelle (interprétation des images et des
scènes), auditive (compréhension du
langage parlé) ou par d'autres capteurs,
dans la commande d'un robot dans un
milieu inconnu ou hostile.

Même si elles respectent globalement la


définition de Minsky, il existe un certain
nombre de définitions différentes de l'IA qui
varient sur deux points fondamentaux[7] :

les définitions qui lient l'IA à un aspect


humain de l'intelligence, et celles qui la
lient à un modèle idéal d'intelligence, non
forcément humaine, nommée rationalité ;
les définitions qui insistent sur le fait que
l'IA a pour but d'avoir toutes les
apparences de l'intelligence (humaine ou
rationnelle), et celles qui insistent sur le
fait que le fonctionnement interne du
système d'IA doit ressembler également
à celui de l'être humain et être au moins
aussi rationnel.

Historique
Création et développement

Article détaillé : Histoire de l'intelligence


artificielle.
Cette section ne cite pas suffisamment
ses sources (mai 2019).
Pour l'améliorer, ajoutez des références
vérifiables [comment faire ?] ou le
modèle {{Référence nécessaire}} sur les
passages nécessitant une source.

Historiquement, l'idée d'intelligence


artificielle semble émerger dans les années
1950 quand Alan Turing se demande si une
machine peut « penser ». Dans un article
« Computing Machinery and Intelligence »
(Mind, octobre 1950)[8] Turing explore ce
problème et propose une expérience
(maintenant dite test de Turing) visant à
trouver à partir de quand une machine
deviendrait « consciente ». Il développe
ensuite cette idée dans plusieurs forums,
dans la conférence « L'intelligence de la
machine, une idée hérétique »[9], dans la
conférence qu'il donne à la BBC
3e programme le 15 mai 1951 « Les
calculateurs numériques peuvent-ils
penser ? »[10] ou la discussion avec M.H.A.
Newman, Sir Geoffrey Jefferson et R.B.
Braithwaite les 14 et 23 janvier 1952 sur le
thème « Les ordinateurs peuvent-ils
penser ? »[11].

Une autre origine probable est la


publication, en 1949, par Warren Weaver
d'un mémorandum sur la traduction
automatique des langues[12] qui suggère
qu'une machine puisse faire une tâche qui
relève typiquement de l'intelligence
humaine.

Le développement des technologies


informatiques (puissance de calcul) aboutit
ensuite à plusieurs avancées :

dans les années 1980, l'apprentissage


automatique (« Machine Learning ») se
développe. L'ordinateur commence à
déduire des « règles à suivre » rien qu'en
analysant des données ;
parallèlement, des algorithmes
« apprenants » sont créés qui préfigurent
les futurs réseaux de neurones,
l'apprentissage par renforcement, les
machines à vecteurs de support, etc.).
Ceci permet par exemple en mai 1997 à
l’ordinateur Deep Blue de battre Garry
Kasparov au jeu d'échecs ;
l'intelligence artificielle devient un
domaine de recherche international,
marquée par une conférence au
Dartmouth College à l’été 1956[13] à
laquelle assistaient ceux qui vont
marquer la discipline ;
depuis les années 1980, la recherche se
fait principalement aux États-Unis,
notamment à l'université Stanford sous
l'impulsion de John McCarthy, au MIT
sous celle de Marvin Minsky, à
l'université Carnegie-Mellon sous celle de
Allen Newell et Herbert Simon et à
l'université d'Édimbourg sous celle de
Donald Michie, en Europe et en Chine. En
France, l'un des pionniers est Jacques
Pitrat ;
dans les années 2000, le Web 2.0, le big
data et de nouvelles puissances et
infrastructures de calcul, permettent à
certains ordinateurs d'explorer des
masses de données sans précédent ;
c'est l'apprentissage profond (« deep
learning »).

Les bornes de ce domaine varient, ainsi


optimiser un itinéraire était considéré
comme un problème d'intelligence
artificielle dans les années 1950, et n'est
plus considéré aujourd’hui que comme un
simple problème d'algorithme[14].

Vers 2015, le secteur de l'intelligence


artificielle cherche à relever trois défis : la
perception de l'environnement, la
compréhension d’une situation et la prise
de décision par une IA[15]. Produire et
organiser des données massives et de
qualité, c'est-à-dire corrélées, complètes,
qualifiées (sourcées, datées,
géoréférencées...), historisées est un autre
enjeu. Et la capacité déductive et de
généralisation pertinente d'un ordinateur, à
partir de peu de données ou d'un faible
nombre d'évènements, est un autre objectif,
plus lointain[15].

Entre 2010 et 2017, les investissements


auraient été décuplés, dépassant de 5
milliards d’euros en 2017[16].

Précurseurs

Si les progrès de l’intelligence artificielle


sont récents, ce thème de réflexion est tout
à fait ancien, et il apparaît régulièrement au
cours de l’histoire. Les premiers signes
d’intérêt pour une intelligence artificielle et
les principaux précurseurs de cette
discipline sont les suivants.
Automates

Article connexe : Automate.

Une des plus anciennes traces du thème de


« l’homme dans la machine » date de 800
avant notre ère, en Égypte. La statue du
dieu Amon levait le bras pour désigner le
nouveau pharaon parmi les prétendants qui
défilaient devant lui, puis elle « prononçait »
un discours de consécration. Les Égyptiens
étaient probablement conscients de la
présence d’un prêtre actionnant un
mécanisme et déclarant les paroles
sacrées derrière la statue, mais cela ne
semblait pas être pour eux contradictoire
avec l’incarnation de la divinité. Vers la
même époque, Homère, dans L'Iliade (XVIII,
370–421), décrit les automates réalisés par
le dieu forgeron Héphaïstos : des trépieds
munis de roues en or, capables de porter
des objets jusqu’à l’Olympe et de revenir
seuls dans la demeure du dieu ; ou encore,
deux servantes forgées en or qui l’assistent
dans sa tâche. De même, le Géant de
bronze Talos, gardien des rivages de la
Crète, était parfois considéré comme une
œuvre du dieu.

Vitruve, architecte romain, décrit l’existence


e er
entre le et le siècle avant notre ère,
d’une école d’ingénieurs fondée par
Ctesibius à Alexandrie, et concevant des
mécanismes destinés à l’amusement tels
des corbeaux qui chantaient. Héron
L'Ancien décrit dans son traité
« Automates », un carrousel animé grâce à
la vapeur et considéré comme anticipant
les machines à vapeur. Les automates
disparaissent ensuite jusqu’à la fin du
Moyen Âge. On a prêté à Roger Bacon la
conception d'automates doués de la parole;
en fait, probablement de mécanismes
simulant la prononciation de certains mots
simples.

Léonard de Vinci a construit en 1515 un


automate en forme de lion pour amuser le
roi de France, François I[17]. Gio Battista
Aleotti et Salomon de Caus, eux, ont
construit des oiseaux artificiels et
chantants, des flûtistes mécaniques, des
nymphes, des dragons et des satyres
animés pour égayer des fêtes
aristocratiques, des jardins et des grottes.
René Descartes, lui, aurait conçu en 1649
un automate qu’il appelait « ma fille
Francine ». Il conduit par ailleurs une
réflexion d’un modernisme étonnant sur les
différences entre la nature des automates,
et celles d’une part des animaux (pas de
différence) et d’autre part celle des
hommes (pas d’assimilation). Ces analyses
en font le précurseur méconnu d’un des
principaux thèmes de la science-fiction :
l'indistinction entre le vivant et l’artificiel,
entre les hommes et les robots, les
androïdes ou les intelligences artificielles.

Le canard artificiel de Vaucanson (1738).

Jacques de Vaucanson a construit en 1738


un « canard artificiel de cuivre doré, qui
boit, mange, cancane, barbote et digère
comme un vrai canard ». Il était possible de
programmer les mouvements de cet
automate, grâce à des pignons placés sur
un cylindre gravé, qui contrôlaient des
baguettes traversant les pattes du canard.
L’automate a été exposé pendant plusieurs
années en France, en Italie et en Angleterre,
et la transparence de l’abdomen permettait
d’observer le mécanisme interne. Le
dispositif permettant de simuler la
digestion et d’expulser une sorte de bouillie
verte fait l’objet d’une controverse. Certains
commentateurs estiment que cette bouillie
verte n’était pas fabriquée à partir des
aliments ingérés, mais préparée à l’avance.
D’autres estiment que cet avis n’est fondé
que sur des imitations du canard de
Vaucanson. Malheureusement, l’incendie
du musée de Nijni Novgorod en Russie vers
1879 détruisit cet automate[18].
Les artisans Pierre et Louis Jaquet-Droz
fabriquèrent parmi les meilleurs automates
fondés sur un système purement
mécanique, avant le développement des
dispositifs électromécaniques. Certains de
ces automates, par un système de cames
multiples, étaient capables d'écrire un petit
billet (toujours le même). Enfin, Les Contes
d'Hoffmann (et ballet) L'Homme au sable
décrit une poupée mécanique dont
s'éprend le héros.

Pensée automatique

Parmi les premiers essais de formalisation


de la pensée, les tentatives suivantes
peuvent être citées :
Raymond Lulle, missionnaire, philosophe,
e
et théologien espagnol du siècle, a
fait la première tentative pour engendrer
des idées par un système mécanique. Il
combinait aléatoirement des concepts
grâce à une sorte de règle à calcul, un
zairja, sur laquelle pivotaient des disques
concentriques gravés de lettres et de
symboles philosophiques. Il baptisa sa
méthode Grand Art (Ars Magna), fondée
sur l’identification de concepts de base,
puis leur combinaison mécanique soit
entre eux, soit avec des idées connexes.
Raymond Lulle appliqua sa méthode à la
métaphysique, puis à la morale, à la
médecine et à l’astrologie. Mais il
n’utilisait que la logique déductive, ce qui
ne permettait pas à son système
d’acquérir un apprentissage, ni
davantage de remettre en cause ses
principes de départ : seule la logique
inductive le permet.
e
Gottfried Wilhelm Leibniz, au siècle,
a imaginé un calcul pensant (calculus
rationator), en assignant un nombre à
chaque concept. La manipulation de ces
nombres aurait permis de résoudre les
questions les plus difficiles, et même
d’aboutir à un langage universel. Leibniz
a toutefois démontré que l’une des
principales difficultés de cette méthode,
également rencontrée dans les travaux
modernes sur l’intelligence artificielle,
est l’interconnexion de tous les concepts,
ce qui ne permet pas d’isoler une idée de
toutes les autres pour simplifier les
problèmes liés à la pensée.
George Boole a inventé la formulation
mathématique des processus
fondamentaux du raisonnement, connue
sous le nom d’algèbre de Boole. Il était
conscient des liens de ses travaux avec
les mécanismes de l’intelligence, comme
le montre le titre de son principal
ouvrage paru en 1854 : Les Lois de la
pensée (The laws of thought), sur
l’algèbre booléenne.
Gottlob Frege perfectionna le système de
Boole en formalisant le concept de
prédicat, qui est une entité logique soit
vraie, soit fausse (toute maison a un
propriétaire), mais contenant des
variables non logiques, n’ayant en soit
aucun degré de vérité (maison,
propriétaire). Cette formalisation eut une
grande importance puisqu'elle permit de
démontrer des théorèmes généraux,
simplement en appliquant des règles
typographiques à des ensembles de
symboles. La réflexion en langage
courant ne portait plus que sur le choix
des règles à appliquer. Par ailleurs,
l’utilisateur joue un rôle important
puisqu'il connaît le sens des symboles
qu’il a inventés et ce sens[b] n'est pas
toujours formalisé, ce qui ramène au
problème de la signification en
intelligence artificielle, et de la
subjectivité des utilisateurs.
Bertrand Russell et Alfred North
Whitehead publièrent au début du
e
siècle un ouvrage intitulé Principia
mathematica, dans lequel ils résolvent
des contradictions internes à la théorie
de Gottlob Frege. Ces travaux laissaient
espérer d’aboutir à une formalisation
complète des mathématiques.
Kurt Gödel démontre au contraire que les
mathématiques resteront une
construction ouverte, en publiant en
1931 un article intitulé « Des propositions
formellement indécidables contenues
dans les Principia mathematica et autres
systèmes similaires ». Sa démonstration
est qu’à partir d’une certaine complexité
d’un système, on peut y créer plus de
propositions logiques qu’on ne peut en
démontrer vraies ou fausses.
L’arithmétique, par exemple, ne peut
trancher par ses axiomes si on doit
accepter des nombres dont le carré soit
-1. Ce choix reste arbitraire et n’est en
rien lié aux axiomes de base. Le travail
de Gödel suggère qu’on pourra créer
ainsi un nombre arbitraire de nouveaux
axiomes, compatibles avec les
précédents, au fur et à mesure qu’on en
aura besoin. Si l'arithmétique est
démontrée incomplète, le calcul des
prédicats (logique formelle) est au
contraire démontré par Gödel comme
complet.
Alan Turing invente des machines
abstraites et universelles (rebaptisées
les machines de Turing), dont les
ordinateurs modernes sont considérés
comme des concrétisations. Il démontre
l’existence de calculs qu’aucune machine
ne peut faire (un humain pas davantage,
dans les cas qu'il cite), sans pour autant
que cela constitue pour Turing un motif
pour douter de la faisabilité de machines
pensantes répondant aux critères du test
de Turing.
Irving John Good[19], Myron Tribus et E.T.
Jaynes ont décrit de façon très claire les
principes assez simples d’un robot à
logique inductive utilisant les principes de
l’inférence bayésienne pour enrichir sa
base de connaissances sur la base du
Théorème de Cox-Jaynes. Ils n’ont
malheureusement pas traité la question
de la façon dont on pourrait stocker ces
connaissances sans que le mode de
stockage entraîne un biais cognitif. Le
projet est voisin de celui de Raymond
Lulle, mais fondé cette fois-ci sur une
logique inductive, et donc propre à
résoudre quelques problèmes ouverts.
Robot à logique inductive[20].
Des chercheurs comme Alonzo Church
ont posé des limites pratiques aux
ambitions de la raison, en orientant la
recherche (Herbert Simon, Michael
Rabin, Stephen Cook) vers l’obtention
des solutions en temps fini, ou avec des
ressources limitées, ainsi que vers la
catégorisation des problèmes selon des
classes de difficulté (en rapport avec les
travaux de Cantor sur l’infini) [réf. souhaitée].

Faits marquants depuis les années


2000
L'intelligence artificielle est un sujet
e
d'actualité au siècle. En 2004, l'Institut
Singularity a lancé une campagne Internet
appelée « Trois lois dangereuses » : « Three
Laws Unsafe » (en lien avec les trois lois
d'Asimov) pour sensibiliser aux questions
de la problématique de l'intelligence
artificielle et l'insuffisance des lois
d'Asimov en particulier. (Singularity
Institute for Artificial Intelligence 2004)[21].

En 2005, le projet Blue Brain est lancé, il


vise à simuler le cerveau des mammifères.
Il s'agit d'une des méthodes envisagées
pour réaliser une IA. Ils annoncent de plus
comme objectif de fabriquer, dans dix ans,
le premier « vrai » cerveau électronique[22].
En mars 2007, le gouvernement sud-coréen
a annoncé que plus tard dans l'année, il
émettrait une charte sur l'éthique des
robots, afin de fixer des normes pour les
utilisateurs et les fabricants. Selon Park
Hye-Young, du ministère de l'Information et
de la communication, la Charte reflète les
trois lois d'Asimov : la tentative de
définition des règles de base pour le
développement futur de la robotique. En
juillet 2009, en Californie une conférence
organisée par l'Association for the
Advancement of Artificial Intelligence
(AAAI), où un groupe d'informaticiens se
demande s'il devrait y avoir des limites sur
la recherche qui pourrait conduire à la perte
de l'emprise humaine sur les systèmes
informatiques, et où il est également
question de l'explosion de l'intelligence
(artificielle) et du danger de la singularité
technologique conduisant à un
changement d'ère, ou de paradigme
totalement en dehors du contrôle
humain[23],[24].

En 2009, le Massachusetts Institute of


Technology (MIT) a lancé un projet visant à
repenser la recherche en intelligence
artificielle. Il réunira des scientifiques qui
ont eu du succès dans des domaines
distincts de l'IA. Neil Gershenfeld déclare
« Nous voulons essentiellement revenir 30
ans en arrière, et de revoir quelques
directions aujourd'hui gelées »[25].

En novembre 2009, l'US Air Force cherche à


acquérir 2 200 PlayStation 3[26] pour utiliser
le processeur cell à 7 ou 8 cœurs qu'elle
contient dans le but d'augmenter les
capacités de leur superordinateur constitué
de 336 PlayStation 3 (total théorique
52,8 petaFLOPS en double précision). Le
nombre sera réduit à 1 700 unités le
22 décembre 2009[27]. Le projet vise le
traitement vidéo haute-définition, et
l'« informatique neuromorphique », ou la
création de calculateurs avec des
propriétés/fonctions similaires au cerveau
humain[26].
Le 27 janvier 2010, l'US Air Force demande
l'aide de l'industrie pour développer une
intelligence avancée de collecte
d'information et avec la capacité de
décision rapide pour aider les forces
américaines pour attaquer ses ennemis
rapidement à leurs points les plus
vulnérables. L'US Air Force utilisera une
intelligence artificielle, le raisonnement
ontologique, et les procédures informatique
basées sur la connaissance, ainsi que
d'autres traitements de données avancés
afin de frapper l'ennemi au meilleur
point[28]. D'autre part, d’ici 2020, plus de
mille bombardiers et chasseurs F-22 et F-
35 de dernière génération, parmi plus de
2 500 avions militaires, commenceront à
être équipés de sorte que, d’ici 2040, tous
les avions de guerre américains soient
pilotés par intelligence artificielle, en plus
des 10 000 véhicules terrestres et des
7 000 dispositifs aériens commandés
d'ores et déjà à distance[29].

Le 16 février 2011, Watson, le


superordinateur conçu par IBM, remporte
deux des trois manches du jeu télévisé
Jeopardy! en battant largement ses deux
concurrents humains en gains cumulés.
Pour cette IA, la performance a résidé dans
le fait de répondre à des questions de
culture générale (et non un domaine
technique précis) dans des délais très
courts. En février 2016, l'artiste et designer
Aaron Siegel propose de faire de Watson
un candidat à l'élection présidentielle
américaine afin de lancer le débat sur « le
potentiel de l’intelligence artificielle dans la
politique »[30].

En mai 2013, Google ouvre un laboratoire


de recherches dans les locaux de la NASA.
Grâce à un super calculateur quantique
conçu par D-Wave Systems et qui serait
d'après cette société 11 000 fois plus
performant qu'un ordinateur actuel (de
2013)[31], ils espèrent ainsi faire progresser
l'intelligence artificielle et notamment
l'apprentissage automatique. Raymond
Kurzweil est engagé en décembre 2012 par
Google afin de participer et d'améliorer
l'apprentissage automatique des machines
et des IA[32].

Entre 2014 et 2015, à la suite du


développement rapide du deep learning, et
à l'encontre des penseurs transhumanistes,
quelques scientifiques et membres de la
communauté high tech craignent que
l'intelligence artificielle ne vienne à terme
dépasser les performances de l'intelligence
humaine. Parmi eux, l'astrophysicien
britannique Stephen Hawking[33], le
fondateur de Microsoft Bill Gates[34] et le
PDG de Tesla Elon Musk[35].
Les géants de l'Internet s'intéressent de
plus en plus à l'IA[36]. Le 3 janvier 2016, le
patron de Facebook, Mark Zuckerberg, s’est
donné pour objectif de l’année de
« construire une intelligence artificielle
simple pour piloter ma maison ou m’aider
dans mon travail »[37]. Il avait déjà créé en
2013 le laboratoire Facebook Artifical
Intelligence Research (FAIR) dirigé par le
chercheur français Yann Le Cun et ouvert
un laboratoire de recherche permanente
dans le domaine à Paris[38].

Apple a de son côté récemment acquis


plusieurs start-up du secteur (Perceptio,
VocalIQ, Emotient et Turi)[39].
En janvier 2018, des modèles d'intelligence
artificielle développés par Microsoft et
Alibaba réussissent chacun de leur côté à
battre les humains dans un test de lecture
et de compréhension de l'université
Stanford. Le traitement du langage naturel
imite la compréhension humaine des mots
et des phrases et permet maintenant aux
modèles d'apprentissage automatique de
traiter de grandes quantités d'informations
avant de fournir des réponses précises aux
questions qui leur sont posées[40].

En février 2019, l'institut de recherche


OpenAI annonce avoir créé un programme
d’intelligence artificielle capable de générer
des textes tellement réalistes que cette
technologie pourrait être dangereuse[41],[42].
Si le logiciel est utilisé avec une intention
malveillante, il peut générer facilement des
fausses nouvelles très crédibles. Inquiet
par l'utilisation qui pourrait en être faite,
OpenAI préfère ne pas rendre public le
code source du programme[43].

En France

En France, les pionniers sont Alain


Colmerauer, Gérard Huet, Jean-Louis
Laurière, Claude-François Picard, Jacques
Pitrat et Jean-Claude Simon[44]. Un congrès
national annuel, « Reconnaissance de
formes et intelligence artificielle », est créé
en 1979 à Toulouse[45]. En lien avec
l'organisation de la conférence
International Joint Conference on Artificial
Intelligence à Chambéry en 1993, et la
création d'un GRECO-PRC[46] « intelligence
artificielle », en 1983, il donne naissance à
une société savante, l'Association
française pour l'intelligence artificielle
(AFIA) en 1989, qui, entre autres, organise
des conférences nationales en intelligence
artificielle[47].

Logo de la conférence « AI for Humanity » organisée le


29 mars 2018 au Collège de France.
Le 17 janvier 2017, le fonds de capital
risque Serena Capital lance un fonds de
80 millions d’euros destiné à
l’investissement dans les start-ups
européennes du big data et de l'intelligence
artificielle[48]. Le 19 janvier 2017, une
audition se tient au Sénat : « L'intelligence
Artificielle menace-t-elle nos emplois ? »[49].
Le 20 janvier 2017, Axelle Lemaire entend
valoriser les potentiels scientifiques et
industriels français grâce au projet
« France IA »[50].

En janvier 2017, dans le cadre de sa


mission de réflexion sur les enjeux
éthiques et les questions de société
soulevés par les technologies numériques,
la Commission nationale de l'informatique
et des libertés (CNIL) annonce
l'organisation d'un débat public sur les
algorithmes et l'intelligence artificielle[51].
Le 15 décembre 2017, à l'issue d'un débat
ayant mobilisé 60 partenaires (institutions
publiques, associations, entreprises,
acteurs du monde de la recherche, société
civile)[52], elle publie son rapport
« Comment permettre à l'Homme de garder
la main ? »[53] comprenant des
recommandations pour la construction
d'un modèle éthique d'intelligence
artificielle.
En septembre 2017, Cédric Villani, premier
vice-président de l'Office parlementaire
d'évaluation des choix scientifiques et
technologiques (OPECST)[54], est chargé de
mener une consultation publique sur
l'intelligence artificielle[55]. Il rend son
rapport le 28 mars 2018[56], à la veille d'une
intervention du président de la République
Emmanuel Macron au Collège de France
pour annoncer la stratégie de la France
dans ce domaine[57]. Il y dévoile un plan de
1,5 milliard d'euros sur l'ensemble du
quinquennat, ainsi qu'une évolution de la
législation française pour permettre la mise
en application de l'intelligence artificielle,
en particulier concernant la circulation des
véhicules autonomes[58]. Parallèlement à
ces annonces, il est interviewé par Wired,
magazine de référence pour la
communauté mondiale des nouvelles
technologies, et y exprime sa vision de
l'intelligence artificielle, à savoir que les
algorithmes utilisés par l'État doivent être
ouverts, que l'intelligence artificielle doit
être encadrée par des règles
philosophiques et éthiques et qu'il faut
s'opposer à l'usage d'armes automatiques
ou de dispositifs prenant des décisions
sans consulter un humain[59],[60].

En mars 2018, Microsoft France lance


l'École IA Microsoft, inaugurée par son
président Carlo Purassanta, une formation
ouverte aux décrocheurs scolaires et aux
personnes éloignées de l'emploi, en
partenariat avec Simplon.co[61]. Dix écoles
sont lancées en un an à partir de
septembre 2018[62]. Microsoft France mise
sur le développement de l'intelligence
artificielle comme nouveau vecteur
d'inclusion professionnelle[63]

En octobre 2019, le site ActuIA annonce le


lancement du premier magazine papier
consacré à l'intelligence artificielle[64].

Intelligence artificielle forte


Article détaillé : Philosophie de
l'intelligence artificielle.
Définition

Le concept d’intelligence artificielle forte


fait référence à une machine capable non
seulement de produire un comportement
intelligent, mais d’éprouver une impression
d'une réelle conscience de soi, de « vrais
sentiments » (quoi qu’on puisse mettre
derrière ces mots), et « une compréhension
de ses propres raisonnements »[65].

L’intelligence artificielle forte a servi de


moteur à la discipline, mais a également
suscité de nombreux débats. En se fondant
sur l'hypothèse, que tendent à confirmer les
neurosciences et que des chercheurs
n'hésitent pas à affirmer[66], que la
conscience a un support biologique et
donc matériel, les scientifiques ne voient
généralement pas d’obstacle de principe à
créer un jour une intelligence consciente
sur un support matériel autre que
biologique. Selon les tenants de l'IA forte,
si à l'heure actuelle il n'y a pas d'ordinateurs
ou de robots aussi intelligents que l'être
humain, ce n'est pas un problème d'outil
mais de conception. Il n'y aurait aucune
limite fonctionnelle (un ordinateur est une
machine de Turing universelle avec pour
seules limites les limites de la
calculabilité), il n'y aurait que des limites
liées à l'aptitude humaine à concevoir les
logiciels appropriés (programme, base de
données...). Elle permet notamment de
modéliser des idées abstraites.

Estimation de faisabilité

Comparer la capacité de traitement de


l'information d'un cerveau humain à celle
d'un ordinateur peut aider à comprendre les
ordres de grandeur pour estimer la
possibilité pratique ou non d'une
intelligence artificielle forte, de même
qu'un simple calcul de puissance en kW
permet grosso modo de dire qu'un camion
donné pourra espérer transporter
commodément telle ou telle charge ou si
cela lui sera impossible. Voici quelques
exemples d'ordres de grandeur en
traitement de l'information :

Balance Roberval : 1 bit par seconde


(comparaison de deux poids) ;
mainframe typique des années 1970 : 1
million d'opérations par seconde sur 32
bits ;
Intel Paragon XP/S, 4 000 processeurs
i860 @ 50 MHz (1992) : 160 milliards
d'opérations par seconde.

Cette puissance n'est pas à prendre au pied


de la lettre. Elle précise surtout les ordres
de grandeur en présence et leur évolution
relativement rapide (2015).
L'intelligence artificielle n'avait donné que
des résultats mitigés sur les ordinateurs
typiques de 1970 effectuant 107 opérations
logiques par seconde[c],[67]. Le cerveau
humain, formé de 1011 neurones ne
pouvant chacun commuter plus de 100 fois
par seconde en raison de leur temps de
relaxation permettait beaucoup plus de
traitements logiques par unité de temps
(1013 opérations logiques par seconde)[67].
« Ce » handicap technique précis n'existe
plus sur les ordinateurs actuels (2015),
travaillant en 64 bits et avec des horloges
cadencées à 4 GHz environ.

Il s'agit là de processeurs destinés au


particulier. Concernant des machines
comme Blue Gene, le rapport du nombre de
comparaisons par seconde entre
ordinateur et cerveau ont même changé de
sens.

Le matériel serait donc maintenant présent,


toutefois l'IA souligne la difficulté à
expliciter toutes les connaissances utiles à
la résolution d'un problème complexe.
Certaines connaissances dites implicites
sont acquises par l'expérience et mal
formalisables. Par exemple, qu'est-ce qui
distingue un visage familier de deux cents
autres ? Nous ne savons pas toujours
clairement l'exprimer[d]. L'apprentissage de
ces connaissances implicites par
l'expérience est exploitée depuis les
années 1980 (voir Réseau de neurones).
Néanmoins, un autre type de complexité
apparaît : la complexité structurelle.
Comment mettre en relation des modules
spécialisés pour traiter un certain type
d'informations, par exemple un système de
reconnaissance des formes visuelles, un
système de reconnaissance de la parole,
un système lié à la motivation, à la
coordination motrice, au langage, etc. En
revanche, une fois un système cognitif
conçu et son apprentissage par
l'expérience réalisé, l'« intelligence »
correspondante peut être distribuée en un
grand nombre d'exemplaires, par exemple
sur les portables d'actuaires ou de
banquiers pouvant ainsi, comme le rappelle
un slogan, dire oui ou non, mais le dire tout
de suite grâce à des applications dites de
credit scoring.

Diversité des opinions

Les principales opinions soutenues pour


répondre à la question d’une intelligence
artificielle forte (c'est-à-dire douée d'une
sorte de conscience) sont les suivantes :

Impossible : la conscience serait le


propre des organismes vivants
(supérieurs), et elle serait liée à la nature
des systèmes biologiques. Cette position
est défendue principalement par des
religieux [réf. souhaitée].
Problème : Elle rappelle toutefois
toutes les controverses passées
entre vitalistes et matérialistes.
Impossible avec des machines
manipulant des symboles comme les
ordinateurs actuels, mais possible avec
des systèmes dont l’organisation
matérielle serait fondée sur des
processus quantiques. Cette position est
défendue notamment par Roger Penrose.
Des algorithmes quantiques sont
théoriquement capables de mener à bien
des calculs hors de l'atteinte pratique des
calculateurs conventionnels (complexité
en au lieu de , par exemple, sous
réserve d'existence du calculateur
approprié). Au-delà de la rapidité, le fait
que l'on puisse envisager des systèmes
quantiques en mesure de calculer des
fonctions non-Turing-calculables (voir
Hypercalcul) ouvre des possibilités qui -
selon Jack Copeland - sont
fondamentalement interdites aux
machines de Turing ; cette dernière
possibilité est cependant généralement
niée par les spécialistes du calcul
quantique [réf. souhaitée].
Problème : On ne dispose pas
encore pour le moment
d'algorithmes d'IA à mettre en œuvre
dans ce domaine. Tout cela reste
donc spéculatif. Par ailleurs, il n'est
nullement clair que cela ait quoi que
ce soit à voir avec la conscience.
Impossible car la pensée n'est pas un
phénomène calculable par des
processus discrets et finis. Pour passer
d'un état de pensée au suivant, il y a une
infinité non dénombrable, une continuité
d'états transitoires. Cette idée est réfutée
par Alain Cardon (Modéliser et concevoir
une Machine pensante).
Possible avec des ordinateurs
manipulant des symboles. La notion de
symbole est toutefois à prendre au sens
large. Cette option inclut les travaux sur
le raisonnement ou l'apprentissage
symbolique basé sur la logique des
prédicats, mais aussi les techniques
connexionnistes telles que les réseaux
de neurones, qui, à la base, sont définies
par des symboles. Cette dernière opinion
constitue la position la plus engagée en
faveur de l'intelligence artificielle forte.

Des auteurs comme Douglas Hofstadter


(mais déjà avant lui Arthur C. Clarke ou
Alan Turing) (voir le test de Turing)
expriment par ailleurs un doute sur la
possibilité de faire la différence entre une
intelligence artificielle qui éprouverait
réellement une conscience, et une autre qui
simulerait exactement ce comportement.
Après tout, nous ne pouvons même pas
être certains que d’autres consciences que
la nôtre, y compris chez des humains,
éprouvent réellement quoi que ce soit, si ce
n'est par une pétition de principe qui
spécule que chaque humain se retrouve à
l'identique chez tous les autres. On retrouve
là le problème connu du solipsisme en
philosophie.

Travaux complémentaires

Le mathématicien de la physique Roger


Penrose[68] pense que la conscience
viendrait de l'exploitation de phénomènes
quantiques dans le cerveau (voir
microtubules), empêchant la simulation
réaliste de plus de quelques dizaines de
neurones sur un ordinateur normal, d’où les
résultats encore très partiels de l’IA. Il
restait jusqu’à présent isolé sur cette
question. Un autre chercheur a présenté
depuis une thèse de même esprit quoique
moins radicale : Andrei Kirilyuk[69].

Intelligence artificielle faible


Article détaillé : Intelligence artificielle
faible.

La notion d’intelligence artificielle faible


constitue une approche pragmatique
d’ingénieur : chercher à construire des
systèmes de plus en plus autonomes (pour
réduire le coût de leur supervision), des
algorithmes capables de résoudre des
problèmes d’une certaine classe, etc. Mais,
cette fois, la machine simule l'intelligence,
elle semble agir comme si elle était
intelligente. On en voit des exemples
concrets avec les programmes
conversationnels qui tentent de passer le
test de Turing, comme ELIZA. Ces logiciels
parviennent à imiter de façon grossière le
comportement d'humains face à d'autres
humains lors d'un dialogue.

Joseph Weizenbaum, créateur du


programme ELIZA, met en garde le public
dans son ouvrage Computer Power and
Human Reason : si ces programmes
« semblent » intelligents, ils ne le sont pas :
ELIZA simule très grossièrement un
psychologue en relevant immédiatement
toute mention du père ou de la mère, en
demandant des détails sur tel élément de
phrase et en écrivant de temps en temps
« Je comprends. », mais son auteur
rappelle qu'il s'agit d'une simple
mystification : le programme ne comprend
en réalité rien.

Les tenants de l'IA forte admettent que s'il


y a bien dans ce cas simple simulation de
comportements intelligents, il est aisé de le
découvrir et qu'on ne peut donc généraliser.
En effet, si on ne peut différencier
expérimentalement deux comportements
intelligents, celui d'une machine et celui
d'un humain, comment peut-on prétendre
que les deux choses ont des propriétés
différentes ? Le terme même de
« simulation de l'intelligence » est contesté
et devrait, toujours selon eux, être remplacé
par « reproduction de l'intelligence ».

Les tenants de l'IA faible arguent que la


plupart des techniques actuelles
d’intelligence artificielle sont inspirées de
leur paradigme. Ce serait par exemple la
démarche utilisée par IBM dans son projet
nommé Autonomic computing. La
controverse persiste néanmoins avec les
tenants de l'IA forte qui contestent cette
interprétation.

Simple évolution, donc, et non révolution :


l’intelligence artificielle s’inscrit à ce
compte dans la droite succession de ce
qu’ont été la recherche opérationnelle dans
les années 1960, la supervision (en
anglais : process control) dans les années
1970, l’aide à la décision dans les années
1980 et l’exploration de données dans les
années 1990. Et, qui plus est, avec une
certaine continuité.

Il s'agit surtout d'intelligence humaine


reconstituée, et de programmation ad hoc
d'un apprentissage, sans qu'une théorie
unificatrice n'existe pour le moment (2011).
Le théorème de Cox-Jaynes indique
toutefois, ce qui est un résultat fort, que
sous cinq contraintes raisonnables, tout
procédé d'apprentissage devra être soit
conforme à l'inférence bayésienne, soit
incohérent à terme, donc inefficace[70].

Distinction entre intelligence


artificielle, machine learning et deep
learning
Schéma montrant le positionnement des notions d'IA,
machine learning et deep learning imbriquées les unes
aux autres.

Il y a une confusion fréquente dans le


débat public entre « intelligence
artificielle », apprentissage automatique
(machine learning) et apprentissage
profond (deep learning). Pourtant, ces
notions ne sont pas équivalentes, mais
sont imbriquées :
l'intelligence artificielle englobe le
machine learning, qui lui-même englobe
le deep learning[71] ;
l'intelligence artificielle peut aussi
englober plusieurs autres types de
briques logicielles, comme les moteurs
de règles[72].

Estimation de faisabilité

Le sémanticien François Rastier, après


avoir rappelé les positions de Turing et de
Grice à ce sujet, propose[73] six
« préceptes » conditionnant un système de
dialogue évolué, en précisant qu'elles sont
déjà mises en œuvre par des systèmes
existants :
objectivité (utilisation d'une base de
connaissance par le système) ;
textualité (prise en compte
d'interventions de plus d'une phrase,
qu'elles émanent du système ou de
l'utilisateur) ;
apprentissage (intégration au moins
temporaire d'informations issues des
propos de l'utilisateur) ;
questionnement (demande de précisions
de la part du système) ;
rectification (suggestion de rectifications
à la question posée, lorsque nécessaire) ;
explicitation (explicitation par le système
d'une réponse qu'il a apportée
précédemment).

Il suggère aussi que le système devrait être


en mesure de se faire par lui-même une
représentation de l'utilisateur auquel il a
affaire, pour s'adapter à lui. De son côté,
l'utilisateur a tendance à s'adapter au
système à partir du moment où il a bien
compris qu'il s'adresse à une machine : il
ne conversera pas de la même manière
avec un système automatisé qu'avec un
interlocuteur humain, ce qui présente pour
le concepteur l'avantage pragmatique de
simplifier certains aspects du dialogue.

Test de Turing
Schéma du test de Turing.

Article détaillé : Test de Turing.

À l’orée des années 1950, entre la


naissance de la cybernétique et
l’émergence quelques années plus tard de
l’intelligence artificielle, alors que les
meilleurs esprits du temps s’interrogent sur
la possibilité de construire des machines
pensantes, Alan Turing propose, dès le
début d’un article demeuré célèbre, un test
pour déterminer si une machine peut être
définie comme « consciente »[74].

Définir l’intelligence est un défi et il n’est


pas certain qu’on puisse y arriver un jour
d’une façon satisfaisante. C’est cette
remarque qui poussa le mathématicien
britannique Alan Turing, en 1950, à
proposer « le jeu de l’imitation » qui fixait
un objectif précis à la science naissante
des ordinateurs que l'on n'appelait pas
encore informatique en francophonie. Ce
« jeu de l'imitation » suggérait qu'un juge
fictif puisse dialoguer d'une part avec une
machine et d'autre part avec un humain à
l'aide d'un terminal sans pouvoir les
discriminer[75].
Jusqu'à ce jour, aucun logiciel n'a encore
réussi ce test, à savoir se comporter de
façon à ne pas être discriminé d'un humain,
malgré de nombreuses tentatives. Devant
la persistance de ces échecs certains
informaticiens [Lesquels ?] pensent que mettre
au point un programme aussi complexe ne
démontrera pas l'intelligence des
programmes ni leur capacité à penser.

De nos jours, une machine peut certes


réviser et faire évoluer des objectifs qu’on
lui a attribués. Une machine peut même
être programmée pour pouvoir restructurer
sa connaissance initiale à partir
d’informations reçues ou perçues. Mais la
machine d’aujourd’hui ne pense pas à
proprement parler, car elle n’a pas
conscience d’elle-même (et en particulier
de ses limites), elle ne peut pas ultimement
décider de ses buts ni imaginer de
nouvelles formes de représentations du
monde[74].

Personnalités de l'intelligence
artificielle
Prix Turing

Plusieurs prix Turing (ACM Turing Award)


ont été attribués à des pionniers de
l'intelligence artificielle, notamment :

Marvin Minsky (1969)


John McCarthy (1971)
Allen Newell et Herbert Simon (1975)
Edward Feigenbaum et Raj Reddy (1994)
Judea Pearl (2011)
Yann Le Cun, Geoffrey Hinton et Yoshua
Bengio (2019).

Autres personnalités

Cette section est vide, insuffisamment


détaillée ou incomplète. Votre aide est la
bienvenue ! Comment faire ?

Ian Goodfellow , inventeur des réseaux


(en)

antagonistes génératifs.

Courants de pensée
La cybernétique naissante des années
1940 revendiquait très clairement son
caractère pluridisciplinaire et se nourrissait
des contributions les plus diverses :
neurophysiologie, psychologie, logique,
sciences sociales… Et c’est tout
naturellement qu’elle envisagea deux
approches des systèmes, deux approches
reprises par les sciences cognitives et de
ce fait l’intelligence artificielle : une
approche par la décomposition (du haut
vers le bas) et une approche contraire par
construction progressive du bas vers le
haut.

Ces deux approches se révèlent plutôt


complémentaires que contradictoires : on
est à l'aise pour décomposer rapidement
ce que l'on connaît bien, et une approche
pragmatique à partir des seuls éléments
que l'on connaît afin de se familiariser avec
les concepts émergents est plus utile pour
les domaines inconnus. Elles sont
respectivement à la base des hypothèses
de travail que constituent le cognitivisme et
le connexionnisme, qui tentent aujourd'hui
(2005) d'opérer progressivement leur
fusion.

Le guide pratique de Linux sur l'intelligence


artificielle v3.0[76], révisé le 15 décembre
2012, adopte pour la commodité du lecteur
la taxinomie suivante :
Systèmes symboliques ;
Connexionnisme ;
Calcul évolutif (algorithmes génétiques,
par exemple) ;
Alife (vie artificielle) et Complexité ;
Agents et robotique.

Cognitivisme

Le cognitivisme considère que le vivant, tel


un ordinateur (bien que par des procédés
évidemment très différents), manipule
essentiellement des symboles
élémentaires. Dans son livre La société de
l’esprit, Marvin Minsky, s’appuyant sur des
observations du psychologue Jean Piaget,
envisage le processus cognitif comme une
compétition d’agents fournissant des
réponses partielles et dont les avis sont
arbitrés par d’autres agents. Il cite les
exemples suivants de Piaget :

L’enfant croit d’abord que plus le niveau


d’eau est élevé dans un verre, plus il y a
d’eau dans ce verre. Après avoir joué
avec des transvasements successifs, il
intègre le fait que la notion de hauteur du
liquide dans le verre entre en compétition
avec celle du diamètre du verre, et arbitre
de son mieux entre les deux.
Il vit ensuite une expérience analogue en
manipulant de la pâte à modeler : la
réduction de plusieurs objets
temporairement représentés à une
même boule de pâte l’incite à dégager un
concept de conservation de la quantité de
matière.

Au bout du compte, ces jeux d’enfants se


révèlent essentiels à la formation de l’esprit,
qui dégagent quelques règles pour arbitrer
les différents éléments d’appréciation qu’il
rencontre, par essais et erreurs.

Connexionnisme

Le connexionnisme, se référant aux


processus auto-organisationnels, envisage
la cognition comme le résultat d’une
interaction globale des parties
élémentaires d’un système. On ne peut nier
que le chien dispose d'une sorte de
connaissance des équations différentielles
du mouvement, puisqu’il arrive à attraper
un bâton au vol. Et pas davantage qu’un
chat ait aussi une sorte de connaissance de
la loi de chute des corps, puisqu’il se
comporte comme s’il savait à partir de
quelle hauteur il ne doit plus essayer de
sauter directement pour se diriger vers le
sol. Cette faculté qui évoque un peu
l’intuition des philosophes se
caractériserait par la prise en compte et la
consolidation d’éléments perceptifs dont
aucun pris isolément n’atteint le seuil de la
conscience, ou en tout cas n’y déclenche
d’interprétation particulière.

Synthèse

Trois concepts reviennent de façon


récurrente dans la plupart des travaux :

la redondance (le système est peu


sensible à des pannes ponctuelles) ;
la réentrance (les composants
s'informent en permanence entre eux ;
cette notion diffère de la réentrance en
programmation) ;
la sélection (au fil du temps, les
comportements efficaces sont dégagés
et renforcés).

Différentes facettes
On peut considérer différents dispositifs
intervenant, ensemble ou séparément,
dans un système d’intelligence artificielle
tels que :

le dialogue automatique : se faire


comprendre en lui parlant ;
la traduction automatique, si possible en
temps réel ou très légèrement différé ;
le traitement automatique du langage
naturel ;
le raisonnement automatique (voir
systèmes experts) ;
le partitionnement et la classification
automatique ;
la composition musicale automatique
(voir les travaux de René-Louis Baron et
de l'Ircam ; plus récemment les
recherches de François Pachet, ainsi que
le développement de flowmachines
telles que Deepbach[77],[78]) ;
la reconnaissance de formes, des
visages et la vision en général, etc. ;
l'intégration automatique d’informations
provenant de sources hétérogènes,
(fusion de données) ;
l'émotion artificielle (voir les travaux de
Rosalind Picard sur l'émotion) et
l'éventualité d'une subjectivité artificielle ;
etc.

Les réalisations actuelles de l’intelligence


artificielle peuvent intervenir dans les
fonctions suivantes :

l'aide aux diagnostics ;


l'aide à la décision ;
la résolution de problèmes complexes,
tels que les problèmes d'allocation de
ressources ;
l'assistance par des machines dans les
tâches dangereuses, ou demandant une
grande précision ;
l'automatisation de tâches ;
etc.
Conception de systèmes
Au fil du temps, certains langages de
programmation se sont avérés plus
commodes que d’autres pour écrire des
applications d’intelligence artificielle. Parmi
ceux-ci, Lisp et Prolog furent sans doute les
plus médiatisés. ELIZA (le premier agent
conversationnel, donc pas de la
« véritable » intelligence artificielle) tenait
en trois pages de SNOBOL. On utilise aussi,
plus pour des raisons de disponibilité et de
performance que de commodité, des
langages classiques tels que C ou C++.
Lisp a eu pour sa part une série de
successeurs plus ou moins inspirés de lui,
dont le langage Scheme et les langages
typés de la programmation fonctionnelle
comme Haskell ou OCaml.

Aujourd'hui, ce sont Python et R qui


fournissent les outils les plus riches dans
ce domaine. Des plateformes comme
TensorFlow et ses bibliothèques haut
niveau ont démocratisé et accéléré le
développement d'intelligences artificielles.

Domaines d’application
Un robot NAO en 2014.

Un assistant personnel intelligent fournissant un


service client sur une page d'un site web, l'une des
nombreuses applications très primitives de
l'intelligence artificielle.

Article détaillé : Applications de


l'intelligence artificielle.

L'intelligence artificielle a été utilisée (ou


intervient) dans une variété de domaines.
Finance et banques

la banque, avec des systèmes experts


d'évaluation de risque lié à l'octroi d'un
crédit (credit-scoring) [réf. souhaitée] ;
la finance avec des projets comme ceux
de Bridgewater Associates où une
intelligence artificielle va gérer
entièrement un fonds[79] ou encore la
plateforme d'analyse prédictive
Sidetrade.

Militaire

Le domaine militaire utilise des systèmes


tels que les drones, les systèmes de
commandement et d'aide à la décision.
L’utilisation des intelligences artificielles
dans le domaine militaire est devenu de
plus en plus important. Les États-Unis ont
dépensé 18 milliards de dollars pour trois
années de recherches dans tous les
domaines requis à l’automatisation de
l’armement militaire[80].

Une course aux armements à base d'IA est


en cours, tel qu'illustré par le projet Maven
aux États-Unis[81].

Jean-Christophe Noël, expert de l'Institut


français des relations internationales (IFRI),
rapporte qu'une IA, surnommée ALPHA, fit
ses premières classes en octobre 2015. En
« affrontant des programmes
informatiques de combats aériens de l’Air
Force Research Lab », elle triompha
systématiquement face à un pilote de
chasse chevronné[82].

Médecine

Article détaillé : Intelligence artificielle


dans la santé.

la médecine, avec les systèmes experts


d'aide au diagnostic [réf. souhaitée].

En 2018, Google DeepMind, filiale de


Google spécialisée dans la recherche
avancée en intelligence artificielle, a publié
les résultats d'une expérimentation
d'intelligence artificielle pouvant détecter
les maladies oculaires. Les résultats
indiquent que l'IA le fait avec une marge
d'erreur plus faible que les
ophtalmologues[83].

Renseignement policier

Article connexe : Police intelligence.

Un usage novateur de l'IA se développe


dans le domaine de la prévention des
crimes et délits. Certaines polices - par
exemple, la police britannique - font
actuellement développer une IA de ce
genre, laquelle pourrait être opérationnelle
dès mars 2019[84].
Droit

le droit, dans la perspective de prédire


les décisions de justice, d'aider à la
décision et de trancher les cas
simples[85]

Logistique et transports

la logistique, au travers d'approches


heuristiques de type résolution de
problème de satisfaction de
contraintes [réf. souhaitée].
L'intelligence artificielle est également
fortement utilisée dans le domaine des
transports en commun, car elle permet
de faciliter la régulation et la gestion du
trafic au sein des réseau de plus en plus
complexes, comme le système
UrbanLoop actuellement en cours de
développement dans la ville de Nancy.
[réf. nécessaire]

Robotique

la robotique[86].

Jeux vidéo

Article détaillé : Intelligence artificielle


dans les jeux vidéo.

L'intelligence artificielle a par exemple été


utilisée pour les bots de jeux vidéo, qui sont
conçus pour servir d'opposants lorsque les
humains ne sont pas disponibles ou
désirés.
Art

Dès la fin des années 1980, des artistes


s'emparèrent de l'intelligence artificielle
pour donner un comportement autonome à
leurs œuvres. Les Français Michel Bret,
Edmond Couchot et Marie-Hélène Tramus
furent des pionniers ainsi qu'en témoignent
des œuvres comme La Plume et Le
Pissenlit (1988)[87] puis La Funambule
(2000), animée par un réseau de neurones.
L’Américain Karl Sims, en partenariat avec
la société Thingking Machines, créa en
1993 Genetic Images, basées sur des
algorithmes génétiques. Le couple franco-
autrichien Laurent Mignonneau et Christa
Sommerer créent depuis le début des
années 1990 de nombreuses œuvres dans
le champ de la vie artificielle, parmi
lesquelles Interactive plant growing (1992)
ou A-Volve (1994). Le Français Florent
Aziosmanoff propose quant à lui de
considérer que l’emploi de l’intelligence
artificielle dans l’art conduit à l’émergence
d’une nouvelle discipline d’expression, qu’il
nomme le Living art[88].

Le 23 octobre 2018, la société de vente aux


enchères Christie's met en vente le tableau
Portrait d'Edmond de Belamy réalisé par une
intelligence artificielle à l'aide de réseaux
antagonistes génératifs. La peinture est
signée par la formule mathématique à
l'origine de sa création (« Min (G) max (D)
Ex [log (D(x))] + Ez [log(1-D(G(z)))] »)[89].
Cette vente a soulevé de nombreux débats
sur son statut de création artistique et sur
l'auteur de l'œuvre : "s'agit-il de l'intelligence
artificielle ou des trois créateurs français
qui l'ont programmée ?"[90] Estimée entre
8 000 et 11 500 dollars, l'œuvre a été
achetée 350 000 dollars[91]. Cette vente
peut-être considérée comme une
reconnaissance du GAN-isme (l'abréviation
de Generative Adversarial Networks,
« réseaux antagonistes génératifs » en
français), un mouvement artistique qui
utilise l’intelligence artificielle dans la
création d'une œuvre picturale[91].
Autres domaines

robot employé de maison[92] ;


en programmation informatique[93] ;
en journalisme : des « robots
journalistes » pourraient à terme aider
les journalistes en les débarrassant de
tâches ingrates, notamment la veille ou
la vérification des fake news[94].

Règlementation
Jusqu'à présent, l'intelligence artificielle
n'est pas officiellement réglementée en
Occident. Toutefois, tant les algorithmes
que les données personnelles utilisées
sont soumis aux règles du RGPD[95].
Le 18 décembre 2018, le groupe d'expert de
haut niveau sur l'intelligence artificielle de
l'Union européenne publie un document
contenant des lignes directrices en matière
d'éthique de l'intelligence artificielle[96].

Questionnements
Article connexe : Éthique de l'intelligence
artificielle.

Les succès en IA encouragent les


spéculations. Dans les milieux
technophiles, on verse en général dans
l'enthousiasme, le mouvement
transhumaniste en est la meilleure
expression. Au contraire, d'autres
s’inquiètent et sont portées par des
interrogations, parfois alarmistes, y
compris dans la sphère de la haute
technologie. Ainsi, des figures réputées
telles que Bill Gates — ancien PDG de
Microsoft et « figure emblématique de la
révolution informatique de la fin du
e
siècle »[97] — pensent qu'il faut rester
très prudent quant aux développements
futurs de ces technologies, qui pourraient
devenir liberticides ou dangereuses.

Le développement de l'intelligence
artificielle suscite un grand nombre de
questions, notamment celle relative à la
possibilité pour les robots ou cyborgs
d'accéder un jour à la conscience,
d'éprouver des émotions et finalement se
substituer aux humains. Certaines de ces
réactions sont ouvertement optimistes,
d'autres sont au contraire pessimistes. En
2016, l'INRIA publie un premier Livre blanc
consacré à l'IA[98].

Espoirs et enthousiasme

Une description spectaculaire d’un possible


avenir de l’intelligence artificielle a été faite
par le statisticien anglais Irving John
Good : « supposons qu’existe une machine
surpassant en intelligence tout ce dont est
capable un homme, aussi brillant soit-il. La
conception de telles machines faisant
partie des activités intellectuelles, cette
machine pourrait à son tour créer des
machines meilleures qu’elle-même ; cela
aurait sans nul doute pour effet une
réaction en chaîne de développement de
l’intelligence, pendant que l’intelligence
humaine resterait presque sur place. Il en
résulte que la machine ultra intelligente
sera la dernière invention que l’homme
aura besoin de faire, à condition que ladite
machine soit assez docile pour
constamment lui obéir »[99].
Pour l'Américain Ray Kurzweil, l'intelligence artificielle
dépassera bientôt l'intelligence naturelle.

La mutation qu'évoque Good correspond à


un changement « qualitatif » du principe
même de progrès, et certains la nomment
« singularité »[100] qui est un concept
central pour de nombreux transhumanistes,
qui s'interrogent très sérieusement sur les
dangers ou les espoirs d'un tel scénario,
certains allant jusqu'à envisager
l'émergence d'un « dieu » numérique appelé
à prendre le contrôle du destin de
l'humanité, ou à fusionner avec elle.

Good estimait à un peu plus d'une chance


sur deux la mise au point d'une telle
e
machine avant la fin du siècle. La
prédiction ne s’est toujours pas réalisée, en
2012, mais elle avait imprégné le public à
l'époque : le cours de l’action d'IBM
quadrupla [réf. nécessaire] (bien que les
dividendes trimestriels versés restèrent à
peu de près constants) dans les mois qui
suivirent la victoire de Deep Blue sur Garry
Kasparov. Une partie du grand public était
en effet persuadée qu’IBM venait de mettre
au point le vecteur d’une telle explosion de
l’intelligence et que cette compagnie en
tirerait profit. L’espoir fut déçu : une fois sa
victoire acquise, Deep Blue, simple
calculateur évaluant 200 millions de
positions à la seconde, sans conscience du
jeu lui-même, fut reconverti en machine
classique utilisée pour l'exploration de
données.

Le développement de l'intelligence
artificielle suscite l'enthousiasme des
transhumanistes, notamment celui de
l'ingénieur américain Ray Kurzweill, selon
qui il est évident qu'à plus ou moins long
terme, l'intelligence - jusqu'alors confinée
dans son support biologique, le cerveau -
deviendra progressivement non-biologique
et considérablement plus puissante au
point que des cyborgs remplaceront les
humains, ceci en vertu de ce qu'il appelle le
principe de singularité[101].

Critiques et inquiétudes

Le développement de l'intelligence artificielle suscite


un certain nombre de craintes, y compris au sein de la
sphère high tech. En 2015, Bill Gates, ex-PDG de
Microsoft, s'inquiète à ce sujet[102].

Le développement de l'intelligence
artificielle génère de l'enthousiasme, mais
aussi de vives inquiétudes, dont d'un
certain nombre d'auteurs de science-
fiction, tels Isaac Asimov, William Gibson
ou Arthur C. Clarke qui, sur le modèle du
récit de l'Apprenti sorcier, décrivent le risque
d'une perte de contrôle des humains sur le
processus technique. Tout récemment,
différents intellectuels ont également pris
position.

Ainsi l'astrophysicien Stephen Hawking,


selon qui le risque est réel que des
machines deviennent un jour plus
intelligentes que les humains et finissent
par les dominer, voire se substituer à eux,
de la même façon que les humains ont
exterminé certaines espèces animales[103].
Il pose en novembre 2017 au salon
technologique Web Summit de Lisbonne la
question suivante « Serons-nous aidés par
l’intelligence artificielle ou mis de côté, ou
encore détruits par elle ? »[104]

D'autres personnalités reconnues,


notamment dans le milieu de la high tech,
expriment publiquement des craintes
similaires. C'est ainsi le cas, en 2015, de
Bill Gates, Elon Musk et Bill Joy[105]. Selon
le spécialiste américain de l'informatique
Moshe Vardi, l'intelligence artificielle
pourrait mettre 50 % de l'humanité au
chômage. « Nous approchons d'une
époque où les machines pourront
surpasser les hommes dans presque
toutes les tâches ». Son avènement
poserait, à terme, la question de l'utilité
même de l'espèce humaine[106].

Certains industriels prennent ces risques


au sérieux. Ainsi, en 2016, Google pose la
question du manque de contrôle potentiel
d'agents apprenants qui pourraient
apprendre à empêcher leur interruption
dans une tâche. C'est dans ce sens que la
firme développe un « bouton rouge »
intégré en bas niveau dans les IA
permettant de désactiver les intelligences
artificielles, sans possibilité de
contournement par celle ci (au-delà de
simplement « tuer » l'IA, l'objectif de ce
« bouton rouge » est aussi de la geler dans
son process, en évitant de l'arrêter, et éviter
ainsi une remise à zéro des apprentissages
ou des calculs en cours)[107].

Ce risque est aussi pris au sérieux sur le


plan juridique. Ainsi, le parlement européen
a demandé à une commission d'étudier la
possibilité qu'un robot doté d'une
intelligence artificielle puisse être
considéré comme une personne
juridique[108]. Advenant un dommage causé
à un tiers par une intelligence artificielle,
celle-ci pourrait être condamnée à réparer
ce dommage. Il serait envisageable de
conférer une personnalité électronique à
tout robot prenant des décisions
autonomes ou interagissant de manière
indépendante avec des tiers. Au même titre
qu'une personne morale et physique.

Aux États-Unis, Anthony Levandowski, le


père de la voiture autonome, a fondé une
organisation religieuse qui fait la promotion
d’une « divinité » basée sur une intelligence
artificielle. Cette organisation, appelée
« Way of the Future » (La voie de l’avenir)
existerait depuis septembre 2015[109].

Un autre problème est l'énorme quantité de


ressources rares, de serveurs et d'énergie
consommée par l'informatique sous-
jacente à l'IA.

Critique de la technique et de la
technologie

Comme l'explique l'historien François


Jarrige, la critique de l'intelligence
artificielle trouve son origine dans celle -
plus ancienne et plus générale - des
techniques et de la technologie, dont Lewis
Mumford (aux États-Unis)[110], Jacques
Ellul (en France)[111] et Günther Anders (en
Allemagne)[112] sont au e
siècle les
principaux instigateurs, et qui inspire
aujourd'hui différents cercles militants (en
France, par exemple : Pièces et Main
d'Œuvre[113] et Technologos[114])[115].

Selon Jarrige, leurs thèses restent peu


connues ou controversées du fait que le
« progrès » et l'« État » restent encore
largement surestimés. Ainsi, reprenant les
analyses d'Ellul[116], les animateurs du
groupe Technologos estiment que l'État est
de loin le moins qualifié pour enrayer
l'autonomisation du processus
technicien[117] et qu'il appartient aux
individus de briser les mythes de l'État-
providence et du progrès technique : « Ce
n'est pas la technique qui nous asservit
mais le sacré transféré à la technique (...).
Ce n'est pas l'État qui nous asservit, c'est
sa transfiguration sacrale »[118].

Dans un rapport en date de février 2018


intitulé The Malicious Use of Artificial
Intelligence 26 experts spécialistes en
intelligence artificielle mettent en garde
contre les dangers d'un usage criminel de
l'IA : augmentation de la cybercriminalité,
conduire à des utilisations de drones ou de
robots à des fins terroristes, etc.[119].

Questionnements éthiques

Le 28 septembre 2016, les géants du


secteurs de l'intelligence artificielle mettent
en place un « partenariat pour l’intelligence
artificielle au bénéfice des citoyens et de la
société »[120]. L'année suivante, Google
DeepMind se dote d'une unité en interne
pour aborder les questions éthiques[121].
Le 18 juillet 2018, 2 400 chercheurs,
ingénieurs et personnalités du secteur de
l'intelligence artificielle signent une lettre
ouverte[122], s'engageant à « ne jamais
participer ou soutenir le développement, la
fabrication, le commerce ou l’usage
d’armes létales autonomes ». La lettre
précise notamment que « La décision de
prendre une vie humaine ne devrait jamais
être déléguée à une machine. ». Parmi les
signataires, se trouvent Elon Musk, les
dirigeants de Google DeepMind, Stuart
Russell, Yoshua Bengio ou encore Toby
Walsh[123].

L'intelligence artificielle et la
fin du travail ?
L'inquiétude du remplacement du travail
humain par des machines n'est pas
nouveau, et cette question est déjà
présente chez certains économistes du
e
siècle comme Thomas Mortimer , ou
(en)

David Ricardo dans le premier chapitre Des


principes de l'économie politique et de
l'impôt. En 1995, c'est Jeremy Rifkin qui
publie End of Work: The Decline of the
Global Labor Force and the Dawn of the
Post-Market Era (en français : « La fin du
travail : Le déclin de la force globale de
travail dans le monde et l'aube de l'ère post-
marché »). Les prédictions de la fin du
travail sont donc courantes et
accompagnent presque systématiquement
les « grappes d'innovations ».

Le 17 septembre 2013, deux chercheurs


d'Oxford, Carl Benedikt Frey (en) et Michael A.
Osborne publient un rapport prospectif sur
les impacts de l'intelligence artificielle et de
la robotisation sur l'emploi : The Future of
Employment: How Susceptible Are Jobs to
Computerisation?[124]. Dans ce rapport les
deux chercheurs prédisent que 47 % des
emplois pourraient être automatisés d'ici
2030. Ce rapport eu un grand
retentissement dans le monde
académique, et nourrit les inquiétudes
autour de l'impact de l'intelligence
artificielle sur l'emploi. Cependant il est
possible de dresser certaines critiques de
ce rapport. On peut noter qu'Osborne et
Frey raisonnent en emploi constant, or on
sait depuis Schumpeter et son principe de
destruction créatrice, que si certaines
innovations détruisent des emplois, elles
en créent aussi par ailleurs. Il peut aussi
être intéressant de mentionner à ce stade
les travaux de David Autor, qui dans son
article « Why Are There Still So Many Jobs?
The History and Future of Workplace
Automation » publié en 2015[125] nuance les
prédictions de Frey et Osborne et
s'interroge plutôt sur les modifications de
la structure du marché de l'emploi dû à
l'intelligence artificielle plutôt que d'adopter
la thèse plus radicale de la fin du travail.

L'intelligence artificielle et le travail


numérique

Malgré les progrès importants de


l'intelligence artificielle ces dernières
années, nous ne pouvons pas dire que
l'hypothèse de la fin du travail se soit
encore réalisée. Il est vrai cependant que la
structure du marché de l'emploi connaît de
grands changements à cause de
l'intelligence artificielle. Le sociologue
Antonio Casilli, dans son ouvrage En
attendant les robots : enquête sur le travail
du clic[126] examine les conséquences de la
« disruption numérique » liée à l'intelligence
artificielle sur la structure de l'emploi, en
enquêtant sur les différentes formes
d'activités humaines nécessaire à la
production d'intelligence artificielle. Cette
thèse s'inscrit dans une analyse de qu'on
appelle le « travail numérique » (« digital
labour »), concept forgé dans les années
2000 pour désigner l'ensemble des
activités en ligne, créatrices de valeurs, le
plus souvent captées par les grandes
plateformes numériques. Le travail
numérique est consubstantiellement lié à
la production des intelligences artificielles
et il peut être analysé en trois
catégories [réf. nécessaire] :

Le travail à la demande
Cette forme a la particularité d'être à la
fois en ligne et hors ligne. C'est le travail
lié aux plateformes d'appariement
algorithmique comme Uber, Deliveroo, ou
même Airbnb, etc. Dans le cas du travail
à la demande, l'intelligence artificielle ne
remplace pas le travail humain mais elle
permet plutôt une optimisation de la
rencontre de l'offre et de la demande sur
un certain marché. Cette forme de digital
labour est moins liée à la production
d'intelligence artificielle que les deux
suivantes, en revanche, l'intelligence
artificielle et l’algorithmique bousculent
la structure de l'emploi des secteurs
d’activités concernés. L'optimisation
algorithmique de la rencontre de l'offre et
la demande encourage un système de
rémunération à la tâche et prive les
travailleurs du statut de salarié. Dans ce
cas-là les conséquences de l'intelligence
artificielle sur l'emploi concernent
davantage une modification du statut
des travailleurs, qu'un remplacement de
l'homme par la machine. La tâche reste
la même, seules les conditions d'emploi
et de rémunération changent.
Le micro-travail
L'émergence du micro-travail est très
étroitement lié à la production
d'intelligence artificielle, notamment
dans la phase d’entraînement et de
calibrage des algorithmes. En effet tous
les algorithmes d'intelligence artificielle
(particulièrement ceux utilisant la
technologie du deep-learning) ont besoin
d'une quantité incroyable de données
pour réaliser leur apprentissage et
devenir fonctionnels. Or il n'existe pas à
ce jour d'autre solution que d'avoir
recours à la main d’œuvre humaine pour
fournir ces quantités de données. C'est
Amazon, l'un des leader mondiaux de
l'intelligence artificielle qui possède la
plus grande plateforme de micro-travail :
Amazon Mechanical Turk créée en 2005.
Les autres leaders de l'intelligence
artificielle utilisent également les
services de plateformes de micro-travail :
Google se sert d'EWOK, Microsoft
d'UHRS et IBM de Mighty IA[127]. Ces
micro-tâches numériques sont en
général : rédiger de courts
commentaires, cliquer, regarder des
vidéos ou des photos, traduire un texte,
donner de la visibilité à un site Web, créer
des playlists musicales, taguer des
images ou reconnaître des visages ou
des objets dans les photos. Aux micro-
tâches s'appliquent des micro-
paiements : certaines sont payées en
centimes de dollars, un ou deux dollars
pour les plus élaborées. L'institut
américain Pew Research Center estime
que les deux tiers des tâches proposées
sur Amazon Mechanical Turk sont
rémunérées moins de 10 centimes et la
moyenne horaire de salaire était évaluée
par des chercheurs à 1,38 dollar/heure
en 2010[128]. Selon une étude de la
Banque mondiale de 2013, il avait alors
plus d’une centaine de plates-formes de
micro-travail dans le monde,
comptabilisant autour d'un million
d’inscrits[129], mais des enquêtes plus
récentes ont vu ce nombre largement
rehaussé, les estimations les plus
actuelles allant de quelques dizaines de
millions, à plus de 100 millions de micro-
travailleurs dans le monde[130]. En France
il y aurait environ 250 000 micro-
travailleurs[131]. Le micro-travail peut être
considéré comme le droit héritier du
taylorisme qui s'est adapté à l'économie
numérique.
Le travail social en réseau
Certains sociologues, parmi lesquels
Antonio Casilli, considèrent que la
présence en ligne, sur les plateformes
qui captent nos données personnelles,
peut être considéré comme une forme de
travail. En effet cette activité en ligne est
essentielle à la production de données
qui seront par la suite utilisées afin de
faire progresser les algorithmes. Cette
activité pourrait donc être considérée
comme du travail, dans la mesure où elle
est créatrice de valeur pour les
plateformes.

Malgré les craintes qui règnent autour de


l'hypothèse de la fin du travail, cette idée
semble actuellement relever du fantasme.
Le travail humain demeure essentiel à la
phase d'apprentissage des intelligence
artificielle. Même entraînée et
fonctionnelle, une intelligence artificielle
nécessite souvent des vérifications
humaines afin d'assurer son bon
fonctionnement. L'exemple le plus notoire
dans le domaine est celui des assistants
vocaux, Amazon assume écouter les
conversations des utilisateurs d'Alexa afin
« d'améliorer l'expérience utilisateur »[132],
or ce sont bien des humains qui sont
derrière ces écoutes. De même les voitures
dîtes autonomes d'Uber ne peuvent pas
fonctionner sans opérateur de conduite, qui
n'est pas au volant, mais qui doit guider le
véhicule en participant à la reconnaissance
d'images fournis par les caméras en direct.
Uber a d'ailleurs décidé de doubler le
nombre de ces opérateurs de conduite
après le premier accident mortel de début
2018[133]. L'analyse du digital labour met en
lumière toute l'ambivalence actuelle de
l'intelligence artificielle. Lorsque les
grandes plateformes du numériques et les
ingénieurs annoncent le remplacement de
l'homme par les machines, une étude
sociologique concrète nous montre que
pour l'instant, le travail humain est
essentiel pour combler les lacunes de
l'intelligence artificielle. Il semble donc que
derrière les promesses d'automatisation,
se cache finalement un précarisation du
statut des travailleurs (dans le cas du
travail à la demande), un parcellisation
extrême des tâches (dans le cas du micro-
travail) et une invisibilisation du travail
(dans le cas du travail social en
réseau)[134].

Perspectives et projections
dans le futur
Des chercheurs de l’Institut de l’avenir de
l’humanité de l’Université d'Oxford, de
l’Université Yale et d’AI Impact ont sondé
352 experts en apprentissage par machine
pour prévoir les progrès de l’IA au cours
des prochaines décennies[135].

Les experts ont été interrogés sur le


calendrier des capacités et des professions
spécifiques, ainsi que leurs prédictions
quant à savoir quand l’IA deviendra
supérieure aux humains dans toutes les
tâches[135]. Et quelles en seraient les
implications sociales également[135]. Les
chercheurs ont prédit que les machines
seront meilleures que les humains dans le
domaine de la traduction de langues d’ici
2024[135]. Elles seraient capables de rédiger
des essais d’ici 2026[135]. De conduire des
camions d’ici 2027 et travailler dans le
commerce et la vente en 2031[135].

D’ici 2050, elles pourront écrire des best-


sellers ou exécuter des travaux de
chirurgiens[135]. Selon les chercheurs, il
existe 50 % de chance pour que
l’intelligence artificielle dépasse les
humains dans tous les domaines en
seulement 45 ans[135]. Et, selon la même
probabilité, ils disent que les machines
pourraient prendre en charge tous les
emplois humains en 120 ans[135]. Certains
disent même que cela pourrait se produire
plus tôt[135].

Dans la science-fiction

HAL 9000.
Article détaillé : Liste d'ordinateurs de
fiction.

Voir aussi la catégorie :


Intelligence artificielle dans l'art et la culture

Une machine ayant une conscience et


capable d’éprouver des sentiments — ou de
faire comme si c'était le cas — est un grand
thème classique de la science-fiction,
notamment des romans d’Isaac Asimov sur
les robots.

Ce sujet a toutefois été exploité très tôt,


comme dans le récit des aventures de
Pinocchio, publié en 1881, où une
marionnette capable d’éprouver de l’amour
pour son créateur cherche à devenir un vrai
petit garçon, ou dans L'Homme le plus doué
du monde, une nouvelle de l'Américain
Edward Page Mitchell où le cerveau d'un
simple d'esprit est remplacé par un
ordinateur inspiré des recherches de
Charles Babbage. Le roman Le Miroir
flexible de Régis Messac propose quant à
lui le principe d'une intelligence artificielle
faible, mais évolutive, avec des automates
inspirés de formes de vie simples,
réagissant à certains stimuli tels que la
lumière. Cette trame a fortement inspiré le
film A.I. Intelligence artificielle réalisé par
Steven Spielberg, sur la base d'idées de
Stanley Kubrick, lui-même inspiré de Brian
Aldiss. L'œuvre de Dan Simmons,
notamment le cycle d'Hypérion, évoque
l'intelligence artificielle. Destination vide de
Frank Herbert, met en scène de manière
fascinante l'émergence d'une intelligence
artificielle forte. Plus récemment, l'écrivain
français Christian Léourier a placé une
intelligence artificielle au cœur de son
roman court Helstrid (2018) dans lequel
cette IA laisse un être humain mourir,
contrevenant ainsi aux trois lois de la
robotique instaurées par Isaac Asimov près
de quatre-vingts ans plus tôt.

Les androïdes faisant preuve d'intelligence


artificielle dans la fiction sont nombreux : le
personnage de Data de la série télévisée
Star Trek : The Next Generation est un être
cybernétique doué d'intelligence, avec des
capacités importantes d'apprentissage. Il
est officier supérieur sur le vaisseau
Enterprise et évolue aux côtés de ses
coéquipiers humains qui l'inspirent dans sa
quête d'humanité. Il est la représentation
type de l'androïde, tel qu'il était pensé dans
les années 1980. Son pendant
cinématographique est Bishop dans les
films Aliens (1986) et Alien 3 (1992). Dans
le manga Ghost in the Shell, une androïde
s’éveille à la conscience. Dans la saga
Terminator avec Arnold Schwarzenegger, le
T-800 reprogrammé, conçu initialement
pour tuer, semble dans la capacité
d'éprouver des sentiments humains. Par
ailleurs, les Terminators successifs sont
envoyés dans le passé par Skynet, une
intelligence artificielle qui a pris conscience
d'elle-même, et du danger que représentent
les humains envers elle-même.

Quelques IA célèbres dans la


science-fiction

IA dans la science-fiction
1721 : Les Voyages de Gulliver, dans son
ouvrage Voyage au pays de Houyhnhnms
représentent des intelligences
supérieures.
1968 : 2001, l'Odyssée de l'espace de
Stanley Kubrick, inspiré de la nouvelle La
Sentinelle d'Arthur C. Clarke, également
auteur du scénario du film, avec la lutte
entre l’ordinateur HAL et l'humain Dave.
1969 : Le Cerveau d'acier, d’après le
roman de Dennis Feltham Jones (en) de
1967 (un système d’IA militaire
américain contacte son homologue
russe pour qu’ils coopèrent à leur
mission commune, éviter la guerre
nucléaire... en neutralisant les
humains !).
1981 : Blade Runner de Ridley Scott,
inspiré d'un roman de Philip K. Dick, où
des humains artificiels (des
« répliquants ») reviennent sur terre après
une mission spatiale, mais n’acceptent
pas leur mort programmée à la suite du
succès de leur mission.
1982 : K 2000, une Pontiac Trans-Am
embarque une intelligence artificielle au
nom de KITT, conçue pour réaliser des
diagnostiques pour les dossiers de la
F.L.A.G. Elle ne peut ressentir des
émotions, ne peut porter atteinte à la vie
d’autrui et n'écoute que les ordres de
Michael Knight. Une partie de l'histoire
repose sur l'importance de la
programmation, notamment avec son
jumeau maléfique et prototype K.A.R.R.
dont sa principale différence est d'avoir
en priorité l'instinct de survie qui
prédomine les autres limites.
1982 : Tron de Steven Lisberger, où le
Maître contrôle principal (MCP) est un
programme d'échecs qui a évolué en IA
et tente de prendre le contrôle total du
système.
1985 : D.A.R.Y.L. est un androïde que le
gouvernement américain cherche à
détruire.
1999 : Matrix, trilogie cinématographique
de science-fiction dans laquelle les
humains, enfermés dans un monde créé
par l'IA, sont asservis par les machines.
Une petite poche de résistance humaine
résiste et se bat encore dans l'espoir de
la venue de l'Élu : Neo.
1999 : L'Homme bicentenaire (film), où un
exemplaire de NDR-114, dénommé
« Andrew », poursuit un long chemin vers
l'acquisition de la conscience, au point
de se voir reconnaitre le statut d'être
humain à la fin de sa « vie ». Il s'agit
d'une adaptation de la nouvelle éponyme
d'Isaac Asimov.
2001 : A.I. Intelligence artificielle de
Steven Spielberg, inspiré de la nouvelle
de Brian Aldiss Les Supertoys durent tout
l'été. Le personnage central est
certainement un aboutissement — mais
pour l’instant seulement imaginaire — de
l’intelligence artificielle : un enfant-robot
doué d’émotions et de sentiments.
2004 : I, Robot avec Will Smith, inspiré de
l’œuvre de Isaac Asimov et thème
semblable au film AI.
2008 : J.A.R.V.I.S. (Just A Rather Very
Intelligent System) dans les films Iron
Man, Avengers, etc. avec Robert Downey
Jr., inspiré des comics de Marvel.
2011-2016 : la série télévisée Person of
Interest met en scène un groupe de
personnes guidées par une intelligence
artificielle capable de prédire des crimes.
2012-2014 : la série télévisée Real
Humans : 100 % humain décrit
l'émergence de robots doués de
conscience au sein de la société
humaine.
2015 : Ex Machina de Alex Garland, dans
lequel un test de Turing d'une semaine va
dégénérer en faveur d'un robot féminin
(gynoïde) révolutionnaire.
2016 : la série télévisée Westworld met
en scène des androïdes à l'apparence
humaine qui commencent a adopter des
comportements imprévisibles[136].

L'intelligence artificielle et les


jeux
Les jeux, notamment les jeux de stratégie,
ont marqué l’histoire de l’intelligence
artificielle, même s’ils ne mesurent que des
compétences particulières, telles que la
capacité de la machine en matière de
calcul de probabilités, de prise de décision
mais aussi d’apprentissage.

Hans Berliner (1929-2017), docteur en


science informatique à l'université
Carnegie-Mellon et fort joueur d'échecs, fut
un des pionniers de la programmation pour
les ordinateurs de jeu. Ses travaux
commencèrent par un programme capable
de battre un humain professionnel au
backgammon, puis, à partir des années
1960 et avec l'aide d'IBM, il fit des
recherches pour créer un programme
capable de rivaliser avec des grands
maîtres du jeu d'échecs. Ses travaux
contribuèrent quelques décennies plus tard
à la réalisation du supercalculateur Deep
Blue[137].

Outre la capacité des jeux à permettre de


mesurer les performances de l'intelligence
artificielle, que ce soit au travers un score
ou un affrontement face à un humain, les
jeux offrent un environnement propice à
l'expérimentation pour les chercheurs,
notamment dans le domaine de
l'apprentissage par renforcement[138].

Othello

Dans le jeu Othello, sur un plateau de 8


cases sur 8, chaque joueur place tour à
tour des pions de sa couleur (noir ou
blanc). Le vainqueur est celui qui possède
les pions de la couleur dominante.

L'une des premières intelligences


artificielles pour l'Othello est IAGO,
développée en 1976 par l'université Caltech
de Pasadena (Californie), qui bat sans
difficultés le champion japonais Fumio
Fujita.

Le premier tournoi d'Othello hommes


contre machines est organisé en 1980. Un
an plus tard, un nouveau tournoi de
programmes regroupent 20 systèmes[139].
C'est entre 1996 et 1997 que le nombre de
programmes explose : Darwersi (1996-
1999) par Olivier Arsac, Hannibal (1996) par
Martin Piotte et Louis Geoffroy, Keyano
(1997) par Mark Brockington, Logistello
(1997) par Michael Buro, etc.

Échecs

Article détaillé : Programme d'échecs.

Un supercalculateur IBM similaire à Deep Blue, qui a


battu le champion du monde d'échecs en titre dans un

match en 1997.
En 1968, le maître international anglais
David Levy lança un défi à des spécialistes
en intelligence artificielle, leur pariant
qu'aucun programme informatique ne
serait capable de le battre aux échecs dans
les dix années à venir. Il remporta son pari,
n'étant finalement battu par Deep Thought
qu'en 1989[140].

En 1988, l'ordinateur HiTech de Hans


Berliner fut le premier programme à battre
un grand maître du jeu d'échecs, Arnold
Denker (74 ans) en match (3,5-1,5)[141],[e].
Par la suite, de forts joueurs furent battus,
comme le grand maître Bent Larsen (alors
à 2560 points Elo), vaincu en 1988 par
Deep Thought dans un tournoi en
Californie[142],[143].

En mai 1994, à Munich, le programme Fritz


3, tournant sur un ordinateur avec un
monoprocesseur Pentium à 90 MHz, gagna
une partie de blitz dans un tournoi contre le
champion du monde d'échecs Garry
Kasparov et, en août 1994, lors du premier
tour du grand Prix d'Intel à Londres, le
champion du monde affronta Chess Genius
2.9 (tournant sur un Pentium à 100 MHz)
en semi-rapide (30 min la partie) et perdit
0.5-1.5 (une nulle et une défaite)[144].

En 1997, la victoire du supercalculateur


conçu par IBM, Deep Blue (surnommé
Deeper Blue lors de ce match revanche),
contre Garry Kasparov (3,5–2,5) a marqué
un tournant : pour la première fois, le
meilleur joueur humain du jeu d'échecs
était battu en match (et non lors d'une
partie unique) par une machine.

Article détaillé : Matchs Deep Blue contre


Kasparov.

En juin 2005, le supercalculateur Hydra


gagne face au grand maître Michael
Adams par 5 victoires, une nulle, et aucune
défaite[145].

En novembre 2006, Deep Fritz gagne face


au champion du monde Vladimir Kramnik
par 2 victoires, 4 nulles et aucune défaite,
plaçant notamment dans la deuxième
partie un échec et mat élémentaire (mat en
un coup) que Kramnik ne vit pas, fatigué
par ses efforts durant le match[146].

En 2010, l'ancien champion du monde


Veselin Topalov confirme utiliser pour sa
préparation au championnat du monde
d'échecs 2010 le superordinateur Blue
Gene/P, doté alors de
8 792 processeurs[147].

En décembre 2017, une version généraliste


d'AlphaGo Zero — successeur du
programme AlphaGo de DeepMind, voir
plus bas dans la section Go — nommée
AlphaZero, a été développé, pour jouer à
n'importe quel jeu en connaissant
seulement les règles, et en apprenant seul
à jouer contre lui-même. Ce programme a
été ensuite entraîné pour le Go, le Shogi et
les échecs. Après 9 heures d'entrainement,
AlphaZero a battu le programme d'échecs
Stockfish, avec 28 victoires, 72 nulles et
aucune défaite. Il faut cependant noter que
la puissance de calcul disponible pour
AlphaZero (4 TPUv2 pour jouer, soit 720
Teraflops) est infiniment supérieure à la
puissance disponible pour Stockfish, qui
n'utilise que 64 cœurs Intel[148]. Il a
également réussi à battre après
apprentissage le programme de shōgi
Elmo [149],[150].
(en)
Go

Articles détaillés : Go en informatique et


Match AlphaGo - Lee Sedol.

En 2015, l'IA réalise des progrès


significatifs dans la pratique du go, plus
complexe à appréhender que les échecs
(entre autres à cause du plus grand
nombre de positions : 10170 au go, contre
1050 pour les échecs, et de parties
plausibles : 10600 au go, contre 10120 pour
les échecs)[151].

En octobre 2015, AlphaGo, un logiciel d'IA


conçu par DeepMind, filiale de Google, bat
pour la première fois Fan Hui, le triple
champion européen de go[152] et ainsi
relève ce qu'on considérait comme l'un des
plus grands défis pour l'intelligence
artificielle. Cette tendance se confirme en
mars 2016 quand AlphaGo bat par trois
fois consécutives le champion du monde
de la discipline, Lee Sedol, dans un duel en
cinq parties[153]. Lee Sedol a déclaré au
terme de la seconde partie qu'il n'avait
trouvé « aucune faiblesse » chez
l'ordinateur et que sa défaite était « sans
équivoque ».

Bridge
Cette section ne cite pas suffisamment
ses sources (avril 2019).
Pour l'améliorer, ajoutez des références
vérifiables [comment faire ?] ou le
modèle {{Référence nécessaire}} sur les
passages nécessitant une source.

Au bridge, une référence est le logiciel Will-


Bridge [réf. nécessaire] créé dans les années
1980 utilisant les systèmes experts, la
logique modale et la métaconnaissance
pour résoudre l'ensemble de la
problématique du jeu : enchères, entames
et jeu de la carte.
Un article de Philippe Pionchon[154]
explique comment ce logiciel est venu à
bout de ce problème, réputé insoluble à
l'époque, et souligne le « paradoxe de la
difficulté » qui fait qu'au bridge un logiciel a
en plus une « obligation de résultat » [Quoi ?],
justifiant l'absence d'autres logiciels de
bridge atteignant les performances
humaines. Ce logiciel, nécessitant d'avoir
une compréhension globale des situations,
a apporté des avancées
importantes [Lesquelles ?] dans le domaine
des systèmes experts [réf. nécessaire], créant
les « systèmes experts hybrides »
utilisables en robotique ou par les
véhicules autonomes, et les « systèmes
experts bimoteurs » [Quoi ?] très efficaces
pour résoudre le problème de l'explication
négative [Quoi ?].

Jeopardy!

Réplique de Watson, lors d'un concours de Jeopardy!

En 2011, l'IA Watson conçue par IBM, bat


ses adversaires humains au jeu télévisé
américain Jeopardy![151]. Dans ce jeu de
questions/réponses, la compréhension du
langage est essentielle pour la machine ;
pour ce faire, Watson a pu s'appuyer sur
une importante base de données interne lui
fournissant des éléments de culture
générale, et avait la capacité d'apprendre
par lui-même, notamment de ses erreurs. Il
disposait néanmoins d’un avantage, la
capacité d’appuyer instantanément (et
donc avant ses adversaires humains) sur le
buzzer pour donner une réponse[151].

Poker

Article connexe : Libratus.

Le premier programme informatique à avoir


gagné un tournoi de poker significatif face
à des joueurs professionnels humains est
Polaris, en 2007[155],[156] et, depuis, les
efforts pour améliorer ce résultat n'ont pas
cessé.

En 2017, lors du tournoi de poker « Brains


Vs. Artificial Intelligence : Upping the Ante »
(« Cerveau contre Intelligence Artificielle :
on monte la mise ») organisé dans un
casino de Pennsylvanie, l’intelligence
artificielle Libratus, développée par des
chercheurs de l'université Carnegie-Mellon
de Pittsburgh, est confrontée à des
adversaires humains dans le cadre d'une
partie marathon étalée sur 20 jours[156].
Les joueurs humains opposés à Libratus,
tous professionnels de poker, affrontent
successivement la machine dans une
partie en face à face (heads up ) selon les
(en)

règles du « No Limit Texas hold'em » (no


limit = mises non plafonnées), la version
actuellement la plus courante du poker. Les
parties étaient retransmises en direct et
durant huit heures par jour sur la
plateforme Twitch[157].

Au terme de plus de 120 000 mains jouées,


Libratus accumule 1 766 250 dollars
(virtuels). Le joueur humain ayant perdu le
moins d'argent dans son duel face à la
machine, Dong Kim, est tout de même en
déficit de plus de 85 000 dollars. Dans
leurs commentaires du jeu de leur
adversaire, les joueurs humains ont admis
qu'il était à la fois déconcertant et
terriblement efficace. En effet, Libratus
« étudiait » chaque nuit, grâce aux
ressources d'un supercalculateur situé à
Pittsburgh, ses mains jouées durant la
journée écoulée, utilisant les 15 millions
d’heures/processeur de calculs du
supercalculateur[157].

La victoire nette et sans bavure de la


machine marque une nouvelle étape dans
le développement de l'intelligence
artificielle, et illustre les progrès accomplis
dans le traitement par l'IA des
« informations imparfaites », où la réflexion
doit prendre en compte des données
incomplètes ou dissimulées. Les
estimations du nombre de possibilités
d'une partie de poker No Limit en face à
face est d'environ de 10160[157].

Auparavant en 2015, le joueur


professionnel Doug Polk (en) avait remporté
la première édition de cet évènement
contre l'IA baptisée Claudico [157].
(en)

Quake III

En 2018, une équipe de chercheurs de


Google DeepMind affirme sur son blog[158]
avoir conçu un programme d'intelligence
artificielle capable de battre les champions
humains du jeu vidéo de tir à la première
personne Quake III, en utilisant les bots (les
robots) intégrés au jeu[159]. Le mode choisit
était le CTF (Capture the flag, « capture du
drapeau » en français) : dans ce mode, le
but du jeu est de récupérer le drapeau de la
base ennemie pour le ramener dans sa
propre base, tout en défendant son propre
drapeau des assauts ennemis[160].

N'ayant reçu aucune information avant de


commencer à jouer, ces bots (nommés
« agents coopératifs complexes » par
Deepmind)[160] ont joué des milliers de
parties entre eux, apprenant de leurs
erreurs pour perfectionner leurs
tactiques[159] (« comment voir, agir,
coopérer et concourir dans des
environnements invisibles, le tout à partir
d’un seul signal de renforcement par
match » disant aux agents s'ils avaient
gagné ou non)[160]. À chaque nouvelle
partie, une nouvelle map (zone de jeu)[f]
était générée automatiquement (de
manière procédurale)[158], permettant de
compliquer la tâche aux bots. Les trente
bots se sont affrontés sur un demi-million
de parties (450 000)[160], afin de maîtriser
l’environnement et les différentes tactiques
et stratégies inhérentes au jeu[159],[160].
Selon les chercheurs : « Grâce à de
nouveaux développements dans
l’apprentissage par renforcement, nos
agents ont atteint des performances de
niveau humain dans Quake III Arena CTF, un
environnement multi-agents complexe et
l’un des jeux multijoueurs cultes en 3D à la
première personne. Ces agents démontrent
leur capacité à faire équipe avec d’autres
agents artificiels et des joueurs
humains »[160]. Pour Deepmind, « les agents
n’ont jamais été informés des règles du jeu,
mais ont appris ses concepts
fondamentaux et [ont] développé
efficacement une intuition pour le
CTF »[160].

Au lieu de former un seul agent, les


chercheurs ont entrainé « une population
d’agents » qui apprenaient en jouant les
uns avec les autres, fournissant ainsi « une
diversité de coéquipiers et
d’adversaires »[160]. Chaque agent dans la
population possède « son propre signal de
récompense interne, ce qui permet aux
agents de générer leurs propres objectifs
internes, comme la capture d’un
drapeau »[160]. « Un processus
d’optimisation à deux niveaux optimise les
récompenses internes des agents
directement pour gagner », en se servant
de l’apprentissage par renforcement[160].
Selon les chercheurs, « les agents opèrent
à deux échelles de temps, rapide et lent, ce
qui améliore leur capacité à utiliser la
mémoire et à générer des séquences
d’actions cohérentes »[160]. Selon un
graphique de progression dévoilé par
Deepmind[158], les agents dépassaient déjà
le niveau des joueurs humains moyens
après 150 000 parties[160].

Par la suite, un tournoi est organisé entre


des binômes de machines contre des
binômes humains (40 joueurs
humains)[160], ainsi que des duos mixtes
humains/machines entre eux[159]. Selon
DeepMind, les équipes de bots atteignirent
un taux de victoire probable de 74 %. En
comparaison, les très bons joueurs
humains n’ont atteint que 52 % de taux de
victoire[159]. Les équipes composées
d'agents uniquement sont restées
invaincues lors de leurs confrontations
avec équipes composées exclusivement
d’humains. Les duo d'agents avaient 95 %
de chances de gagner contre des équipes
humains/agent artificiel[160].

Par ailleurs, les chercheurs ont observé que


la probabilité de victoire par les bots
baissait si le nombre de membres dans
l'équipe augmentait. Cela s'explique par le
fait que l'intelligence artificielle apprend à
jouer au jeu en solo, mais ne comprend pas
encore complètement la notion de
coopération, souvent capitale dans un jeu
en équipe. Ce paramètre était l'un des
objets de cette expérience, visant à
améliorer la conscience collective des IA,
ce qui est un point déterminant dans le
développement d’une espèce[159].
Starcraft II

Le 24 janvier 2019, Google DeepMind


présente sur son blog AlphaStar[161], une
intelligence artificielle dédiée au jeu de
stratégie en temps réel StarCraft II qui a
affronté deux joueurs humains lors d'un
match retransmis en direct sur Internet.
Durant cet évènement, AlphaStar bat deux
joueurs professionnels, dont Grzegorz
« MaNa » Komincz, de l'équipe Team
Liquid , l'un des meilleurs joueurs
(en)

professionnels au monde[162]. Le
développement de cette intelligence
artificielle a été permis par un partenariat
entre Google DeepMind et Blizzard
Entertainment, l'éditeur du jeu[138].
L'une des caractéristiques de cette
intelligence artificielle est qu'elle propose
une version implémentant un brouillard de
guerre. C'est-à-dire que, contrairement aux
personnages contrôlés par le jeu,
l'intelligence artificielle n'a accès qu'aux
informations auxquelles aurait accès un
joueur humain. Par ailleurs, le nombre
d'actions par minute d'AlphaStar était
inférieur au nombre d'actions par minutes
de ses adversaires. Ce n'est donc pas la
rapidité de jeu de l'IA, mais l'efficacité de sa
stratégie qui aurait permis à AlphaStar de
gagner, bien que cette question soit sujette
à controverses[138].
Notes et références
Notes

a. (en) « the building of computer programs


which perform tasks which are, for the
moment, performed in a more
satisfactory way by humans because
they require high level mental
processes such as: perception learning,
memory organization and critical
reasoning ».
b. On parle de sémantique.
c. et occupant donc en nombre de
comparaisons par seconde une
moyenne géométrique entre une
balance de Roberval (1 opération
logique par seconde) et le cerveau
humain.
d. Au début des années 2010, le logiciel
Picasa 3.8 y arrive cependant avec un
taux de réussite le rendant tout à fait
exploitable.
e. Arnold Denker était alors âgé de 74 ans
et crédité d'un classement Elo de 2300,
ce qui relativise un peu la performance
du programme, un fort grand maitre
étant à cette époque plus vers les
2 650–2 700 points Elo, voire
davantage.
f. Une map simplifiée par rapport aux
maps traditionnelles du jeu Quake III.

Références
1. Définition de l'Encyclopédie Larousse
2. Kaplan Andreas et Michael Haenlein
(2018)Siri, Siri in my Hand, who's the
Fairest in the Land? On the
Interpretations, Illustrations and
Implications of Artificial Intelligence,
Business Horizons, 62(1)
3. « Rapport CNIL - Comment permettre
à l’Homme de garder la main ? » , sur
cnil.fr (consulté le 15 mai 2018)
4. « Rapport de synthèse - France
Intelligence Artificielle » , sur
[PDF]

Ministère de l'Enseignement supérieur


et de la Recherche, 2017.
5. « Votre chat est plus intelligent qu'une
IA » , sur Slate.fr, 18 octobre 2019
(consulté le 19 octobre 2019).
6. http://www.larousse.fr/encyclopedie/di
vers/intelligence_artificielle/187257 .
7. (en) Russell, S. et Norvig, P., Artificial
Intelligence: A Modern Approach (2nd
ed.), Prentice Hall, 2003, 932 p.
(ISBN 0-13-790395-2) Section 1.1.
8. Republié dans Collected Works of A. M.
Turing, volume Mechanical Intelligence,
éd. Darrel Ince,
(ISBN 978-0-444-88058-1).
9. Conférence Intelligent machinery, a
heretical theory donnée à la Société 51
à Manchester .
10. « Can digital computers think? » .
11. « Can automatic calculating machines
be said to think? » .
12. La première version de ce
memorandum a été publiée à Carlsbad
(Nouveau-Mexique) en juillet 1949. Il a
été reproduit dans (en) « Translation »,
dans W.N. Locke, D.A. Booth, Machine
Translation of Languages, Cambridge
(Massachusetts), MIT Press, 1955, 15–
23 p. (ISBN 0-8371-8434-7, lire en
ligne )
13. Crevier, Daniel (1993), AI: The
Tumultuous Search for Artificial
Intelligence, New York, NY: BasicBooks,
(ISBN 978-0-465-02997-6), p. 17.
14. Le Monde Festival : Yann Le Cun et
l’intelligence artificielle
15. « Intelligence Artificielle – État de l’art
et perspectives pour la France » , Étude
CGET (2019)
(ISBN 978-2-11-152634-1) (ISSN 2491-
0058)
16. (en) The State of Artificial Intelligence ,
cbinsights.com, 2017.
17. « Le lion automate de Léonard de
Vinci revit » , sur fr.reuters.com,
15 août 2009 (consulté le
17 avril 2017)
18. « TIL PRODUCTION Un peu
d'histoire » , sur www.automates-
boites-musique.com (consulté le
27 janvier 2019)
19. « Irving John Good » (Archive • Wikiwix •

Archive.is • Google • Que faire ?) (consulté le


15 juin 2017).
20. (en) Robot à logique inductive (en
anglais, PDF).
21. (en) « Singularity Institute for Artificial
Intelligence » (Archive • Wikiwix • Archive.is •

Google • Que faire ?) (consulté le


15 juin 2017) (2004), Singularity
Institute for Artificial Intelligence, 3
Laws Unsafe sur
http://www.asimovlaws.com/ ,
consulté le 7 août 2007, sauvé sur
web.archive.org .
22. « Un cerveau artificiel annoncé dans
dix ans » , sur Le Figaro,
8 septembre 2009.
23. (en) « Scientists Worry Machines May
Outsmart Man » , sur New York Times,
25 juillet 2009.
24. (en) « Implications of AI for
Society » (Archive • Wikiwix • Archive.is • Google

• Que faire ?) (consulté le 15 juin 2017) -


Association for the Advancement of
Artificial Intelligence (AAAI).
25. (en) « Science goes back to basics on
AI » , sur BBC News, 8 décembre 2009.
26. (en) « Air Force To Expand PlayStation-
Based Supercomputer » , sur
InformationWeek, 20 novembre 2009.
27. (en) « Sony PlayStation 3 Game
Consoles : Solicitation Number:
FA8751-10-R-0003 » , sur fbo.gov,
22 décembre 2009.
28. (en) « Air Force to use artificial
intelligence and other advanced data
processing to hit the enemy where it
hurts » , sur Mae.Pennnet.com,
27 janvier 2010.
29. (en) « Robot stealth fighter jet ready to
take off » , sur The Price of
Rice« Boeing’s sleek fighter-size
Phantom Ray stealth jet will make its
first flight by year’s end. This unmanned
airborne system is designed for a
variety of warfighter roles ranging from
reconnaissance and surveillance to
aerial refueling, electronic attack and
hunter/killer missions. ».
30. « Une intelligence artificielle peut-elle
devenir présidente des États-Unis ? » ,
sur Le Monde, 17 février 2016.
31. « Google investit dans des recherches
sur l'intelligence artificielle
quantique » , sur CNET France.
32. « Kurzweul Google AI » , sur Wired,
avril 2004.
33. « Hawking : « L'intelligence artificielle
pourrait mettre fin à l'humanité » » ,
sur Le Monde, 3 décembre 2014.
34. « Bill Gates est « préoccupé par la
superintelligence » artificielle » , sur Le
Monde, 29 janvier 2015.
35. « Les 37 projets d’Elon Musk contre
les dangers de l’intelligence
artificielle » , sur Le Monde,
6 juillet 2015.
36. « Pourquoi les rois du net rêvent
d’intelligence artificielle » , sur Les
Échos, 16 février 2016.
37. (en) « Mark Zuckerberg » , sur
www.facebook.com (consulté le
31 janvier 2019).
38. Facebook ouvre un laboratoire
d’intelligence artificielle à Paris .
39. Apple rachète la start-up d'intelligence
artificielle Turi pour 200 millions de
dollars .
40. « Alibaba's AI Outguns Humans in
Reading Test », Bloomberg.com,
15 janvier 2018 (lire en ligne , consulté
le 16 janvier 2018).
41. « Fausses informations : un
programme d’IA jugé trop dangereux
pour être rendu public », Le Monde,
19 février 2019 (lire en ligne , consulté
le 20 février 2019).
42. (en-GB) Hannah Jane Parkinson, « AI can
write just like me. Brace for the robot
apocalypse | Hannah Jane
Parkinson », The Guardian,
15 février 2019 (ISSN 0261-3077, lire
en ligne , consulté le 20 février 2019).
43. Tom Simonite, « The AI Text Generator
That's Too Dangerous to Make
Public », Wired, 14 février 2019
(ISSN 1059-1028, lire en ligne ,
consulté le 20 février 2019).
44. Jean-Claude Simon sur le Mathematics
Genealogy Project
45. Reconnaissance des formes et
intelligence artificielle, congrès AFCET-
IRIA, Toulouse 12, 13, 14 septembre
1979 . Il est intitulé « 2e congrès » et
prend la suite du congrès AFCET-IRIA
Reconnaissance des formes et
traitement des images en 1978 à
Châtenay-Malabry.
46. Un GRECO est un ancêtre des actuels
GDR du CNRS et un PRC est un
« programme de recherche
concertée ».
47. « AFIA - Association Française pour
l'Intelligence Artificielle » , sur AFIA
(consulté le 19 décembre 2017)
48. Guillaume Bregeras, « Serena Capital
crée un fonds big data et intelligence
artificielle », Les Échos, 17 janvier 2017
(lire en ligne )
49. « L’Intelligence artificielle menace-t-
elle nos emplois ? », Public Sénat,
20 janvier 2017 (lire en ligne , consulté
le 22 janvier 2017)
50. Vincent Fagot, « La France fait le pari
de l’intelligence artificielle », Le
Monde.fr, 20 janvier 2017 (ISSN 1950-
6244, lire en ligne )
51. « Éthique et numérique : les
algorithmes en débat » , sur
www.cnil.fr (consulté le 4 avril 2018)
52. « Comment permettre à l’Homme de
garder la main ? Rapport sur les
enjeux éthiques des algorithmes et de
l’intelligence artificielle » , sur
www.cnil.fr (consulté le 4 avril 2018)
53. « Comment permettre à l'Homme de
garder la main? » , sur cnil.fr,
décembre 2017
54. « Office parlementaire d'évaluation
des choix scientifiques et
technologiques » , sur Assemblée
nationale.fr (consulté le
1er février 2018)
55. Johanna Diaz, « Lancement d’une
consultation publique sur l’intelligence
artificielle par Cédric Villani », Actu
IA.com, 7 décembre 2017 (lire en
ligne )
56. Cédric Villani, Donner un sens à
l'intelligence artificielle : Pour une
stratégie nationale et européenne,
aiforhumanity.fr, mars 2018
(ISBN 978-2-11-145708-9, présentation
en ligne , lire en ligne ).
[PDF]

57. Vincent Fagot et Morgane Tual,


« Intelligence artificielle : ce qu'il faut
retenir du rapport de Cédric Villani » ,
sur Le Monde.fr, 28 mars 2018.
58. « Intelligence artificielle : Macron
annonce un plan à 1,5 milliard
d'euros » , sur Le Parisien.fr,
29 mars 2018.
59. « Pour Emmanuel Macron,
l’intelligence artificielle est aussi "une
révolution politique" » , sur Le
Monde.fr (consulté le 1er avril 2018)
60. (en) « Emmanuel Macron Talks to WIRED
About France's AI Strategy », Wired,
31 mars 2018 (lire en ligne )
61. « Microsoft ouvre une école sur
l'Intelligence Artificielle en France »,
ZD Net, 6 mars 2018 (lire en ligne ).
62. Maryse Gros, « Microsoft France
renforce son Ecole IA et étend son
périmètre », Le Monde Informatique,
20 septembre 2018 (lire en ligne ).
63. Julie le Bolzer, « Microsoft voit dans
l'IA un vecteur d'inclusion », Les Échos,
3 décembre 2018 (lire en ligne ).
64. Stephane Nachez, « ActuIA lance le
premier magazine papier dédié à
l'intelligence artificielle » , sur Actu IA,
24 octobre 2019 (consulté le
11 novembre 2019)
65. Dictionnaire de l'informatique (1975),
André Le Garff.
66. Michael David Mitchell, « Robotique et
neurosciences détectent le siège de la
conscience de soi », Actualités
Mediacom, école polytechnique
fédérale de Lausanne, 2010 (lire en
ligne ).
67. « Intelligence artificielle : pensée et
calcul » , sur L'Internaute.com
(consulté le 22 mai 2017)
68. Page de Roger Penrose .
69. Page d'Andrei Kirilyuk .
70. E.T. Jaynes, Probability Theory: the
Logic of Science,
(ISBN 978-0-521-59271-0), également
consultable ici :
http://bayes.wustl.edu/etj/prob/book.
pdf .
71. « Intelligence artificielle, machine
learning, deep learning : kézako ? » ,
sur ledigitalab.com, 2 octobre 2017
72. « L’Intelligence artificielle : 7 mythes
mis à l’épreuve » , sur Nexworld.fr,
15 novembre 2018.
73. François Rastier, Sémantique et
recherches cognitives, PUF, 2001 (2e
éd.).
74. « Turing et l’Intelligence Artificielle » .
75. « L’intelligence artificielle et le test de
Turing » .
76. http://www.ibiblio.org/pub/Linux/docs/
HOWTO/other-formats/pdf/AI-Alife-
HOWTO.pdf .
77. Corentin Durand, « Saurez-vous
entendre la différence entre Bach et
l'IA musicale DeepBach ? » , sur
Numerama.com, 26 décembre 2016
78. (en-US) « Polyphonic music generation in
the style of Bach » , sur flow-
machines.com (consulté le 2 juin 2018)
79. « Bientôt un hedge fund contrôlé par
intelligence artificielle ? » , BFM TV, 17
mars 2015.
80. (en) « The Pentagon’s ‘Terminator
Conundrum’: Robots That Could Kill on
Their Own » , Matthew Rosenberg et
John Markoffoct, The New York
Times.com, 25 octobre 2016.
81. (en) « Project Maven to Deploy
Computer Algorithms to War Zone by
Year’s End » , sur
https://www.defense.gov ,
21 juillet 2017
82. Par Nathalie Guibert, « Les défis
militaires de l’intelligence
artificielle » , sur lemonde.fr,
16 octobre 2018
83. « Maladies de l’œil : l'intelligence
artificielle meilleure que les
médecins ? », Les Echos.fr,
14 août 2018 (lire en ligne )
84. Alexandre Boero, « La police
britannique travaille sur une IA qui
sera capable de devancer votre
crime » , sur Clubic.com, 1543779744.
85. « Justice Prédictive : de l'idée à la
réalité » , sur www.justice-
predictive.com (consulté le
27 janvier 2019)
86. [PDF] « Les enjeux de l’intelligence
artificielle dans la robotique », Journal
Innovations et Technologies (JITEC)
no 210 - juillet/août 2018, coboteam.fr
(lire en ligne ) (consulté le 3 février
2019).
87. Patrice Besnard, Viviane Ferran,UFR
Arts,Artweb, « Les Pissenlits - Michel
Bret et Edmond Couchot / Durée 1
min 8 s / 2006 » , sur www.archives-
video.univ-paris8.fr (consulté le
21 juin 2018)
88. « Living art - CNRS Editions » , sur
www.cnrseditions.fr (consulté le
21 juin 2018)
89. « Obvious, les Français derrière la
première peinture d’une IA vendue aux
enchères » , sur France 24.fr,
19 octobre 2018.
90. « Une peinture, réalisée par une
Intelligence artificielle, mise aux
enchères » , sur objetconnecte.net
(consulté le 28 novembre 2018)
91. « Quand l’intelligence artificielle affole
le marché de l’art » , sur
Contrepoints.org, 23 janvier 2019.
92. « Comment l’intelligence artificielle va-
t-elle changer notre vie
quotidienne ? » , sur Robots & Cie,
30 novembre 2016 (consulté le
27 janvier 2019)
93. « Quand l’IA aide les développeurs à
programmer » , sur Mircrosoft.com
(consulté le 27 janvier 2019)
94. Ivan Capecchi, « Médias, faites GAFA à
l’IA ! », L’ADN.eu, 11 mai 2017 (lire en
ligne )
95. Francis Donnat, L'intelligence
artificielle, une menace pour la vie
privée ?, Revue Pouvoirs n°170, Seuil,
septembre 2019, 210 p.
(ISBN 978-2-02-140678-8), p. 95
96. Thomas Lalaurie, « Intelligence
artificielle : la Commission franchit
une étape dans ses travaux sur les
lignes directrices en matière
d'éthique » , sur ec.europa.eu,
8 avril 2019.
97. « Bill Gates » , sur Universalis.fr
(consulté le 16 octobre 2016)
98. Inria, « Intelligence artificielle, les défis
actuels et l'action d'Inria - Inria », Inria,
2016 (lire en ligne , consulté le
15 décembre 2016)
99. (en) Irving J. Good, « Speculations
Concerning the First Ultraintelligent
Machine », in Advances in Computers,
vol. 6, 1966, pp. 31-88.
100. Eliezer Yudkowsky, Scruter la
Singularité, mai 2004 [lire en ligne ]
(trad. de (en) Staring into the Singularity ,
1996).
101. Ray Kurzweil, Humanité 2.0 : La Bible
du changement, 2007 (édition originale,
(en) The Singularity is Near: When
Humans Transcend Biology, 2007).
102. « Intelligence artificielle : pourquoi
Musk, Hawking et Gates
s'inquiètent ? » , Les Échos.fr, 30
janvier 2015.
103. « Selon Stephen Hawking,
l’intelligence artificielle est un danger
pour l’humanité - Web Développement
Durable » , sur Web Développement
Durable (consulté le 28 février 2016).
104. « Intelligence Artificielle Web
Summit »
105. L'intelligence artificielle inquiète les
grands cerveaux contemporains ,
France 24, 2 février 2015.
106. L'intelligence artificielle pourrait mettre
50% de l'humanité au chômage.
L'Express - 15/02/16 .
107. Morgane Tual, « Pourquoi Google a
conçu un « bouton rouge » pour
désactiver des intelligences
artificielles », Le Monde.fr, 7 juin 2016
(ISSN 1950-6244, lire en ligne ,
consulté le 8 juin 2016).
108. « http://www.europarl.europa.eu/side
s/getDoc.do?
pubRef=-//EP//NONSGML+TA+P8-TA-
2017-0051+0+DOC+PDF+V0//FR »
109. Mélinée Le Priol, La Croix, 5 octobre
2017, « Une nouvelle religion fondée
sur l’intelligence artificielle suscite des
inquiétudes », lire en ligne
110. Lewis Mumford, Le Mythe de la
machine, deux volumes, 1967-1970;
tard., Fayard, 1974.
111. Jacques Ellul, La Technique ou l'Enjeu
du siècle, 1954; 3e édition : Economica
2008.
112. Günther Anders, L'obsolescence de
l'homme, tome 1, 1956; tome 2, 1980;
tard. fr .2002 et 2011.
113. Pièces et Main d'Œuvre Site officiel .
114. Technologos Site officiel .
115. François Jarrige, Techno-critiques. Du
refus des machines à la contestation
des technosciences, La Découverte,
2014.
116. Jacques Ellul, L'Illusion politique, 1965;
3e édition : La Table ronde, 2004.
117. Technologos, "Qui sommes-nous ?" ,
articles 31 à 33.
118. Jacques Ellul, Les Nouveaux Possédés,
1973 ; 2e éd. Mille et une nuits/Fayard,
2003, p. 316.
119. « Intelligence artificielle : les risques
d'une utilisation malveillante » , sur
https://www.futura- sciences.com,
publié le 21/02/2018 (consulté le
21 février 2018)
120. Morgane Tual, « Intelligence
artificielle : les géants du Web lancent
un partenariat sur l’éthique », Le
Monde.fr, 28 septembre 2016
(ISSN 1950-6244, lire en ligne ).
121. « Intelligence artificielle : Google
DeepMind se dote d’une unité de
recherche sur l’éthique », Le Monde.fr,
4 octobre 2017 (ISSN 1950-6244, lire
en ligne ).
122. (en-US) « Lethal Autonomous Weapons
Pledge » , sur futureoflife.org (consulté
le 13 août 2018)
123. « Des milliers d’experts en intelligence
artificielle s’engagent à ne pas
participer à la création d’armes », Le
Monde.fr, 18 juillet 2018 (lire en ligne )
124. (en) Carl Benedikt Frey et Michael A.
Osborne, The Future of Employment:
How Susceptible Are Jobs to
Computerisation?, 17 septembre 2013
[lire en ligne ] .
[PDF]

125. (en) David H. Autor, « Why Are There Still


So Many Jobs? The History and Future
of Workplace Automation », in Journal
of Economic Perspectives, vol. 29, no 3,
été 2015, pp. 3-30 [lire en ligne ] .
[PDF]

126. Antonio A. Casilli, En attendant les


robots: Enquête sur le travail du clic,
Éditions du Seuil, 2019
(ISBN 978-2-0214-0188-2).
127. (en) Site officiel de Mighty IA .
128. (en) John Joseph Horton et Lydia B.
Chilton, « The labor economics of paid
crowdsourcing », Proceedings of the
11th ACM conference on Electronic
commerce - EC '10, ACM Press, 2010,
p. 209 (ISBN 9781605588223,
DOI 10.1145/1807342.1807376,
présentation en ligne ).
129. « Microtravail et microsalaire pour
experts ou tâcheron » , Le Monde,
12 avril 2016 (consulté le
19 avril 2019).
130. « Avec le sociologue Antonio Casilli,
une enquête sur « les galériens du
clic » » , France Info, 28 janvier 2019
(consulté le 19 avril 2019).
131. « Jobs du clic : la France compte plus
de 250 000 micro-travailleurs » , Le
Monde, 15 février 2019 (consulté le
19 avril 2019).
132. « Tech. Amazon écoute-t-il vos
conversations grâce à Alexa ? » ,
Courrier international, 12 avril 2019
(consulté le 19 avril 2019).
133. Julien Cadot, « Uber relance ses tests
de voiture autonome... en « mode
manuel » - Tech » , Numerama,
25 juillet 2018 (consulté le
19 avril 2019).
134. Antonio Casilli, « Digital Labor : travail,
technologies et conflictualités »,
Qu’est-ce que le digital labor ?,
25 avril 2015 (ISBN 978-2-86938-2299,
lire en ligne ).
135. (en) Katja Grace, John Salvatier, Allan
Dafoe, Baobao Zhang, Owain Evans,
« When Will AI Exceed Human
Performance? Evidence from AI
Experts » , arxiv.org, 24 mai 2017.
136. « Westworld » , sur Allociné.fr
(consulté le 22 décembre 2016)
137. Article de Dylan L. McClain, New York
Times, 16 janvier 2017, et article
« Hans J. Berliner (1929-2017), Grand
Maître d'échecs et programmeur de
génie », Denis Rozier, Le Courrier des
Échecs no 639, mars 2017.
138. Thibault Neveu, « Intelligence
artificielle : démonstration en direct
des nouvelles performances de
DeepMind » , sur actuia.com,
24 janvier 2019.
139. « Les jeux et l'intelligence
artificielle » , sur u-picardie.fr (consulté
le 27 septembre 2016)
140. (en) David Levy et Monroe Newborn,
« More Chess and Computers: The
Microcomputer Revolution, The
Challenge Match », Computer Science
Press, Potomac (Maryland) et Batsford,
Londres, 1980. (ISBN 0-914894-07-2)
141. (en) « For First Time, a Chess Computer
Outwits Grandmaster in Tournament » ,
Harold C. Schonberg, The New York
Times.com, 26 septembre 1988.
142. (en) « Bent Larsen, Chess Grandmaster,
Dies at 75 » , Dylan Loeb McClain, The
New York Times.com, 11 septembre
2010.
143. (en) « Chess legend Bent Larsen turns
75 » , ChessBase.com, 3 mars 2010.
144. « L’espèce humaine, échec et mat » ,
Pierre Barthélémy, Libération.fr, 11
septembre 2014 (consulté le 29 janvier
2016).
145. (en) « Adams vs Hydra: Man 0.5 –
Machine 5.5 » , ChessBase.com, 28
juin 2005.
146. (en) « How could Kramnik overlook the
mate? » , ChessBase.com, 29
novembre 2006.
147. (en) « Topalov training with super
computer Blue Gene P » , sur
ChessDom.com (consulté le
1er juillet 2016).
148. (en) [PDF] « Learning, Deep or not Deep, de
MENACE à AlphaGo » , sur alliot.fr.
149. (en) David Silver, Thomas Hubert, Julian
Schrittwieser, Ioannis Antonoglou et
Matthew Lai « Mastering Chess and
Shogi by Self-Play with a General
Reinforcement Learning Algorithm »,
5 décembre 2017.
150. (en) Sarah Knapton et Leon Watson,
« Entire human chess knowledge
learned and surpassed by DeepMind's
AlphaZero in four hours » , sur
telegraph.co.uk, 6 décembre 2017.
151. « Jeu de go : comment savoir si les
programmes d’intelligence artificielle
sont vraiment… intelligents » , Le
Monde.fr, 9 mars 2016.
152. (en) David Silver, Julian Schrittwieser,
Karen Simonyan, Ioannis Antonoglou,
Aja Huang, Arthur Guez, Thomas
Hubert, Lucas Baker, Matthew Lai,
Adrian Bolton, Yutian Chen, Timothy
Lillicrap, Hui Fan, Laurent Sifre, George
van den Driessche, Thore Graepel et
Demis Hassabis, « Mastering the game
of Go without human knowledge »,
Nature, vol. 550, no 7676,
19 octobre 2017, p. 354–359
(ISSN 0028-0836,
DOI 10.1038/nature24270, lire en
ligne )
153. « Jeu de go : Le champion du monde
de nouveau battu par l'ordinateur de
Google » , L'Obs.com, 10 mars 2016.
154. « L'Intelligence Artificielle et le
Bridge » , Philippe Pionchon, will-
bridge.com, publié en 1984 dans la
revue Le Bridgeur (consulté le 12 août
2018).
155. (en) J. Rehmeyer, N. Fox et R. Rico, « Ante
up, human: The adventures of Polaris
the poker-playing robot », Wired, vol. 16,
no 12, décembre 2008, p. 86–191
156. Michael Bowling, Neil Burch, Michael
Johanson et Oskari Tammelin, « Heads-
Up Limit Hold’em Poker Is Solved »,
Comm.of the ACM, vol. 60, no 11, 2017,
p. 81
157. « Comment une-intelligence artificielle
ridiculise les meilleurs joueurs de
poker » , sur Numerama.com,
27 janvier 2017
158. (en) Capture the Flag: the emergence of
complex cooperative agents » ,
deepmind.com, 3 juillet 2018.
159. « Une intelligence artificielle dépasse
les meilleurs joueurs humains de
"Quake III" » , Bastien Lion, Le Monde.fr,
5 juillet 2018.
160. « Comment Quake III Arena a servi à
DeepMind pour améliorer la
coopération entre IA » , Julien Lausson,
Numerama.com, 6 juillet 2018.
161. (en) « AlphaStar: Mastering the Real-Time
Strategy Game StarCraft II » ,
deepmind.com, 24 janvier 2019.
162. « AlphaStar, l'IA de Google Deepmind, a
battu des joueurs pro à Starcraft » ,
futura-sciences.com, 25 janvier 2019.

Annexes
Bibliographie

Aspects techniques
Stuart J. Russell et Peter Norvig,
Intelligence artificielle (3e éd.) [« Artificial
Intelligence: A Modern Approach (en) »],
Pearson Education France, 2010, 1216 p.
(ISBN 978-2-7440-7455-4, présentation
en ligne ).
Alan Turing, Jean-Yves Girard, La
Machine de Turing, Éditions du Seuil,
1995 [détail de l’édition], Les Ordinateurs
et l'Intelligence, p. 133–174
Claire Rémy, L'Intelligence artificielle,
1994 (ISBN 2-10-002258-X)
Jean-Marc Alliot et Thomas Schiex,
Intelligence artificielle et informatique
théorique, CEPADUES, 2002
(ISBN 2-85428-578-6)
(en) Michael R. Genesereth et Nils J.
Nilsson, Logical Foundations of Artificial
Intelligence, Los Altos, Californie, États-
Unis, Morgan Kaufmann, 1987, 405 p.
[détail de l’édition] (ISBN 0-934613-31-1)
Jean-Louis Laurière, Intelligence
Artificielle, Eyrolles, 1986
Jean-Paul Delahaye, Outils logiques pour
l'intelligence artificielle, Eyrolles, 1985
[détail des éditions]
(ISBN 978-2212084122)
Jean-Paul Haton, Marie-Christine Haton,
L'Intelligence Artificielle, Que sais-je ?,
1990 (ISBN 2-13-043164-X)
Aspects prospectifs
Étude : CGET (2019) Intelligence
artificielle – État de l’art et perspectives
pour la France ; 21 février 2019.
URL:https://cget.gouv.fr/ressources/publ
ications/intelligence-artificielle-etat-de-l-
art-et-perspectives-pour-la-france
(ISBN 978-2-11-152634-1) (ISSN 2491-
0058)
Aspects philosophiques
Laurent Alexandre, La Guerre des
intelligences. Intelligence artificielle
versus intelligence humaine, JC Lattès,
2017, 250 p. (ISBN 978-2-7096-6084-6,
lire en ligne )
Gilbert Boss, Les machines à penser -
L'homme et l'ordinateur, Éditions du Grand
midi, 1987, 202 p. (ISBN 2-88093-105-3)
Jacques Bolo, Philosophie contre
intelligence artificielle, Lingua Franca,
1996, 375 p. (ISBN 2-912059-00-3)
Alan Ross Anderson, Pensée et machine,
Éditions Champ Vallon, 1983
(réimpr. 1993), 150 p.
(ISBN 2-903528-28-4)
Jean Sallantin et Jean-Jacques
Szczeciniarz, Le Concept de preuve à la
lumière de l'intelligence artificielle,
Presses universitaires de France, 1999,
370 p. (ISBN 2-13-050104-4)
Jean-Gabriel Ganascia, L'Âme-machine,
les enjeux de l'intelligence artificielle,
Éditions du Seuil, Collection Science
Ouverte, 1990, 284 p.
(ISBN 2-02-011470-4)
(en) Nick Bostrom, Superintelligence: Paths,
Dangers, Strategies, 2014
(ISBN 978-0199678112)
Fondements cognitifs, psychologiques
et biologiques
Hervé Chaudet et Liliane Pellegrin,
Intelligence artificielle et psychologie
cognitive, Dunod, 1998, 179 p.
(ISBN 2-10-002989-4)
Aspects linguistiques
Gérard Sabah, L'Intelligence artificielle et
le langage, Représentations des
connaissances, Processus de
compréhension, vol. 1, Hermès, 1989
(ISBN 2-86601-134-1)
Gérard Sabah, L'Intelligence artificielle et
le langage, Représentations des
connaissances, Processus de
compréhension, vol. 2, Hermès, 1990,
768 p. (ISBN 2-86601-187-2)
Gérard Sabah, Compréhension des
langues et interaction (Traité IC2, Série
Cognition et Traitement de l'Information),
Hermès science: Lavoisier, 2006
(ISBN 2-7462-1256-0)
(en) Krzysztof Wołk, Machine learning in
translation corpora processing, Boca
Raton, FL, Taylor & Francis, 2019
(ISBN 978-0367186739)
Histoire
Daniel Crevier et Nathalie Bukcek, À la
recherche de l'intelligence artificielle,
Flammarion, 1997 (ISBN 2-08-081428-1),
(traduction de (en) The Tumultuous history
of the search for artiticial intelligence.)
Vulgarisation
Gérard Tisseau et Jacques Pitrat,
Intelligence artificielle : problèmes et
méthodes, Presses universitaires de
France, 1996, 255 p.
(ISBN 2-13-047429-2)
Jack Challoner, L'Intelligence artificielle :
Un guide d'initiation au futur de
l'informatique et de la robotique, Pearson
Education, 2003 (ISBN 2-7440-1600-4)
Hugues Bersini, De l'intelligence humaine
à l'intelligence artificielle, Ellipse, 2006
(ISBN 2-7298-2813-3)
Jean-Gabriel Ganascia, L'Intelligence
artificielle, Éditions du Cavalier bleu,
coll. « Idees recues », 2007
(ISBN 978-2846701655)
Howard Selina (illustrations) et Henry
Brighton (texte), L'Intelligence artificielle
en images, EDP Sciences,
coll. « Aperçu », 2015
(ISBN 9782759817726)
Marion Montaigne (dessin) et Jean-Noël
Lafargue (scénario), L'Intelligence
artificielle : fantasmes et réalités, Le
Lombard, coll. « La petite bédéthèque
des savoirs », 2016
(ISBN 9782803636389)

Articles connexes

Notions générales
Agent intelligent
Agent logiciel
Agent virtuel
Algorithme
Algorithme génétique
Apprentissage profond (Deep learning)
Automation
Bio-informatique
Cerveau artificiel
Cyborg
Éthique de l'intelligence artificielle
Explosion d'intelligence
Histoire de l'intelligence artificielle
Interactions homme-machine
Philosophie de l'intelligence artificielle
Principaux projets et réalisations en
intelligence artificielle
Progrès
Progrès technique
Réseau de neurones artificiels
Singularité technologique
Singularitarisme
Système expert
Téléchargement de l'esprit
Test de Turing
Vie artificielle
Notions techniques
Agent conversationnel
Apprentissage automatique
Apprentissage par renforcement
Architecture cognitive
Diagnostic
Exploration de données
Forêt d'arbres décisionnels
Inférence bayésienne
Intelligence artificielle amicale
Intelligence artificielle distribuée
Intelligence artificielle faible
Logique floue
Machine à vecteurs de support
Métaheuristiques
Planification
Problème de satisfaction de contraintes
Programmation génétique
Programmation par contraintes
Raisonnement par cas
Réseaux de neurones
Système multi-agents
Théorème de Cox-Jaynes
Chercheurs en intelligence artificielle
(espace anglophone)
Edward Feigenbaum
Irving John Good
Douglas Hofstadter
Douglas Lenat
John McCarthy
Marvin Lee Minsky
Allen Newell
Nils Nilsson
Seymour Papert
Rosalind Picard
Roger Schank
Herbert Simon
Ray Solomonoff
Gerald Jay Sussman
Alan Turing
Joseph Weizenbaum
Chercheurs en intelligence artificielle
(espace francophone)
Hugues Bersini
Alain Colmerauer
Jean-Paul Delahaye
Rose Dieng-Kuntz
Yann Le Cun
Jacques Pitrat
Gérard Sabah

Liens externes

Notices d'autorité :
Bibliothèque nationale de France
(données ) · Bibliothèque du Congrès
· Gemeinsame Normdatei ·
Bibliothèque nationale de la Diète
Ressources relatives à la recherche :
(en) Internet Encyclopedia of Philosophy
· (en) Stanford Encyclopedia of
Philosophy
(en) European Association for Artificial
Intelligence (EurAI) (Association
européenne pour l'intelligence artificielle)
Association française pour l'intelligence
artificielle (AfIA).
Association française pour la promotion
et la sensibilisation à l'intelligence
artificielle (AFPSIA) (inaccessible).
GdrIA , groupement de recherche du
CNRS sur les aspects formels et
algorithmiques de l'intelligence
artificielle.
ActuIA , site présentant l'actualité de
l'intelligence artificielle.
Dossier sur l'Intelligence artificielle ,
savoirs.ens.fr (conférences de l'École
normale supérieure).
Réflexions
Sébastien Konieczny, « L'intelligence
artificielle, menace ou avancée ? » ,
Huffington Post, 9 mars 2016.
Juliette Demey, « À quoi sert l'intelligence
artificielle ? » , JDD, 19 juillet 2015.
Portail de l’informatique
Portail de la robotique
Portail de la science-fiction
Portail du jeu vidéo
Portail du Web sémantique

Ce document provient de
« https://fr.wikipedia.org/w/index.php?
title=Intelligence_artificielle&oldid=164636009 ».

Dernière modification il y a 11 heures par Fugitron

Le contenu est disponible sous licence CC BY-SA


3.0 sauf mention contraire.

Vous aimerez peut-être aussi