Vous êtes sur la page 1sur 378

PANORAMA DE L'INTELLIGENCE ARTIFICIELLE

ses bases méthodologiques, ses développements

L'intelligence artificielle :
frontières et applications
***

Coordinateurs :
Pierre Marquis
Odile Papini
Henri Prade
Préface:
Paul Braffort

Cépaduès
ÉDITIONS
PANORAMA DE L'INTELLIGENCE ARTIFICIELLE
ses bases méthodologiquiQc- ses développements

Volume 3
L'intelligence artificielle :
frontières et applications
***

Coordinateurs :
Pierre Marquis
Odile Papini
Henri Prade
Préface:
Paul Broffort

CÉPADUÈS-ÉDITIONS
Ill, rue Nicolas Vauquelin
3 1100 Toulouse - France
Tél. : 05 6140 57 36 - Fax: 05 61417989
www.cepadues.com
Courriel : cepadues@cepadues.com
Coordonnées GPS en WGS 84
N 43 ° 34'43 2, "
E 001° 24'2 15",
Illustration de couverture réalisée par Émilie Prade, http://emilieprade.com/
Photographie de couverture : Sylvain Erdei

©CEPAD2014 ISBN : 978.2.36493.043.8


Le code de la propriété intellectuelle du 1"' juillet 1992 interdit expressément la photocopie à usage col­

i
lectif sans autorisation des ayants droit. Or, cette pratique en se généralisant provoquerait une baisse bru­
tale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles
et de les faire éditer correctement est aujourd'hui menacée.

Nous rappelons donc que toute reproduction, partielle ou totale, du présent ouvrage est interdite sans
autorisation de !'Éditeur ou du Centre français d'exploitation du droit de copie (CFC- 3, rue d'Hautefeuille
PHOTocttPlllAGE - 75006 Paris).
TUE LE LIVRE
Dépôt légal : mai 2014
Présentation de l'ouvrage

L'intelligence artificielle (IA) a cinquante ans révolus. Elle occupe une place sin­
gulière dans le champ très vaste de l'informatique. Alors même que l'IA n'a jamais
connu autant de développements et d'applications variés, ses résultats restent large­
ment méconnus dans leur ensemble, y compris dans la communauté des chercheurs en
informatique.
Au-delà de monographies introductives, il n'existe pas de traité offrant une vue
d'ensemble approfondie, et à jour, des recherches dans ce domaine. C'est pourquoi il
était important de dresser l'état des lieux des travaux en IA au plan international.
Le présent « panorama de l'intelligence artificielle - ses bases méthodologiques, ses
développements » vise à répondre à cette demande.
Pour cette entreprise de grande ampleur, il a été fait largement appel à la com­
munauté française en IA. Chaque chapitre est écrit par un ou des spécialiste(s) du
domaine abordé.
L'ouvrage est organisé est trois volumes :
- le premier volume regroupe vingt chapitres traitant des fondements de la repré­
sentation des connaissances et de la formalisation des raisonnements ;
- le deuxième volume offre une vue de l'IA, en onze chapitres, sous l'angle des
algorithmes ;
- le troisième volume, en onze chapitres également, décrit les principales frontières
et applications de l'IA.
Si chaque chapitre peut être lu indépendamment des autres, les références croisées
entre chapitres sont nombreuses et un index global de l'ouvrage permet d'aborder
celui-ci de façon non linéaire.
Quelle que soit la façon dont le lecteur utilisera cet ouvrage, nous espérons que le
panorama proposé le réjouira et satisfera sa curiosité.
Sommaire

Volumel
Avant-Propos
Préface
1 Éléments pour une histoire de l'intelligence artificielle . 1
2 Représentation des connaissances : modalités, conditionnels et raisonnement
non monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Représentations de l'incertitude en intelligence artificielle . . . . . . . . . . . . 65
4 Raisonnement qualitatif sur les systèmes dynamiques, le temps et l'espace . . 123
5 Raisonner avec des ontologies : logiques de description et graphes conceptuels 155
6 Représentation des préférences . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
7 Normes et logique déontique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
8 Raisonnement à partir de cas, raisonnement et apprentissage par analogie,
gradualité et interpolation . . . . . . . . . . . . . . . . . . . . 239
9 Modèles d'apprentissage artificiel . . . . . . . . . . . . . . . . 265
10 Argumentation et raisonnement en présence de contradictions 297
1 1 Approches de la révision et de la fusion d'informations 321
12 Raisonnement sur l'action et le changement 363
13 Décision multicritère . . . . . . . . . . . . 393
14 Décision dans l'incertain . . . . . . . . . . . 423
15 Systèmes multiagents : décision collective . 461
16 Formalisation de systèmes d'agent cognitif, de la confiance et des émotions . 503
17 Systèmes multiagents : négociation, persuasion . . . . . 527
18 Diagnostic et supervision : approches à base de modèles 555
19 Validation et explication . . 591
20 Ingénierie des connaissances 615
Postface . . . . . . . . . . . . . 651
Index
Table des matières
V
Volume2
Avant-Propos
Préface
1 Recherche heuristiquement ordonnée dans les graphes d'états 655
2 JeUJC et recherche heuristique 683
3 Déduction automatique . . . . . . . . . . . . . . . . . . 709
4 Programmation logique . . . . . . . . . . . . . . . . . . 739
5 Logique propositionnelle et algorithmes autour de SAT 773
6 Raisonnement par contraintes . . . . . . . . . . . . . . 811
7 RéseaUJC de contraintes valués . . . . . . . . . . . . . . 835
8 Modèles graphiques pour l'incertitude : inférence et apprentissage 857
9 Planification en intelligence artificielle . . . . . . . . . . . . 885
10 Algorithmique de l'apprentissage et de la fouille de données 915
11 Méta-heuristiques et intelligence artificielle . 955
Postface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 981
Index
Table des matières

Volume3
Avant-Propos
Préface
1 Informatique théorique : calculabilité, décidabilité et logique . 989
2 Informatique théorique : complexité, automates et au-delà . 1031
3 Bases de données et intelligence artificielle . 1067
4 Web sémantique . . . . . . . . . . . 1097
5 Intelligence artificielle et langage . . . . . . 1 121
6 Bioinformatique . . . . . . . . . . . . . . . . 1 141
7 Intelligence artificielle et reconnaissance des formes, vision, apprentissage . . 1 165
8 Intelligence artificielle et robotique . . . . . . . . . . . . . . . . . . . . . . . 1 197
9 Perspectives philosophiques et épistémologiques ouvertes par l'intelligence ar-
tificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1251
10 Intelligence artificielle et psychologie du raisonnement et de la décision . . . . 1269
11 Fertilisation croisée entre interaction personne-système et intelligence artifi-
cielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1281
Postface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1307
Épilogue : pour une défense de la recherche en intelligence artificielle . . 1317
Index
Table des matières

vi
Volume 3
L'intelligence artificielle :
frontières et applications

L'intelligence artificielle (IA) , de par son projet de doter les machines de capacités
d'exploitation de données et de connaissances toujours plus sophistiquées, est au cœur
des sciences du traitement de l'information. Peut-être à cause de cela, les contours
mêmes de l'IA ont évolué avec le temps, et peuvent quelquefois poser questions à
certains quant à leur exacte localisation. C'est pour cette raison qu'il nous est apparu
intéressant et important de réserver un volume de ce panorama de l'IA à ses interfaces
avec de nombreuses disciplines, avec lesquelles elle entretient des liens forts aux plans
méthodologiques ou applicatifs.
Ces disciplines et ses liens sont de différentes natures. Motivés en général par des
complémentarités thématiques, ces liens ont aussi une dimension historique. Ainsi le
volume débute-t-il par une préface rappelant que l'IA est née pour une bonne part
de la cybernétique (ce dont le chapitre 1 du premier volume se fait aussi l'écho) . La
recherche opérationnnelle, dont les débuts précèdent d'une décennie ceux de l'IA, a
fait l'objet de la postface du deuxième volume, étant donné que c'est d'abord sur un
terrain algorithmique que les deux disciplines se rencontrent, la première ayant au
départ davantage développé des méthodes pour des classes de problèmes spécifiques,
tandis que la seconde privilégiait des méthodes plus génériques.
Ce troisième volume consacre bien naturellement des chapitres à des disciplines
historiquement soeurs de l'IA, car nées en même temps, et ayant d'ailleurs constitué
au départ un ensemble conjoint avec elles : le traitement automatique des langues, la
reconnaissance des formes et la vision par ordinateur, la robotique : les liens de l'IA
avec ces trois champs disciplinaires sont l'objet respectivement des chapitres 5, 7, et
8. Également proches et complémentaires par leurs liens directs à l'information, les
bases de données, le Web sémantique (apparu plus récemment à l'interface des bases
de données et de l'IA) , et les interactions homme-machine sont la matière des chapitres
3, 4 et 1 1 , respectivement. Toutes ces disciplines sont des lieux privilégiés d'applications
passées, présentes et futures de méthodes d'IA conjointement avec celles propres à ces
disciplines. C'est aussi le cas de la bio-informatique (chapitre 6) qui emploie pour une
part des outils, principalement algorithmiques, venant de l'IA.

vii
Les développements théoriques et méthodologiques de l'IA ont conduit aussi à un
dialogue avec l'informatique théorique autour des sujets classiques de cette discipline
que sont la calculabilité, la décidabilité, la logique ( chapitre 1), et la complexité, ou
les automates notamment ( chapitre 2) . De plus, il n'est sans doute pas exagéré de dire
qu'à terme, l'IA, au travers des questions théoriques qu'elle soulève ( et dont cet ou­
vrage a pu donner une idée) suscitera, en relation avec sa problématique, davantage de
recherches spécifiques en mathématiques et en informatique théorique. Par ailleurs, les
recherches en IA ont renouvelé des questions philosophiques et épistémologiques ( cha­
pitre 9) , tandis que leur validité cognitive interroge la psychologie du raisonnement et
de la décision ( chapitre 10) . D'autres aspects de la psychologie cognitive qui touchent
aussi à l'IA, comme la perception [Pylyshyn, 1984 ; Delorme et Flückiger, 2003 ; Pyly­
shyn, 2004 ; Bianchi et Savardi, 2008) , ne sont cependant pas abordés dans ce volume.
Enfin, une postface discute l'attente sociétale qu'a suscitée l'IA et ses mythes, tandis
qu'un épilogue de l'ouvrage fait brièvement le bilan du chemin parcouru, et s'efforce
de dissiper quelques malentendus. Il va sans dire que dans ce volume les chapitres sont
largement autonomes les uns des autres et que l'ordre de lecture sera essentiellement
dicté par les intérêts de chacun.
On pourra cependant regretter que diverses circonstances ne nous aient pas permis
d'inclure des chapitres sur les interfaces de l'IA avec un certain nombre de domaines, en
particulier la recherche d'information [Jones, 1999 ; Mandl, 2009 ; Pallot et al. , 2012) , la
réalité augmentée et la réalité virtuelle [Luck et Aylett, 2000 ; Donikian et Petta, 201 1 ;
Muratet et al. , 2011), l'intelligence ambiante [Foresti et Ellis, 2005 ; Cai et Abascal,
2006 ; Delaney, 2008 ; Rebaï et al., 2013) , la vie artificielle [Varela et Bourgine, 1992 ;
Langton, 1995 ; Drogoul et Meyer, 2000 ; Bersini et Reisse, 2007) , les systèmes complexes
et les réseaux petits mondes [Barabasi, 2002 ; Buchanan, 2002 ; Watts, 2004 ; Bourgine
et al. , 2006 ; Collard et al. , 2013) , l'économie [Walliser, 2000 ; Bourgine et Nadal, 2004 ;
Walliser, 2008) , les neurosciences computationnelles [Thorpe, 2009 ; Shah et Alexandre,
201 1) , et dans un autre registre, la création artistique [Borillo, 2010 ; Guffiet et Dema­
zeau, 2004) et littéraire [Balpe, 2000) . Les quelques références qui accompagnent cette
liste pourront aider à pallier quelque peu ce manque.

Références
BALPE, J.-P. (2000) . Contextes de l 'Art Numérique. Hermès.
BARABASI, A.-L. (2002) . Linked : The New Science of Networks. Perseus Books Group.
BERSINI, H. et REISSE, J . , éditeurs (2007) . Comment Définir la Vie ? Les Réponses de
la Biologie, de l 'intelligence Artificielle et de la Philosophie des Sciences. Vuibert.
BIANCHI, I. et SAVARDI, U. (2008) . The Perception of Contraries. Aracne, Roma.
BORILLO, M . , éditeur (2010) . Dans l 'Atelier de l 'Art. Champ Valon.
BOURGINE, P. , CHAVALARIAS, D. et COHEN-BOULAKIA, c., éditeurs (2006) . Déter­
minismes et complexités : du Physique à l 'Éthique : Autour d 'Henri Atlan. La
Découverte.
BOURGINE, P. et NADAL, J.-P. , éditeurs (2004) . Cognitive Economies. An Interdisci­
plinary Approach. Springer.

viii
BUCHANAN, M. (2002). Nexus : Small W orlds and the Groundbreaking Science of
Networks. W. W. Norton & Company, NewYork.
CAI, Y. et ABASCAL, J., éditeurs (2006) . Ambient Intelligence in Everyday Life. LNCS
3864. Springer.
COLLARD, P. , VEREL et CLERGUE, M. (2013) . Systèmes complexes. Une Introduction
par la Pratique. Presses Polytechniques et Universitaires Romandes.
DELANEY, K., éditeur (2008) . Ambient Intelligence with Microsystems. Augmented
Materials and Smart Objects. Springer.
DELORME, A. et FLÜCKIGER, M., éditeurs (2003) . Perception et Réalité : Introduction
à la Psychologie des Perceptions. De Boeck Supérieur.
DONIKIAN, S. et PETTA, P. (201 1 ) . A survey of research work in computer science
and cognitive science dedicated to the modeling of reactive human behaviors. J. of
Visualization and Computer Animation, 22(5) :445-455.
DROGOUL, A. et MEYER, J.-A., éditeurs (2000) . Intelligence Artificielle Située. Cer­
veau, Corps et Environnement. Hermès.
FORESTI, G. L. et ELLIS, T., éditeurs (2005). Ambient Intelligence - A Novel Paradigm.
Springer.
GUFFLET, Y. et DEMAZEAU, Y. (2004) . Applying the PACO paradigm to a three­
dimensional artistic creation. In Proc. 5th !nt. Workshop on Agent-Based Simulation
{ABS'04}, Lisbon, pages 121-126.
JONES, K. S. (1999) . Information retrieval and artificial intelligence. Artificial Intelli­
gence, 1 14(1-2) :257-281 .
LANGTON, C. G., éditeur (1995) . Artificial Life : An Overview. MIT Press, Paris,
Cambridge, Mass.
LUCK, M. et AYLETT, R. (2000) . Applying artificial intelligence to virtual reality :
Intelligent virtual environments. Applied Artificial Intelligence, 14(1) :3-32.
MANDL, T. (2009) . Artificial intelligence for information retrieval. In RABUNAL, J. R. ,
DORADO, J. et PAzos, A. , éditeurs : Encyclopedia of Artificial Intelligence, pages
151-156. IGI Global.
MURATET, M., TORGUET, P. , VIALLET, F. et JESSEL, J.-P. (201 1 ) . Experimental
feedback on Prog&Play : A serions game for programming practice. Comput. Graph.
Forum, 30(1) :61-73.
PALLOT, M., TROUSSE, B. et SENACH, B. (2012) . A tentative design of a future internet
networking domain landscape. In The Future Internet - Future Internet Assembly
2012 : From Promises to Reality, volume 7281 de LNCS, pages 237-249. Springer.
PYLYSHYN, Z. W. (1984) . Computation and Cognition : Toward a Foundation for
Cognitive Science. MIT Press.
PYLYSHYN, Z. W. (2004) . Seeing and Visualizing : lt 's Not What You Think. An Essay
on Vision and Visual Imagination. MIT Press.
REBAÏ, 1., PRZYTULA-MACHROUH, E., BELLIK, Y. , PRUVOST, G. et SANSONNET, J.-P.
(2013). Influence des modalités de sortie d'un système sur les modalités de l'utili­
sateur. cas des environnements ambiants de type pièces intelligentes. Technique et
Science Informatiques, 32(5) :575-604.

ix
SHAH, N. et ALEXANDRE, F. (20 1 1 ) . Reinforcement learning and dimensionality reduc­
tion : A model in computational neuroscience. In Proc. IEEE Int. Joint Conference
on Neural Networks {IJCNN'11}, San Jose, Ca, USA, July 31 - Aug. 5, pages 836-
842.
THORPE, S. J. (2009) . Why connectionist models needs spikes. In HEINKE, D. et
MAVRITSAKI, E., éditeurs : Computational Modelling in Behavioural Neuroscience :
Closing the Gap between Neurophysiology and Behaviour, pages 21-44. Psychology
Press.
VARELA, F. J. et B OURGINE, P. , éditeurs (1992) . Toward a Practice of Autonomous
Systems. MIT Press. Proc. lst Europ. Conf. on Artificial Life.
WALLISER, B. (2000) . L 'Économie Cognitive. Odile Jacob.
WALLISER, B . , éditeur (2008) . Economie et Cognition. Éditions Ophrys, É ditions de
la Maison des Sciences de l'Homme, Paris.
WATTS, D. J. (2004) . Six Degrees - The Science of a Connected Age. W. W. Norton
& Company, NewYork.
Liste des auteurs du volume 3

NICHOLAS ASHER (Université de Toulouse, CNRS, IRIT)


nicholas.asher@irit.fr
NICOLE BIDOIT-TOLLU (Université Paris Sud, LRI, INRIA)
nicole.bidoit@lri.fr
ISABELLE BLOCH (Télécom ParisTech, CNRS LTCI)
isabelle. bloch@telecom-paristech.fr
JEAN-FRANÇOIS BONNEFON (Université de Toulouse, CNRS, IRIT)
jean-francois. bonnefon@irit.fr
PATRICK Bosc (anciennement IRISA)
bosc22@gmail.com
OLIVIER BOURNEZ (École Polytechnique)
olivier. bournez@lix.polytechnique.fr
GUY Boy (Florida Institute of Technology -
Human-Centered Design Institute, USA )
gboy@fit.edu
LAURENCE CHOLVY (ONERA)
laurence.cholvy@onera.fr
RÉGIS CLOUARD (GREYC, ENSICAEN et
Université de Caen Basse-Normandie, UMR CNRS 6072)
regis.clouard@ensicaen.fr
FRANÇOIS COSTE (INRIA Rennes-Bretagne Atlantique)
fcoste@irisa.fr
LAURENCE DANLOS (Université de Nantes, LINA-CNRS)
laurence.danlos@linguist.jussieu.fr
GILLES DOWEK (INRIA Rocquencourt)
gilles.dowek@inria.fr
JÉRÔME EUZENAT (INRIA - LIG)
Jerome.Euzenat@inria.fr
MALIK GHALLAB (Université de Toulouse, CNRS, LAAS)
malik@laas.fr
RÉMI GILLERON (Université de Lille III, LIFL-CNRS)
remi.gilleron@univ-lille3.fr
SERGE GRIGORIEFF (Université Paris VII, LIAFA-CNRS)
serge.grigorieff@liafa.univ-paris-diderot.fr

xi
FÉLIX INGRAND (Université de Toulouse, CNRS, LAAS)
felix@laas.fr
CHRISTOPHE KOLSKI (Université de Valenciennes et
du Hainaut-Cambrésis - LAMIH-CNRS)
christophe.kolski@univ-valenciennes.fr
PIERRE LIVET (Université d'Aix-Marseille)
Pierre.Livet@univ-amu.fr
JEAN-YVES MARION (Université de Lorraine, LORIA)
jean-yves.marion@loria.fr
Guy MELANÇON (Université de Bordeaux - LaBRI et INRIA)
melancon@labri.fr
CLAIRE NÉDELLEC (INRA)
claire.nedellec@jouy.inra.fr
MAGALIE OcHS (Télécom ParisTech - CNRS LTCI)
magalie.ochs@telecom-paristech. fr
SIMON PERDRIX (Université Paris VII, PPS-CNRS)
simon.perdrix@pps.jussieu.fr
OLIVIER PIVERT (IRISA)
olivier. pivert@enssat.fr
GUY POLITZER (ENS-EHESS-CNRS)
ploitzer@univ-paris8.fr
MARINETTE REVENU (GREYC, ENSICAEN et
Université de Caen Basse-Normandie, UMR CNRS 6072)
marinette.revenu@ensicaen.fr
MARIE-CHRISTINE ROUSSET (Université de Grenoble & IUF - LIG)
marie-christine.rousset@imag.fr
THOMAS S CHIEX (INRA - Unité de Mathématiques et
Informatique Appliqués, Castanet Tolosan)
thomas.schiex@toulouse.inra.fr
OLIVIER SIGAUD (Université Pierre et Marie Curie, ISIR-CNRS)
olivier.sigaud@upmc.fr
S OPHIE TISON (Université de Lille I, LIFL-CNRS)
sophie.tison@lifl..fr
JEAN VANDERDONCKT (Louvain School of Management,
Université Catholique de Louvain - LiLab , Belgique)
jean. vanderdonckt@uclouvain.be
FRANCK VARENNE (Université de Rouen, GEMASS-CNRS)
fvarenne@wanadoo.fr
JEAN-PHILIPPE VERT (Mines ParisTech - Institut Curie)
jean-philippe.vert@mines.org
PIERRE ZWEIGENBAUM (Université Paris Sud, CNRS, LIMSI)
pz@limsi.fr

xii
Préface

L'intelligence artificielle (IA) est un domaine encore assez jeune (à peine plus d'un
demi-siècle) mais dont la médiatisation a été considérable dès ses débuts, accompa­
gnée parfois de polémiques. Il n'y en a plus guère et les recherches se sont largement
diversifiées ainsi qu'en témoignent le trois volumes dont voici le dernier. Cette variété
rend nécessaire une mise en perspective historique : c'est ce que je propose dans cette
préface.
Dès 1946, l'éditeur français Hermann avait fait paraître Cybernetics or Control and
Communication in the Animal and the Machine, de Norbert Wiener, qui fut un grand
succès éditorial. Et en 1954, un Congrès International de Cybernétique (le premier)
se tint à Namur et auquel j 'eus la chance de participer. L'intelligence artificielle n'a
commencé à être mentionnée comme un domaine à part entière - voire une discipline au­
tonome - qu'au milieu des années cinquante, dans le fameux « rapport de Dartmouth »,
rédigé par John McCarthy, Marvin Minsky, Nathan Rochester et Claude Shannon, les
pères fondateurs, en 1955. Il sera suivi de nombreux autres ainsi que par des congrès et
colloques sur l'intelligence artificielle (dont le baptême est un peu postérieur) . Les deux
domaines étaient évidemment voisins et furent souvent confondus, et d'ailleurs les fron­
tières interdisciplinaires avec d'autres domaines comme l'automatique, l'informatique,
les recherches cognitives, etc., demeurent, aujourd'hui encore, assez floues. Une vaste
arborescence de rubriques et sous-rubriques s'est finalement développée. Une mise au
point comme celle que présente cet ouvrage est donc la bienvenue.
J'ai eu le privilège d'être impliqué dans ces premiers développements. D'abord au
Commissariat à !'Energie Atomique où je dirigeais le laboratoire de Calcul Analo­
gique puis à Euratom où j 'avais constitué un « Groupe de Recherches sur !'Information
Scientifique Automatique ». Les sujets que nous avons abordés à cette époque étaient,
principalement :
- la documentation automatique,
- la traduction automatique,
- la simulation des jeux,
- la démonstration automatique des théorèmes.
Pour d'évidentes raisons économiques et politiques, le thème de la traduction auto­
matique bénéficia d'investissements considérables mais qui se trouvèrent brutalement
réduits lorsqu'il apparut que nos connaissances en linguistique (en sémantique particu­
lièrement) demeuraient insuffisantes pour qu'on puisse aboutir à des résultats accep-
Auteur : PAUL BRAFFORT.
tables. De toute façon, les algorithmes que nous développions et dont l'objectif était
la mise au point de procédures anti-combinatoires demandaient la mise en œuvre de
moyens informatiques dont peu d'équipes pouvaient alors disposer. Aussi les progrès
furent-ils assez lents et l'impatience des décideurs prompte à s'exprimer. Elle était
renforcée par des excès médiatiques où s'exprimaient trop de promesses qui ne furent
pas tenues. Il est intéressant de relire l'ouvrage de vulgarisation, rédigé en 1952 et
publié en 1953 par la NRF dans la collection « L'avenir de la science » dirigée par
Jean Rostand, ouvrage intitulé « La Pensée Artificielle » et sur-titrée « Introduction
à la Cybernétique ». L'auteur, Pierre de Latil, était un journaliste scientifique que le
livre de Norbert Wiener avait fortement impressionné. Latil, dans son livre, met l'ac­
cent sur un mécanisme dont les recherches menées pendant la seconde guerre mondiale,
celles, notamment, relatives à la défense anti-aérienne, avaient montré l'importance :
le feedback. Pour ce concept, qui est au centre des analyses de Wiener, Latil propose
un heureux néologisme : rétroaction (p. 52) . Le concept de rétroaction était - impli­
citement ou explicitement - à la base de nombreux projets d' « automates » que l'on
propose alors avec Ashby, Grey Walter, McCulloch, etc. L'enthousiaste Latil qualifie
ces projets de révolutionnaires, malgré la modestie de leurs résultats et de leur impact.
En fait, cet impact est essentiellement médiatique et réveille de vieux mythes comme
celui du Golem que Wiener évoquera plus tard dans God and Golem, !ne. (MIT Press,
1964) .
On peut trouver un exemple significatif des problèmes qui se posaient au début
des années 60, ainsi que des orientations que prenait la recherche dans l'exposé que je
présentai au deuxième congrès de l' AFCALTI, l' Association Française de Calcul Auto­
matique, en 196 1 , sous le titre « Rencontre de problèmes numériques et non numériques
dans l'élaboration d'un programme dédié à la résolution du jeu de. Go-bang » (p.221
du compte-rendu) . On y rencontre le thème et les problèmes de la représentation for­
malisée des « situations », et de leur évaluation, celui du parcours des arborescences
dans lesquelles elles s'inscrivent et des stratégies qu'elles permettent de construire. On
passait donc du numérique au symbolique.
La « programmation non numérique », qui débutait ainsi, représentait un tournant
important dans le développement des « machines à calculer électroniques », consacré
jusque-là au « calcul scientifique » qui dominait les ingénieries spatiale et nucléaire. Le
thème du non-numérique fut largement évoqué lors de la table ronde sur l'intelligence
artificielle organisée à Munich par Marvin Minsky, en 1962, dans le cadre du Congrès
de l'IFIP. J'y présentai un exposé intitulé « Des recherches concernant l'intelligence
artificielle à EURATOM » mais ces questions avaient été discutées aussi au cours des
deux colloques organisés un peu avant par IBM à Blaricum (Pays-Bas) avec la parti­
cipation de John McCarthy, et de nombreux logiciens. Certaines des communications
qui y avaient été présentées parurent d'ailleurs dans l'ouvrage que j 'éditai en 1963
avec David Hirschberg chez North-Rolland, dans la collection Studies in Logic and the
Foundations of Mathematics sous le titre Computer Programming and Formal Systems.
On y trouve notamment l'importante contribution de John McCarthy : A Basis for
a Mathematical Theory of Computation (p.33) qui est à l'origine du langage de pro­
grammation LISP et le célèbre article de Chomsky et Schützenberger : The Algebraic
·

Theory of Context-Pree Languages (p. 1 18) .

xiv
Le livre que je publiai en juillet 1968 aux Presses Universitaires de France, dans la
collection « La Science Vivante » dirigée par Henri Laugier, sous le titre « L'intelligence
artificielle » faisait le point sur ces recherches. Premier du genre, il figura à ce titre dans
le Guiness Book of Records ! On retrouve, bien entendu, les thèmes abordés dans les
neuf chapitres de ce petit livre dans les trois volumes du présent ouvrage : langage,
jeux, logique, complexité, contrôle ... et même création artistique.
Jean-Claude Quiniou, Jean-Marc Font, Gérard Verroust, Jean-Marc Philippe et
Claudine Marenco publièrent à leur tour, en 1970, un nouvel ouvrage de mise au
point intitulé, significativement « Les cerveaux non humains » (collection « Le point
de la question » ) . Dans ce livre - tout aussi méconnu que celui de Latil, on trouve,
entre autres, amusante curiosité, la présentation du « système bibinaire » de Boby La­
pointe (p.225) ainsi qu'une dénonciation curieusement virulente du livre messianique de
Jacques Bureau « L'ère logique » (Robert Laffont, 1969) . Bureau, ingénieur, présente
le projet d'une société qui serait devenue « autoadaptative » grâce à l'introduction des
nouvelles technologies, celles précisément. , du contrôle et de la communication. Cette
utopie reprenait un rêve déjà ancien qui, après une période de relatif oubli, renaît
aujourd'hui avec plus de vigueur que jamais dans les projets, les publications et l'ac­
tion promotionnelle de Raymond Kurzweill autour de ces progrès sensationnels dont il
prévoit l'éclosion en 2045, l'année de la « singularité ».

Analogique et digital : un débat inachevé


Avant même que l'expression « intelligence artificielle » se soit imposée, l'intérêt
du public cultivé s'est longtemps fixé sur des projets ou des modèles de machines ou
d'automates simulant le comportement d'animaux (renards, tortues) et même, on l'a
vu, de cerveaux humains. Mais dès les débuts, deux points de vue assez distincts se
manifestent et sont présents dans les premiers ouvrages publiés :
- le point de vue de l'ingénieur qui met l'accent sur les problèmes du contrôle et
insiste sur les schémas de rétroaction : c'est l'époque des « servomécanismes »
(l'homophonie servo/cerveau était assez malheureuse) et le théorème de Bode
joue ici un rôle essentiel. Sur le plan technique, on développe l'utilisation des
amplificateurs à courant continu à grand gain et grande impédance d'entrée.
C'est l'approche analogique.
- le point de vue du logicien en quête de formalismes et d'algorithmes de manipula­
tion symbolique : calcul des prédicats, techniques de codage formel, problèmes
de décision, évaluation de la complexité, etc. Le calcul des propositions et le cal­
cul des prédicats qui se sont développés avec la crise de la théorie des ensembles
sont désormais largement publiés et enseignés. C'est l'approche digitale.
Bien que Norbert Wiener fut à ses débuts un logicien traditionnel, spécialiste de
la théorie des ensembles et de l'algèbre des relations, puis un spécialiste de l'analyse
harmonique et de la théorie du mouvement brownien, il fut amené, à l'issue de la
deuxième guerre mondiale, à travailler sur les « servomécanismes » et leurs schémas
bouclés, notamment pour la défense antiaérienne. Après son séjour à Mexico et ses
recherches en collaboration avec Arturo Rosenblueth en cardiologie et physiologie du
système nerveux, il eut l'occasion de développer un véritable point de vue d'ingénieur

XV
au service duquel il avait utilisé les ressources de l'analyse fonctionnelle la plus avancée.
Son livre de 1946 avait mis l'accent, à cette occasion, sur les phénomènes de feedback
pour lesquels il développe une analyse mathématique complexe, illustrée de nombreux
schémas (que Latil reprendra et complétera) : des schémas de boucles et de cercles.
Parmi les métaphores géométriques élémentaires, celle du cercle est l'une des plus
utilisées, mais aussi l'une des plus ambiguës : rassurante lorsqu'il s'agit de la famille ou
des amis, inquiétante si c'est un raisonnement, une argumentation que l'on évoque. Elle
rejoint alors d'autres métaphores à connotation péjorative : labyrinthe, arborescence
complexe, etc . . La notion de boucle, surtout, présente des connotations opposées, qui
font penser à l'inachèvement aussi bien qu'à la complétion. Les schémas circulaires
abondent en effet dans l'essai de Wiener comme dans le livre de Latil.
Mais la crainte du cercle a donc toujours été vive chez les philosophes et les savants.
Elle s'exprime avec force chez tous ceux qui veulent préciser les conditions d'une argu­
mentation efficace et honnête. La détection d'un raisonnement circulaire est cause de
perplexité, voire de malaise, chez le lecteur : une expérience de pensée souvent pénible . .
Une telle situation est une conséquence d e l'épreuve que logiciens, mathématiciens et
philosophes traversèrent au début du siècle. La « crise » de la théorie des ensembles,
la découverte des paradoxes de la logique formelle, en premier lieu le paradoxe du
menteur, et l'expression précise des « énoncés de limitation » rendirent plus aiguë la
nécessité d'asseoir les disciplines scientifiques - et surtout les plus formalisées - sur des
bases solides . . .

Une étude de cas : le paradoxe des unités opération­


nelles dans le calcul analogique
S'ils sont opposés en apparence, les points de vue de l'ingénieur et du logicien
peuvent cependant se rejoindre : c'est en effet le cas chez Wiener. Et il se trouve que
j 'ai eu la possibilité d'en ébaucher la démonstration au début de ma carrière, à une
époque où, après avoir travaillé sur le fondement des mathématiques, avec Bachelard,
je m'intéressais aux fondements du calcul analogique électronique, alors en plein essor.
Les progrès de la technologie, l'augmentation spectaculaire de la vitesse des « ma­
chines digitales », qui rendaient possible la résolution des équations différentielles de
façon compatible avec les applications en « temps réel » entrainêrent le déclin de l'ana­
logique. Je m'étais aperçu alors, en collaboration avec Claude Gaillet, que l'étude des
mécanismes élémentaires du calcul analogique, lorsqu'elle était menée jusqu'au bout,
faisait apparaître une forme de paradoxe, un paradoxe profondément différent des pa­
radoxes de la théorie des ensembles (qui sont à la base de la théorie de la complexité) ,
paradoxe dont l'importance méritait d'être soulignée. Le cheminement de la réflexion
peut alors se poursuit, dans le domaine analogique, dans un certain parallélisme avec
celui qu'elle empruntait, après Post et Turing, dans le domaine digital, John von Neu­
mann, dans The Computer and the Brain, avait d'ailleurs, par d'autres voies, poursuivi
ce parallélisme.
Je crois donc utile, sortant ainsi du strict cadre d'une préface, d'exposer à nouveau
ce que je propose d'appeler « le paradoxe des unités opérationnelles dans le calcul

xvi
analogique ».
Les unités dont il est question ici sont les assemblages électroniques qui sont les élé­
ments constitutifs traditionnels d'une machine analogique : additionneurs, inverseurs
(de signe algébrique) , intégrateurs, etc. Leur composant principal est un amplificateur
à courant continu où la contre-réaction (ou rétroaction) joue un rôle essentiel, comme
on peut le voir sur le schéma (comportant une boucle !) ci-après :
L'objectif recherché, dans la constitution du schéma analogique ci-dessous, est sim­
plement d'obtenir la valeur opposée d'une valeur donnée : S(t) = -E(t) .

S(t)
E(t)

En raison du bouclage de la sortie sur l'entrée, cette tension électrique à l'entrée,


E(t) , et la tension de sortie S(t) s'ajoutent algébriquement et l'on a
E(t) = E(t) + S(t) .
Cette valeur est multipliée par le gain G de l'amplificateur. Comme ce gain est très
grand (de l'ordre de 10 5 ) , E(t) doit être très petit pour que la sortie S(t) qui est donc
égale à G x E(t) , soit finie. Cela veut dire que S(t) est très voisin de -E(t) , ce qui est
le résultat désiré. Mais E(t) est, en fait, l'erreur commise dans ce calcul. La solution
n'existe donc que parce qu 'il subsiste une erreur : c'est précisément le paradoxe, un
paradoxe « différent » ! Peut-être ne serait-il pas inintéressant de reprendre cette ana­
lyse en étudiant la dynamique du processus qui conduit à l'équilibre dans la circulation
de l'information le long de la boucle et d'y inclure la prise en compte le problème de
la bande passante de l'amplificateur ...

Anciennes et nouvelles singularités


Dans son livre ambitieux Darwin among the Machines (Helix Books, 1997) , dont
le sous-titre est The Evolution of Global Intelligence, George Dyson évoque Thomas
Hobbes et son Leviathan (1651) où les automates jouent déjà un rôle non négligeable.
Les développements technologiques qui se succèdent à la fin de la première guerre
mondiale provoquent des spéculations qui vont au-delà des questions purement lo­
giques et abordent l'ensemble des problèmes de l'intelligence. Parmi les personnalités
remarquables qui surgissent alors, on notera en particulier celle de I.J. Good. Ce ma­
thématicien anglais a joué un rôle décisif, aux côtés d'Alan Turing, dans le déchiffrage
du code Enigma utilisé par la marine de guerre allemande. Tout naturellement, tout
comme Turing, il oriente ensuite ses recherches vers le domaine des calculatrices et,
en 1963, prononce une conférence au titre provocateur : Speculations Concerning the
First Ultraintelligent Machine. Elle sera publiée dans Advances in Computers, vol.6,
1965. En voici la première phrase :

xvii
The survival of man depends on the early construction of an ultraintelligent machine.
Good se situe ainsi dans une grande tradition anglo-saxonne qui comprend évidem­
ment Jonathan Swift (1667-1745) avec l'Académie de Laputa et sa machine à produire
de la littérature, Mary Shelley (1797-1851) et la créature du Dr Frankenstein, ainsi que
Samuel Butler (1835-1901) et l'utopie d'Erewhon. En 1929, Olaf Stapledon (1886-1950)
a publié Last Men and First Men qui inspira Fred Hoyle comme I.J. Good et, parmi
de nombreux concepts anticipateurs, présente celui d' « intelligence distribuée ».
Depuis le début des années 80, les spéculations utopiques associées au développe­
ment de l'intelligence artificielle se multiplient, avec les travaux, inventions et publi­
cations de Raymond Kurzweill ( né en 1948) . Elève surdoué, il développe des modèles
réduits et des logiciels de statistique. En 1965 il est invité par CBS à interpréter au
piano une œuvre composée sur ordinateur. Puis il développe des technologies et des lo­
giciels de reconnaissance des formes (caractères et sons) et crée de nombreuses sociétés
dont la « Fondation Kurzweill » qui soutient le développement de technologies desti­
nées aux personnes handicapées. En 1990, il publie The Age of Intelligent Machines
( MIT Press) , en 1999, The Age of Spiritual Machines : When Computers Exceed Hu­
man Intelligence ( Penguin Books ) et reprend ainsi le thème cher à I.J. Good. Partant
de nombreuses extrapolations relatives à la vitesse et à la capacité des ordinateurs, il
prédit la venue d'un moment où la capacité des machines dépassera, dans tous les do­
maines, celle de l'homme et il en calcule même la date : 2045. C'est ce qu'il appelle la
singularité. L'effet médiatique est immense : plusieurs livres ( dont The Singularity is
Near : When Humans Transcend Biology, Viking 2005) , films, conférences internatio­
nales, etc. Désormais l'intérêt se concentre sur les capacités biologiques des automates,
la possibilité d'une forme d'immortalité ...
L'utopie, en tout cas, semble immortelle !
l . Informatique théorique : calculabilité, décidabilité et logique - 989

Chapitre 1

In formatique théorique :
calculabilité, décidabilité et
logique

Ce chapitre traite d'une question basique dans l'idée d'intelligence artificielle : que
peut-on calculer avec une machine ? Un accord s'est fait sur la réponse apportée par
Turing en 1936, toutes les autres approches proposées depuis ayant donné la même
réponse. On a ainsi un modèle mathématique de ce qui est faisable par machine. Cette
mathématisation a permis de prouver des résultats surprenants qui alimentent la ré­
flexion sur l'intelligence et les machines.

1.1 Introduction
1.1.1 Informatique théorique et thèmes fondateurs de l'IA
To me there is a special irony when people say machines cannot have minds,
because I feel we 're only now beginning to see how minds possibly could work
- using insights that came directly from attempts to see what complicated
machines can do.
" Why People Think Computers Can't '?" [Minsky, 1982}
Artificial intelligence researchers predict that "thinking machines " will take
over our mental work, just as their mechanical predecessors were inten­
ded to eliminate physical drudgery. Critics have argued with equal fervor
that "thinking machine " is a contradiction in terms. Computers, with their
foundations of cold logic, can never be creative or insightful or possess real
judgment. Although my own understanding developed through active parti-
Auteurs : ÜLIVIER BOURNEZ, GILLES DOWEK, RÉMI GILLERON, SERGE GRIGORIEFF , JEAN-YVES
MARION, SIMON PERDRIX et SOPHIE TISON.
990 Panorama de l'intelligence artificielle. Volume 3
-

cipation in artificial intelligence research, I have now come to recognize a


larger grain of truth in the criticisms than in the enthusiastic predictions.
"Thinking machines : Can there be ? Are we ? " {Winograd, 1982}
Comme en témoignent les citations ci-dessus, les thèmes fondateurs de l'IA sont
l'objet de controverses au sein même des pionniers de ce sujet. L'inévitabilité de celles­
ci nous semble bien résumée par cette remarque du neurologue Warren Mc Culloch
(von Neumann, 1951] : "J confess that there is nothing I envy Dr. von Neumann more
than the fact that machines with which he has to cope are those for which he has, from
the beginning, a blueprint of what the machine is supposed to do and how it is supposed
to do it. Unfortunately for us in the biological sciences we are presented with an alien,
or ennemy 's, machine. We do not know exactly what the machine is supposed to do
and certainly we have no blueprint of it. "
Sans nous hasarder à prendre parti dans ces controverses, il apparaît néanmoins in­
téressant de souligner quelques points <l'accroche entre les idées intrépides questionnées
par l'IA et certains des grands résultats de la logique et de la calculabilité présentés
dans ce chapitre. Nous le faisons sur quatre exemples. Ceci en gardant à l'esprit la mise
en garde de Jacques Bouveresse sur les « prodiges et vertiges de l 'analogie » (Bouveresse,
1999] .
1 . Au 17-ième siècle, Gottfried Wilhelm Leibniz assignait deux buts à la science et
à la philosophie (cf. §1.6. 1) :
- Une langue symbolique précise à vocation universelle ( characteristica universa­
lis) , qui soit construite sur un « alphabet des pensées », et permettrait une vision
claire du sens et de la vérité des assertions:
- Une méthode de manipulation des assertions de cette langue qui éluciderait
directement leur sens et les relations les reliant ( calculus ratiocinator) .
Restreinte au champ de la pensée mathématique, une réponse au premier but de Leib­
niz émerge avec la publication en 1879 du Begriffsschrift ( « Ecriture des concepts » ) de
Gottlob Frege, puis le développement des mathématiques dans un tel cadre formalisé
que réalisent Alfred Whitehead et Bertrand Russell dans les Principia mathematica,
publiés en 1910. Le théorème de complétude de Kurt Gôdel ( 1930) assure que cette
formalisation répond pleinement au rêve de Leibniz : aucun raisonnement déductif
n'échappe à la logique formelle créée par Frege.
Ainsi, la pensée déductive peut se laisser circonscrire par quelques règles et axiomes
simples, précis et explicites. Résultat à la base des programmes de démonstration au­
tomatique d'aujourd'hui et que l'on peut aussi considérer comme une réduction d'une
importante capacité de l'esprit humain à une capacité mécanisable. Il existe donc bien
ce « calculus ratiocinator » espéré par Leibniz (ca 1676) . Même s'il ne permet pas
de réduire tout désaccord d'opinion par une invitation au calcul (comme l'imaginait
Leibniz s'exclamant « Calculemus ! » ) , puisque son champ d'application est celui d'un
langage qui n'a pas l'ampleur de la « lingua characteristica universalis » rêvée.
2. En 1936 apparaissent deux résultats. D 'une part, la thèse de Church-Turing (cf.
§1 .2.7) , d'autre part, l'existence, prouvée par Alan Turing, d'une machine de Turing
universelle (cf. §1.3.2) . Considérés ensemble, ces résultats montrent qu'il y a des ma­
chines capables de mimer ce que peut faire n'importe quelle autre machine. Propriété
vraiment incroyable, citons [von Neumann, 1951] : " We might expect a priori that this
1 . Informatique théorique : calculabilité, décidabilité et logique 99 1
-

is impossible. How can there be an automaton which is as effective as any conceivable


automaton, including, for example, one of twice its size and complexity ? Turing, ne­
vertheless, proved that this is possible. " L'adaptabilité, la souplesse, le caractère protéi­
forme de l'intelligence humaine, en bref son universalité, sont donc des qualités qu'une
machine peut avoir. Bien sûr, cette analogie qualitative ne résout pas la question quan­
titative de savoir si le champ des possibles des machines contient pleinement ou non
celui du cerveau humain.
3. En 1938, Stephen Cole Kleene démontre un résultat étonnant, appelé théorème
du point fixe (cf. §1.3.2). Enoncé en termes de programmation, il assure que, quelle que
soit la transformation considérée sur les programmes, il y a toujours un programme qui
a le même comportement input/output que son transformé. Apparemment technique,
ce résultat est d'une immense portée. On peut, par exemple, considérer un programme
point fixe d'une transformation de programme telle que le programme transformé écrive
et/ou modifie le programme original. Puisque ce programme point fixe a la même sortie
que son transformé, on voit qu'il est capable de se décrire explicitement et fidèlement.
Ainsi, l'auto-référence, l'examen de ses propres mécanismes d'action, propriétés parfois
vues comme relevant de la conscience, peuvent être possédées par un programme ou
une machine. Et on peut aussi marier cette propriété d'auto-référence avec celle d'uni­
versalité.
Une forme particulière de cette auto-référence est l'auto-reproduction. Phénomène
mis en évidence par John Von Neumann en 1949 (cf. §1.2.5). Citons encore [von Neu­
mann, 1951] : " Can one build an aggregate out of such elements in such a manner that
if it is put in a reservoir, in which there float all these elements in large numbers, it
will then begin to construct other aggregates, each of which will at the end turn out to
be another automaton exactly like the original one ? This is feasible. ". Réalité aujour­
d'hui popularisée par le logiciel malveillant et la virologie informatique ... Et, là aussi,
on peut avoir conjointement auto-reproductibilité et universalité. Ainsi, une qualité
souvent vue comme relevant spécifiquement du vivant, est également possible avec des
machines ou programmes.
4. Vers 1958, le logicien Haskell Curry remarque une analogie entre les démons­
trations de certains systèmes de logique formelle (dits à la Hilbert) et les représenta­
tions des fonctions calculables dans un formalisme particulier (la logique combinatoire) .
Cette analogie est développée par William Alvin Howard en 1969 en un véritable iso­
morphisme entre les démonstrations en logique intuitionniste et les représentations de
fonctions calculables dans le formalisme du lambda-calcul typé (lequel ne donne pas
toutes les fonctions calculables mais une classe extrêmement grande, largement suffi­
sante en pratique) . Cet isomorphisme - dit de Curry-Howard - a depuis été étendu
de sorte à s'affranchir de la contrainte intuitionniste et à s'appliquer à des logiques de
plus en plus puissantes correspondant à des classes de fonctions calculables de plus en
plus larges (cf. §1.5).
L'isomorphisme de Curry-Howard prolonge ce qui a été mis en évidence au point
1 ci-dessus. Non seulement, l'activité de déduction est mécanisable - le calculus ratio­
cinator - mais elle est équivalente à l'activité de calcul ! Encore une fois, comparaison
n'est pas raison, mais quand même, cet isomorphisme de Curry-Howard est un fait
spectaculaire qui offre à réfléhir au-delà de sa seule expression mathématique.
992 Panorama de l'intelligence artificielle. Volume 3
-

1 . 1 .2 Des choix dans l'informatique théorique


L'informatique fondamentale est un vaste sujet, comme en témoignent les 2 283 et
3 176 pages des « Handbooks » (van Leeuwen, 1990 ; Abramsky et al. , 2001) . Couvrir en
quelques dizaines de pages, l'ensemble de l'informatique fondamentale nous a semblé
une entreprise hors de notre portée. De ce fait, nous nous sommes concentrés sur la
notion de calcul, sujet qui reflète le goût et la passion des auteurs de ce chapitre. Ce
chapitre est complété par un second tout aussi incomplet.
La notion de calcul est omniprésente et aussi ancienne que les mathématiques :
- Calculs sur les nombres entiers : algorithme d'Euclide calculant le plus grand
commun diviseur de deux nombres entiers, crible d'Eratosthène donnant les
nombres premiers, etc.
- Calculs sur les nombres réels : méthode de Simpson de calcul numérique d'une
intégrale, méthode de Newton d'approximation d'un zéro d'une fonction sur les
réels, etc.
- Calculs géométriques : aires et volumes divers, algorithme de Fortune donnant
le diagramme de Voronoï d'un ensemble de n points A1 , . . . , An du plan (ce
diagramme décompose le plan en n régions d'influence de formes polygonales :
la i-ème région est formée des points du plan plus proches de A que des autres
points Ai, j -=f. i) , etc.
- 'lfi d'une famille d'objets selon un certain ordre : tris par insertion, échange
(tri bulle, quicksort) , sélection (tri par tas) , fusion, distribution. Knuth (1973) y
consacre 388 pages !
- Calculs sur les textes : recherche de motifs (algorithme de Knuth, Morris &
Pratt) , compression de texte (algorithme de Ziv & Lempell) .
- Calculs dans les graphes finis : plus court chemin entre deux sommets ( algo­
rithme de Dijkstra) , couverture minimale (i.e. ensemble C de sommets tels que
tout sommet soit dans C ou voisin direct d'un point de C) .
Ce n'est qu'à partir de la première moitié du 20ième siècle que la notion de modèle
de calcul a été définie et étudiée. Nous présenterons de nombreux modèles de calcul
au cours de ce chapitre. La variété de ces modèles montre la difficulté à appréhen­
der la nature et la diversité des calculs. Il y a les calculs mécaniques et séquentiels,
les calculs quantiques, et tous les autres calculs qui s'appuient sur des hypothèses
physiques de modélisation de la nature. Un modèle de calcul est une représentation
mathématique de ce qui est calculable suivant certaines hypothèses sur le monde phy­
sique qui nous entoure. Ainsi face à face, il y a des modèles de calcul et des réalisations
concrètes (les ordinateurs ... ) . Cette dualité réside aussi dans le rapport entre syntaxe
et sémantique, entre l'objet manipulé et son sens. Notre première étape nous conduira
à explorer différents modèles qui calculent les mêmes fonctions que les machines de
Turing, conduisant à la thèse de Church-Kleene-Turing. Ceci étant, chacun de ces mo­
dèles propose une vision particulière qui tisse une notion de calcul. Il y a les calculs
séquentiels et le développement de la calculabilité. La théorie de la calculabilité définit
une représentation abstraite et algébrique de ce qui est calculable. Un de ses objectifs
est ainsi de distinguer ce qui est calculable/décidable de ce qui ne l'est pas, c'est à
dire qui est indécidable. Il y a aussi les calculs par automates cellulaires qui sont des
machines massivement parallèles et synchrones. Bien que conceptuellement différents
1 . Informatique théorique : calculabilité, décidabilité et logique 993
-

des modèles séquentiels, ils calculent pourtant exactement les mêmes fonctions que les
machines de Turing. La calculabilité est une formalisation mathématique de ce qui est
calculable. Elle exprime un point de vue dénotationel. C'est seulement dans les années
1980 que la notion d'algorithme, considérée comme objet d'étude, a réellement vu le
jour. Cette dualité dénotation/intention se reflète en logique avec l'émergence de la
théorie de la démonstration, où les démonstrations sont des algorithmes au travers de
l'isomorphisme de Curry-Howard.

1.2 Emergence de la notion de calculabilité


Il y a plusieurs ouvrages qui sont un bon point de départ sur la calculabilité pour
le lecteur curieux. Les livres de Rogers (1967] et Odiffredi (1989] sont des classiques qui
traitent de la calculabilité pour le lecteur qui a un penchant pour les mathématiques.
Le livre de Jones (1997] a une approche plus orientée théorie de la programmation
et traite de la complexité. Le livre de Savage (1998] se concentre sur les aspects ma­
chines et algorithmiques. Enfin, même si le livre de Papadimitriou (1994] se consacre
essentiellement à la complexité, il offre une bonne introduction à la calculabilité.

1.2.1 Modèles de calcul discrets par schémas de programmes


Récursivité primitive. Les premières tentatives de formalisation mathématique de
la notion de calculabilité se sont faites en considérant divers procédés de construc­
tions de fonctions à partir d'autres fonctions. En termes actuels de programmation,
ces constructions correspondent à des instructions bien connues. C'est ainsi que la
première approche mathématique a été celle des fonctions appelées aujourd'hui « ré­
cursives primitives ». Sur les entiers, il s'agit des fonctions que l'on peut obtenir à partir
de fonctions très simples (fonction constante de valeur 0, fonction successeur, fonctions
projections Nk --+ N) par composition et définition par récurrence. En termes de pro­
grammation impérative, ce sont les fonctions programmables avec la seule boucle FOR
(donc sans boucle WHILE) . Cependant, on s'est assez vite aperçu (Ackermann, 1928)
que cette famille était trop petite.
Systèmes d'équations de Herbrand-Godel. La première bonne formalisation a
été imaginée par Jacques Herbrand en 193 1 , quelques semaines avant sa mort (à 23
ans) dans un accident de montagne. Ayant, fort heureusement, décrit à grands traits
ses idées dans une lettre à Gôdel, c'est ce dernier qui en a assuré la mise en œuvre.
Cette formalisation, appelée aujourd'hui « systèmes d'équations de Herbrand-Gôdel »,
permet des définitions à l'aide de n'importe quel système d'équations fonctionnelles.
En termes actuels, on peut parler de programmation fonctionnelle.
Fonctions récursives de Kleene. C'est Stephen Cole Kleene, [1936] (et ses
livres [Kleene, 1952, 1967] d'une grande profondeur et (Davis, 1965] ) , qui introduit
la formalisation moderne la plus utilisée, dite classe des fonctions récursives (ou cal­
culables) , à l'aide d'une nouvelle construction : la minimisation. Cette construction
permet de définir, à partir d'une fonction totale f : Nk+l --+ N, une fonction partielle
994 - Panorama de l'intelligence artificielle. Volume 3

g : Nk -+ N telle que
domaine(g ) = { œ 1 3y f ( œ , y) = 0} g( œ ) = le plus petit y tel que f ( œ, y) = 0
Sans surprise, on montre que la classe des fonctions récursives à la Kleene coïncide
avec celle des fonctions programmables avec les deux boucles FOR et WHILE. Cette
classe coïncide aussi avec celle des fonctions Herbrand-Gôdel calculables.

1 .2 . 2 Modèles de calcul discrets par machines séquentielles


Machines de Turing. Quelle que soit la force des définitions de Herbrand-Gôdel et
de Kleene, elles ne permettent pas de répondre avec conviction à la question « peut-on
avoir d 'autres fonctions calculables ? ». C'est seulement avec l'analyse faite par Alan
Mathison Turing, (1936] (voir [Davis, 1965] et aussi la traduction préfacée par Girard
(1995] ) , que cette question peut enfin recevoir une réponse négative crédible. Dans cet
article, Turing argumente de façon très convaincante sur le fait que ce qui peut être
calculé par un humain qui travaille mécaniquement avec un papier et un crayon en
un nombre fini d'étapes est calculable par le dispositif qu'il a imaginé, et est appelé
maintenant « machine de Turing ». Dans sa plus simple expression, ce dispositif est un
ruban type machine à écrire sur lequel une tête de lecture/écriture peut lire et écrire
des lettres d'un alphabet fini fixé et peut aussi se déplacer d'un cran à la fois dans
les deux sens. L'écriture et le mouvement sont régis par l'état de la machine qui varie
dans un ensemble fini fixé. On montre (c'est pénible mais sans réelle difficulté, voir
le petit livre classique de Davis (1958] et tous ses autres ouvrages) que les machines
de Turing (modulo des conventions d'arrêt selon certains états) permettent de calculer
exactement les fonctions calculables à la Kleene.
Machines de Turing avec plusieurs rubans de dimensions quelconques et/ou
plusieurs têtes. Une extension naturelle de la machine de Turing est de remplacer
l'unique ruban par plusieurs rubans. Ou de multiplier les têtes. Ou de considérer des
rubans de dimensions 2 ou 3 ou plus (avec des têtes pouvant se déplacer d'une case dans
chaque direction) . On montre que ceci ne permet pas de définir de nouvelle fonctions.
Machines de Kolmogorov-Uspensky. Afin de tester la robustesse de la définition
de Turing, Kolmogorov et Uspensky [1958] imaginent de remplacer le ruban linéaire
de Turing par un ruban en forme de graphe non orienté qui peut se modifier au cours
du calcul. Lecture, écriture et modification du ruban (suppression ou adjonction d'un
noeud) se faisant toujours de façon locale, là où la tête se trouve. On suppose que le
graphe reste de degré borné fixé, c'est-à-dire que le nombre de voisins d'un sommet
quelconque est toujours ::; k pour un k fixé indépendant du sommet.
Machines de Schonhage (Storage modification machines) . Allant encore plus
loin, Schônhage (1980] imagine un ruban en forme de graphe orienté déformable dont
le degré sortant est borné mais pas le degré entrant. L'intuition est la suivante. Les
arcs du graphe sont vus comme des pointeurs : d'un sommet ne peuvent partir qu'un
nombre ::; k de pointeurs, mais un nombre arbitraire de pointeurs peuvent y arriver.
Mais là encore, machines de Kolmogorov-Uspensky et machines de Schônhage ne
donnent rien de plus que les fonctions Turing calculables.
1 . Informatique théorique : calculabilité, décidabilité et logique 995
-

1 .2.3 Modèles de calcul discrets par machines à registres à accès


aléatoire (Random Access Machines)
Pour mimer le fonctionnement d'un ordinateur très idéalisé, Melzak [1961] , et
Minsky [1961) imaginent une machine avec une infinité de registres, chacun capable
de contenir un entier arbitrairement grand. Elgot & Robinson [1964] montrent (voir
aussi Cook & Reckhow, [1973) ) qu'en permettant l'accès indirect, c'est-à-dire la possi­
bilité d'accéder à un registre à partir de son numéro lu dans un autre registre, et des
opérations très élémentaires sur les contenus des registres, ce modèle (appelé Random
Access Machine en anglais) calcule exactement les mêmes fonctions que les machines
de Turing.

1 .2 .4 Grammaires de type 0 de Chomsky


Un autre modèle de calcul discret opère par manipulation de mots, ce sont les
grammaires de type 0 de Chomsky [Hopcroft et al. , 2006) . Il s'agit d'ensembles de
règles de la forme PaQ -t P/3Q (où P, Q désignent des contextes gauche et droits
quelconques et a, f3 sont des mots fixés) qui permettent de remplacer un facteur a
dans un mot par le facteur (3. Partant d'un mot initial, on peut alors dériver toute une
famille de mots. Avec quelques conventions simples, on peut considérer les fonctions
dont le graphe est ainsi engendrable. On montre que les fonctions ainsi calculables sont
encore celles qui sont Turing calculables.

1 .2.5 Modèle de calcul discret à parallélisme massif les auto­


mates cellulaires
Le modèle décrit ci-dessous ne permet pas non plus d'aller au-delà des fonctions cal­
culables par machines de Turing. En revanche, son efficacité en temps est de beaucoup
plus grande. De plus, le modèle est en soi fascinant : nous invitons le lecteur à taper
« Conway Life » sur Google videos pour visualiser l'incroyable variété des comporte­
ments de cet automate cellulaire (dû à John Horton Conway, 1970) à deux dimensions
qui n'a que deux états.
Avec la capacité technologique actuelle d'architectures comportant des millions de
processeurs, un des challenges de l'informatique théorique aujourd'hui est de créer un
nouveau paradigme de programmation pour utiliser pleinement un tel parallélisme mas­
sif.
Pour cela, il faut d'abord choisir un type d'architecture pour le parallélisme massif.
Deux questions clés : la géométrie du réseau de processeurs et le fonctionnement syn­
chrone ou non. Visionnaire, ici comme dans tant d'autres sujets, John von Neumann a
mis en place dès 1949 un cadre théorique pour le parallélisme massif : celui des auto­
mates cellulaires. Et il a fait deux choix fondamentaux : fonctionnement synchrone et
géométrie simple à deux ou trois dimensions. Chacun de ces deux choix a été depuis
fortement questionné. D'autres approches ont été développées. Aucune n'a donné de
nouveau paradigme de programmation pour le parallélisme massif. Si von Neumann
visait des modèles de dimension 3 imitant certains mécanismes de l'activité cérébrale,
(cf. [von Neumann, 1951] ou [Delorme, 1999) ) , l'étude des automates cellulaires s'avère
996 - Panorama de l'intelligence artificielle. Volume 3

déjà fort complexe dès la dimension 1 .


Formellement, en dimension 1 , un réseau d'automates cellulaires indexé par Z (en­
semble de tous les entiers) est la donnée d'un triplet (Q, 8, Io) où Q est l'ensemble fini
des états, 8 : Q3 -+ Q est la fonction de transition et Io : Z -+ Q est la répartition
initiale des états. Notant It (i) l'état de la cellule en position i à l'instant t, l'évolution
du réseau obéit à la loi suivante : It+ 1 (i) = ô(It (i - 1 ) , It (i), It (i + 1)), i.e. le prochain
état d'une cellule ne dépend que de son état actuel et des états actuels de ses deux
voisines. La notion s'étend à des indexations par N ou { 1 , . . . , n } en rajoutant à 8 des
variantes pour le cas des bords (cas i = 0 pour N ou i = 1 , n pour { 1 , . . . , n } ) . Elle
s'étend aussi à des dimensions supérieures et, plus généralement, à des indexations par
les sommets d'un graphe de degré d borné (d étant le nombre maximum de voisins d'un
sommet) .
L e choix d e von Neumann d u caractère synchrone apparaît comme u n axiome puissant
pour un développement théorique. En asynchrone, des théorèmes existent certes, mais
on n'approche pas du tout la richesse du synchrone. Citons quelques résultats,
- En deux dimensions, sur Z x Z, l'automate cellulaire de von Neumann (1966] à 29
états qui est auto-reproducteur (au même sens que pour les virus informatiques)
et Turing-complet (c'est-à-dire capable de calculer toute fonction calculable) .
Amélioré par E.F. Codd (1968] (par ailleurs inventeur des bases de données
relationnelles) avec 8 états en mimant des fonctionnements de biologie cellulaire.
- Sur Z x Z encore, l'extraordinaire richesse du populaire Jeu de la Vie de John
H. Conway (1970) qui est un automate cellulaire à 2 états.
- La synchronisation possible dans n'importe quelle géométrie de graphe de degré
borné (Rosenstiehl, 1986] . De plus, ceci peut se faire avec tolérance aux pannes
(Jiang, 1992] , cf. aussi (Yunès, 2006 ; Grigorieff, 2006] pour des améliorations
ultérieures) .
Le deuxième choix de von Neumann, celui d'une géométrie simple à deux dimensions
a été validé a contrario par la malheureuse expérience de la « Connection machine »
(1980) , basée sur les travaux de (Hillis, 1986] et à laquelle a participé le prix Nobel
Richard Feynman (voir (Hillis, 1989] ) . Constituée de 65 536 (soit 2 16 ) processeurs, elle
a été connectée comme un hypercube de dimension 16. Mais personne n'a su exploiter
réellement le parallélisme massif ainsi offert. Est-ce si étonnant ? qui s'y retrouve pour
programmer dans un tel hypercube ? Et ce fut un échec commercial qui a gelé pour
longtemps l'implémentation du parallélisme massif. Mais aujourd'hui la demande d'un
paradigme de programmation massivement parallèle revient avec force, soutenue par
les grands noms de l'industrie informatique. Et cette problématique apparaît régulière­
ment jusque dans des articles du New York Times et du Wall Street Journal... Revenant
aux idées de von Neumann avec la géométrie élémentaire, d'autres voies sont aujour­
d'hui explorées pour forger des outils théoriques permettant de maîtriser le parallélisme
massif, (Mazoyer et Yunès, 2010] .

1 .2.6 Un modèle à part : le Lambda-calcul


Quelques mois plus tôt que Turing, et de façon indépendante, Alonzo Church était
arrivé à la conviction d'avoir obtenu un modèle capturant la notion de calcul effectif :
1 . Informatique théorique : calculabilité, décidabilité et logique 997
-

le À-calcul qu'il avait développé depuis le début des années 1930. L'article (Church,
1936] (voir (Davis, 1965] ) présente son argumentation. Sans pouvoir rentrer de façon
approfondie dans le À-calcul, mentionnons qu'il s'agit d'un langage de termes construit
à partir de deux opérations (cf. aussi la Remarque en fin du §1. 5.4) :
• l 'application (t u) d'un terme t à un autre terme u. Son intuition est celle de l'ap­

plication d'une fonction à un objet. La difficulté conceptuelle étant qu'en À-calcul tout
est fonction, il n'y a aucun typage 1 .
• l 'abstraction Àx t d'un terme t relativement à une variable x (qui peut figurer ou

non dans t). Son intuition est celle de la fonction qui à un objet x associe t (qui peut
dépendre de x) .
Ce langage de termes est complété par une notion de réduction, la ,8-réduction, qui
remplace l'application d'un terme u à une abstraction Àx t par le terme t (u /x) obtenu
en substituant u à x dans t (il y a un petit problème de clash de variable liée sur lequel
nous n'insisterons pas) . Le À-calcul est ainsi le premier exemple de système abouti de
réécriture.
Comment le À-calcul peut-il être un modèle de calcul ? Où sont les entiers ? L'idée,
très originale, de Churchest d'identifier un entier n au terme Churchn qui représente
la fonctionnelle qui itère n fois une fonction. Par exemple, le terme Church3 qui repré­
sente l'entier 3 est Àf Àx (f(f(fx)) . De la sorte, à chaque terme t on peut associer
la fonction sur les entiers qui associe à un entier n l'entier p si le terme (t, Churchn)
peut se réduire à Churchp . Church et Kleene ont montré que les termes du À-calcul
représentent exactement les fonctions partielles calculables (cf. §1.3.1).
Le À-calcul peut être typé, ce qui permet d'assurer la terminaison des réductions, et de
définir des fonctions totales. Dans la section 1.5, nous montrerons comment un À-terme
peut être vu comme l'interprétation d'une démonstration. Pour aller plus loin, nous
recommandons les livres (Barendregt, 1980 ; Hindley et Seldin, 1986 ; Krivine, 1990 ;
Hankin, 1994] .

1 .2.7 La thèse de Church et ses différentes versions


Le fait que tous les modèles considérés aux §1.2. 1 à 1.2.6 conduisent à la même no­
tion de calculabilité a été très vite réalisé. Ce qui a conduit à la thèse de Church-Turing,
exprimée en fait pour la première fois par Stephen Kleene, alors étudiant d'Alonzo
Church :
Ce qui est effectivement calculable est calculable par une machine de Turing.
Dans cette formulation, la première notion de calculable fait référence à une notion
donnée intuitive, alors que la seconde notion de calculable signifie « calculable par
une machine de Turing » (Gandy, 1980 ; Copeland, 2002 ; Ord, 2006] . Les discussions
originales de Church, Kleene et Turing sont relatives à des dispositifs algorithmiques
de déduction, si l'on veut à la puissance de la déduction formelle, et non pas à la notion
de machine ou de dispositif physique de calcul.
Comme !'argumente très justement Jack Copeland [2002] , cette thèse a subi un
glissement sémantique historique qui mène souvent à la confondre maintenant avec
1 . Il existe, bien sûr, des versions typées du À-calcul, mais celui considéré par Church n'est pas
typé.
998 Panorama de l'intelligence artificielle. Volume 3
-

la thèse suivante, nommée thèse M dans (Gandy, 1980] , et parfois nommée version
physique de la thèse de Church :
Ce qui peut être calculé par une machine peut l 'être par une machine de
Turing.
Dans cette dernière, la notion de machine est intuitive, et est supposée obéir aux lois
physiques 2 du monde réel (Copeland, 2002] . Sans cette hypothèse, la thèse est facile
à contredire, cf. les contre-exemples dans (Ord, 2006] ou dans (Copeland et Sylvan,
1999] . Observons que cette variante de la thèse est intimement reliée au problème de la
modélisation de notre monde physique, c'est-à-dire au problème de comprendre si les
modèles de notre monde physique sont correctement reliés à ce dernier. En fait, une
variante proche de la dernière thèse est la suivante :
Tout processus qui admet une description mathématique peut être simulé
par une machine de Turing {Copeland, 2002}.
Encore une fois ( et pour globalement les mêmes contre-exemples en fait que pour la
thèse physique ) , si le processus n'est pas contraint de satisfaire les lois physiques de
notre monde réel alors cette thèse est facile à contredire (Copeland, 2002] .
Ces trois thèses sont indépendantes : la première concerne la puissance des systèmes
formels ; la seconde concerne la physique du monde qui nous entoure (Smith, 1999 ; Co­
peland, 2002 ; Yao, 2003] ; la troisième concerne les modèles que nous avons du monde
qui nous entoure (Smith, 1999 ; Copeland, 2002 ; Yao, 2003] .
Chacune de ces thèses, faisant référence à une notion intuitive, ne saurait être complè­
tement prouvée 3 . Il peut toutefois être intéressant de discuter ces thèses.
D'une part, il est possible de chercher à définir un certain nombre d'axiomes mini­
maux que doivent satisfaire un système formel, ou une machine physique pour rendre
ces thèses prouvables. Cela permet de réduire ces thèses à des hypothèses minimales
sur les systèmes considérés, et peut aider à se convaincre de leur validité (Gandy, 1980 ;
Dershowitz et Gurevich, 2008 ; Boker et Dershowitz, 2008] .
D 'autre part, si l'on prend chacune de ces thèses de façon contraposée, chacune
signifie que tout système qui calcule quelque chose de non calculable par une machine
de Turing doit utiliser un ingrédient, que nous appellerons ressource, qui soit n'est
pas calculable algorithmiquement, pour la première, soit n'est pas calculable par une
machine physique, pour la seconde, soit n'est pas calculable par un modèle de machine
physique, pour la troisième. Dans tous les cas, on peut qualifier (si besoin par définition )
une telle ressource de « non raisonnable ». Il peut alors sembler important de discuter
ce qui fait qu'une ressource peut être non raisonnable, indépendamment de la véracité
de chacune des thèses, pour mieux comprendre le monde et les modèles du monde qui
nous entourent.
Enfin, on peut observer que ces thèses expriment des faits très profonds sur la
possibilité de décrire par les mathématiques ou par la logique le monde qui nous entoure
(Dowek, 2007] , et plus globalement sur les liens entre calculabilité, mathématiques et
physique :
2. Sinon à ses contraintes sur les ressources.
3. En fait, la notion de calcul, ou de machine, est souvent définie dans nombre d'ouvrages de
calculabilité ou de complexité, en supposant ces thèses (ou l'une de ces thèse) comme vraie.
1 . Informatique théorique : calculabilité, décidabilité et logique 999
-

- la nature calcule-t-elle ?
- quels sont les liens entre non-déterminisme, chaos, non-prédictibilité, et aléatoire
[Longo et Paul, 2009] ?

1.2.8 Axiomatisation de la thèse de Church par Gandy


Robin Gandy propose dans [Gandy, 1980] de réduire la thèse physique de Church à
quatre principes (assez techniques) . L'intérêt de cette axiomatisation est que l'on peut
alors prouver mathématiquement que ce qui est calculable par un dispositif physique
satisfaisant à ces quatre principes est calculable par machine de Turing. Autrement dit,
Gandy propose de remplacer la thèse physique de Church par la thèse qu'un système
mécanique physique déterministe discret satisfait à ces quatre principes. Gandy suppose
que l'espace physique est l'espace géométrique ordinaire à trois dimensions. Suivant
[Dowek, 2007] , on peut dire que l'argumentation de Gandy traduit dans ces quatre
principes deux grandes hypothèses relatives à la nature physique : la finitude de la
vitesse de la transmission de l'information et la finitude de la densité de l'information.
La discussion de Gandy se limite aux systèmes discrets digitaux, et écarte explicitement
les systèmes analogiques dès son début. Développée pour les systèmes déterministes,
elle peut s'étendre aux systèmes non déterministes assez facilement.
Les principes de Gandy sont satisfaits par tous les modèles de calcul discrets usuels,
y compris ceux qui sont massivement parallèles comme le jeu de la vie (cf. §1.2.5) En .

revanche, les deux hypothèses physiques mentionnées plus haut, ne sont pas nécessai­
rement vraies dans toute théorie physique. Il peut donc être intéressant de comprendre
ce qui se passe par exemple en mécanique quantique, ou en physique relativiste. Pour la
physique quantique, nous renvoyons à [Nielsen, 1997] pour une discussion des sources
de non-calculabilité, et les conséquences à en tirer sur la thèse de Church ou sur nos
modèles physiques. L'article [Arrighi et Dowek, 2008] discute par ailleurs de principes
à la Gandy qui permettraient de capturer la théorie des calculs quantiques.
Mentionnons que l'axiomatisation de Gandy a été simplifiée et étendue ultérieure­
ment par différents travaux de Wilfried Sieg : voir par exemple [Sieg, 1999, 1994, 1997,
2008] . Une toute autre axiomatisation de la notion d'algorithme, due à Gurevich, sera
vue en §1 .4.

1.3 Théorie de la calculabilité


Nous avons vu plus haut la diversité des modèles de calcul et le fait remarquable
que tous conduisent à la même classe de fonctions calculables. Fait qui conduit à la
thèse de Church-Kleene-Turing assurant que chacun d'eux est une formalisation de la
notion intuitive de calculabilité.

1 .3 . 1 Calculs qui ne s'arrêtent pas


Un autre fait important est que, dans chacun de ces modèles, il y a des calculs
qui ne s'arrêtent pas. Comme chacun le sait, il n'y a pas non plus de langage de pro­
grammation des seules fonctions calculables. Il y a toujours des programmes qui ne
1 000 Panorama de l'intelligence artificielle. Volume 3
-

terminent pas dans certains cas, expérience banale de tout programmeur ...
D'où la notion de fonction partielle calculable (ou fonction récursive partielle) : fonction
non partout définie dont la valeur là où elle est définie est donné par le résultat d 'un al­
gorithme. La dénomination « fonction partielle calculable » n'est pas très heureuse car
le qualificatif partiel a un double sens : d'une part, il exprime que la fonction est par­
tielle, c'est-à-dire non partout définie, d'autre part, la calculabilité de cette fonction est
partielle car elle ne permet pas de décider si la fonction est ou non définie en un point
mais seulement de connaître sa valeur lorsqu'elle est définie. Daniel Lacombe, dans les
années 1960, avait essayé (sans succès) d'introduire la dénomination bien meilleure de
« semi-fonction semi-calculable » ou de « fonction partielle partiellement calculable »
(cf. (Lacombe, 1960] , §1.9) .
La contrepartie ensembliste de cette notion de fonction partielle calculable est celle
d'ensemble calculablement énumérable (ou récursivement énumérable) , c'est-à-dire
d 'ensemble pour lequel il existe une énumération des éléments qui est calculable. Ainsi,
si un élément est dans l'ensemble, on finit par le savoir. En revanche, si un élément n'y
est pas, on n'a a priori aucun moyen de le savoir.
Ce phénomène de calculabilité partielle peut apparaître comme une scorie de la cal­
culabilité, en fait, il s'agit d'un trait fondamental qui permet une vraie théorie de la
calculabilité. Il est important de le souligner : Malgré le grand nombre de livres intitulés
« théorie de la calculabilité », il n 'y a pas de théorie significative de la calculabilité. En
revanche, il y a une remarquable théorie de la calculabilité partielle. Citons quelques
résultats spectaculaires que nous énonçons pour les fonctions sur les entiers, mais on
pourrait le faire pour les fonctions sur toute autre famille d'objets finis : mots, arbres
ou graphes finis ...

1 .3.2 Trois théorèmes « positifs » en calculabilité partielle


Théorème d'énumération. Adoptons la convention d'écriture f(e, x) = fe (x) . Il
existe une fonction partielle calculable ip ( l ) : N2 -+ N telle que la famille des fonctions
x i-+ <p�1 ) (x), e E N, soit exactement la famille des fonctions partielles calculables de N
dans N . Même chose pour les fonctions avec k variables et une fonction ip ( k) : Nl +k -+ N .
De manière plus intuitive, la fonction partielle calculable 'P ( l ) correspond à la définition
d'un interpréteur. Autrement dit, ip ( l ) dénote une machine de Turing universelle. Ainsi,
<p�1 ) (x) est l'évaluation du programme e sur l'entrée x. Le livre de Jones (1997] fait le
pont entre la calculabilité et la théorie de la programmation.
La vision en terme de machine de Turing universelle conduit à une question natu­
relle, celle de la complexité d'une telle machine. Le nombre d'états est une mesure qui
s'impose. Cependant, ce n'est pas une mesure absolue car si l'alphabet de la machine
est riche, on peut coder des états par des lettres. C'est donc le couple (nombre d'états,
nombre de lettres) qui est pris en considération comme « taille » d'une machine. A
l'heure actuelle, les plus petites machines de Turing universelles connues ont les tailles
suivantes 4 : 2 x 18, 3 x 9, 4 x 6, 5 x 5, 7 x 4, 10 x 3, 19 x 2 (cf. Rogogine and al. (1996 ;
2002 ; 2001] ; voir aussi (Neary et Woods, 2006] pour d'intéressantes variantes de cette
4. La machine 2 X 3 annoncée en 2007 par Alex Smith, cf. Wolfram prize, considère la question
avec des conditions incompatibles avec ce qui est entendu ici.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 OO 1

question) . On ne sait pas quels sont les meilleurs couples possibles, il a seulement été
prouvé [Pavlotskaya, 1973, 1978 ; Kudlek, 1996] que, pour tout n, les couples 1 x n,
2 x 3, 3 x 2 ne sont pas des tailles de machines universelles car le problème de l'arrêt
de telles machines est décidable, cf. §1.3.3.
Théorème du paramètre (ou s-m-n) {Kleene, 1943 ) . Il existe une fonction cal­
culable totale s : N3 -t N telle que, pour toute fonction partielle calculable f : N2 -t N
x
de programme e, et tout et y, on a

cps( 1(e,y
) (
)
X) - 'Pe( 2 ) ( X, Y )
La fonction s calcule un nouveau programme à partir d'un programme existant e et
d'une entrée y. Ce résultat a des conséquences d'une surprenante richesse. Tout d'abord,
il dit qu'un programme et une entrée sont interchangeables : la grande idée de John
von Neumann pour les ordinateurs ! D'autre part, s spécialise un paramètre du pro­
gramme e par y, et en cela le théorème du paramètre de Kleene est la pierre de base
de l'évaluation partielle. Au passage, mentionnons la projection de Futamura-Ershov­
Turchin qui construit un compilateur en spécialisant un interpréteur d'un langage de
programmation avec le programme à compiler. On se reportera encore aux travaux de
Jones (1997] .
Théorème du point fixe de Kleene {1938 ) . Quelle que soit la fonction partielle
calculable f : N -t N, il existe e telle que, pour tout = x, cpi1 ) (x) cp}��) (x).
Ainsi,
pour toute transformation de programme, il y a un programme qui fait la même chose
que son transformé. Evidemment, en général ce programme (ainsi que son transformé)
ne fait rien, c'est-à-dire ne termine pas. Mais ce n'est pas toujours le cas : ce théo­
rème est, de fait, un des outils les plus puissants de la calculabilité. Ce théorème a
de nombreuses conséquences et il permet de montrer en général des résultats négatifs
d'indécidabilité. Les liens avec la logique ont été explorés, avec le brio qu'on lui connaît,
par Smullyan (1993 ; 1994] . Ceci étant, un exemple amusant d'application positive est
l'obtention d'un programme sans entrée dont la sortie est le programme lui-même !
De tels programmes sont appelés des « quines ». Ce théorème du point fixe est aussi
la source d'une théorie de la virologie, qui a débuté avec la thèse de Cohen (1986] et
l'article de son directeur Adleman (1988] . L'implication du théorème du point fixe dans
la virologie a été éclaircie dans (Marion, 201 2] . Enfin, ce résultat est aussi employé en
apprentissage (Jain et al. , 1999] .
Après ces théorèmes positifs, voyons deux théorèmes catastrophes.

1 .3.3 Deux théorèmes « négatifs » en calculabilité partielle


Indécidabilité de l'arrêt. Le domaine de cp<1l
n'est pas calculable. En d'autres
termes, on ne peut pas décider par algorithme si le calcul sur une entrée donnée s'arrête
ou non. Théorème qui peut aussi être vu comme théorème anti-chômage : on aura tou­
jours besoin d'un chercheur pour essayer de décider ce genre de question, pas possible
de le remplacer par un programme. Il est aussi difficile de résister à la démonstration
de ce résultat qu'à une boîte de chocolats pendant la période des fêtes de fin d'année.
1 002 - Panorama de l'intelligence artificielle. Volume 3

Pour cela, considérons la fonction partielle f telle que f(x) = 1 si <p11 ) (x) n'est pas
définie et f(x) n'est pas définie si <p11 l (x) est définie. Si le domaine de <p( l ) était cal­
culable, cette fonction f le serait aussi ; mais nous allons montrer par contradiction
que f n'est pas calculable. Pour cela supposons que r soit un programme de f. En
d'autres termes, la fonction f est calculée par <pp ) . Regardons de plus près f(r) . Si
f(r) = 1 , alors <p�1 ) (r) n'est pas définie, par définition de f. Puisque <p�1 ) (r) = f(r) ,
nous obtenons une contradiction. Essayons alors l'autre possibilité. Si f(r) n'est pas
définie, alors <p�1 ) (r) l'est, toujours par définition de f. Nous obtenons une seconde
contradiction. Par conséquent nous concluons que la fonction f n'est pas calculable.
Cette démonstration de l'indécidabilité du problème de l'arrêt utilise une construction
par diagonalisation, un argument inventé par Cantor pour montrer que le cardinal de
l'ensemble des fonctions des entiers sur les entiers n'est pas dénombrable. Une autre
démonstration consiste à utiliser un argument quantitatif qui s'appuie sur le paradoxe
de Richard [1906] et la fonction dite du castor affairé [Rado, 1962] (en anglais « busy
beaver » ) .
Théorème de Rice (1954) , version programmes. Quelle que soit la famille P de
fonctions partielles calculables, si P n'est ni vide ni pleine (il y a une fonction partielle
calculable dand P et une autre non dans P) alors l'ensemble { e 1 <p�1 ) E P} des pro­
grammes qui calculent une fonction dans P n'est pas un ensemble calculable. Ainsi, on
ne peut décider aucune question non triviale sur la sémantique des programmes, et cela
a des conséquences fondamentales pour la démonstration automatique et la vérification
de programme.

1 .4 Formalisation de la notion d'algorithme


1 .4 . 1 Dénotationnel versus opérationnel
Qu'est-ce qu'un algorithme. Si la formalisation de la notion intuitive de calculabi­
lité est faite vers 1936, la question de savoir ce qu'est un algorithme reste cependant
ouverte. En effet, les très nombreux résultats étayant la thèse de Church montrent
qu'il y a bien des formalisations de classes d'algorithmes (ceux associés aux machines
de Turing, ceux des machines RAM, ceux des programmes C, etc.) qui suffisent à cal­
culer toutes les fonctions (partiellement) calculables. Mais ces classes sont clairement
distinctes : un programme à la Kleene avec boucles FOR et WHILE peut mimer et être
simulé par un programme de machine RAM ou un automate cellulaire mais il n'a rien
de commun avec (sauf l'association entrée/sortie) . Ce sont donc des résultats de com­
plétude dénotationnelle. Mais y a-t-il une notion formelle d'algorithme englobant toutes
ces classes ? En d'autres termes peut-on obtenir une classe formelle d'algorithmes qui
soit opérationnellement complète ? Soulignons que la thèse de Church ne dit rien à ce
sujet : elle est relative au dénotationnel pas à l'opérationnel.
Les tentatives de Kolmogorov & Uspensky et de Schonhage. Le premier à
s'attaquer à ce problème est Kolmogorov vers 1953 [Kolmogorov, 1953 ; Kolmogorov
et Uspensky, 1958] . C'est dans ce but qu'il semble avoir introduit les machines de
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 003

Kolmogorov-Uspensky (cf. §1.2.2). Mais il ne dispose pas d'outil lui permettant d'ar­
gumenter dans ce sens. En fait, on sait depuis les travaux de Yuri Gurevich[1997] que
ni ce modèle ni celui des machines de Schônhage (cf. §1.2.2) ne sont opérationnellement
complets. Cependant, des généralisations le sont, cf. §1 .4.2 ci-dessous.

1 .4.2 Complétude opérationnelle


Les ASM de Yuri Gurevich. Vers 1984, Yuri Gurevich [1988 ; 2000] . introduit une
notion de machine complètement nouvelle, basée sur la logique : les machines abstraites
à états (en anglais « Abstract State Machines », originellement appelées « Evolving Al­
gebras » ) . Une ASM est une structure munie de fonctions (les relations sont confondues
avec des fonctions à valeurs booléenes) :
- Certaines fonctions sont fixes. Elles constituent la partie statique de l' ASM et
correspondent aux primitives de programmation (ou encore à une bibliothèque) .
- D'autres peuvent évoluer au cours du calcul selon un programme écrit dans un
langage qui ne comprend que des affectations, la conditionnelle et une notion de
bloc parallèle. C'est la partie dynamique de l'ASM qui traduit l'environnement
(par nature dynamique) du programme.
Le fait d'expliciter une partie statique dans les ASM souligne qu'il n'y a pas d'al­
gorithme absolu qui dise la totalité du « comment faire ». Tout algorithme utilise des
fonctions qu'il considère comme primitives et dont il ne dit pas comment elles doivent se
faire. Par exemple, une machine de Turing indique s'il faut avancer la tête à gauche ou
à droite, s'il faut écrire tel ou tel symbole dans une case, mais elle ne dit pas comment
on avance la tête de lecture ni comment on écrit dans une case ... Quiconque s'essaye à
programmer une machine de Turing s'aperçoit vite qu'il lui faut des lignes dédiées à
ces opérations dans son programme.
Ce modèle des ASM est extrèmement flexible et, en variant partie statique et vo­
cabulaire dynamique, on arrive à simuler « pas à pas » tous les modèles de calcul
séquentiel connus (cf. l'abondante littérature citée sur la page Web de Gurevich) . On
peut même améliorer cette simulation « pas à pas » en « identité littérale » (Grigorieff
et Valarcher, 2009] .
Complétude opérationnelle des ASM. Ces résultats de simulation pas à pas jus­
tifient la thèse de Gurevich (ou thèse du calcul séquentiel}, énoncée dès la première
publication, [Gurevich, 1985] , de Gurevich sur ce modèle :
Toute façon « séquentielle » de calculer est simulable pas à pas par une
ASM.
C'est le premier résultat de complétude opérationnelle !
Mentionnons que Gurevich a aussi étendu ses travaux aux algorithmes parallèles et aux
algorithmes concurrents, notions plus délicates encore [Blass et Gurevich, 2003, 2008] .
Complétude opérationnelle des hyper-KU et des hyper-Schonhage. Yuri Gu­
revich (1997] a montré qu'on peut simuler pas à pas les ASM par des généralisations
des modèles de calcul de Kolmogorov-Uspensky et de Schônhage, modèles générali­
sés qui sont donc opérationnellement complets. Dans ces généralisations, on remplace
le ruban-graphe par un ruban hypergraphe de rang 3. Dans le cas non orienté (cas
1 004 Panorama de l'intelligence artificielle. Volume 3
-

hyper-KU) , les arêtes deviennent donc des hyper-arêtes qui relient chacune une paire
de sommets à un troisième sommet. Dans le cas orienté (cas hyper-Schônhage) , les
arcs deviennent des hyper-arcs qui relient chacun un couple de sommets à un troisième
sommet.
Sans passer aux hypergraphes, il suffit de rajouter aux modèles de calcul originaux
de Kolmogorov-Uspensky et de Schônhage une fonction injective de l'ensemble des
couples de noeuds dans l'ensemble des noeuds ainsi que les inverses de cette injection
(qui sont des fonctions partielles) pour qu'ils deviennent opérationnellement complets.

Complétude opérationnelle du Lambda-calcul. Un travail récent, (Ferbus et Gri­


gorieff, 2010] , montre que le comportement d'une ASM est simulable en lambda calcul,
une étape de calcul de l' ASM étant simulée par un groupe de k réductions successives
en À-calcul, où k est un entier fixe ne dépendant que de l'ASM considérée et pas des
entrées. Le À-calcul est donc au moins aussi riche opérationnellement que l'est le mo­
dèle des ASMs. Il est donc opérationnellement complet.
L'approche de Moschovakis. Une autre approche d'un modèle opérationnellement
complet a été entreprise par Yannis Moschovakis (2001] en utilisant la notion de défini­
tion par plus petit point fixe. Elle rend compte de la notion d'algorithme à un niveau
plus abstrait que celui des ASM de Gurevich.

1 .4.3 L 'axiomatisation de la notion d'algorithme par Gurevich


Yuri Gurevich propose d'axiomatiser la notion d'algorithme par les trois axiomes
suivants :
i. Un algorithme détermine une suite « d 'états de calcul » pour chaque entrée valide.
ii. Les états d 'une suite d 'états de calcul sont des structures d 'un même langage
logique qui ont toutes le même domaine.
iii . Le successeur d 'un état quelconque ne diffère de cet état que par ses interpréta­
tions sur un nombre fini borné de points donnés par une famille finie de termes
du langage.
Cette axiomatisation ainsi que sa justification est évidemment intimement liée à la
théorie des ASM. Gurevich (2000] , prouve formellement sa thèse à partir de ces trois
axiomes.
Thèse de Church et thèse de Gurevich Rajoutant un quatrième axiome,
.

iv. Seules des opérations considérées comme indéniablement calculables sont dispo-
nibles dans les états initiaux.
Nachum Dershowitz et Yuri Gurevich (2008] (qui font suite à (Baker et Dershowitz,
2008] ) , prouvent que tout processus calculatoire qui satisfait ces quatre axiomes vé­
rifie la thèse de Church. La beauté de cette axiomatisation (Dershowitz et Gurevich,
2008] est d'être générique, formelle, et basée sur des formalismes communément admis.
D'autre part, elle permet de réduire prouvablement tout doute sur sa validité en doute
sur l'un de ces quatre principes élémentaires.
Mentionnons qu'il est possible d'étendre ces résultats à la notion d'algorithme parallèle
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 005

[Blass et Gurevich, 2003) , et de la relier à la notion d'algorithme quantique (Grâdel et


Nowack, 2003) .

1 .4.4 Complétude opérationnelle et récurrence


Nous avons mentionné au § 1 . 2 . 1 que la boucle WHILE n'était pas simulable à partir
de la boucle FOR. Loïc Colson [1991) est allé plus loin dans cette investigation avec le
problème suivant : les algorithmes issus des définitions primitives récursives (c'est-à-dire
ceux construits avec composition et boucle FOR) suffisent-ils à obtenir les algorithmes
naturels et efficaces de calcul des fonctions primitives récursives ? Colson prouve que
non avec un exemple frappant. La fonction (x, y) i-+ min(x, y) qui donne le minimum
de deux entiers écrits en unaire est évidemment primitive récursive. Un algorithme très
simple pour la calculer est de décrémenter en parallèle (ou alternativement) chacun des
deux arguments x, y jusqu'à que l'un des deux devienne égal à zéro. Cet algorithme
suit les équations suivantes :

min(x, O) = 0 min(O, x + 1) = 0 min(x + 1 , y + 1) = min(x, y) + 1

et termine au bout de min(x, y) étapes. Cependant, cet algorithme ne provient pas


d'une définition primitive récursive car une telle définition utilise une récurrence sur un
argument particulier, et pas sur deux arguments à la fois comme dans les équations (*).
Colson prouve que tout algorithme issu d'une définition primitive récursive s'exécute
nécessairement en un temps proportionnel à x ou bien proportionnel à y, donc aucun
ne peut travailler comme l'algorithme naturel (et plus rapide) en temps O(min(x, y)) .
Néanmoins, Colson observe que la notion de définition primitive récursive étendue aux
fonctionnelles (cf. Gôdel [1958) ) permet d'obtenir cet algorithme :

(b)
M(O) >.y 0 C(f) (O) � 0
min(x, y) � M(x) (y)
·

M(x + 1) <;) C(M(x)) C(f) (y + 1) � J(y) + 1

où M : N --+ (N --+ N) et C : (N --+ N) --+ (N --+ N) . Le lecteur s'en rendra compte


en suivant le calcul de min(3, 7) selon ces équations : chaque application des équations
(c) puis (e) est une décrémentation alternative des deux arguments (on a encadré ces
étapes)

min(3, 7) � 1 M(3) (7) 1 � C(M(2)) (7) � 1 M(2) (6) 1 + 1 � C(M( 1)) (6) + 1
� 1 M(1) (5) I + 2 � C(M(0)) (5) + 2 � 1 M(0) (4) I + 3 � (>.y . 0) (4) + 3 --+ 0 + 3 --+ 3
Ce type de résultat a été ensuite étendu à d'autres familles d'algorithmes, cf. [Fredholm,
1996 ; Colson et Fredholm, 1998) , et à d'autres fonctions très simples telles le pgcd (plus
grand commun diviseur) , cf. Yiannis Moschovakis [2006) et Lou van den Dries [2003) .
1 006 Panorama de l'intelligence artificielle. Volume 3
-

1.5 Déduction et calcul : la nature algorithmique des


preuves constructives
1.5.1 Les preuves constructives comme langage de programma­
tion
Un des résultats les plus étonnants de l'informatique théorique et de la program­
mation est le lien profond qui existe entre déduction et calcul.
La propriété du témoin. L'illustration la plus simple de la nature algorithmique des
preuves est donnée par la propriété du témoin des preuves « constructives » 5 :
D 'une preuve constructive d 'une formule de la forme 3y A, il est possible
d 'extraire un terme u et une preuve constructive de la formule A(u/y) 6 .
De la même façon, d'une preuve constructive d'une formule exprimant l'existence d'une
fonction, c'est-à-dire d'une formule de la forme Vx3y A, il est possible d'extraire un
programme calculant une telle fonction : à partir d'un terme t ( l 'entrée du programme)
et de la preuve constructive de la formule Vx3y A, on peut (par instanciation) trouver
une preuve constructive de la formule 3y A(t/x) et donc un terme u ( la sortie du pro­
gramme) ainsi qu'une preuve constructive de la formule A(t/x, u/y) . Ainsi, le langage
des preuves constructives peut-il être vu comme un langage de programmation dont le
mécanisme d'exécution des programmes coïncide avec celui de l'extraction du témoin
dans les preuves, mécanisme appelé aussi réduction des preuves.
Un langage de programmation avec spécification prouvée. Un avantage de
ce langage des preuves constructives sur les autres langages de programmation est,
qu'en plus de la sortie u, le mécanisme d'extraction fournit une preuve de la formule
A(t/x, u/y) , c'est-à-dire une preuve de ce que t and u satisfont bien la spécification A.
On imagine combien ce peut aussi être un outil puissant en intelligence articielle pour
la recherche de preuve de spécification [Kanovich et Vauzeilles, 2007] .
C'est aussi un langage de programmation dont tout programme termine.
Certes, cette propriété interdit au langage d'être Turing complet : d'une part, il ne
permet pas de programmer toutes les fonctions calculables partout définies (il en man­
quera) , d'autre part, pour une fonction qu'il permet de calculer, il ne pourra pas en
implémenter tous les algorithmes de calcul possibles. Néanmoins, ce langage des preuves
constructives (tout particulièrement dans ses versions étendues aux théories, cf. §1.5.6)
est d'une grande richesse expressive, contrairement aux autres langages de program­
mation dans lesquels tout programme termine (comme le langage de la récursivité
primitive avec la seule boucle FOR, cf. §1.2. 1 ) . La raison en est qu'il permet d'exprimer
toutes les fonctions dont l'existence peut être prouvée dans la théorie considérée. En
effet, si on peut prouver l'existence d'une fonction dans cette théorie, alors cette preuve
d'existence est elle-même un programme de calcul de cette fonction (dans ce langage
des preuves) ...
5. On dit aussi preuve « intuitionniste ». Nous préférons le qualificatif « constructive » car il met
l'accent sur le caractère opérationnel, algorithmique donc, alors que le qualificatif « intuitionniste »
relève du vocabulaire philosophique.
6. A(u/y) est la formule A dans laquelle la variable y est substituée par le terme u.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 007

Pour aller plus loin dans cette utilisation des langages de preuves comme langages de
programmation, voir l'article de Christine Paulin-Mohring et Benjamin Werner [1993] .

1.5.2 Les logiques et leurs systèmes formels


La notion de prouvabilité, c'est-à-dire la famille des formules qui seront dites prou­
vables, est souvent définie par rapport à un système formel. La prouvabilité est donc
mécanisable. La notion de vérité s'exprime par rapport à une sémantique. Le lien entre
entre prouvabilité et vérité est établi par un théorème de complétude qui a été démontré
en 1930 par Gôdel. Il s'énonce ainsi :
Une formule est valide si et seulement si elle est prouvable
Rappelons qu'une formule est valide si elle est vraie dans toute interprétation du sys­
tème formel. Nous renvoyons le lecteur qui serait intéréssé par la logique mathématique
aux livres [Cori et Lascar, 1983a,b] .
La logique classique est encore parfois présentée par une liste d'axiomes et la règle
modus ponens, appelé système à la Hilbert. La définition d'une logique par un système
formel particulier n'est pas anodin. Dés les années 30 avec les travaux de Gentzen,
on s'est rendu compte que le calcul des séquents ou la déduction naturelle avait de
meilleures propriétés (élimination des coupures) que les systèmes à la Hilbert. De même,
la méthode des tableaux est utilisée en déduction automatique.
La logique linéaire, développée par Jean-Yves Girard [1987] , en est aussi un exemple.
Intuitivement, chaque formule compte. Autrement dit, A /\ A n'est pas équivalente à
A, ce qu'il faut comprendre comme disposer de deux ressources, même identiques, est
différent de disposer d'une seule. Techniquement, cela revient à interdire les règles
structurelles de la contraction et de l'affaiblissement dans un calcul des séquents. De
plus, les réseaux de preuve sont une généralisation, introduite pour la logique linéaire,
de la déduction naturelle. Le petit livre [Girard et al. , 1989] explique tout cela mer­
veilleusement bien.

1 .5.3 Les preuves constructives et leurs notations


La déduction naturelle constructive (ou intuitionniste)
Gerhard Gentzen [1934] (Voir aussi Prawitz [1965] ) a proposé un système : la
déduction naturelle constructive (ou intuitionniste). Comme son nom l'indique, ce
système suit de très près les façons naturelles de faire des preuves, c'est-à-dire les
façons de faire des mathématiciens. En particulier, pour prouver une formule de la
forme A ::::} B, ce que fait un mathématicien est de supposer A et de prouver alors B en
se servant de cette hypothèse A. Ceci conduit à définir non pas directement la famille
des formules prouvables mais une famille de couples constitués d'une liste finie de
formules hypothèses (appelée le contexte) et d'une formule conclusion. Un tel couple
est appelé un séquent et est noté A i , . . . , An f- B , la liste (A1 , . . . , An ) étant le contexte,
et la formule B la conclusion. Les axiomes et les règles de déduction de la déduction
naturelle sont donnés par la Table 1 7• On notera que la règle d'introduction du ::::}
7. Dans cette table, les axiomes ont été représentés comme des règles sans prémisse. D'autre part,
les lettres A, B, C représentent des formules quelconques et la lettre t représente un terme quelconque.
l 008 - Panorama de l'intelligence artificielle. Volume 3

axiome
A i , . . . , An 1- Ai

r 1- 1-
1--élim T-intro
r 1- A r 1- T

r l- A t\ E r l- A t\ E r 1- A r l- E
t\-élim t\-intro
r i- A r l- E r l- A t\ E

r i- A V E r, A 1- C r, E 1- C r 1- A r l- E
V-élim V-intro
r 1- c r i- A V E r i- A V E

r i- A r l- A =? E r, A 1- E
=?-élim =?-intro
r l- E r l- A =? E

r 1- Vx A r i- A
V-élim V-intro
r 1- A ( t/ x ) r 1- Vx A
(si X n'est pas libre dans r )

r l- 3x A r, A l- E ,. r 1- A ( t / x )
3-ehm 3-intro
r 1- E r 1- 3x A
(si X n'est pas libre dans r, E )

TABLE 1 - Axiomes et règles en déduction naturelle constructive (ou intuitionniste)


1 . Informatique théorique : calculabilité, décidabilité et logique - 1 009

correspond bien à ce qu'on a dit plus haut de la manière de faire du mathématicien.


Un examen attentif de ces règles montre que chacune correspond à une façon de
raisonner tout à fait naturelle et usuelle. Notons enfin que les axiomes sont triviaux
puisqu'il s'agit des séquents dont la conclusion figure dans le contexte ... Le lecteur
peut s'étonner de ne pas y trouver de règle pour la négation. La raison en est que
l'on considère que la négation ·A est la formule A ::::} _i, c'est-à-dire la formule qui
exprime que A implique le faux.
A partir de ces axiomes et règles, on définit une preuve comme un arbre dont les
sommets sont étiquetés par des séquents de sorte que
(i) les feuilles sont étiquetées par des axiomes,
(ii) chaque noeud interne ayant N fils (où N = 1, 2, 3) est étiqueté par une règle ayant
N prémisses.
Un exemple de preuve est le suivant
-------� ax ax
p ::::} (q ::::} r) , q, p 1-p ::::} (q ::::} r) p ::::} (q ::::} r) , q, p 1-p ,
------- :::} - el ax
p ::::} (q ::::} r), q, p l- q ::::} r p ::::} (q ::::} r), q, p l- q ,
-------� :::} -el
p ::::} (q ::::} r), q, p l- r .
------ ::::} -mtro
p ::::} (q ::::} r) , q f- p ::::} r .
---- ::::} -mtro
p ::::} (q ::::} r) 1- q ::::} (p ::::} r)

Les séquents prouvables sont les séquents qui étiquetent les preuves. Remarquons aussi
que les arbres ne vérifiant que la condition {ii) correspondent à des règles dérivées
dont les prémisses sont toutes les feuilles qui ne sont pas des axiomes. Rajouter de
telles règles dérivées n'augmente pas la famille des séquents prouvables.
Enfin, le cadre usuel de prouvabilité se retrouve comme suit :
- une preuve d'une formule A est une preuve du séquent de contexte vide 0 1- A,
- une preuve d'une formule A dans une théorie axiomatique 7 (c'est-à-dire un ensemble
7 de formules) est une preuve d'un séquent r 1- A dont le contexte r est inclus dans
7.
Remarque. Comme on est en logique constructive, certaines propriétés « classiques »
ne sont plus prouvables. Nous citons ci-dessous trois exemples de tautologies de la
logique « classique » {le premier est la formule de Pierce, les deux autres traduisent
les formules p V •P et ••P ::::} p) dont aucune n'admet de preuve constructive :

((p ::::} q) ::::} p) ::::} p p V (p ::::} l_) ( (p ::::} _i) ::::} _i) ::::} p

Contextes
L'étiquetage des noeuds des arbres de preuves par des séquents est plutôt lourd
car les contextes sont des listes de formules qui se répètent de noeud en noeud. Une
notation plus légère serait bienvenue. L'idée la plus simple est d'oublier les séquents
et de ne garder en étiquettes que les noms des règles utilisées. Mais cela ne suffit pas
Il s'en suit que chaque axiome est en fait une liste infinie d'axiomes et chaque règle une liste infinie de
règles.
l 0 l 0 - Panorama de l'intelligence artificielle. Volume 3

car il faut bien indiquer les formules en jeu dans la règle. Comme les contextes varient
assez peu dans une preuve, on procède comme suit.
• On introduit un nom ai pour chaque hypothèse Ai du contexte du séquent de la

racine de l'arbre de preuve. On obtient ainsi le contexte nommé (a 1 :Ai , . . . , an :An ) ·


Pour l'utilisation d'un axiome, i l suffit alors d'indiquer l e nom d e l'hypothèse e n jeu.
Ainsi, avec le contexte nommé (a :P =? Q, (3 :P) pour la racine, la preuve
axiome axi��e
a :P =? Q, (3 :P f- p =? Q a :P =? Q, (3 :P f- p
=?-ehm
a :P =? Q, (3 :P f- Q
peut être exprimée par l'arbre (que nous écrivons comme un terme) =?-élim(a, (3).
• Pour les règles qui modifient le contexte (le =?-intro et le V-élim) il faut indiquer

les hypothèses mobiles et les nommer. Ainsi, avec le contexte nommé (a :P) pour la
racine, la preuve
------- axiome ------- axiome
a :P, (3 :P =? Q f- P =? Q a :P, (3 :P =? Q f- P
=?-élim
a :P, (3 :P =? Q f- Q .
=?-mtro
a :P f- ( P =? Q) =? Q
ne peut pas être simplement réécrite sous la forme =?-intro( =?-élim((3, a) ) car, pour
pouvoir retrouver le contexte (a :P, (3 :P =? Q) du fils de la racine, il faut indiquer que
c'est l'hypothèse P =? Q nommée (3 qui est mobile dans cette règle. Nous réécrirons
donc l'arbre de preuve comme le terme suivant =?-intro((3, =?-élim((3, a)) .
O n observe qu'il y a beaucoup de similarités entre noms d'hypothèses et variables. Par
exemple, dans une preuve associée au terme =?-intro((3, 7r ) , le nom d'hypothèse (3 ne
peut être utilisé que dans la sous-preuve associée au terme 11' et ne figure pas dans le
contexte nommé de la racine de cette preuve. On peut donc dire que la preuve 11' est
dans le champ de la variable (3 et que cette variable est liée par le symbole =?-intro.

Termes associés aux preuves constructives


Nous pouvons maintenant attacher des termes aux preuves en déduction naturelle.
Pour chaque règle, nous introduisons un symbole de fonction qui sera le nom de la règle.
Par exemple le nom de la règle =?-intro est .X. L'arité de ce symbole est le nombre de
prémisses de la règle plus le nombre de paramètres nécessaires pour retrouver la règle
à partir de son schéma. Pour chacun de ses arguments, ce symbole de fonction lie les
hypothèses qui sont rajoutées dans la prémisse associée. Formellement, la construction
du terme associé à une preuve se fait par la récurrence décrite par la Table 2 (le lecteur
qui s'interroge sur les symboles choisis pour construire ces termes trouvera leur raison
d'être au §1.5.5).

1 .5.4 Réduction de preuve constructive


Coupures
Une coupure est une preuve qui se termine par une règle d'élimination dont la
prémisse principale est prouvée par une règle d'introduction du même connecteur. Un
Œi { r 1- Ai axiome l { r 1- T T-intro rr { � -L ::::} 5üA , ") { r �
T' 1-
J_ ,,
_L-ehm

"{
r

{-=- {-=- ::::} . . n-l A B /\-e_ ,snd(") { n-l A B /\-e.


A
.. .
-- -- .
rr1 , rr2 (rr1 , rr2) •
r 1-A r 1-B . : => !•«") '
r 1-A r 1-B /\-l r l-A/\ B T' l- A T' l- R

{� ::::} { . { . { .
TI- A A R

rr
r A
{ �
i ( A , B , ") r A
V-l.
rr1 :
r i- A V B
, rr2 :
r , a :A l- c
, rr3 :
r , /3 :B I- c
==>

{� ::::} { �
r 1- A V B ,

......
rr j ( A , B , ") r B ô(rri , a :A n2 , /3 :B rr3) •
r l-AVB r , a :A l-C r , /3 :B l-C ,
r B V-l. V-e S'

::::}
r 1- A V B 8'

{
r 1-c

{� rr
r A
A ::::} ::::}-l
Àa :A rr • r , A 1- B
, 1-
r B
. rri { r 1-
 *
B '
rr2
r �A


;.
o.
,, 0

::::}-é
::i.

==> app(rr1 , n2) •
r , A 1- B r 1- A �

::::} >.u { { �x ::::} t)


a

{
r l- B
ô
i:

�A � �
t x)
rr r B . rr app(n , r 1- Vx A , :::;:
r V-l r 1- A V-e .o
.

::::} (t, ::::}


r 1- Vx A r 1- A(

{ { : { :
p.
(1),
ô

rr
r 1- l(t/x) rr) r 1- A (t ) .
3-1
/x rr1
r 1- 3x A
, rr2
r , a :A 1- B
�::::.·
(1),
, r 1- 3x A

xa :A rr2 )
rr1 rr2
Ô3 ( rr i , r 1- 3x A r , a :A 1- B �
T' 1- R
3-é
1·'
......
0
......
TABLE 2 - Termes associés aux preuves en déduction naturelle constructive
1 0 1 2 Panorama de l'intelligence artificielle. Volume 3
-

fst( ( 7r1 , 7r2 ) ) ---+ 7r1


snd( (7r1 , 7r2 ) ) ---+ 7r2
ô(i(A, B, 7r1 ) , a :A 7r2 , f3 :B 7r3) ---+ 7r2 ( 7ri / a)
ô(j (A, B, 7r1 ) , a :A 7r2 , (3 :B 7r3) ---+ 7r3 ( 7ri /(3)
((.Xa :A 7r1 ) 7r2 ) ---+ 7r1 ( 7r2 / a)
( (.Xx 7r) t) ---+ 7r (t/ x)
ô3 ( (t, 7r1 ) , x a :A 7r2 ) ---+ 7r2 (t/x, 7ri f a)

TABLE 3 - Règles de réduction de preuve constructive

exemple très simple est celui d'une preuve de la forme suivante :

7r1 : :7r2
r 1- A r 1- B .
�-mtro ,
r 1- A /\ B
/\-ehm
r 1- A
Une telle preuve peut être simplifiée en ne gardant que la preuve 7r1 qui conduit
au même séquent r 1- A. Avec les termes associés, la preuve avec coupure s'écrit
fst( ( 7r1 , 7r2 ) ) et la règle de réduction de preuve est

Un exemple de coupure plus complexe est celui d'une preuve de la forme

r, a : A 1- B :7r2
=?-intro
r 1- A =? B r 1- A
------ =?-élim
r l- B
dont le terme associé est ((.Xa :A 7r 1 ) 7r2 ) . La réduction de cette preuve se fait ainsi :
• on supprime l'hypothèse A dans tous les séquents de la preuve 7r 1 ,

• on remplace chaque axiome qui introduit en conclusion cette formule A par la preuve

7r2 .
Cette opération est donc une simple substitution : dans la preuve 7r1 , on substitue
la preuve 7r2 à chaque occurrence de la variable a associée à l'hypothèse A dans le
contexte r, A. Ceci conduit à la règle de réduction de preuve qui est la (3-réduction du
À-calcul ( 1 .2.6)
( (.Xa :A 7r1 ) 7r2 ) ---+ 7r1 ( 7r2 / a)
Les autres règles sont construites de façon analogue. La Table 3 donne l'ensemble des
règles de réduction de preuve. Ainsi, si une preuve contient une coupure, il est facile de
l'éliminer en appliquant l'une des règles de réduction. Mais l'élimination d'une coupure
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 0 1 3

peut créer d'autres coupures ! Le théorème principal du sujet assure que, néanmoins,
ce processus de réduction des preuves se termine.
Remarque. La famille des termes ainsi construits avec ses règles de réduction est une
extension du À-calcul évoqué au §1.2.6. Le À-calcul proprement dit correspond aux
termes associés aux preuves dans lesquelles ::::} est le seul connecteur qui apparaisse
avec la seule règle afférente, dite ,B-réduction, qui est celle de la cinquième ligne de la
Table 3.

Elimination des coupures et extraction du témoin


Ce mécanisme de réduction des preuves est exactement celui qui permet d'extraire
le témoin des preuves (cf. §1.5.1). En effet, une récurrence simple sur la structure des
preuves montre que si une preuve constructive d'un séquent sans axiome (c'est-à-dire
d'un séquent de contexte vide) est sans coupure alors cette preuve se termine par une
règle d'introduction.
En particulier, si 7r est une preuve d'une formule de la forme 3y A alors 7r se termine
par une règle 3-intro et elle est donc de la forme (u, 7r1 ) , où 7r1 est une formule de la
forme A( u /y) . Ainsi, le terme u est le témoin cherché.

1.5.5 L'interprétation de Brouwer-Heyting-Kolmogorov


La propriété du témoin fait du langage des preuves un langage de programmation.
Ce qui frappe le plus dans ce langage, c'est sa similarité avec les langages de program­
mation fonctionnelle bien connus. Cette similarité ne s'explique pas par la propriété du
témoin mais par une observation toute différente, due à Brouwer, Heyting et Kolmo­
gorov.
Pour construire une preuve de A /\ B avec la règle /\-intro, il faut d'abord construire
une preuve de A et une preuve de B. Et quand on a une preuve de A /\ B, on peut
l'utiliser avec les règles /\-élim pour construire une preuve de A ou une preuve de B.
Ceci rappelle ce qui se passe en théorie des ensembles avec le couple. Pour construire
un couple formé d'une preuve de A et d'une preuve de B, il faut d'abord construire une
preuve de A et une preuve de B. Et quand on a cette un couple formé d'une preuve de
A et d'une preuve de B, on peut l'utiliser pour avoir une preuve de A ou une preuve
de B. Ainsi, une preuve de A /\ B se construit et s'utilise exactement comme un couple
formé d'une preuve de A et d'une preuve de B.
De la même façon, une preuve de A ::::} B se construit et s'utilise exactement comme
un algorithme qui associe à une preuve de A une preuve de B.
Ainsi, une preuve de A /\ B est un couple formé d'une preuve de A et d'une preuve
de B, et une preuve de A ::::} B est un algorithme qui associe à une preuve de A une
preuve de B. Plus généralement,
- Une preuve de T est l'élément d'un ensemble singleton {I} .
- Il n'existe pas de preuve de 1-.
- Une preuve de A /\ B est un couple formée d'une preuve de A et d'une preuve
de B.
- Une preuve de A V B est ou bien une preuve de A ou bien une preuve de B.
1 0 1 4 - Panorama de l'intelligence artificielle. Volume 3

- Une preuve de A =? B est un algorithme qui associe à une preuve de A une


preuve de B.
- Une preuve de Vx A est un algorithme qui associe à chaque terme t une preuve
de A(t/x) .
- Une preuve de 3x A est un couple formée d'un terme t et d'une preuve de
A(t/x) .
Ce sont ces correspondances qui justifient les noms choisis pour les symboles entrant
dans les termes associés aux preuves. Si 71'1 est une preuve de A et 71'2 une preuve de B ,
nous écrivons ( 7ri , 11'2 ) pour la preuve de A /\ B construite à l'aide de la règle /\-intro
parce que cette preuve est le couple formé d'une preuve de A et d'une preuve de B.
Si 11' est une preuve de B qui utilise une hypothèse A représentée par une variable
libre a, nous écrivons .Xa :A 11' pour la preuve de A =? B construite à l'aide de la règle
=?-intro parce que cette preuve est un algorithme qui associe à une preuve de A une
preuve de B.
De plus, comme l'ont remarqué Curry, de Bruijn et Howard, on peut associer un
type à la famille des preuves de chaque formule. En particulier, si <P{A) est le type des
preuves de la formule A et <P ( B ) celui de la famille des preuves de la formule B alors
le type de la famille des preuves de la formule A =? B n'est autre que <P(A) ---+ <P(B) ,
c'est-à-dire le type des fonctions de <P(A) dans <P{B) , puisque toute preuve de A ::::} B
est un algorithme envoyant une preuve de A sur une preuve de B. Ainsi,

<P(A =? B) = <P(A) ---+ <P( B )

Des phénomènes similaires sont aussi vrais avec les autres connecteurs et quantifica­
tions : <P est un isomorphisme entre les formules et les types. C'est l'isomorphisme
de Curry-de Bruijn-Howard. En identifiant, comme il est usuel de le faire, des objets
isomorphes, on voit que le type d'une preuve est la formule qu'elle prouve.

1 .5 . 6 Théories
Rappelons que lorsqu'on a esquissé la démonstration de la propriété du témoin au
§1.5.4, on a bien précisé qu'une preuve constructive sans coupure d'un séquent sans
axiome se termine nécessairement par une règle d'introduction. Cette propriété ne
s'étend pas à n'importe quelle théorie axiomatique. Par exemple, si on ajoute le seul
axiome 3x P(x) , alors la formule 3x P(x) admet une preuve qui se réduit à cet axiome
et ne se termine donc pas par une règle d'introduction. Et, bien que la formule 3x P(x)
soit prouvable, il n'existe aucun terme t tel que la formule P(t) soit prouvable.
Evidemment, lorsqu'on n'a aucun axiome, il y a bien peu de fonctions dont on
peut prouver l'existence et le langage des preuves constructives est alors un langage de
programmation assez pauvre. C'est donc une des questions les plus essentielles du sujet
de l'interprétation algorithmique des preuves que d'essayer d'incorporer des axiomes
sans perdre la propriété capitale qu'une preuve constructive sans coupure se termine
nécessairement par une règle d'introduction.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 0 1 5

Davantage de règles d e réduction


La première façon d'incorporer des axiomes est de rajouter au langage une constante
pour chacun d'eux. Par exemple, on peut rajouter une constante RecA pour chaque
instanciation du schéma de récurrence. Si 11'1 est une preuve de A(Ojx) et 1!'2 une preuve
de \:/y (A(yjx) => A(S(y)jx)), alors le terme (RecA 1!'1 1!'2 ) représentera une preuve de
'<lx A, et, pour chaque entier naturel n, le terme (RecA 1!'1 1!'2 n) représentera une preuve
de A(n/x) . Si 11'1 et 1!'2 sont sans coupure, alors cette preuve sera aussi sans coupure.
Cependant, cette preuve se termine par une règle V-élim rule et non pas une règle
d'introduction. Aussi, afin de retrouver la propriété du témoin, nous devrons rajouter
de nouvelles règles de réduction, par exemple les règles
(RecA 1!'1 1!'2 0) ---t 1!'1

(RecA 1!'1 1!'2 S(n) ) ---t ( 11'2 n (RecA 1!'1 1!'2 n))
Cette approche a été beaucoup étudiée, citons K. Godel (1958] , W.W. Tait [1967] ,
P. Martin-Lof [1984] , Ch. Paulin [1993] , B. Werner [1994] , ...

Davantage de règles de déduction


Une alternative à la solution précédente est d'abandonner les axiomes et de les
remplacer par des règles de déduction non logiques. Par exemple, on pourra abandonner
l'axiome de l'ensemble des parties
\:/x\:/y (x E P(y) {::} x Ç y)

X E P(y)
fold
X E P(y) x y unfold
_
C

Dans ce cas, il faut bien sfir rajouter aussi des règles de réduction de preuves. En
particulier, l'application successive des règles fold et unfold doit être considérée comme
une coupure et la preuve
XÇy
fold
X E P(y)
----
x Ç y unfold
doit pouvoir être réduite à 1!' . Cette approche a également été beaucoup étudiée, citons
D. Prawitz [1965] , M. Crabbé [1974 ; 1991] , L. Hallnii.s [1983] , J. Ekman (1994] , S. Negri
and J. von Plato [2001] , B. Wack [2005] , ...

Davantage de formules
Certains axiomes peuvent être abandonnés si on enrichit le langage des formules.
Un exemple typique est celui des axiomes de la théorie simple des types : ils peuvent
abandonnés si l'on permet de quantifier sur les prédicats. Ceci conduit à étendre donc
le langage des types et à définir des langages de programmation fonctionnel d'ordre
supérieur. C'est une approche qui a été étudiée par J.-Y. Girard [1971] , Th. Coquand
& G. Huet [1988] , D. Leivant (1983] , J.-L. Krivine and M. Parigot [1990] , ...
1 0 1 6 - Panorama de l'intelligence artificielle. Volume 3

Des règles de réécriture


Enfin, on peut aussi abandonner des axiomes si on permet d'identifier certains
termes et/ou certaines formules. Par exemple, on peut abandonner l'axiome \:/x (x + O =
x) si l'on identifie les termes x + O et x, on peut aussi abandonner l'axiome de récurrence
si l'on identifie les formules N ( y ) et Ve ((0 f c) =? \:/x (N(x ) =? x f c =? S(x ) f c) =? y f c) .
Cette approche, qui vise à synthétiser et aller au-delà des trois autres approches
mentionnées plus haut, a été étudiée dans [Dowek et al. , 2003 ; Dowek et Werner, 2003 ;
Cousineau et Dowek, 2007] , ...
Dans toutes ces approches, la propriété de terminaison des réductions est conservée
pour certaines théories mais perdue pour d'autres. Lorsqu'elle est conservée, on obtient
alors un langage de programmation dont tous les programmes terminent et dans lequel
on peut programmer toutes les fonctions dont l'existence est prouvable dans la théorie
considérée.

1.5.7 Autres extensions


A part le problème de l'incorporation d'axiomes, une autre question très importante
est celle d'étendre l'interprétation algorithmique des preuves à la logique classique (c'est
la logique obtenue en rajoutant n'importe laquelle des trois formules de la Remarque
à la fin du §1.5.3) . Ici, la propriété du témoin doit être remplacée par le théorème de
Herbrand :
D 'une preuve constructive d 'une formule de la forme 3y A, il est possible
d 'extraire une suite de termes u 1 , . . . , Un et une preuve de la formule

A(u i fy ) V . . . V A( un / Y )

De cette façon, les preuves classiq ues apparaissent comme des algorithmes non déter­
ministes. Voir, par exemple, [Parigot, 1992] .
Enfin, à part la déduction naturelle, d'autres calculs logiques ont été considérés, en
particulier le calcul des séquents. Voir, par exemple, [Curien et Herbelin, 2000 ; Urban,
2001] .

1 .5 . 8 Elimination des coupures et résultats de cohérence


Bien avant l'isomorphisme de Curry-Howard, un lien remarquable entre déduction
et calculabilité était apparu avec l'un des résultats fondamentaux les plus inattendus
du vingtième siècle, à savoir le théorème d'incomplétude de Godel [1931] (voir [Davis,
1965] ) , dont la preuve est basée sur une notion (informelle) de déduction algorithmique.
Ce théorème affirme qu'aucun système de preuve ne peut capturer pleinement le rai­
sonnement mathématique : toute théorie suffisante pour capturer les raisonnements
arithmétiques est nécessairement incomplète, c'est-à-dire telle qu'il existe des énon­
cés qui ne sont pas démontrables et dont la négation n'est pas non plus démontrable.
En particulier, on peut exprimer la cohérence (c'est-à-dire la non contradiction) d'une
théorie mathématique par un énoncé, qui ne peut être ni démontré ni infirmé (du moins
si la théorie est cohérente) .
1 . Informatique théorique : calculabilité, décidabilité et logique - 1017

Avant que ce théorème n'apparaisse, le mathématicien David Hilbert avait invité


la communauté logique à assurer la bonne fondation des mathématiques en prouvant
la cohérence des théories mathématiques par des moyens « finitistes », donc formali­
sables dans ces théories. C'est ce qui est appelé le programme de Hilbert. Bien sûr,
le théorème de Godel a obligé à une révision drastique de ce programme. Mais pas à
son abandon : il fallait trouver des méthodes capables de surmonter cette impossibi­
lité - donc nécessairement non formalisables dans la théorie elle-même - qui restent
néanmoins « convaincantes ». Le premier à y réussir a été Gerhard Gentzen (un élève
de Hilbert) : il a prouvé la cohérence de l'arithmétique de Peano à l'aide d'une in­
duction transfinie (non formalisable dans cette théorie) [1936] . L'argument de Gentzen
a été plus tard transformée par Kurt Schlitte [1951] (autre élève de Hilbert) , en une
démonstration de l'élimination des coupures dans une formalisation de l'arithmétique
où (selon la stratégie du §1 .5.6) les axiomes de récurrence sont remplacés par une règle
avec une infinité de prémisses, dite w-règle :
A(O ) , A(l ) , A(2 ) , . . .
------- w
Vx A(x )
Cette propriété d'élimination des coupures implique assez facilement la cohérence de
la théorie : si la théorie était incohérente, on pourrait y prouver _l_, donc aussi prouver
l_ par une preuve sans coupure, laquelle doit nécessairement se terminer par une in­
troduction, qui ne peut évidemment être qu'une introduction de l_ (puisque la formule
prouvée se réduit à _1_) , mais il n'y a pas de telle règle ...

1.6 Décidable versus indécidable


Quand on ne retient que la possibilité de calcul et non les manières de le faire

1.6.1 Démonstration automatique : décidabilité et théories lo­


giques
« Non disputemus, sed calculemus ».
La seule façon de rectifier nos raisonnements est de les rendre aussi tangibles
que ceux des mathématiciens, de sorte qu'une erreur puisse se voir d'un
coup d'oeil. Et lorsqu'il y aura une dispute entre deux personnes, on pourra
simplement dire : « Ne discutons pas, Monsieur, calculons pour voir qui a
raison ».
Gottfried Wilhelm Leibniz, 1687
Comme on le voit, l'idée de la démonstration automatique (avec une ambition considé­
rable) remonte à Leibniz (1646-1716) , philosophe, mathématicien et touche-à-tout de
génie. Pour parvenir à un tel but, il se proposait aussi de trouver une langue universelle
capable d'exprimer toutes les idées possibles : la « lingua characteristica universalis ».
De nos jours, l'ambition s'est drastiquement réduite. On ne cherche plus de langue
universelle : on considère une multitude le langages logiques adaptés à des structures
mathématiques bien définies. Pour chacun de ces langages, on se demande si la famille
1 0 1 8 - Panorama de l'intelligence artificielle. Volume 3

des énoncés vrais est décidable, c'est-à-dire forme un ensemble dont on peut décider par
un algorithme si un énoncé donné y figure ou pas. Nous donnons ci-dessous quelques
exemples de l'incroyable foison de résultats obtenus depuis bientôt un siècle.

Entscheidungsproblem ( le problème de la décision )


Etant donné un langage logique, on sait qu'un énoncé est vrai dans toutes les
structures de ce langage si et seulement s'il est prouvable dans le calcul des prédicats
de ce langage (c'est le théorème de complétude de Gôdel) . Il est alors intéressant de
savoir si cet ensemble de théorèmes est ou non un ensemble calculable d'énoncés : c'est
le problème de la décision. La réponse à ce problème (pour les langages avec égalité)
est la suivante.
- Décidable si le langage ne contient que des symboles de relations unaires (outre
l'égalité) et des constantes et au plus une fonction unaire (Rabin, 1969) .
- Indécidable sinon, c'est-à-dire dès que le langage contient au moins une relation
(autre que l'égalité) ou une fonction binaire ou ternaire ou ... ou bien au moins
deux fonctions unaires.
Dans le cas où la réponse est négative, on peut raffiner ce problème et demander s'il y
a des classes intéressantes de formules pour lesquelles ce problème devient décidable.
La réponse dépend alors, d'une part du langage considéré, d'autre part de la classe
considérée. La réponse est aujourd'hui complète et plutôt technique, mais elle a mis
près de trois-quarts de siècle à être apportée ! C'est ainsi que les classes préfixielles
décidables des langages avec égalité sont les suivantes :
- Formules de la forme 'V . . . 'V quel que soit le langage (Gurevich, 1976) .
- Formules de la forme 'V . . . 't/3 . . . 3 si le langage est purement relationnel, c'est-
à-dire ne contient aucun symbole de fonction (Ramsey, 1930) .
- Formules de la forme 'V . . . 't/:J't/ . . . 'V si le langage ne contient que des relations et
au plus une fonction unaire (Shelah, 1977) .
Pour aller plus loin, la référence est le livre de Bürger, Gradel et Gurevich [1997] .

Arithmétique des entiers


Arithmétique avec addition et multiplication. Maintenant, nous considérons
la famille des énoncés vrais dans l'arithmétique des entiers : N avec addition et mul­
tiplication usuelles. L'indécidabilité de l'arithmétique est un corollaire assez trivial du
théorème d'incomplétude de Gôdel qui a été explicité par Church en 1935.
Indécidabilité de l'arithmétique diophantienne. Le meilleur (ou pire) résultat
connu à ce jour est le « problème diophantien » suivant (Yuri Matijasevitch & Julia
Robinson & Martin Davis) :
Il existe deux polynômes fixés P, Q (à coefficients dans N) tels que l 'ensemble
des entiers a pour lesquels l 'énoncé

est vrai n'est pas calculable.


1 . Informatique théorique : calculabilité, décidabilité et logique - 1019

On peut même supposer que m = 9 (Matijasevich [1977] , cf. Jones [1982] ) . On soup­
çonne que l'on peut, en fait, avoir m = 3.
Arithmétique purement additive. On renonce à la multiplication. Cette arithmé­
tique additive est alors décidable (Presburger, 1929) . Ce résultat est d'une très grande
importance en informatique car elle permet de modéliser nombre de situations et four­
nit donc des algorithmes.
Arithmétique du successeur avec quantifications sur les entiers et aussi sur
les ensembles d'entiers. Cette arithmétique est également décidable (Büchi, 1959) .
La preuve s'obtient par des techniques d'automates finis. Là encore, ce résultat est
d'une importance très grande en informatique.

Arithmétique des nombres rationnels


Elle est également indécidable. En fait, il est possible de définir l'ensemble des
entiers dans la structure algébrique des rationnels. Il s'agit d'un résultat difficile de Julia
Robinson (1949] , qui est la source d'une myriade d'autres résultats d'indécidabilité.

Théorie des mots


Mots et concaténation. On considère les mots d'un alphabet E ayant au moins
deux lettres. L'opération de concaténation est celle qui met deux mots bout à bout.
La théorie en est (sans surprise) indécidable (Quine, 1946) car il est facile d'y coder
l'arithmétique avec addition et multiplication. La surprise est la décidabilité (Makanin,
1979) de la classe des énoncés de la forme

3x 1 . . . 3xk C(x i , . . . , xk) = D(x 1 , . . . , X k)


où C, D sont des mots construits avec l'alphabet E augmenté des symboles de variables
(qui représentent des mots, pas des lettres) .
Mots et adjonction d'une lettre à la fin. On remplace la concaténation par des
opérations unaires ; si a E E , l'opération Succa consiste à rajouter la lettre a en fin du
mot. Cette théorie est décidable même si on s'autorise à quantifier à la fois sur les mots
et sur les ensembles de mots (Rabin, 1969) . Il s'agit d'un résultat très difficile qui est
l'un des fleurons de l'informatique théorique.

Algèbre réelle
Si l'arithmétique des entiers et celle des rationnels est indécidable (cf. plus haut) ,
celle des réels (!R., +, x , =) est ô surprise - décidable (Tarski (1931] ) . Tous les problèmes
-

de solutions d'équations de degré quelconque posés au lycée sont donc résolubles à


l'aide d'une machine ... Avouons quand même que la complexité de cette théorie est fort
grande : en espace exponentiel.
En revanche, on ignore si la théorie de (JR., +, x , x 1-t ex , =) (on a rajouté la fonction
exponentielle) est ou non décidable. On sait (Macintyre et Wilkie, 1995] que le problème
est lié à une question très difficile de théorie des nombres, la conjecture de Schanuel
(1960) .
1 020 - Panorama de l'intelligence artificielle. Volume 3

Géométrie élémentaire

Les anciens qui ont passé de durs moments sur les problèmes de géométrie du
plan ou de l'espace avec les côniques et les quadriques, le cercle des neuf points, les
faisceaux harmoniques, les problèmes de géométrie descriptive, ... trouveront une saveur
particulière à ce résultat de Tarski, 1931 : la théorie de la géométrie élémentaire est
décidable (son axiomatisation se fait avec des notions de points, droites, plans, une
appartenance et une relation « être entre deux points » ) . Ainsi, tous les problèmes du
bachot d'il y a bien des années pouvaient être résolus par une machine ... Ce résultat est,
en fait, un corollaire facile de la décidabilité de l'algèbre réelle qui utilise le passage en
coordonnées cartésiennes.

1 .6 . 2 Quelques autres problèmes

Dominos. Supposons donnée une famille finie de carrés ayant tous la même taille et
dont les cotés sont coloriés de diverses façons. Peut-on paver le plan euclidien Z x Z
avec de tels carrés de sorte que si deux carrés sont adjacents alors leur coté commun est
colorié de la même façon dans ces deux carrés ? Ce problème est indécidable : l'ensemble
des familles finies pour lesquelles on peut paver ainsi n'est pas récursif (Berger [1966] ) .
O n peut poser le même problème dans le plan hyperbolique. Attention, il n'y a pas de
carré (ni de rectangle) dans le plan hyperbolique mais, en revanche, pour tout s ;:::: 5, il
y a des polygones réguliers à angles droits ayant s cotés ... Pour chaque s 2: 5, la réponse
est la même, le problème est indécidable [Margenstern, 2007, 2008] .

Réseaux de Petri. Un modèle particulièrement fructueux de la concurrence est celui


des réseaux de Petri (Carl Adam Petri, 1962) . Une forme simple de tel réseau est
constitué des éléments suivants :
- deux familles finies fixées disjointes S, T : les « places » et les « transitions »,
- une famille finie fixée d'arcs F Ç (S x T) U (T x S) entre places et transitions,
- une distribution dynamique de « jetons » M : S ---+ N sur les places.
Les entrées (resp. sorties) d'une transition t E T sont toutes les places s telles que
(s, t ) E F (resp. (t, s) E F) , c'est-à-dire telles qu'il y a un arc de s vers t (resp. de t
vers s) .
Une distribution M admet un successeur s'il existe une transition t E T telle que
M(s, t ) > 0 pour toute entrée s de t. Le successeur de la distribution M relativement à
une telle transition t est la distribution M' obtenue en retranchant un jeton à chaque
entrée de t puis en rajoutant un jeton à chaque sortie de t.
Le fonctionnement d'un réseau de Petri est alors une suite de distributions successives
(noter que ceci n'est pas déterministe, il peut y avoir plusieurs telles suites possibles) .
Une telle suite peut être bloquée s'il n'y a plus de successeur possible. Le problème le
plus difficile du sujet est celui de l'accessibilité : peut-on atteindre telle distribution à
partir d'une distribution donnée ? Ce problème est décidable (en espace exponentiel) ,
il s'agit d'un résultat très difficile et profond [Mayr, 1984] .
l . Informatique théorique : calculabilité, décidabilité et logique - l 02 1

1 .6.3 Décider avec une bonne probabilité de réponse exacte


Considérons une machine de Turing non déterministe : il peut y avoir plusieurs
transitions possibles (mais un nombre fini, bien sûr) à certaines étapes du calcul. Sup­
posons que l'on mette une distribution de probabilités sur ces différentes transitions
possibles. On peut alors considérer l'ensemble des entrées pour lesquels la probabilité
d'être accepté est � ô pour un certain ô > 0 fixé. Un argument par simulation en
parallèle de tous les calculs possibles permet de voir que cet ensemble est, en fait,
récursivement énumérable, c'est-à-dire reconnaissable par une machine de Turing dé­
terministe, cf. (Leeuw et al. , 1956] . Ainsi, dans le cas de la reconnaissance de langage,
les probabilités n'apportent rien de plus.

1.7 Conclusion
La formalisation de la calculabilité, cette notion intuitive remontant à l'Antiquité,
est un des apports mathématiques majeurs du 20ième siècle. Elle est le soubassement
de la science informatique et, historiquement, elle en a été le point de départ.
Quels sont les développements de et autour de la calculabilité en cours et ceux
auxquels on peut s'attendre dans l'avenir proche ?
Programmation. En dévoilant un rapport inattendu entre calculs et preuves, l'iso­
morphisme de Curry-Howard (cf. le §1.5.5) a créé un pont entre deux sujets a priori
complètement distincts, et, par là même, en a souligné encore davantage l'importance
et la force. Ce rapport entre calcul et preuve est l'objet de recherches fructueuses dont
on attend encore beaucoup dans la perspective des langages de programmation et des
assistants de démonstration.
Virologie informatique. Le théorème du point fixe de Kleene (cf. §3.2) est l'outil
théorique sur lequel se dévelope la virologie informatique, sujet dont l'histoire ne peut
être qu'une suite sans fin d'actions et de réactions au fil de l'ingéniosité des hackers
malveillants et de celle de ceux qui cherchent à les contrer.
Algorithmes. Comme on l'a vu au §1 .4, la formalisation de la notion opérationnelle
d'algorithme est avancée mais encore inachevée, il reste là un champ à explorer qui
donnera de nouveaux outils pour cerner les aspects les plus fins du calcul.
Analyse numérique. Un développement des plus prometteurs est la rencontre entre
la théorie de la calculabilité et l'analyse numérique, deux communautés qui s'intéressent
au calcul ! Bien sûr, il faut pour cela étendre le champ de la calculabilité aux nombres
réels, mais cela a déjà été fait et a même sa source dans le travail original de Turing
de 1936, c'est le sujet de l'analyse récursive (cf. le §1.4 de la deuxième partie sur la
complexité) . Comme l'explique Kolmogorov, les phénomènes de la nature sont d'es­
sence discrète, sont modélisés par les mathématiques du continu car ce sont des outils
performants et maîtrisés, et au final, pour le calcul par machine des valeurs explicites,
on procède à une discrétisation des solutions. Bien sûr ces opérations de passage au
continu puis au discret ne sont pas exactement inverses l'une de l'autre. Mais quand
même, il y a peut-être une autre approche globale gérant mieux l'essence discrète des
phénomènes.
Probabilités et statistiques. Bien que plutôt inattendu, il y a un lien profond entre
l 022 Panorama de l'intelligence artificielle. Volume 3
-

la théorie de la calculabilité et celle des probabilités et statistiques. En effet, la notion


d'objet aléatoire, centrale dans l'intuition probabiliste, n'a aucune définition formelle
en théorie des probabilités : ces objets y sont vus dans leur ensemble, globalement
donc, jamais de façon individuelle. Il y a là une lacune sur laquelle se sont penchés
quelques probabilistes de renom, tout particulièrement Richard von Mises et Andrei
N. Kolmogorov. C'est l'une des motivations qui ont amené à la théorie de la com­
plexité de Kolmogorov {cf. le §1.2 du chapitre III.2). Il se trouve que la notion d'objet
aléatoire peut se formaliser avec les outils de la calculabilité, et ce de plusieurs façons
équivalentes, l'une mêlant calculabilité, théorie de la mesure et topologie {due à Per
Martin-Lof, 1966) , les autres fondées sur la complexité de Kolmogorov.
Mathématiques. Enfin, la distinction entre calculable et non calculable intéresse tous
les sujets mathématiques (cf. le §1 .6) et devrait devenir une question réflexe.

Remerciements. Olivier Bournez souhaite remercier Pablo Arrighi, Nachum Dersho­


witz et Yuri Gurevich pour leurs relectures, réactions et commentaires pertinents sur
un document à propos de la thèse de Church qui a été partiellement utilisé pour la
rédaction de certains paragraphes de ce chapitre.

Références
ABRAMSKY, S . , GABBAY, D. M. et MAIBAUM, T. S., éditeurs {1992-2001) . Handbook
of Logic in Computer Science, volume 1-5. Elsevier.
ADLEMAN, L. M. {1988) . An abstract theory of computer viruses. In Advances in
Cryptology - CRYPTO 'BB, volume 403. Lecture Notes in Computer Science.
ARRIGHI, P. et DOWEK, G. {2008) . A quantum extension of Gandy's theorem. Colloque
"La thèse de Church : hier, aujourd'hui, demain".
BAIOCCHI, C. {2001). Three small universal turing machines. In MARGENSTERN, M.
et RoGOZHIN, Y. , éditeurs : Machines, Computations and Universality, volume 2055,
pages 1-10. Lecture Notes in Computer Science.
BARENDREGT, H. { 1980) . The Lambda-Calculus : Its Syntax and Semantics. North­
Holland, Amsterdam.
BERGER, R. {1966) . The undecidability of the domino problem. Memoirs of the
American Mathematical Society, 66 :72 pages.
BLASS, A. et GUREVICH, Y. {2003) . Abstract state machines capture parallel algo­
rithms. A CM Transactions on Computation Logic, 4(4) :578-651 .
BLASS, A. et GUREVICH, Y . {2008) . Abstract state machines capture parallel al­
gorithms : Correction and extension. ACM Transactions on Computation Logic,
9(3) : 1-32.
BOKER, U. et DERSHOWITZ, N. {2008) . The Church-Turing thesis over arbitrary do­
mains. In AVRON, A., DERSHOWITZ, N. et RABINOVICH, A., éditeurs : Pillars of
Computer Science : Essays Dedicated to Boris (Boaz) Trakhtenbrot on the Occasion
of His 85th Birthday, volume 4800, pages 199-229. Springer.
1 . Informatique théorique : calculabilité, décidabilité et logique - l 023

BÜRGER, E. , GR" ADEL, E. et GUREVICH, Y. ( 1997) . The Classical Decision Problem.


Springer-Verlag.
BOUVERESSE, J., éditeur ( 1999) . Prodiges et vertiges de l 'analogie : De l 'abus des
belles-lettres dans la pensée. Raisons d'Agir.
CHURCH, A. ( 1936) . An unsolvable problem of elementary number theory. American
Journal of Mathematics, 58 :345-363.
CoDD, E. F. (1968). Cellular automata. Academic Press.
COHEN, F. (1986) . Computer Viruses. Thèse de doctorat, University of Southern
California.
CoLSON, L. (1991) . About primitive recursive algorithms. Theoretical Computer
Science, 83(1) :57-69.
COLSON, L. et FREDHOLM, D . (1998) . System T, call-by-value and the minimum
problem. Theoretical Computer Science, 206( 1-2) :301-315.
COOK, S. A. et RECKHOW, R. A. (1973.). Time bounded random access machines.
Journal of Computer and System Sciences, 7(4) :354-375.
COPELAND, B. J. ( Fall 2002) . The Church-Turing thesis. In ZALTA, E. N., éditeur :
The Stanford Encyclopedia of Philosophy. Stanford University. Available online at :
http : //plato . stanford . edu/entries/church-turing/.
COPELAND, B. J. et SYLVAN, R. ( January 1999) . Beyond the universal turing machine.
Australasian Journal of Philosophy, 77 :46-66.
COQUAND, T. et HUET, G. (1988) . The Calculus of Constructions. Information and
Computation, 76 :95-120.
CORI, R. et LASCAR, D. (1983a) . Logique mathématique : Tome 1 : Calcul proposi­
tionnel, algèbres de Boole, calcul des prédicats. Dunod.
CORI, R. et LASCAR, D. (1983b) . Logique mathématique : Tome 2 : fonctions récursives,
théorème de Godet, théorie des ensembles. Dunod.
COUSINEAU, D. et DOWEK, G. (2007) . Embedding Pure Type Systems in the lambda­
Pi-calculus modulo. In RoNCHI DELLA ROCCA, S . , éditeur : Typed Lambda Calculi
and Applications, volume 4583, pages 102-1 17. Springer.
CRABBÉ, M. (1974) . Non-normalisation de ZF. Manuscript.
CRABBÉ, M. (1991) . Stratification and cut-elimination. The Journal of Symbolic Logic,
56(1) :213-226.
CURIEN, P.-1. et HERBELIN, H. (2000) . The duality of computation. SIGPLAN Notices,
35(9) :233-243. International Conference on Functional Programming, ICFP'OO,
Montreal.
DAVIS, M. (1958) . Computability and Unsolvability. Dover Publications.
DAVIS, M. (1965) . The Undecidable : Basic Papers on Undecidable Propositions, Un­
solvable Problems and Computable Functions. Raven Press. Reprinted by Dover
Publications, Incorporated in 2004.
DELORME, M. (1999) . An introduction to cellular automata. In DELORME, M. et
MAZOYER, J., éditeurs : Cellular automata : a parallel model, pages 3-51. Kluwer.
DERSHOWITZ, N. et GUREVICH, Y. (2008) . A natural axiomatization of computability
1 024 Panorama de l'intelligence artificielle. Volume 3
-

and proof of church's thesis. Bulletin. of Symbolic Logic, 14(3) :299-350.


DEXTER, S . , B OYLE, P. et G UREVICH, Y. (1997) . Gurevich local evolving algebras and
Schônage storage modification machines. Journal of Universal Computer Science,
3(4) :279-303.
DOWEK, G. (2007) . Les métamorphoses du calcul : une étonnante histoire de mathé­
matiques. Le Pommier.
DOWEK, G . , RARDIN, T. et KIRCHNER, C. (2003) . Theorem proving modulo. Journal
of Automated Reasoning, 31 :32-72.
DOWEK, G. et WERNER, B. (2003) . Proof normalization modulo. The Journal of
Symbolic Logic, 68(4) : 1289-1316.
EKMAN, J. ( 1994) . Normal proofs in set theory. Thèse de doctorat, Chalmers university
of technology and University of Gôteborg.
ELGOT, C. et ROBINSON, A. ( 1964) . Random-Access Stored-Program Machines, an
Approach to Programming Languages. Journal of the Association for Computing
Machinery, 1 1 (4) :365-399.
FERBUS, M. et GRIGORIEFF, S. (2010) . ASM and operational algorithmic completeness
of Lambda Calculus. In ANDREAS BLASS, N. D. et REISIG, W. , éditeurs : Fields of
Logic and Computation, Essays Dedicated to Yuri Gurevich on the Occasion of His
70th Birthday, volume 6300 de LNCS, pages 301-327. American Math. Soc.
FREDHOLM, D. (1996) . Computing minimum with primitive recursion over lists. Theo­
retical Computer Science, 163(1-2) :269-276.
GANDY, R. O. ( 1980) . Church's thesis and principles for mechanisms. In BARWISE,
J., KEISLER, R. J. et KUNEN, K., éditeurs : The Kleene Symposium, pages 123-148.
North-Rolland.
GENTZEN, G. (1934) . Untersuchungen über <las logische schlieSen. Mathematische
Zeitschrift, 39 :405-431 .
GENTZEN, G. (1936) . Die widerspruchfreiheit der reinen zahlentheorie. Mathematische
Annalen, 1 1 2 :493-565.
GIRARD, J.-Y. ( 1971 ) . Une extension de l'interprétation de Gôdel à l'analyse, et son
application à l'élimination des coupures dans l'analyse et la théorie des types. In 2 d
Scandinavian Logic Symposium, pages 63-92. North Rolland.
GIRARD, J.-Y. (1987) . Linear logic. Theoretical Computer Science, 50 : 1-102.
GIRARD, J.-Y. , LAFONT, Y. et TAYLOR, P. ( 1989) . Proofs and Types, volume 7 de
Cambridge tracts in theoretical computer science. Cambridge university press.
G ôDEL, K. (1931). Über formai unentscheidbare Satze der Principia Mathematica und
verwandter Systeme I. Monatschefte fur Mathematik und Physik, 38 : 173-198.
G ôDEL, K. (1958) . Ü eine bisher noch nicht benützte Erweiterung des finiten Stand­
punktes. Dialectica, 12 :280-287.
GRÂDEL, E. et NOWACK, A. (2003) . Quantum computing and abstract state machines.
Lecture Notes in Computer Science, pages 309-323.
GRIGORIEFF, S. (2006) . Synchronization of a bounded degree graph of cellular au­
tomata with non uniform delays in time D logm D. Theoretical Computer Science,
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 025

356( 1-2) :170-185.


GRIGORIEFF, S. et VALARCHER, P. (2009) . Evolving MultiAlgebras unify all usual
sequential computation models. STACS 201 0, to appear.
GUREVICH, Y. ( 1985). A New Thesis, abstract 85T-68-203. Notices of the American
Mathematical Society, 6 :317.
GUREVICH, Y. (1988) . Logic and the challenge of computer science. In BOERGER, E.,
éditeur : Current Trends in Theoretical Computer Science, pages 1-50. Computer
Science Press.
GUREVICH, Y. (2000) . Sequential abstract state machines capture sequential algo­
rithms. ACM Transactions on Computational Logic, 1(1) :77-1 1 1 .
HALLNAS, L . (1983) . On normalization of proofs in set theory. Thèse de doctorat,
University of Stockholm.
HANKIN, C. (1994) . Lambda Calculi. A guide for computer scientists, volume 3 de
Graduate texts in computer science. Oxford.
HILLIS, W. D. (1986) . The Connection Machine. MIT Press ( Partiellement disponible
sur books.google.fr) .
HILLIS, W. D. (1989) . Richard Feynman and the Connection Machine. Physics Today,
42(2) :78-83.
HINDLEY, J. R. et SELDIN, J. P. (1986) . Introduction to combinators and À-calculus.
Cambridge university press.
HOPCROFT, J. E., MOTWANI, R. et ULLMAN, J. D . (2006) . Introduction to Automata
Theory, Languages, and Computation. Addison-Wesley.
JAIN, S . , OSHERSON, D . , ROYER, J. S. et SHARMA, A. ( 1999) . Systems that learn. MIT
press.
JIANG, T. (1992) . The synchronization of non-uniform networks of finite automata.
Information and Computation, 97(2) :234-261 .
JONES, J. P. (1982) . Universal diophantine equation. Journal of Symbolic Logic,
47 :549-571 .
JONES, N. D. (1997) . Computability and complexity, from a programming perspective.
MIT press.
KANOVICH, M. I. et VAUZEILLES, J. (2007) . Strong planning under uncertainty in
domains with numerous but identical elements ( a generic approach ) . Theoretical
Computer Science, 379(1-2) :84-1 19.
KLEENE, S. C. (1936) . General recursive fonctions of natural numbers. Mathematische
Annalen, 112 :727-742.
KLEENE, S. C. (1952) . Introduction to Metamathematics. D. Van Nostrand Co.
KLEENE, S. C. (1967) . Mathematical Logic. John Wiley and Sons.
KNUTH, D. E. (1973) . The Art of Computer Programming, volume 3 : Sorting and
Searching. Addison-Wesley.
KOLMOGOROV, A. N. (1953) . On the notion of algorithm. Uspekhi Mat. Naut, 8 :175-
176. In russian.
KOLMOGOROV, A. N. et USPENSKY, V. (1958) . On the definition of an algorithm.
1 026 Panorama de l'intelligence artificielle. Volume 3
-

Uspekhi Mat. Naut, 13(4) . English translation in AMS translation vol. 2 1 (1963) ,
217-245.
KRIVINE, J.-L. (1990) . Lambda-calcul. Masson.
KRIVINE, J.-L. et PARIGOT, M. (1990) . Programming with proofs. J. Inf. Process.
Cybern. EIK, 26(3) : 149-167.
KUDLEK, M. ( 1996) . Small deterministic Turing machines. Theoretical Computer
Science, 168 :241-255.
KUDLEK, M. et RoGOZHIN, Y. (2002) . A universal Turing machine with 3 states and
9 symbols. In Developments in Language Theory, volume 2295 de Lecture Notes in
Computer Science, pages 31 1-318. Springer.
LACOMBE, D. (1960) . La théorie des fonctions récursives et ses applications. Bulletin
de la Société Mathématique de France, 88 :393-468.
LEEUW, K. d., MOORE, E. F. , S HANNON, C. E. et SHAPIRO , N. (1956) . Computability
by probabilistic machines. In SHANNON, C. et MAcCARTHY, J . , éditeurs : Automata
Studies, pages 183-212. Princeton University Press.
LEIVANT, D. (1983) . Reasoning about functional programs and complexity classes
associated with type disciplines. In Foundations of Computer Science, FOCS'83,
volume 88, pages 460-469. IEEE Computer Society Press.
LONGO, G. et PAUL, T. (2009) . Le monde et le calcul. Réflexions sur calculabilité,
mathématiques et physique. In Logique et Interaction : Géométrie de la cognition,
volume Actes du colloque et école thématique du CNRS "Logique, Sciences, Philo­
sophie" , Cerisy. Hermann.
MACINTYRE, A. J. et WILKIE, A. (1995) . On the decidability of the real exponential
field. In ÜDIFREDDI, P. G., éditeur : Kreisel 70th Birthday Volume. CLSI.
MARGENSTERN, M. (2007) . The domino problem of the hyperbolic plane is undecidable.
Bulletin of the EATCS, 93 :220-237.
MARGENSTERN, M. (2008) . The domino problem of the hyperbolic plane is undecidable.
Theoretical Computer Science, 407 :28-84.
MARION, J.-Y. (2012) . From turing machines to computer viruses. Phil. Trans. R.
Soc. A, 370 :3319-3339.
MARTIN-LOF, P. (1984) . Intuitionistic type theory. Bibliopolis.
MATIJASEVICH, Y. (1977) . Sorne purely mathematical results inspired by mathematical
logic. In Proceedings of Fifth International Congress on Logic, Methodology and
Philosophy of science, London, Ontario, 1 g15, pages 121-127. Dordrecht : Reidel.
MAYR, E. W. ( 1984) . An algorithm for the general Petri net reachability problem.
SIAM Journal on Computing, 13(3) :441-460. Preliminary version in Proceedings of
the thirteenth annual ACM symposium on Theory of computing, p. 238-246, 198 1 .
MAZOYER, J. e t YuNÈS, J.-B. (2010) . Computations on cellular automata. In ROZEN­
BERG, G . , BACK, T. H. et KoK, J. N., éditeurs : Handbook of Natural Computing.
Springer. to appear.
MELZAK, Z. (1961). An informal arthmetical approach to computability and compu­
tation. Canadian Mathematical Bulletin, 4(3) :279-293.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 027

MINSKY, M. (1961). Recursive unsolvability of post's problem of 'tag' and other topics
in theory of turing machines. Annals of Mathematics, 74 :437-455.
MINSKY, M. L. ( 1982) . Why people think computers can't. AI Magazine, 3(4) :3-
15. Reprinted in Technology Review, Nov/Dec 1983, and in The Computer Culture,
( Donnelly, Ed. ) Associated Univ. Presses, Cranbury NJ, 1985.
MOSCHOVAKIS, Y. (2001). What is an algorithm ? In ENGQUIST, B. et SCHMID, W.,
éditeurs : Mathematics unlimited 2001 and beyond, pages 919-936. Springer.
-

MosCHOVAKIS, Y. (2006) . On primitive recursive algorithms and the greatest common


divisor function. Theoretical Computer Science, 301 ( 1-3) : 1-30.
NEARY, T. et Woons, D. (2006) . Small fast universal Turing machines. Theoretical
Computer Science, 362( 1-3) : 171-195.
NEGRI, S. et von PLATO, J. (2001). Structural proof theory. Cambridge University
Press.
NIELSEN, M. A. (1997) . Computable functions, quantum measurements, and quantum
dynamics. Physical Review Letters, 79(15) :2915-2918.
ODIFFREDI, P. (1989) . Classical recursion theory. North-Rolland.
ORD, T. (2006) . The many forms of hypercomputation. Applied Mathematics and
Computation, 178(1) : 143-153.
PAPADIMITRIOU, C. H. (1994) . Computational Complexity. Addison-Wesley.
PARIGOT, M. (1992) . ˵-calculus : An algorithmic interpretation of classical natural
deduction. In VORONKOV, A., éditeur : Logic Programming and Automated Reaso­
ning, volume 624, pages 190-201 . Springer.
PAULIN-MOHRING, C. (1993) . Inductive definitions in the system Coq - rules and
properties. In BEZEM, M. et de G ROOTE J . F . , éditeurs : Typed lambda calculi and
applications, volume 664, pages 328-345. Springer.
PAULIN-MOHRING, c. et WERNER, B. ( 1993) . Synthesis of ml programs in the system
coq. J. Symb. Comput. , 15(5/6) :607-640.
PAVLOTSKAYA, L. (1973) . Solvability of the halting problem for certain classes of turing
machines. Mathematical Notes Academy of Science USSR, 13 :537-541 .
PAVLOTSKAYA, L. (1978) . Sufficient conditions fo r the halting problem decidability of
turing machines. Avtomaty i Mashiny, pages 91-1 18. ( in Russian ) .
PRAWITZ, D. (1965). Natural deduction, a proof-theoretical study. Almqvist & Wiksell.
RADO, T. (1962) . On a simple source for non-computable functions. Bell system
technical journal, pages 877-884.
RICHARD, J. (1906). Les principes des mathématiques et le problème des ensembles.
Acta mathematica, 30 :295-296.
ROBINSON, J. (1949) . Definability and decision problems in arithmetic. Journal of
Symbolic Logic, 14 :98-1 14.
ROGERS, H. J. (1967) . Theory of Recursive Functions and Effective Computability.
McGraw Hill, New York.
ROGOZHIN, Y. (1996) . Small universal Turing machines. Theoretical Computer Science,
168 :215-240.
1 028 Panorama de l'intelligence artificielle. Volume 3
-

ROSENSTIEHL, P. ( 1986) . Existence d'automates finis capables de s'accorder bien qu'ar­


bitrairement connectés et nombreux. Internat. Comp. Centre, 5 :245-261 .
SAVAGE, J. (1998) . Models of computation, Exploring the power of computing. Addison
Wesley.
S CHÔNHAGE, A. ( 1980) . Storage modification machines. SIAM Journal on Computing,
9(3) :490-508.
ScH "UTTE, K. (1951 ) . Beweisetheoretische erfassung der unend lichen induktion in
der zahlentheorie. Mathematische Annalen, 122 :369-389.
SIEG, W. ( 1994) . Mechanical procedures and mathematical experience. Mathematics
and mind, pages 71-1 17.
SIEG, W. (1997) . Step by recursive step : Church's analysis of effective calculability.
The Bulletin of Symbolic Logic, 3(2) : 1 54-180.
SIEG, W. (1999) . Hilbert's programs : 1917-1922. The Bulletin of Symbolic Logic,
5(1) : 1-44.
SIEG, W. (2008) . Church without dogma-Axioms for computability. In COOPER,
S . , LOWE, B. et SORBI, A., éditeurs : New Computational Paradigms. Changing
Conceptions of What is Computable, New York. Springer.
SMITH, W. D. ( 1999) . History of "Church's theses" and a manifesto on converting phy­
sics into a rigorous algorithmic discipline. Rapport technique, NEC Research Insti­
tute. Avalaible on http : //www . math . temple . edu/ -wds/homepage/works . html.
S MULLYAN, R. M. (1993) . Recursion Theory for Metamathematics. Oxford University
Press.
S MULLYAN, R. M. ( 1994) . Diagonalization and Self-Reference. Oxford University Press.
TAIT, W. W. (1967) . Intentional interpretations of functionals of finite type 1. The
Journal of Symbolic Logic, 32 : 198-212.
TARSKI, A. ( 1931 ) . Sur les ensembles définissables de nombres réels 1. Pundamenta
Mathematica, 17 :210-239.
TURING, A. M. (1936) . On computable numbers, with an application to the Entschei­
dungsproblem. Proceedings of the London Mathematical Society, 42(2) :230-265.
TURING, A. M. et GIRARD, J.-Y. (1995). La machine de Turing. Editions du Seuil.
URBAN, C. (2001). Strong Normalisation for a Gentzen-like Out-Elimination Proce­
dure. In Typed lambda calculi and applications, volume 2044, pages 415-429. Springer.
van den D RIES, L. (2003) . Generating the greatest common divisor, and limitations
of primitive recursive algorithms. Foundations of computational mathematics, 3(3) :
297-324.
van LEEUWEN, J . , éditeur (1990) . Handbook of theoretical computer science, volume
A : Algorithms and Complexity, B : Formal Models and Semantics. The MIT Press
and Elsevier.
von NEUMANN, J. ( 1951 ) . A general and logical theory of automata. In JEFFRIES,
L., éditeur : Cerebral Mechanisms in Behavior-The Hixon Symposium, pages 1-31.
Wiley. Reprinted in Papers of John von Neumann on Computing and Computer
Theory, ed. William Aspray and Arthur Burks, MIT Press, 1987.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 029

von NEUMANN, J. (1966) . Theory of Self-Reproducing Automata. University of Illinois


Press. ( Edité et complété par Arthur W. Burks à partir d'un cours donné par von
Neumann en 1949) .
WACK, B. (2005). Typage et déduction dans le calcul de réécriture. Thèse de doctorat,
Université Henri Poincaré, Nancy 1 .
WERNER, B. (1994) . Une théorie des constructions inductives. Thèse de doctorat,
Université Paris 7.
WINOGRAD, T. (1982) . Thinking machines : Can there be ? are we ? In SHEEHAN, J. et
SoSNA, M., éditeurs : The Boundaries of Humanity : Humans, Animals, Machines,
pages 198-223. University of California Press, Berkeley. Reprinted in The Foun­
dations of Artificial Intelligence, D. Partridge and Y. Wilks, Cambridge Univerity
Press, 1991, p. 167-189.
YAo, A. C.-C. (2003) . Classical physics and the Church-Turing Thesis. Journal of the
ACM, 50(1) : 100-105.
YUNÈS, J.-B. (2006) . Fault tolerant solutions to the fi.ring squad synchronization pro­
blem in linear cellular automata. Journal of Cellular Automata, 1 (3) :253-268.
2. Informatique théorique : complexité, automates et au-delà - 1 03 1

Chapitre 2

In formatique théorique :
complexité, automates et
au- delà

Dans ce chapitre on s'interroge sur les ressources en temps, espace et/ou matériel
mises en jeu dans un calcul, ce qui donne une idée du coté réaliste ou non de la résolution
par machine de certains problèmes. Ce sujet donne lieu à des résultats surprenants
où l'on voit que simplicité conceptuelle n'est pas toujours synonyme d'efficacité. Sujet
difficile dans lequel des questions simples à formuler, comme le célèbre problème P=NP
(formulé en 1970) , n'ont toujours pas été résolues.

2.1 Introduction
2.1.1 Complexité de l'homme et complexité des machines
Quelques chiffres, donnés en 1948 au Hixxon Symposium, cf. [von Neumann, 1951] .
With any reasonable de.finition of what constitutes an element, the natural
organisms are very high complex aggregations of those elements. The number
of cells in the human body is somewhere of the general order of 10 1 5 or 10 16 •
The number of neurons in the central nervous system is somewhere of the
general order of 10 1 0 . We have absolutely no past experience with systems of
this degree of complexity. All arti.ficial automata made by man have numbers
of parts which by any comparable schematic count are of the order of 103
to 106 .
Quelques chiffres, de nos jours.
- Complexité du cerveau humain. Le cerveau humain est constitué d'environ
= 10 1 1 neurones (cent milliards) . En moyenne, chacun de ces neurones a une
Auteurs : ÜLIVIER BOURNEZ, GILLES DOWEK, RÉMI GILLERON, SERGE GRIGORIEFF, JEAN-YVES
MARION, SIMON PERDRIX et SOPHIE TISON.
1 032 - Panorama de l'intelligence artificielle. Volume 3

connection synaptique avec sept mille autres neurones. Ainsi, il y de l'ordre de


10 1 4 à 5 10 1 4 synapses.
- Nombre de transistors sur un CPU commercialisé en 2012 : 2.5 109 .
- « Petascale computers ». La Chine, la Russie et les USA developent des ordina-
teurs aux capacités suivantes : 1) vitesse de l'ordre du "petaflop", soit 250 "" 10 1 5
opérations en virgule flottante réalisées par seconde, 2) stockage de 500 petaoc­
tets ( = 500 10 1 5 ) .

L a raison du stupéfiant progrès technologique que révèlent ces chiffres depuis 1948
est bien résumée par la « loi de Gordon E. Moore » :
le nombre de transistors dans un circuit intégré double tous les deux ans.
Loi vérifiée depuis 1958, et qui vaut encore de nos jours (2013) . Le doublement était
même tous les dix-huit mois jusqu'en 1965. Ainsi, la performance atteinte aujourd'hui
est 2 4 + 24 "" 270 millions de fois celle de 1958.
On le voit, l'échelle de complexité de la machine se rapproche de celle de certains
constituants de l'humain. De quoi enrichir le débat sur la pertinence des thèmes fon­
dateurs de l'IA, cf. §1. 1 . 1 .
Egalement, la gestion et l'utilisation efficaces de telles masses de données (de l'ordre
de centaines de petaoctets) avec des machines d'une telle puissance (de vitesse de calcul
de l'ordre du petaflop) , conduit, plus que jamais, à apporter aux algorithmes d'accès,
de mise à jour et de traitement de ces données un soin extrême et une inévitable
sophistication. Une approche de la faisabilité et donc de l'utilité de ces algorithmes
consiste à estimer l'ordre de grandeur des ressources utilisées par ceux-ci. C'est l'objet
du thème de la complexité en informatique.

2 . 1 .2 Des choix dans l'nformatique théorique

Ce second chapitre poursuit notre exploration de l'informatique théorique. Une


fois de plus, il a fallu faire des choix. Nous avons choisi d'articuler ce chapitre en
trois parties indépendantes. La première partie aborde la notion de complexité des
calculs. Dans le chapitre précédent, nous avons vu qu'un problème était décidable si
une machine de Turing donnait sa solution dans un temps fini. Le temps de calcul peut
être arbitrairement grand et dépasser l'entendement. La théorie de la complexité prend
en compte la notion de ressource de calcul et étudie le temps ou l'espace nécessaire
à la résolution d'un problème. La notion mathématique de décision est en quelque
sorte remplacée par une notion de complexité qui est plus concrète. La seconde partie
traite des automates et de leurs applications quotidiennes à l'informatique. Le succès
de la théorie des automates, outre sa beauté mais c'est une question de goût, est dû
au fait que les problèmes relatifs sont décidables et pour beaucoup ont une complexité
assez faible, ce qui les rend utilisables en pratique. La troisième et dernière partie est
consacrée à ce qui se passe au-delà de ce qui calculable dans le sens classique de Turing.
Ce sujet est vaste, et nous avons choisi de l'aborder du point de vue des calculs sur les
réels et du point de vue quantique.
2. Informatique théorique : complexité, automates et au-delà 1 033
-

2.2 A l'intérieur de la calculabilité la théorie de la


complexité
2.2.1 Limites des ressources physiques
Temps des Dieux, temps des hommes. Sur l'île de Calypso, Ulysse renonce à ce
paradis miniature, à l'éternité pour reprendre son identité d'homme adulte qui vieillit
et meurt. La mythologie grecque enseigne qu'il y a au moins deux sortes de temps.
Celui des dieux et de l'éternité où tout est immobile. Celui des hommes qui est un
temps linéaire. La calculabilité s'intéresse à savoir si un problème est décidable sans
relation au temps, où en quelque sorte tout est déjà là. Ce rapport éternel au temps
correspond à la différence entre la calculabilité et la complexité. Prendre le chemin de
la théorie de la complexité, c'est descendre de l'Olympe et réintégrer le temps linéaire
comme une donnée fondamentale à la notion de calcul.
Borne de temps (selon la physique) : 1041 • La durée la plus grande qui ait
un sens physique est l'âge A de l'univers qui est de l'ordre de 15 x 109 années, soit
15 x 109 x 365.25 x 24 x 3600 ,...., 4, 734 x 10 1 7 secondes ( ceci dans le cadre du modèle
cosmologique du Big Bang) . La durée la plus courte r qui ait un sens physique est le
temps que met un photon pour parcourir, à la vitesse de la lumière c = 3 x 108 m/s, une
distance égale au diamètre d = 10 - 1 5 m du proton. Soit T = � = j���:3, 333 X 10 -2 4
rv

seconde.
Le nombre N = 1 = 3�3���x1�0 1;4 104 1 représente alors le plus grand nombre d'unités
,....,

de temps ayant un sens physique.


Borne de matière (selon la physique) : :'.S 1080 particules. Dans le fil de la ré­
flexion précédente, il est raisonnable de considérer aussi les limites de notre univers :
0
il semble que le nombre de particules élémentaires soit borné par 108 ( :'.S 2 32 ) . 0
L a théorie de la complexité comme théorie d e l a calculabilité « raisonnable » .
Les chiffres que l'on vient de voir montrent qu'un algorithme en temps ou espace expo­
nentiel a une complexité rédhibitoire. La théorie de la complexité étudie les problèmes
qui peuvent être résolus avec des ressources de calcul limitées. Citons quelques livres
ouvrages de référence : le classique de Papadimitriou (1994] , le livre de Jones (1997]
orienté théorie de la programmation, le livre de Savage (1998] orienté algorithmique et
calcul avec différents modèles de calcul, ainsi que les livres (Sipser, 2006 ; Goldreich,
2008 ; Arora et Barak, 2009] .

2.2.2 Complexité de quelques problèmes


Exemple 1 : Multiplication de deux entiers. Un même problème peut être résolu
par plusieurs algorithmes très différents. Prenons l'exemple de la multiplication de deux
entiers a et b ayant respectivement p et q chiffres. L'algorithme appris à l'école calcule
en effectuant O(p.q) opérations. Posant n = max (p, q) , on dira que la complexité de
cet algorithme est en O(n2 ) . Il y a d'autres algorithmes plus rapides mais, concep­
tuellement, plus difficiles ( on échange donc du temps contre de la matière grise ... ) .
1 034 Panorama de l'intelligence artificielle. Volume 3
-

Celui de [Karatsuba et Ofman, 1962] est en O(n10g2 ( 3) ) (noter que n2 = n10g2 (4 ) tandis
que n10g2 ( 3 ) = n 1 • 5 849··· ) , il consiste à couper la représentation binaire des entiers en
deux : supposons pour simplifier que p = q = n = 2m et écrivons a = 2m a1 + a" et
b = 2mb1 + b" où a', a", b', b" sont des entiers ayant m chiffres binaires, alors
aXb (2m a' + a" ) X ( 2m b1 + b" ) = a'b' 2 2m + (a'b" + a" b') 2m + a" b" (2. 1 )
= a'b' 2 2m + [( a' + a" ) (b' + b" ) - a'a" - b'b" ] 2m + a" b" (2.2)
Le passage de la ligne (2. 1) à la ligne (2.2) , a priori bizarre, permet de ramener quatre
multiplications de deux entiers de m chiffres (à savoir, a'b', ab", a"b' et a"b") à trois
multiplications d'entiers de m (ou m+ 1) chiffres, (à savoir a' a", b'b" et (a' + a" ) (b' +b")) .
C'est cette astuce qui permet, quand on l'itère, d'obtenir un algorithme en temps
O(n10g2 ( 3) ) . Un autre algorithme, celui de [Schônhage et Strassen, 1971] , basé sur la
transformée de Fourier rapide, est en O(n log(n) log(log(n)) ) . Le meilleur algorithme
connu à ce jour est dû à [Fürer, 2009] , il est en 0( n log(n) log* ( n)) donc quasi-linéaire 1 .
Mentionnons enfin que si l'algorithme de Karatsuba est implémenté dans tous les sys­
tèmes de calcul formel, ceux de Schonhage & Strassen et celui de Fürer ne le sont pas
car, actuellement, ils sont grevés par une constante multiplicative gigantesque cachée
dans la notation 0( . . ) .
.

Exemple 2 : Evaluation d'un polynôme. La complexité d'un problème peut aussi


dépendre des conditions d'utilisation. Prenons l'exemple de l'évaluation d'un polynôme
de degré 4, soit P(x ) = a4 x4 + . . . + a0 • L'algorithme de Homer [1819] , réécrit ce po­
lynôme comme suit pour l'évaluer à l'aide de 4 multiplications et 4 additions :

On peut montrer que c'est optimum tant en additions (comme montré par Alexan­
der Ostrowski en 1954) qu'en multiplications [Pan, 1966] . Mais, pour évaluer ce po­
lynôme en un grand nombre N de points (par exemple, pour en tracer le graphe) , la
meilleure complexité n'est pas de 4N additions et 4N multiplications. Un précondition­
nement permet de le faire avec environ 3N multiplications et 5N additions (on a donc
échangé environ N multiplications contre autant d'additions) . Le « environ » traduit
les quelques opérations arithmétiques du calcul des coefficients a, {3, "(, ô ci-dessous : on
peut écrire
P(x) a4 [( x + a) (x + [3 )] 2 + "f(X + a) (x + {3) + (x + ô) (2.3)
� + � + � + aj � + m b + � � + aj � + � (2.4)
2a4 (a + {3) = a3
, a4 (a 2 + {32 + 4a{3) + "( a2
ou a, {3, "f, ô sont tels que
2 a4 af3 ( a + {3) + 'Y(a + {3) + 1 ai
{ a4 a2 {3 2 + a{3"( + ô = ao
La première équation (2.3) donne la valeur de a + {3. De la deuxième on déduit
1. La fonction log* est le nombre de fois qu'il faut itérer le logarithme pour trouver 0 (i.e. log* 1 = 1
et 2P s; n < 2P+1 => log* n = 1 + log* p) . Bien que cette fonction log* tende vers l'infini, sa croissance
est d'une lenteur extrême : ainsi, log* (10320) = 5. Au-regard des limites de temps vues en §2.2. 1 , cette
fonction log* ne dépassera donc jamais, en pratique, la valeur 5 ...
2. Informatique théorique : complexité, automates et au-delà - 1 035

'Y = A + Ba/3 (où A, B s'expriment avec ao , . . . , a4 ) · La troisième donne alors la valeur


de a/3. Ayant leur somme et leur produit, on en déduit les valeurs de a et /3. La der­
nière équation donne la valeur de 8. Enfin, la formule (2.4) demande 5 additions et 3
multiplications.
Plus généralement, on peut montrer, qu'avec un préconditionnement, il suffit de n ad­
ditions et l � J + 2 multiplications pour évaluer un polynôme de degré n (cf. le livre de
Knuth [1981) , p.471-475).
Mentionnons quelques résultats spectaculaires de complexité.
Exemple 3 : FFT. Peut-être le plus important résultat est l'algorithme de trans­
formation de Fourier (discrète) rapide (FFT) en temps O(n log n) (alors qu'a priori,
la complexité attendue était en O(n2 ) ) . Il s'agit d'une technique difficile mais d'une
incroyable utilité. Sans elle, codage et décodage des images serait beaucoup trop longs :
c'est la FFT qui nous a permis d'avoir les images de Mars, Jupiter, ... . N'hésitons pas à
le dire, la FFT est une révolution technologique essentielle (quoique largement mécon­
nue du grand public) .
Exemple 4 : Plus court chemin dans un graphe. Pour trouver le plus court che­
min d'un point donné à n'importe quel autre dans un graphe, un temps en O(n log n)
est suffisant. C'est l'algorithme de Dijkstra.
Exemple 5 : Diagrammes de Voronoï. Là encore, il y a un algorithme en O(n log n) .

2.2.3 Complexité d'un problème


Les « Turing Award Lectures » de Rabin [1987) et de Cook [1983) sont deux articles
remarquables sur la génèse de la théorie de la complexité que nous recommandons au
lecteur.
Peut-on définir la complexité d'un problème ? Parfois. Une façon de définir la
complexité d'un problème est d'établir une borne inférieure et une borne supérieure. Si
elles se correspondent de près, on peut considérer qu'on a obtenu la complexité exacte
du problème considéré. Un exemple simple est celui des tris. Il y a n! = n(n + 1) . . . 1
permutations de n objets distincts. Chaque comparaison entre deux objets divise par
deux cette famille de permutations. Pour trier n objets (par des comparaisons succes­
sives) , il faudra donc au moins log(n!) comparaisons. Comme log(n!) est de l'ordre de
n log(n) , on obtient une borne inférieure de de l'ordre de n log(n) comparaisons. Par
ailleurs, on connaît des tris en O(n log n) comparaisons, comme le tri fusion ( « merge
sort » ) . La complexité du tri est donc de l'ordre de n log n.
Pas toujours de meilleur algorithme : le théorème d'accélération de Blum.
Dans une première approche naïve, on peut penser que, pour tout problème algorith­
mique, il y a un meilleur algorithme. Mais les choses sont plus compliquées que cela.
Citons un résultat à méditer.
Théorème [Blum, 1967] . Quelle que soit la fonction calculable croissante a : N -+ N
qui tend vers +oo (intuition : a croît très lentement, donc a(p) « p), il existe une
fonction calculable f : N -+ N qui est calculable et telle que, quel que soit l 'algorithme
A qui calcule f, si, quel que soit n, A travaille en temps (resp. en espace) C(n) sur
1 036 Panorama de l'intelligence artificielle. Volume 3
-

l 'entrée n, alors il existe un autre algorithme B qui calcule f et, quel que soit n, travaille
en temps (resp. en espace) a(C(n)) sur l 'entrée n.
Une telle fonction f n'admet donc pas de meilleur algorithme puisque chacun de ses
algorithmes peut être accéléré.
Complexité et modèle de calcul. La complexité d'un problème peut fortement dé­
pendre du modèle de calcul considéré. C'est ainsi que la reconnaissance des palindromes
(les mots qui coïncident avec leur renversé) peut se faire de façon évidente en temps
linéaire sur une machine de Turing à deux rubans mais exige O(n2 ) étapes de calcul
sur une machine de Turing à un seul ruban (un résultat qui peut être établi par un
élégant argument de complexité de Kolmogorov [Paul, 1979] ) . Fort heureusement, les
modèles raisonnables de calcul séquentiel (ceux vus dans le chapitre précédent sur la
calculabilité) sont robustes, dans le sens où un modèle peut en simuler un autre avec
une perte de temps polynomiale (même quadratique, le plus souvent) . Certains auteurs
( [Slot et van Emde Boas, 1984] , la monographie [Arora et Barak, 2009]) expriment cette
robustesse sous la forme d'une variante forte de la thèse de Church présentée dans le
précédent chapitre précédent sur la calculabilité dans la partie qui traite des différentes
versions de la thèse :
Tout modèle de calcul physiquement réalisable peut être simulé par une
machine de Turing au prix d 'un surcoût polynomial.
De telles versions sont sujettes à plus de controverses que les autres variantes. Dans le
cadre de la comparaison entre machines analogiques et machines digitales, la preuve de
cette thèse de Church forte pour les systèmes dynamiques à temps continu présentée
dans [Vergis et al. , 1986] se fait au prix de simplifications discutables.
Complexité en temps, complexité en espace. Les ressources les plus courantes
sont le temps et l'espace dans le cas des algorithmes séquentiels, voir Cook [1983] Mais
comment mesurer ces ressources ? Qu 'est-ce qu 'une étape de calcul ? Qu 'est-ce qu 'une
unité d 'espace de calcul ? Ceci nous renvoie à la notion d'algorithme vue dans le chapitre
précédent sur la calculabilité et à la réflexion de Gurevich. Voir aussi Cobham [1965] .
Nous dirons que le temps est le nombre d'étapes qu'effectue une machine pour exécuter
un algorithme, et l'espace est la quantité de mémoire nécessaire. Examinons cela de
près. Dans l'exemple vu plus haut de la multiplication de deux entiers, est-ce raison­
nable de considérer que le coût de l'addition de deux entiers vaut 1 . Cook a proposé
de charger un coût logarithmique [Cook et Reckhow, 1973] dans le cas des RAM, voir
le chapitre précédent sur la calculabilité.
De même pour les algorithmes parallèles, la complexité sera mesurée par rapport à un
modèle de calcul parallèle comme les PRAM (parallel RAM) ou les circuits booléens.
Suivant les modèles de calcul, on s'intéressera aussi au nombre de processeurs et à leur
topologie, cf. [van Emde Boas, 1990] .
Complexité au pire cas versus complexité en moyenne. La complexité au pire
cas fournit une borne supérieure sur une ressource donnée. Mais, en pratique, la com­
plexité en moyenne - par rapport à une distribution des entrées - peut être beaucoup
plus significative [Levin, 1986] . En revanche, l'analyse en moyenne est, en général de
beaucoup plus difficile.
2. Informatique théorique : complexité, automates et au-delà - 1 037

Complexité paramétrique. On peut aussi fixer un paramètre du problème et étu­


dier sa complexité quand on fait varier les autres. C'est le champ d'investigation de la
complexité paramétrique [Cook et Reckhow, 1973] .
Axiomatique et théorie de la complexité. Mentionnons que Manuel Blum [1967] ,
voir aussi [Seiferas, 1990] , a défini un système axiomatique pour développer une théorie
de la complexité qui soit indépendante des modèles de calcul.

2.2.4 Classes de complexité


Le titre de cette sous-section aurait pu être « où l 'ignorance crée l 'abondance ... ». A
défaut de résultats significatifs, les problèmes sont classés comme le font les entomolo­
gistes [Aaronson et al., 2010] . Le concept important est celui de problème complet pour
une classe de complexité. Un problème P est complet pour la classe de complexité C si
P est dans C et si tout problème de C peut se réduire à P. En d'autres termes, il existe ·
une fonction de complexité raisonnable par rapport à C, qui réduit toute instance de
C à une instance de P.
PTIME. La classe PTIME est la classe des problèmes qui sont calculables en temps
polynomial. En d'autres termes, un problème est dans PTIME s'il existe un algorithme
en temps polynomial qui le résout. La classe PTIME est robuste car elle est définissable
par rapport à de nombreux modèles de calcul séquentiels. Elle comporte de nombreux
problèmes complets :
- déterminer la valeur d'un circuit booléen monotone,
- satisfaisabilité des clauses de Horn,
- savoir si un langage hors-contexte est vide,
Enfin, PTIME est considérée comme la classe des problèmes « faisables » (en anglais
« tractable » ) . Si cette affirmation est assez bien étayée, on peut cependant s'interroger
sur le caractère raisonnable d'un algorithme en temps polynomial n 100 par rapport à
un algorithme en temps exponentiel en 2 o . ooooooi xn .
Réduction entre problèmes. Problèmes complets.
NP. Face à la classe PTIME, il y a la très célèbre classe NP qui est définie à partir
d'un modèle de calcul non déterministe. A chaque étape du calcul, la machine peut
faire un choix et la solution du problème est trouvée s'il existe une séquence de choix
qui conduit à la bonne solution. Entrons nous dans un pays du calcul imaginaire ? Pas
tout à fait, car de nombreux algorithmes sont intrinsèquement non déterministes et
d'autre part cette notion est mathématiquement viable et féconde.
La classe NP est la classe des problèmes qui sont calculables par une machine de Turing
non déterministe en temps polynomial.
La notion et l'existence de problème NP complet est due à Cook [1971] et Levin [1973] .
Les travaux de Richard Karp puis le livre de Garey et Johnson [1979] illustrent le
foisonnement des problèmes NP-complets dans différents domaines comme en logique
(3-SAT) , en théorie des graphes (Clique, Vertex cover) , en optimisation (Sac à dos) ,
?
La question PTIME � NP. La célèbre question PTIME = NP n'est pas que théo-
rique car elle a des conséquences dans la vie quotidienne (Cook, 2003] . Si PTIME =f. NP
1 038 Panorama de l'intelligence artificielle. Volume 3
-

alors les hypothèses de cryptographie seraient confirmées. Dans le cas contraire où


PTIME = NP, et si nous en avons une démonstration raisonnable, les preuves dans
certains systèmes logiques seraient alors possibles avec des applications remarquables,
par exemple, en démonstration automatique.
Pourquoi cette question est-elle si ardue ? La question analogue avec le temps linéaire
a été résolue : on sait que LinearTime -=!- NLinearTime ( [Paul et al. , 1983] , cf. aussi le
livre [Balcazar et al. , 1990] ) mais la seule différence qu'on ait su prouver entre ces deux
classes est qu'il y a un problème dans NLinearTime qui exige un temps déterministe
en O(n log* n) . Comme on l'a vu au §2.2.3 (note de bas de page de l'exemple 1 ) , cette
fonction log* est à croissance ultra lente. Un autre résultat surprenant est celui de
Levin qui construit un algorithme optimal pour les problèmes NP qui est expliqué par
Gurevich [1988] .
PSPA CE. On peut aussi classifier les problèmes suivant la quantité de mémoire né­
cessaire à leur résolution. La classe PSPACE est la classe des problèmes calculables en
espace polynomial. Le problème QBF (savoir si une formule quantifiée sur des variables
booléennes est vraie) et de nombreux jeux, comme la généralisation du GO, ou encore
le parsing des grammaires contextuelles sont des problèmes complets pour PSPACE.
Ce qui est tout à fait remarquable ici, c'est que l'on sait que nombre de classes liées à
l'espace sont égales :
PSPACE= NPSPACE= Parallel PTIME= APT/ME
L'espace polynomial non déterministe NPSPACE ne donne rien de plus que l'espace
polynomial déterministe PSPACE [Savitch, 1970] . De même, le temps polynomial Pa­
rallel PTIME sur machines RAM paralléles et celui APT/ME sur machines alternantes
(une extension forte du non déterminisme) [Chandra et al. , 1981] coïncident avec PS­
PACE.
La ribambelle. Nous avons juste ouvert la boîte de Pandore : il y a bien d'autres
classes. A l'intérieur de PTIME mentionnons les classes NC1 et NLOGSPACE. La
première NC1 est une clase uniforme de circuits booléens de taille polynomiale et
de profondeur logarithmique [Karp et Ramachandran, 1990] . Un problème complet
de NC1 est l'évaluation d'une formule booléenne instanciée [Buss, 1987] . La seconde
classe NLOGSPACE contient des problèmes complets comme 2SAT ou encore le pro­
blème d'accessibilité dans un graphe orienté.
Cette courte exploration des classes de complexité peut être visualisée suivant leur
relation d'inclusion ce qui donne la hiérarchie suivante :

Ad c NC1 Ç LOGSPACE Ç NLOGSPACE c PTIME Ç NP Ç PSPACE ç EXPTIME

La première inclusion, Ad C NC1 , est stricte. C'est un résultat important de Furst,


Saxe, and Sipser [1984] et Ajtai [1983] . Pour en finir, Il y a bien entendu des problèmes
naturels qui sont plus compliqués que PSPACE, nous en avons cité un avec l'algèbre
des nombres réels au chapitre précédent sur la calculabilité
Résultats d'échange. La profusion des mesures de complexité soulève des questions
sur le bien fondé des définitions données. Rassurons-nous, la complexité en temps
2. Informatique théorique : complexité, automates et au-delà - 1 039

semble pertinente et solide d'un point de vue pratique. D'autre part, il y a des ré­
sultats d'échange entre les ressources, et de hiérarchie à garder en tête : quelle que soit
la fonction de complexité T,

TIME(T(n)) Ç NTIME(T(n)) Ç SPACE(T(n)) Ç NSPACE(T(n)) Ç TIME(2T( n) )


(2.5)
où T est une fonction de complexité.
Une classe méconnue : TIME( n ( log n ) 0<1l ) Notons que cette classe est aussi close
.

par composition comme l'est PTIME. Si cette classe est peu présente avec les problèmes
combinatoires, en revanche, elle contient cependant la FFT et les fonctions arithmé­
tiques sur les entiers ( cf. Exemple 1 et 3 du 2.2.2). Elle est aussi capitale en analyse
récursive : Richard Brent (1976] a, en effet, montré que toutes les fonctions de l'analyse
( exponentielle, sinus, cosinus, fonction r,. .. ) sont calculables en temps n( log n) O ( l ) ( il
faut pour cela utiliser un algorithme de multiplication des entiers qui soit lui-même
dans cette classe n( log n) O ( l ) , cf. Exemple 1 du §2.2.2).

2.2.5 Caractérisation des classes de complexité


Les classes de complexité sont définies à partir d'un modèle de calcul et d'une
borne explicite sur la ressource considérée. La modélisation d'une classe de complexité
sans faire référence explicitement à un modèle de calcul borné a ouvert un champs de
recherche appelé « lmplicit Computational Complexity ». Deux exemples historiques
illustrent cette ligne de recherche. Le premier est une caractérisation de la classe NP
en terme de relations définissables par des formules du second ordre par Fagin [1974]
et Jones-Selman [1974] sur des structures finies. Le second est une caractérisation des
fonctions primitives récursives comme l'ensemble des fonctions prouvablement totales
dans l'arithmétique du premier ordre avec l'axiome d'induction restreint aux formules
existentielles par Parsons. Parmi les travaux fondateurs qui ont proposé une caracté­
risation implicite de PTIME, il y a ceux sur la récursion bornée de Cobham [1965] , la
logique avec point fixe de Immerman [1986] . A partir des années 90, d'autres modélisa­
tions sur des domaines infinis ont été construites : en logique du second ordre avec une
restriction de l'axiome de compréhension de Leivant [1991] , avec une récursion ramifiée
de Bellantoni et Cook [1992] et Leivant (1994] , avec une restriction au Lambda-Calcul
de Leivant et Marion (1993] , avec des types linéaires de Girard (1998] , et enfin en logique
du premier ordre avec une restriction sur la quantification universelle de Marion [2001] .

2.2.6 Complexité et représentation des objets


L'influence de la représentation sur la complexité des problèmes peut être considé­
rable : on tremble à l'idée de faire une multiplication d'entiers représentés en chiffres
romains ... Nous sommes habitués aux représentations binaires et décimales des entiers.
Mais il y en a bien d'autres. Considérons l'exemple de l'addition des entiers. On sait que
les retenues peuvent se propager arbitrairement loin dans une addition. Ce fait simple
empêche de faire des additions en parallèle sur les digits de même rang. Ce qui est bien
1 040 - Panorama de l'intelligence artificielle. Volume 3

dommage du point de vue complexité. Pourtant, cela est néanmoins possible. Un cher­
cheur lithuano-américain, Algirdas Avizienis, a imaginé d'utiliser plus de chiffres que
nécessaire [Avizienis, 196 1] . Ainsi, en base 2, peut-on utiliser les trois chiffres - 1 , 0, l .
Bien sûr, un nombre aura alors plusieurs représentations : par exemple, écrivant î au
lieu de - 1 , le nombre 17 peut s'écrire 10001 ou lOOlî ou 101 1 1 ou 1 1 1 1 1 ou 1 1 1 1 1 1 ... Ce
fait peut-être utilisé avec profit pour empêcher la propagation non bornée des retenues
et permettre des additions en parallèle, cf. le livre de [Muller, 1989] . Mentionnons que
cette technique n'est pas pure théorie, elle est, en effet, implémentée dans les circuits
des ordinateurs.

2.3 Complexité algorithmique de l'information


Utilisant le code ASCII dans lequel chaque lettre est codée par 8 bits, un texte de
taille n peut être représenté par 8n bits. Mais, certaines lettres peuvent être absentes
ou, au contraire, être plus fréquentes que les autres. En codant les lettres très fréquentes
par peu de bits quitte à devoir coder les autres par bien davantage, on peut obtenir
des codages du texte par beaucoup moins que 8n bits. Jusqu'où peut-on aller de la
sorte ? C'est la question qu'a résolue Claude Shannon en 1948 dans un très célèbre
article [Shannon, 1948] qui fonde un nouveau sujet : la théorie quantitative de l'infor­
mation, sujet aux applications innombrables dans tous les moyens de communication
(téléphone, fax, etc.) . Shannon introduit une notion d'entropie : si les fréquences des
différentes lettres dans un texte sont Ji , . . . , fn alors l'entropie associée H est le nombre
réel < 1 défini par H = -(!1 log fi + . . . + fn log fn ) · L'un des théorèmes principaux de
Shannon assure que 1) tout codage en binaire de ce texte contient au moins nH bits,
2) il existe un codage en binaire avec :::; n(H + 1) bits.
Autour de 1964, Kolmogorov repense complètement la théorie de Shannon en terme
de calculabilité. Au lieu de considérer les codages des lettres par des mots binaires, il
regarde globalement le texte et considère la taille d'un plus court programme infor­
matique (ou de machine) capable de l'écrire, c'est la complexité de Kolmogorov du
texte. Par exemple, il y a un programme très court pour faire écrire 2 1000000 (même
si son temps d'exécution, lui, est de l'ordre du million) alors que pour faire écrire un
nombre donné mais tiré au hasard avec un million de chiffres, il faudra un programme
de taille à peu près un million. Noter, en revanche, que l'écriture d'un million de digits
du nombre 7r (le fameux 3, 14 . . . ) , se fait par un programme très court car on connaît
des algorithmes simples pour calculer ces digits.
A priori, cette complexité doit dépendre fortement du langage de programmation (ou
modèle de calculabilité) . Kolmogorov montre qu'il n'en est rien. Cette dépendance est
bornée : étant donnés deux langages, il existe un entier d tel que les complexités de
n'importe quel texte relativement à ces langages ne différent que d'au plus d. Comme le
dit plaisamment Kolmogorov, la complexité d'un texte comme celui du roman « Guerre
et Paix » de Léon Tolstoï peut être considérée comme bien définie indépendamment du
langage de programmation choisi, la variation selon ce choix étant négligeable.
Comme on peut s'y attendre, cette complexité, parfaitement définie sur le plan
théorique, n'est cependant pas une fonction calculable ... Ceci peut sembler rédhibitoire
pour des applications mais il n'en est rien (cf. le livre [Li et Vitanyi, 2008] ) .
2. Informatique théorique : complexité, automates et au-delà - 1 04 1

D'une part, la complexité de Kolmogorov permet de fonder la notion d'objet aléatoire,


une notion que la théorie des probabilités (telle qu'axiomatisée par le même Kolmo­
gorov en 1933) ignore, ne s'intéressant qu'aux ensembles d'objets (dont elle mesure la
probabilité) et non pas aux objets eux-mêmes. C'est Per Martin-Lof, en 1965, alors
élève de Kolmogorov, qui le premier formalise cette notion intuitive d'objet aléatoire.
Depuis, d'autres formalisations ont été trouvées (Levin et Chaitin, indépendamment,
vers 1973) qui sont toutes équivalentes.
D'autre part, Paul Vitanyi, vers 2000, en utilisant des approximations de la complexité
de Kolmogorov à l'aide des compresseurs usuels (gzip, ... ) , a créé une nouvelle méthode
de classification des documents d'une très grande efficacité (Cilibrasi et Vitanyi, 2005 ;
Cilibrasi et al. , 2004 ; Li et al. , 2004] .
Enfin, la complexité de Kolomogorov est utilisée en apprentissage (Denis et Gilleron,
2001 ; Chater et Vitanyi, 2007] .

2.4 Une opérationnalité efficace : les automates finis


Les automates finis peuvent être considérés comme issus de considérations algé­
briques ou issus de considérations algorithmiques avec une origine multiple : les auto­
mates de calcul, les machines de Turing, les neurones formels, les chaînes de Markov.
Nous privilégierons plutôt la vision algorithmique dans cette section. Il est usuel de pro­
poser comme date de début des travaux sur les automates finis la date de publication
du théorème de Kleene, soit 1954. Depuis cette date, un vaste courant de recherche s'est
intéressé aux automates finis et à leurs applications avec une activité très forte dans les
années 1960-1990 et de nombreux et fructueux résultats. Désormais, les automates fi­
nis font partie de la culture de la communauté informatique. Cependant, les recherches
sur les automates finis et leurs applications restent très actives avec des résultats im­
portants très récents qui ont des applications en bio-informatique, en traitement du
langage naturel, en systèmes d'information parmi d'autres. Nous nous proposons de
parcourir les résultats fondamentaux et les principales applications. Nous nous excu­
sons par avance pour les oublis dus au choix des auteurs. Les références principales
dont nous nous sommes servis sont : les livres de Hopcroft et Ullman dont [1979] ; les
chapitres 1 à 5 du volume B de [van Leeuwen, 1990] par Perrin, Berstel et Boasson, Sa­
lomaa, Thomas et Courcelle ; de nombreux chapitres de [Rozenberg et Salomaa, 1997] ;
le livre de Sakarovitch [2009] ; un ouvrage récent sur les automates pondérés [Droste
et al. , 2009] ; un ouvrage collectif sur les automates d'arbres (Cornon et al. , 2007] .

2.4.1 Les automates finis de mots


Les automates finis de mots sont un modèle de calcul très simple : des états en
nombre fini, des règles en nombre fini décrivant le changement d'état à effectuer lors­
qu'on lit une lettre et des conditions initiales et finales. Le modèle de base considère
des mots qui sont des séquences finies de lettres d'un alphabet fini. Formellement, étant
donné un alphabet fini de lettres A, un automate fini M est défini par un ensemble fini
d'états Q, un sous-ensemble I de Q des états initiaux, un sous-ensemble F de Q des
états finaux, un ensemble de transitions D. inclus dans Q x A x Q. L'automate M est
1 042 - Panorama de l'intelligence artificielle. Volume 3

décrit par un quadruplet ( Q, I, F, D.. ) . On peut également voir un automate M comme


un graphe avec les noeuds dans Q, les arcs dans D.. et deux ensembles particuliers de
noeuds que sont les noeuds initiaux et finaux. Il est d'usage de faire une représentation
graphique d'un automate en choisissant une convention pour représenter les noeuds
initiaux et finaux. Un automate est complet (ou complètement spécifié) si pour tout
couple (q, a) dans Q x A, il existe une règle (q, a, q') dans D.. (on écrit aussi q � q') . La
notion décrite ci-dessus est celle, générale, d'automate non déterministe, Un automate
est dit déterministe si pour tout couple (q, a) dans Q x A, il existe au plus une règle
(q, a, q') dans D.. .
Les automates finis ainsi définis sont considérés comme des « accepteurs » (ou « re­
connaisseurs » ) car ils répondent oui ou non à la question : ce mot est-il accepté {re­
connu) par l'automate ? Pour cela, il reste à définir comment cette réponse peut-être
calculée. Un calcul de M sur un mot u = ai . . . a n est un mot qoq1 . . . qn tel que : qo est
un état initial dans I, et, pour tout i < n, (qi , ai , qi + l ) est une règle dans D.. . Notons que
dans un automate complet (respectivement déterministe) , il existe toujours au moins
un {respectivement au plus un) calcul pour tout mot u. Un mot u est accepté par M
s'il existe un calcul de M sur u dont le dernier état est final, un tel calcul est appelé
calcul réussi. Le langage des mots acceptés par M est noté L(M ) . Un langage L (un
ensemble de mots) est reconnaissable s'il existe un automate fini M tel que L = L(M ) .
L'exemple d'automate déterministe complet donné ci-dessous a pour état initial i
et pour états finaux p, q. Il reconnaît les mots de l'alphabet a, b qui ne contiennent pas

1
de facteur aba.

i � p p � p
a
q --+ r r 7 r
i � i p � q q � i r --+ r
Nous présentons sans démonstration une sélection de résultats de base sur les automates
finis de mots. Pour tout automate, il existe un automate complet qui reconnaît le même
langage. Pour tout automate à n états, il existe un automate déterministe complet à
au plus 2n états qui reconnaît le même langage. On peut noter que les calculs dans un
automate sont effectués par une lecture de gauche à droite du mot et une lettre est
consommée à chaque application de règle. Une première extension consiste à autoriser
un changement d'état sans consommer de lettre. On parle d'automate avec e-transitions
(ou e-règles) . Il existe un algorithme de construction d'un automate reconnaissant le
même langage qui ne contient pas <l'e-transitions et donc l'expressivité de ces automates
correspond à la classe des langages reconnaissables. Une autre extension consiste à
permettre d'alterner le sens de lecture du mot pendant le calcul. Ici encore l'expressivité
reste inchangée.
Une propriété importante des langages reconnaissables s'exprime à l'aide de lemmes
de pompage. Dans sa version première (des lemmes plus forts ont été proposés) , ce
lemme affirme que, pour tout langage reconnaissable, il existe une constante k, telle
que tout mot du langage de longueur supérieure à k possède une factorisation avec un
facteur qui peut être itéré ou enlevé en restant dans le langage. Ce lemme permet de
montrer facilement qu'un langage tel que { a n b n 1 n ;::: O} n'est pas régulier.
La classe des langages reconnaissables est close par les opérations booléennes, à
savoir intersection, union et complémentation : par exemple, l'intersection de deux
2. Informatique théorique : complexité, automates et au-delà 1 043
-

langages reconnaissable est reconnaissable. Elle est close par homomorphisme et ho­
momorphisme inverse. Le vide d'un langage ( savoir si un langage est vide ou non à
partir de sa présentation par un automate ) est un problème décidable.
Le résiduel à gauche u - 1 L d'un langage L relativement à un mot u est le lan­
gage constitué des mots v qui sont tels que u suivi de v, i.e. uv , est un mot de L.
On peut définir une relation =L par u =L v si u - 1 L = v - 1 L, i.e. u et v ont les
mêmes prolongements dans L. Cette relation est une relation d'équivalence qui est
stable par concaténation, c'est donc une relation de congruence dans l'algèbre formée
par les mots munis de l'opération ( u, v ) f-t uv ( appelée concaténation ) . Le théorème
de Myhill-Nerode affirme que L est un langage régulier si et seulement si le nombre de
classes d'équivalence de =L est fini. Ce théorème implique principalement l'existence
d'un automate déterministe minimal pour tout langage régulier L au sens du nombre
minimal d'états. Ce nombre minimal d'états est le nombre de classes de congruence
de =L· Des algorithmes de construction de l'automate minimal ont été définis : un
algorithme dérivé de la preuve du théorème, l'algorithme de Hopcroft par raffinement
de partition en partant d'un automate déterministe et de la partition (F, Q F) , un -

algorithme par passage au miroir et déterminisation du miroir.


Nous présentons maintenant différents formalismes qui sont prouvés équivalents aux
automates finis du point de vue expressivité. Ceci démontre l'importance des automates
finis et de la classe des langages reconnaissables. Nous présentons ensuite certains ré­
sultats de complexité qui eux dépendent du formalisme choisi.
Grammaires régulières. Les automates privilégient le point de vue « accepteur »
ou « reconnaisseur » et les considérations algorithmiques. Les grammaires ont été in­
troduites pour une étude des classes de langages principalement dans le domaine des
langues naturelles. Elles privilégient le point de vue « générateur » en décrivant com­
ment générer les mots d'un langage par des règles de production ( ou de réécriture) .
Formellement, étant donné un alphabet fini de lettres A, une grammaire g est définie
par un ensemble fini de non terminaux ( ou variables ) N, un ensemble P de règles de
production de la forme l --+ r où l et r sont des mots sur l'alphabet A U N et un non
terminal particulier souvent noté S ( pour « sentence » ) appelé axiome. La grammaire g
est décrite par un triplet (N, P, S) . On génère un mot en partant de S et en appliquant
des règles de P jusqu'à obtenir un mot u ne contenant que des lettres de A. Le langage
des mots générés par g est noté L ( Ç ) . Sans restriction sur la forme des règles, on a
les grammaires de type 0 de Chomsky qui génèrent les langages récursivement énumé­
rables, i.e. reconnaissables par machine de Turing (voir Section 1 .2.4) . Une restriction
très forte est de considérer les grammaires de type 3 également appelées grammaires
régulières : une grammaire est régulière si toutes les règles de P ont leur membre gauche
qui se réduit à un non terminal dans N et leur membre droit est, soit une lettre de
A, soit une lettre de A suivie d'un non terminal dans N. Il est facile de montrer de
façon constructive que la classe de langages générés par des grammaires régulières est
la classe des langages reconnaissables.
Expressions régulières. Après les points de vue accepteur et reconnaisseur, nous
prenons maintenant le point de vue « descriptif » avec les expressions régulières in­
troduites par Kleene [1956) . Celles-ci permettent de décrire par une expression à la
syntaxe précise un ensemble de mots, c'est-à-dire un langage. Cette syntaxe est sou-
1 044 - Panorama de l'intelligence artificielle. Volume 3

vent spécifique à chaque langage informatique. Nous prenons ici le point de vue formel
et considérons les opérations sur les langages que sont la concaténation 2 notée par un
point . (souvent oublié) et définie par X.Y = XY = {w 1 w = uv, u E X, v E Y} ;
l'union notée + en notation infixée ; l'étoile * en notation postfixée et définie par
X* = {w 1 w = u 1 . . . un , n � O, ui , . . . , un E X} (le cas n = 0 donnant le mot vide) ,
soit encore l'union infinie des puissances d'ordre n � 0 d'un langage. Par exemple, cette
syntaxe permet d'écrire (a + b)* pour l'ensemble des mots sur l'alphabet a, b. On peut
ainsi décrire comment sont « construits » les mots du langage en utilisant « suivi de »
pour la concaténation, « ou » pour l'union et « un certain nombre de » pour l'étoile.
Un langage est rationnel s'il peut être décrit par une expression rationnelle.
Le théorème de Kleene, présent dans le papier originel [Kleene, 1956] , montre l'éga­
lité entre la classe des langages reconnaissables et la classe des langages réguliers. Au
vu du grand nombre d'applications, les transformations entre automates et expressions
régulières ont été et demeurent beaucoup étudiées. Pour transformer une expression ré­
gulière en un automate équivalent, une première solution est d'utiliser une construction
sur les automates pour chacun des opérateurs . , + et * · Ceci se fait facilement avec des
automates finis avec e-transitions. Cette construction n'est pas optimale car on peut
avoir beaucoup <l'e-transitions et leur élimination peut être coûteuse. Une construction
d'un automate fini équivalent sans e-transitions, appelé automate des positions ou auto­
mate de Glushkov, de taille quadratique par rapport à la taille de l'expression régulière
est attribuée à Glushkov [1961] . Cette construction aux très nombreuses applications
a été reprise, améliorée et particularisée pour des classes d'expressions. Citons, entre
autres, McNaughton et Yamada [1960] , Berry et Sethi [1986] , Brüggeman-Klein [1993 ;
1998] . Pour transformer un automate en une expression régulière équivalente, une so­
lution est d'écrire un système d'équations rationnelles de la forme Xi = l:i Xiaii ou
Xi = l:i Xiaii + e où la variable Xi capture les mots pouvant arriver dans l'état qi et
aii une lettre de l'alphabet, puis de résoudre ce système en utilisant des substitutions
et le fait que l'unique solution de l'équation X = XY + Z lorsque e </. Y est ZY* . Mais,
Ehrenfeucht et Zeiger [1976] définissent des automates à n états pour lesquels la plus
petite expression régulière équivalente contient un nombre exponentiel d'occurrences
de lettres de A dans l'expression.
La question du nombre d'étoiles nécessaires pour définir un langage reconnaissable
s'est posée très tôt. Une première réponse a été de montrer que la hauteur d'étoiles
(le nombre d'imbrications dans l'expression) ne peut pas être bornée (Eggan [1963] ,
amélioré dans Dejean et Schützenberger [1966] ) . Un deuxième résultat plus difficile,
obtenu par Hashiguchi [1988] , fut de proposer un algorithme pour déterminer la hau­
teur d'étoile d'un langage régulier. Des améliorations algorithmiques ont été apportées
depuis mais la complexité reste exponentielle et impraticable.
Logique monadique du second ordre (MSO) Un mot peut être représenté par
une structure du premier ordre avec un ensemble de positions qui est un intervalle [1, n]
d'entiers, une notion de successeur, un ordre naturel et pour chaque lettre de l'alphabet
l'ensemble des positions du mot correspondant à cette lettre. On peut alors considérer
un langage du premier ordre où les variables, notées x, y, . . . , représentent des entiers
2. Le mot concaténation désigne tant l'opération sur les mots (u, v ) >-+ uv que son extension aux
langages.
2. Informatique théorique : complexité, automates et au-delà - 1 045

(des positions) et des formules atomiques de la forme x + 1 = y (la position suivante


de x est y) , x < y (la position x précède y) , ou encore Pa (x ) (en position x on trouve
la lettre a) . On considère également des variables du second-ordre, notées X, Y, . . . ,
qui représentent des ensembles (finis) de positions. Les quantifications peuvent porter
sur des variables du premier ordre et du second ordre. Un langage est définissable en
MSO s'il correspond à l'ensemble des mots qui satisfont une formule <p sans variable
libre. Büchi (1960b] et Elgot (1965] ont montré que les langages définissables en MSO
sont les langages reconnaissables. Cette logique est donc décidable car on peut déci­
der de la satisfiabilité d'une formule en calculant un automate et en décidant du vide
pour cet automate. Ce résultat permet donc de résoudre la question de la décidabilité
de la théorie des entiers avec successeur et quantification sur les ensembles d'entiers
(voir Section 1.6.1). Ce résultat peut être vu comme un cas particulier d'un résultat
similaire, obtenu par Büchi [1960a] et McNaughton [1966] , pour la logique MSO où on
considère des positions entières ce qui revient à interpréter sur des mots infinis. Pour la
preuve d'équivalence entre langages déinissables en MSO et langages reconnaissables,
le passage d'une formule vers un automate se fait par une méthode d'élimination de
quantificateurs. Chaque alternance de quantificateur nécessite un calcul du langage
complémentaire et donc une exponentiation. Ceci est intrinsèque car le problème est
démontré être non élémentaire (i.e. sa complexité est une tour non bornée d'exponen­
tiations itérées) . Le passage de l'automate à une formule consiste à décrire dans une
formule MSO le fonctionnement de l'automate, ce qui ne pose pas de difficulté.
Automates alternants. Introduits dans [Chandra et al. , 1981] et [Brzozowski et Leiss,
1980] , ils généralisent les automates finis non déterministes tout en gardant le même
pouvoir d'expression et en permettant une construction simple pour la complémenta­
tion. Supposons que dans un automate non déterministe, on dispose d'un choix avec
deux règles (q, a, q 1 ) et (q, a, q2 ) · Pour qu'un mot u décomposé sous la forme u = av
soit reconnu, il suffit qu'il existe un calcul réussi partant de q 1 lisant v ou qu'il existe
un calcul réussi partant de q2 lisant v. D'autre part, pour que u ne soit pas reconnu,
il faut vérifier que tous les calculs ne sont pas réussis. L'idée de base des automates
alternants est d'autoriser dans leur définition et dans la définition de calcul réussi ces
deux types de comportement : disjonctif où un des calculs doit vérifier une condition
et conjonctif où tous les calculs doivent vérifier une condition. Il existe plusieurs dé­
finitions équivalentes des automates alternants utilisant des types d'état existentiel et
universel ou utilisant des formules logiques (avec ou sans négation) pour les membres
droits de règles. Nous ne détaillons pas ces formalismes mais notons que, quel que soit le
formalisme choisi, la preuve de clôture par complémentation est immédiate. On montre
également [Chandra et al. , 1981] que la classe des langages reconnus est la classe des
langages reconnaissables et qu'il existe des automates alternants à k états pour lesquels
k
un automate complet déterministe équivalent a au moins 2 2 états.
Nous terminons par quelques résultats de complexité. La complexité dépend de la
représentation choisie en sachant également que nous avons donné dans ce qui précède
des éléments sur la complexité de passage entre formalismes. Par exemple, décider si un
mot satisfait une formule MSO se fait en temps linéaire par rapport à la taille du mot
et la taille d'un automate représentant la formule. Mais on sait que la construction de
l'automate est non élémentaire (complexité en tour d'exponentielles) . Nous donnons la
1 046 Panorama de l'intelligence artificielle. Volume 3
-

complexité de quelques problèmes : la décision de l'appartenance d'un mot à un langage


est DLOGSPACE-complet avec un automate déterministe en entrée, NLOGSPACE­
complet avec un automate fini en entrée (déterministe ou non) , P-complet avec un au­
tomate alternant en entrée ; la décision du vide d'un langage est NLOGSPACE-complet
avec un automate fini (déterministe ou non) en entrée, P-complet avec un automate
alternant en entrée ; la décision de l'équivalence de deux langages est NLOGSPACE­
complet avec deux automates déterministes en entrée, P-complet avec deux automates
non déterministes ou deux automates alternants en entrée.

2.4.2 Les extensions des automates de mots


Automates pondérés et séries rationnelles
Un automate détermine l'appartenance d'un mot à un langage reconnaissable avec
une réponse booléenne. Une extension naturelle est d'associer à un mot une probabilité
d'appartenance à un langage. Ceci peut être réalisé à l'aide d'automates probabilistes
introduits dans [Paz, 1971] . Le principe est d'associer des poids réels positifs aux états
initiaux, aux états finaux et aux règles de l'automate. En introduisant des conditions
de normalisation adéquates de ces poids ainsi que des conditions d'accessibilité et de
co-accessibilité des états, un automate probabiliste définit une loi de probabilité sur
l'ensemble des mots sur un alphabet A, les mots de probabilité non nulle définissant
un langage reconnaissable. On peut noter que les automates déterministes probabi­
listes sont moins expressifs que les automates probabilistes. Par contre les automates
probabilistes correspondent aux modèles de Markov cachés [Denis et al. , 2005] .
Pourquoi se limiter à des calculs dans les nombres réels dans l'intervalle (0, 1] alors
que les automates devraient être, par exemple, capables de compter. On peut ainsi
définir les automates pondérés avec des poids dans un semi-anneau (K, +, x , 0, 1) qui
vont permettre de définir des applications de l'ensemble des mots sur un alphabet A
dans le semi-anneau K. Ces applications sont appelées séries reconnaissables. Elles ont
été montrées équivalentes aux séries rationnelles définies de façon algébrique en théorie
des langages formels [Berstel et Reutenauer, 1982 ; Sakarovitch, 2009 ; Droste et al. ,
2009] .

Automates à piles et langages algébriques


Dans la hiérarchie de Chomsky et dans l'étude du langage naturel, une classe très
importante est celle des grammaires de type 2, encore appelées grammaires à contexte
libre ou grammaires algébriques. Une grammaire g est algébrique si tous ses membres
gauches sont réduits à un non terminal. Cette restriction implique que la génération
d'un mot est effectuée par réécriture des non terminaux indépendamment du contexte.
La classe des langages algébriques contient strictement la classe des langages recon­
naissables : le langage { a n bn 1 n ;::: O}, le langage des expressions bien parenthésées
est algébrique et non reconnaissable. En effet, il est possible de contrôler la génération
simultanée de parenthèse ouvrante et fermante et les imbrications. Ceci implique pour
reconnaître de tels langages, d'ajouter aux automates la capacité de compter et de
vérifier qu'à toute parenthèse ouvrante correspond bien une parenthèse fermante. Ceci
2. Informatique théorique : complexité, automates et au-delà - 1 047

se fait par l'ajout d'une pile à l'automate fini et la possibilité pour les règles d'empiler
ou de dépiler des symboles sur la pile. Nous ne détaillerons pas le formalisme des auto­
mates à piles. Les langages algébriques et les automates à piles ont été très largement
étudiés à cause de leurs très nombreuses applications : langages de programmation
et langue naturelle, par exemple. Des points d'entrées pour la très vaste littérature
peuvent être les articles sur les grammaires algébriques de [van Leeuwen, 1990 ; Ro­
zenberg et Salomaa, 1997] . Mais on peut noter que certains résultats importants sont
postérieurs. Par exemple, l'équivalence d'automates à piles déterministes a été montrée
décidable à la fin des années 90 par Sénizergues [2002] .

Automates avec sorties


Une autre extension des automates consiste à permettre aux automates de lire leur
entrée tout en calculant un mot de sortie. Cette extension naturelle qui prend son
origine dans les machines de Turing a donné lieu aux machines de Moore, de Mealy et
de façon plus générale aux transducteurs. Un transducteur est un automate de mots
auquel on ajoute à toute règle de la forme (q, a, q') un mot u de sortie (éventuellement
vide) sur un alphabet B. Une telle règle est notée sous la forme (q, a/u, q') ou q � q'.
Le fonctionnement du transducteur est celui d'un automate modifié comme suit : on
ajoute le mot u à la sortie courante lorsque l'on active cette règle. Un transducteur
définit ainsi une relation reconnaissable. Ce domaine a été largement étudié en théorie
des langages formels et nous renvoyons à l'ouvrage de Sakarovitch [2009] qui contient
résultats essentiels et pointeurs sur la littérature.
L'exemple de transducteur déterministe décrit ci-dessous (dans lequel i est l'état
initial) est assez étonnant ; trouvé par Schützenberger (cf. [Eilenberg, 1974] , page 305),
il réalise une bijection de l'ensemble (a + b + c)* des mots de l'alphabet ternaire a, b, c
sur l'ensemble (x + y)* des mots de l'alphabet binaire x, y.

a/x a/x a/x


i --'-+ i p --'-+ q q --'-+ q
q � q
b/y b /y
i --'--'+ p p --'--'+ q
p 0!!t q q 0!!t q
c/ yxy
i � q

Ce transducteur est basé sur les partitions suivantes (où + désigne la réunion d'en­
sembles) :

(a + b + c)* a* + a*b + a* (c + b(a + b + c)) (a + b + c)*


(x + y)* x* + x* y + x* (yxy + y(x + y + yy)) (x + xy + yy)*
Différentes classes de transducteurs peuvent être considérées selon que l'on autorise
ou pas des e-règles (possibilité de générer un mot de sortie sans lire de lettre de l'entrée) ,
selon le cas déterministes ou non. L'équivalence des transducteurs non déterministes
sans e-règle est indécidable [Griffiths, 1968] . L'équivalence de transducteurs détermi­
nistes est décidable [Gurari, 1982] . Ce résultat reste vrai si on restreint le domaine à
un langage algébrique avec un calcul en temps polynomial, ceci peut être établi comme
1 048 Panorama de l'intelligence artificielle. Volume 3
-

conséquence des résultats de la thèse de Plandowski [Plandowski, 1995] . Enfin, le résul­


tat de Sénizergues a été étendu aux transducteurs à piles déterministes [Sénizergues,
1998] .

2.4.3 Automates finis pour les structures discrètes


Automates d'arbres
La structure d'arbre est omniprésente en informatique : analyse de programmes,
arbres et-ou, arbres de classification, arbres et documents structurés, arbres phylogéné­
tiques, . . . Les définitions d'arbres sont diverses selon le cadre choisi. Nous considérons
ici les arbres qui ont une racine, qui sont ordonnés (les fils d'un noeud sont ordonnés) ,
qui sont étiquetés (à chaque noeud est associé un symbole d'un alphabet fini) et qui
sont d'arité fixée (le nombre de fils d'un noeud est déterminé par le symbole en ce
noeud) . Nous supposons donc l'existence d'un alphabet fini E où chaque symbole a
une arité fixée entière qui détermine le nombre de fils. L'ensemble des arbres sur E
peut être défini récursivement par : tout symbole d'arité 0 est un arbre, si ti , . . . , t n
sont des arbres et si f est un symbole d'arité n alors f(ti , . . . , t n ) est un arbre. On
peut voir un arbre comme un graphe avec une racine, un arc entrant par noeud, un
nombre d'arcs sortants respectant l'arité du symbole du noeud et un ordre sur les arcs
sortants. On représente généralement un arbre avec la racine en haut et les feuilles (les
noeuds sans fils qui correspondent à des symboles d'arité 0) en bas.
Étant donné un alphabet fini E , un automate (ascendant) d 'arbres M est défini par
un ensemble fini d'états Q, un sous-ensemble F de Q des états finaux, un ensemble de
transitions À de règles de la forme a -t q avec a lettre de E d'arité 0 et q état de Q
ou de la forme f(qi , . . . , qn ) -t q avec avec f lettre de E d'arité n et qi , . . . , qn , q états
de Q. L'automate M est décrit par un triplet (Q, F, À) . On peut noter qu'il n'y a pas
d'états initiaux car les règles de la forme a -t q servent à initier un calcul. En effet,
un calcul de M sur un arbre t est un arbre r qui a le même ensemble de noeuds que
t, qui est étiqueté par des symboles dans Q et cet étiquetage respecte les règles de M
sur t. Un automate est déterministe si pour tout symbole f d'arité n et tout n-uplet
d'états (q1 , . . . , qn ) , il existe au plus une règle f(qi , . . . , qn ) -t q dans À. Notons que
dans un automate déterministe, il existe toujours au plus un calcul pour tout arbre t.
Un arbre t est accepté par M s'il existe un calcul r de M sur t dont l'état à la racine
de r est final, un tel calcul est appelé calcul réussi. Le langage des mots acceptés par
M est noté L(M ) . Un langage L (un ensemble d'arbres) est reconnaissable si il existe
un automate fini M tel que L = L(M).
La plupart des propriétés s'étendent du cas des mots au cas des arbres : détermini­
sation, clôture par les opérations booléennes, lemme de pompage, décision du vide. La
notion de grammaire régulière d'arbres peut être définie. Des expressions rationnelles
peuvent être définies en introduisant une opération de concaténation pour les arbres
qui consiste à ajouter un arbre dans un contexte (un arbre avec une feuille particulière
autorisant l'ajout) et un théorème de Kleene peut être montré. Un théorème de Myhill­
Nerode et un algorithme de minimalisation peuvent être définis. La logique MSO peut
être étendue pour être interprétée sur des arbres finis, elle définit la classe des lan­
gages reconnaissables d'arbres et est donc décidable [Thatcher et Wright, 1968] . Ce
2. Informatique théorique : complexité, automates et au-delà - 1 049

résultat a été étendu aux arbres infinis (et les automates correspondants) pour obtenir
un résultat fondamental aux nombreuses applications : le théorème de Rabin (Rabin's
Tree Theorem) [Rabin, 1969] qui établit que la logique monadique du second-ordre des
mots binaires (lesquels constituent l'arbre infini binaire) est décidable. Les différences
principales entre automates d'arbres et de mots sont :

Automates descendants déterministes. On peut considérer des automates, appe­


lés automates descendants, qui commencent le calcul à la racine et le terminent aux
feuilles. Il suffit d'inverser le sens des règles et d'échanger les états finaux en états
initiaux pour définir un automate descendant à partir d'un automate d'arbres. Si les
automates descendants et les automates ascendants (déterministes ou non) définissent
les langages reconnaissables d'arbres, les automates descendants déterministes (pour
un état q et une lettre f il existe au plus une règle q -+ f(q 1 , . . . , qn )) reconnaissent
une sous-classe stricte des langages reconnaissables. Le lecteur se persuadera facilement
que le langage reconnaissable contenant les deux arbres f(a, b) et f(b, a) ne peut être
reconnu par un automate descendant déterministe.

Les « tree walking automata ». Dans ce modèle, on peut tester si la position cou­
rante correspond à une feuille, la racine, un fils droit ou un fils gauche d'un noeud.
Les règles permettent d'annoter la position courante par un état et de rester dans la
même position, de monter au noeud père ou de descendre au fils droit ou fils gauche
de la position courante. Un calcul réussi considère une configuration initiale avec un
état initial à la racine de l'arbre, des configurations obtenues en appliquant les règles
et une configuration finale avec un état final à la racine de l'arbre. Si il est facile de
voir que les langages reconnus sont reconnaissables il n'a été démontré que récemment
que l'inclusion est stricte (il existe des langages reconnaissables non reconnus dans ce
modèle) et que le déterminisme restreint le pouvoir d'expression. Ces résultats ont été
obtenus par [Bojanczyk et Colcombet, 2006, 2008] .

La linéarité. La clôture par morphisme des langages reconnaissables n'est pas vé­
rifiée dans les arbres. Un morphisme est linéaire si on interdit la duplication de
variables. La classe des langages reconnaissables est close par morphisme linéaire.
Mais pas dans le cas général. En effet, si on considère un langage reconnaissable
{g(r(a)) 1 n ;::: O} et un morphisme qui transforme g(x) en h(x, x) , l'image du langage
est {h(r (a) , r (a)) 1 n 2: O} qui n'est pas un langage reconnaissable d'arbres.

La logique du premier ordre. La logique MSO correspond aux langages reconnais­


sables dans le cas des mots et le cas des arbres. Si on se restreint au premier ordre, la
situation est différente. En effet, dans le cas des mots, la classe des langages définis­
sables dans FO correspond à la classe des langages sans étoile [McNaughton et Papert,
1971] , i.e. les langages qui peuvent être définies par des expressions rationnelles avec les
opérateurs de concaténation, d'union et de complémentation. Les langages sans étoile
correspondent aux langages apériodiques [Schützenberger, 1965] . La situation est bien
plus complexe pour la logique FO dans le cas des arbres et une caractérisation décidable
de langages d'arbres définissables en FO n'a été obtenue que récemment par Benedikdt
et Ségoufin [2009] .
1 050 - Panorama de l'intelligence artificielle. Volume 3

Le cas des graphes


Après avoir étudié les mots, puis les arbres avec les automates adéquats, l'étape
suivante naturelle est de considérer les graphes. Cependant, les graphes sont intrinsè­
quement plus compliqués et il n'est pas possible de définir une bonne notion d 'auto­
mate. Une bonne notion signifiant obtenir des algorithmes et propriétés de décision,
une correspondance entre les points de vue automates, grammaires et logiques. Un
point d'entrée sur ces questions peut être le chapitre 5 du volume B de [van Leeuwen,
1990] par Courcelle qui a, par ailleurs, écrit de nombreux articles fondamentaux sur les
grammaires et logiques pour les (hyper-)graphes et qui prépare un ouvrage [Courcelle,
2010] sur ces sujets.

2 .4.4 Automates et applications


Nous proposons pour conclure un choix (de domaines) d'applications des automates
finis.
Algorithmes de filtrage. Ils considèrent la question de rechercher des facteurs dans
des mots. L'algorithme de Knuth, Morris and Pratt [1977] a été le premier algorithme
linéaire pour le filtrage. Cet algorithme a été conçu avec une vision « automates » du
problème de filtrage. Au vu de l'importance applicative de la question (pensez aux
grep et egrep de UNIX ) , de nombreux algorithmes, parfois à base d'automates, ont été
définis pour le filtrage de plusieurs facteurs, le filtrage d'expressions régulières. Nous
renvoyons le lecteur au chapitre « Automata for matching patterns » de Crochemore et
Rancart de [Rozenberg et Salomaa, 1997] pour une présentation de ces algorithmes. Les
recherches sur ces questions sont toujours actives en bio-informatique et sur le filtrage
approximatif.
Codes, cryptographie et théorie de l'information. Les codes sont des langages
formels (voir Berstel et Perrin [1985] ) aux propriétés particulières pour des applications
en cryptographie et en théorie de l'information. Dans ce cadre, les automates ont été
utilisés pour étudier la décidabilité et la complexité de problèmes de décision comme,
par exemple, décider de l'appartenance d'un langage à une classe de codes.
Analyse de langages. Elle considère le problème de tester l'appartenance d'un mot
à un langage et, dans le cas d'une réponse positive à produire une preuve d'apparte­
nance. Dans le cadre des langages algébriques, il s'agit de construire un arbre d'analyse
(qui représente une dérivation dans la grammaire) pour un mot du langage. Des algo­
rithmes, souvent basés sur des (classes de) automates à pile ont été définis pour des
classes de langages algébriques ou des formes particulières de grammaires. Ce problème
très étudié est fondamental pour la compilation, l'évaluation dans les langages de pro­
grammation.
Langage naturel. Les travaux sur les langages algébriques et les algorithmes d'analyse
ont été considérés également pour les grammaires en langage naturel. D'autres travaux
concernent l'étude de l'expressivité des différents formalismes introduits pour modéliser
le langage. Par exemple, le théorème de Gaifman [Bar Hillel et al. , 1960] montre l'équi­
valence entre grammaires catégorielles et grammaires algébriques. La question posée
2. Informatique théorique : complexité, automates et au-delà - 105 1

par Chomsky de l'équivalence entre grammaires de Lambek et grammaires algébriques


a été montrée par Pentus [1997] . L'introduction de formalismes pour une meilleure mo­
délisation du langage naturel est constante. On peut, par exemple, citer les grammaires
d'arbres adjoints et les grammaires de dépendance. Enfin, les transducteurs de mots et
d'arbres ont été très utilisés dans le domaine, en particulier, pour la traduction auto­
matique. Actuellement, de nombreux travaux considèrent des méthodes statistiques à
base de corpus. Dans ce cadre, les grammaires et automates probabilistes sont utilisés
(voir ci-après) .
Extraction d'information et systèmes questions/réponses. L'extraction d'in­
formation consiste à extraire des informations structurées, par exemple une table des
nom, prénom, institution, date d'arrivée à partir de documents textuels ou HTML
décrivant des groupes de recherche. Les systèmes questions / réponses ambitionnent de
trouver des réponses à des questions, souvent factuelles comme trouver la date d'un
événement, en interrogeant le Web. Des solutions à base d'automates et de transduc­
teurs ont été étudiées et développées dans le cadre de ces applications. Le lecteur pourra
consulter comme exemple Poibeau [2003] .
Bases de données XML. XML est un standard pour l'échange de données et do­
cuments. Les documents XML ont une structure d'arbre au sens défini précédemment
mais avec la spécificité nouvelle suivante : un noeud a un nombre potentiellement non
borné de fils. Des classes d'automates et de transducteurs ont été définies et étudiées
pour ces arbres ou leurs représentations linéaires avec balises ouvrantes et fermantes.
La forme des documents peut être contrainte par des schémas. Ces schémas peuvent
être définis par des expressions régulières particulières réactivant les travaux sur les al­
gorithmes de tranformations entre expressions et automates. Ces schémas peuvent être
définis par des langages reconnaissables d'arbres, c'est le cas de RelaxNG. Le lecteur
intéressé peut consulter le chapitre 8 de [Cornon et al. , 2007] comme point d'entrée sur
ce domaine.
Théorie des modèles finis. Elle étudie les logiques pour les structures finies et tire
son origine des bases de données, de la théorie des langages formels et de la complexité.
Une référence peut être le livre d'introduction par Libkin [2004] . Les automates finis
sont, comme nous l'avons signalé, des algorithmes de décision pour la logique MSO
sur les mots ou sur les arbres. Des applications actuelles concernent l'étude de l'ex­
pressivité et de la complexité des langages de requêtes dans les bases de données XML
en lien avec l'étude de l'expressivité et de la complexité de fragments de la logique
MSO des arbres. On peut noter également, un courant de recherche sur les structures
automatiques qui concerne l'étude des propriétés d'objets ou de relations entre objets
qui peuvent être codées dans ( des fragments de ) la logique MSO [Rubin, 2008] .
Réécriture et déduction automatique. La réécriture est un processus naturel de
calcul comme nous l'avons vu pour les grammaires. Pour les systèmes de réécriture de
mots et d'arbres, les questions de terminaison et de confluence des calculs se posent.
Une introduction aux systèmes de réécriture d'arbres par Dershowitz et Jouannaud est
présentée dans le chapitre 6 de [van Leeuwen, 1990] . Les automates d'arbres peuvent
être utilisés pour résoudre des questions de décidabilité pour ces systèmes et pour four­
nir des algorithmes associés si possible. Par exemple, Dauchet et Tison ont démontré
1 052 Panorama de l'intelligence artificielle. Volume 3
-

que la théorie de la réécriture avec des règles sans variables dans les termes est déci­
dable. Ce résultat est présenté dans le chapitre 3 de [Cornon et al. , 2007] . Ce chapitre
contient également des applications des automates d'arbres au typage, à la réécriture,
au filtrage et à l'unification.

Automates probabilistes et modèles de Markov cachés. Les automates pro­


babilistes {non déterministes) correspondent aux modèles de Markov cachés dont les
applications sont très nombreuses : traitement du signal, traitement des séquences bio­
logiques, extraction d'information parmi d'autres. Ces applications sont rendues pos­
sibles par l'existence d'algorithmes efficaces pour l'inférence {le calcul de la probabilité
d'une séquence) , l'annotation {le calcul du chemin le plus probable dans l'automate) par
l'algorithme de Viterbi, l'apprentissage des poids à partir de corpus avec une structure
d'automate fixée par l'algorithme de Baum-Welch. Le lecteur peut consulter l'ouvrage
de Manning et Schütze [1999] orienté langage naturel et l'ouvrage de [Durbin et al. ,
1998] orienté bio-informatique pour les modèles de Markov cachés comme pour les
grammaires algébriques probabilistes.

Grammaires algébriques probabilistes. Une grammaire algébrique probabiliste se


définit en ajoutant des poids réels positifs sur les règles de transition avec des condi­
tions de normalisation. Une telle grammaire, contrairement au cas régulier, ne défi­
nit pas nécessairement une loi de probabilité. Il n'a été montré que récemment qu'il
était décidable si une grammaire algébrique probabiliste définit une loi de probabilité
par [Etessami et Yannakakis, 2009] . L'analyse probabiliste calcule l'arbre d'analyse le
plus probable ou les k meilleurs arbres d'analyse pour un mot et une grammaire al­
gébrique probabiliste. Il est important de noter que l'algorithme inside-outside étend
l'algorithme de Viterbi des séquences aux arbres d'analyse pour le calcul de l'arbre
d'analyse le plus probable. De même, on peut étendre l'algorithme de Baum-Welch
pour apprendre, à structure fixée, les poids d'une grammaire algébrique probabiliste
à partir de corpus constitués de couples séquence, arbre d'analyse. Les applications
principales concernent principalement langage naturel et bio-informatique.

Inférence grammaticale. Pour les modèles de Markov cachés et les grammaires al­
gébriques probabilistes, l'algorithme de Baum Welch permet d'apprendre les poids
associés aux transitions ou aux règles, une structure d'automates ayant été choisie a
priori. L'inférence grammaticale se pose la question d'inférer la structure d'automate
(ou de grammaire) la plus adaptée à un corpus. La question est difficile car les langages
reconnaissables ne sont pas apprenables à partir de mots du langage (une trop grande
généralisation ne pouvant être évitée) . Par contre, des algorithmes ont pu être proposés
dans le cas où on dispose de mots du langage et de mots n'appartenant pas au langage.
La plupart des algorithmes construisent l'automate déterministe minimal et sont basés
sur le théorème de Myhill Nérode. Pour le cas probabiliste, on apprend à partir de
mots tirés à partir de la distribution à apprendre. Les algorithmes précédents peuvent
être étendus pour apprendre les distributions définies par des automates déterministes
probabilistes. Récemment, de nouveaux algorithmes basés sur une vision algébrique
ont été conçus par [Denis et al. , 2006] , ils permettent d'étendre la classe des lois de
probabilité apprenables.
2. Informatique théorique : complexité, automates et au-delà - 1 053

2.5 Aller plus loin : calculabilité sur les réels


Il existe différents modèles pour capturer les calculs sur les réels, modèles issus de
motivations très différentes.

2.5.1 Analyse récursive


Née des travaux de Turing [ 1936) , Grzegorczyk [ 1957] , et Lacombe [ 1955 ] , l'analyse
récursive considère qu'un réel a est calculable s'il est possible d'en produire algorith­
miquement une représentation, c'est-à-dire une suite d'approximations rationnelles qui
converge rapidement vers ce réel, c'est-à-dire encore une suite (qn ) nEN de rationnels
telle que lqn - al :::; 2- n pour tout n ( on peut remplacer (2- n ) nEN par toute autre suite
récursive (ên ) nEN de rationnels qui tend vers 0 ) .
Une fonction est calculable s'il est possible de produire algorithmiquement une re­
présentation de son image, à partir de n'importe quelle représentation de son argument.
Attention, la simplicité de cette définition cache une difficulté liée à la représentation
discrète du continu. Il est facile de montrer que, quelle que soit la base p ;::=: 2, un réel
a est récursif si et seulement si sa « partie fractionnaire » a - laJ ( qui est dans
l'intervalle [O, 1 [) peut se représenter par un mot infini récursif en base p. Mais ceci ne
passe pas aux fonctions récursives sur les réels. Par exemple, on ne peut pas calculer
par algorithme la suite des décimales en base 10 de 3x à partir de celle de x. On peut
seulement calculer une suite d'approximations de 3x. Ainsi, la représentation par suite
de Cauchy récursive et rapide est essentielle pour la notion de fonction calculable sur
les réels.
Ce phénomène est un avatar d'un fait ( négatif) très important de l'analyse récursive.

Théorème de Rice {1954) , version réels. On ne peut pas décider si un réel est nul.

2.5.2 Modèle de Blum, Shub et Smale


Le modèle de Blum, Shub et Smale [ 1989 ; 1998) a été introduit comme un modèle
pour discuter de la complexité algébrique de problèmes sur les réels. Dans celui-ci,
on se fixe des opérations arithmétiques réalisables en temps unitaire, et la complexité
d'un problème est mesurée en termes du nombre d'opérations. Notons que, parmi les
opérations admises, il y a le test à zéro d'un réel. Ce modèle est donc incompatible
avec l'analyse récursive...

2.5.3 « General Purpose Analog Computer » de Shannon


Le General Purpose Analog Computer a été introduit par Claude Shannon, [Shan­
non, 1941 ) , comme un modèle des machines analogiques de son époque, en particulier
de !'Analyseur Différentiel de Vannevar Bush [ 1931 ) et des circuits analogiques élec­
troniques. Dans la version raffinée actuelle, cf. [Graça, 2007] , les unités de base d'un
GPAC donnent les fonctions constantes, l'addition, la multiplication et les opérateurs
1 054 Panorama de l'intelligence artificielle. Volume 3
-

FIGURE 1 - Un GPAC engendrant les fonctions f(x) = cos(x) et g(x) = sin(x)

d'intégration ( u, v ) i--+ w où

w(t) = t u ( x ) v ' ( x ) dx
lto
(avec t0 quelconque) . Ces unités peuvent être connectées librement dans un circuit
avec retours arrières pour l'intégration (feedback connexions) . Une fonction est GPAC­
engendrée si on peut la lire à la sortie d'un tel circuit, cf. figure 1 . Les fonctions
GPAC-engendrées sont exactement les fonctions différentiellement algébriques, c'est­
à-dire les solutions d'équations différentielles p(x, y, y' , y" , . . . , y < k> ) = 0 où p est un
polynôme (Shannon [1941] , voir Graça [2007]) . Ce sont aussi les composantes des so­
lutions y = (Y i . . . . , Yk ) des systèmes différentiels y' = p(t, y) , y(O) = a, où p est un
k-uplet de polynômes et a un k-uplet de réels [Graça et Costa, 2003] .
Ces fonctions GPAC-engendrables n'incluent pas toutes celles de l'analyse récursive :
manquent, par exemple, la fonction ((x) = L: n > l ; de Riemann et la fonction
.,

r(x) = J0+ 00 r c l e t dt, laquelle étend aux réels (�ême aux complexes) la fonction
- -

factorielle n i--+ n! = 1 x 2 x . . . x n. On peut cependant retrouver exactement les


fonctions de l'analyse récursive [Bournez et al. , 2007] comme celles qui sont GPAC­
calculables au sens suivant [Graça, 2004] :
• un GPAC est récursif si les réels des unités constantes et des bornes inférieures des

unités d'intégration sont tous récursifs,


• f : lR. --+ lR. est GPAC-calculable s'il existe deux fonctions g, e engendrées par
un GPAC récursif et telles que, pour tout x, on ait Vt lf(x) - g(t, x) I :S e(t, x) et
limt-Hoo e(t, x ) = O .

2.5.4 Modèles de calcul à temps continu


Nous renvoyons à [Bournez et Campagnolo, 2008] pour un panorama des différents
modèles de calcul à temps continu et de leurs propriétés du point de vue de la calcu­
labilité ou de la complexité. En particulier, les modèles issus des réseaux de neurones
formels [Siegelmann et Sontag, 1995] , modèles de calcul dont la conception est très
schématiquement inspirée du fonctionnement de vrais neurones (humains ou non) ) .
Mentionnons que, dans plusieurs de ces modèles, il est possible d'exploiter le fait que
l'on peut coder une suite non calculable dans un réel, ou d'utiliser le fait que l'on sup­
pose une arithmétique exacte, pour réaliser des calculs super-Turing : voir par exemple
[Siegelmann et Fishman, 1998] pour les réseaux de neurones.
2. Informatique théorique : complexité, automates et au-delà - 1055

2.5.5 Calculabilité quantique


Une machine de Turing quantique. Bien que Feynman ait pressenti l'intérêt d'un
ordinateur quantique [Feynman, 1960, 1984] , le premier modèle de calcul quantique est
la machine de Turing quantique (MTQ) introduite par [Deutsch, 1985] . Cette machine
de 'I\tring est une extension d'une machine probabiliste, où chaque transition s'effectue
avec une amplitude (un nombre complexe) donnée. Les MTQ permettent de rendre
compte de phénomènes quantiques comme la superposition, les interférences et l'in­
trication. Bernstein et Vazirani [1993] ont prouvé l'existence d'une MTQ universelle,
c'est-à-dire capable de simuler efficacement de façon approchée toute MTQ. Yao (1993]
a montré que les circuits quantiques, introduits par Deutsch [1989] , sont polynomiale­
ment équivalents aux machines de Turing quantiques.
Algorithmes et complexité quantiques. Deutsch [1985] , puis Deutsch et Jozsa
[1992] ont démontré l'intérêt du calcul quantique en considérant le problème suivant.
Soit X l'ensemble des fonctions f : {O, l } n -+ {O, 1} qui sont ou bien constantes ou
bien équilibrées (c'est-à-dire que f prend aussi souvent la valeur 0 que la valeur 1).
Le problème est de décider si une fonction de X est constante ou équilibrée. (Deutsch
et Jozsa, 1992] donne un algorithme quantique pour ce problème qui utilise un seul
appel à l'oracle f, tandis que tout algorithme classique déterministe pour ce problème
nécessite 2 n -l + 1 appels. Si cet algorithme ne présente pas d'application pratique, il
est cependant la première preuve de la supériorité du calcul quantique sur le calcul
classique. Plus utile, l'algorithme de Grover [1996] permet de trouver un élément dans
une base de données non structurée de taille n en 0( vn) requêtes, alors que n(n)
requêtes sont nécessaires à un algorithme classique.
La principale classe de complexité quantique est BQP (Bernstein et Vazirani, 1993] .
Elle est définie par analogie à la classe probabiliste BPP. La classe BQP (resp. BPP)
est celle des problèmes de décision qui peuvent être résolus en temps polynomial par
une machine de Turing quantique (resp. probabiliste) avec une probabilité d'erreur in­
férieure à 1/3. Comme PTIME Ç BPP Ç BQP Ç PSPACE (Bernstein et Vazirani,
1993] , prouver une séparation entre BPP et BQP est une question considérée comme
difficile car elle permettrait de résoudre le problème ouvert PTIME = 1 PSPACE.
Pourtant plusieurs algorithmes quantiques, comme l'algorithme de Simon (1994] et
celui de Shor (1994] , semblent témoigner d'une telle séparation : l'algorithme de Shor
permet la factorisation et le calcul du logarithme discret en temps polynomial, alors
qu'aucun algorithme classique polynomial n'est connu pour résoudre ces problèmes.
En revanche, aucun algorithme quantique polynomial pour résoudre un problème
NP-complet n'est connu, et les classes NP et BQP sont à l'heure actuelle incompa­
rables.

2.5.6 Le problème de l'unification de ces modèles


Dans certains des modèles mettant en jeu des réels, il est possible d'exploiter le
fait que l'on peut coder une suite (non calculable) dans un réel, ou utiliser le fait que
l'on suppose une arithmétique exacte pour réaliser des calculs super-Turing : voir par
exemple [Siegelmann et Fishman, 1998] pour les réseaux de neurones.
1 056 Panorama de l'intelligence artificielle. Volume 3
-

Il est clairement impossible d'unifier toutes les approches : par exemple toute fonc­
tion calculable en analyse récursive est nécessairement continue, alors que des fonctions
discontinues sont calculables dans le modèle initial de Blum Shub et Smale (1989] . Ce­
pendant, si l'on met de coté l'approche algébrique du modèle de Blum Shub et Smale,
certains résultats récents établissent l'équivalence entre différents modèles (voir par
exemple (Bournez et al. , 2006, 2007 ; Graça et Costa, 2003] ) . Il n'est pas cependant
clair à ce jour qu'il puisse exister un concept unificateur pour les modèles continus
analogue à la thèse de Church pour les modèles discrets/digitaux : nous renvoyons au
survol [Bournez et Campagnolo, 2008] pour des discussions sur le sujet.

2.5.7 Calculabilité au-delà de la thèse de Church ?


Il est intéressant de suivre (Ord, 2006] , et de faire un rapide panorama (non exhaus­
tif) de différents moyens d'obtenir des systèmes ou des machines plus puissants que les
machines de Turing.

Calculabilité avec oracle. La première façon, proposée par Turing lui-même dans
(Turing, 1939] consiste à considérer des machines avec oracles, qui correspondent à des
boîtes noires capables de répondre à certaines questions. Cela permet classiquement de
« relativiser » nombre de résultats en calculabilité et complexité, mais aussi d'obtenir
des modèles plus puissants que les machines de Turing {dès que l'oracle n'est pas cal­
culable) .
Il y a plusieurs types de machines ou de systèmes dans l'esprit des machines à oracles.
Cela inclut les machines de Turing couplées de [Copeland, 1997] , qui sont des machines
de Turing connectées à un canal d'entrée, ou les réseaux de machines qui exploitent le
fait qu'un temps de synchronisation peut être irrationnel et non calculable (Copeland
et Sylvan, 1999] , ou les machines couplées à des dispositifs physiques comme les scatter­
machines de (Beggs et al. , 2008] , ou utilisant des tirages aléatoires biaisés comme dans
(Ord et Kieu, 2004] .

Machines accélérantes. Une seconde approche consiste à considérer des machines


accélérantes, c'est-à-dire à considérer des machines qui effectuent leur première opéra­
tion en temps unitaire, et chaque opération ultérieure en un temps égal à la moitié de
l'opération précédente. Cette idée, ancienne, déjà présente dans (Blake, 1926 ; Russell,
1935 ; Weyl et Kirschmer, 1927] , est aussi présente dans les machines à temps ordinal :
voir par exemple (Hamkins, 2002] . Il a été argumenté que différents systèmes physiques
pouvaient en réaliser des implémentations : voir par exemple (Calude et Pavlov, 2002]
à propos de la mécanique quantique, ou (Hogarth, 1994] à propos de calculs par trous
noirs.

Autres machines. Il est aussi possible de considérer différentes variantes des ma­
chines de Turing : des machines exploitant un non-déterminisme non borné [Spaan
et al. , 1989] , travaillant sur des entrées infinies (voir par exemple [Weihrauch, 2000]
pour une présentation des machines de Turing de type 2) , des machines avec une infinité
d'états (Ord, 2002] , des machines bruitées (Asarin et Collins, 2005] , etc ...
2. Informatique théorique : complexité, automates et au-delà - 1 05 7

2.6 Conclusion

Emergeant dans le sillage de la théorie de la calculabilité, la notion de complexité


algorithmique complète très naturellement celle-ci en s'attachant à la mesure des res­
sources mises en jeu dans un calcul. Comme tout ce chapitre le montre, il s'agit d'un
sujet difficile et délicat.
Quels sont les développements de et autour de la complexité en cours et ceux
auxquels on peut s'attendre dans l'avenir proche ?
De grandes questions ouvertes. On l'a vu au §2.4, des questions naturelles, simples
à formuler, restent sans réponse depuis plus de 40 ans ... La foultitude des classes de
complexité introduites dans la littérature témoigne de la grande difficulté du sujet.
L'importance de ces questions est soulignée par le fait que le problème de l'égalité des
classes P et NP ait été choisi comme l'un des sept problèmes mathématiques pour la
solution desquels l'Institut Clay offre une prime d'un million de dollars.
Toujours plus ingénieux. Comme le montre le §2.2, la sophistication de certains
algorithmes est impressionnante. Dans ce domaine, les progrès sont continus et leur
importance ne saurait être sous-estimée (cf. l'exemple 3 de la FFT) . La performance
d'un algorithme dépendant pour beaucoup du contexte d'utilisation, bien des résul­
tats « optimaux » se voient détronés lorsqu'on limite d'une certaine façon le cadre
d'utilisation.
La vieille théorie des automates est toujours bien vivante. Depuis sa création en
1956, des avatars de cette théorie apparaissent continuellement, permettant de décider
toujours plus de problèmes, relatifs à des structures parfois inattendues.
Le calcul quantique. Porteur de beaucoup d'espoirs, ce nouveau venu est l'un des
grands sujets du moment (cf. §.5.5)
Formalisation des algorithmes et théorie de la complexité. Actuellement, la
théorie de la complexité est bien moins développée que celle de la calculabilité (cf.
cependant le §2.3) . On peut attendre des travaux sur la formalisation de la notion
d'algorithme (cf. le §4 du chapitre 111. 1) un regard neuf et des outils nouveaux sur
l'approche quantitative des ressources utilisées par un calcul.

Références
AARONSON, S., KUPERBERG, G. et GRANADE, C. ( 1992-2010) . Complexity zoo.
http : //qwiki . stanford . edu/wiki/Complexity_Zoo .
AJTAI, M. (1983) . af formulae on finite structures. Journal of Pure and Applied Logic,
24 : 1-48.
ARORA, S. et BARAK, B. (2009) . Computational Complexity : A Modern Approach.
Cambridge University Press.
ASARIN, E. et COLLINS, P. (2005) . Noisy Turing machines. ln Proc. of ICALP'05,
volume 3580 de Lecture Notes in Computer Science, pages 1031-1042. Springer­
Verlag.
1058 Panorama de l'intelligence artificielle. Volume 3
-

AVIZIENIS, A. (1961). Signed-digit representations for fast parallel arithmetic. IRE


Transactions on electronic computers (now IEEE Transactions on electronic compu­
ters}, 10(3) :389-400.
BALCAZAR, J. L., DIAZ, J. et GABARRO, J. (1990). Structural Complexity. EATCS
Monographs on Theoretical Computer Science.
BAR HILLEL, Y. , GAIFMAN, C. et SHAMIR, E. (1960) . On categorial and phrase struc­
ture grammars. Bulletin of the Research Council of Israel, 9F.
BEGGS, E. J . , COSTA, J. F., LOFF, B. et TUCKER, J. V. (2008) . Computational
complexity with experiments as oracles. Proceedings of the Royal Society of London­
A, 464(2098) :2777-2801.
BELLANTONI, S. e t COOK, S. (1992) . A new recursion-theoretic characterization o f the
poly-time fonctions. Computational Complexity, 2 :97-110.
BENEDIKT, M. et SEGOUFIN, L. (2009) . Regular tree languages definable in fo and in
fomod. A CM Transactions on Computational Logic, 1 1 :4 : 1-4 :32.
BERNSTEIN, E. et VAZIRANI, U. (1993) . Quantum complexity theory. In Proceedings
of the 25th Annual ACM Symposium on the Theory of Computation, pages 1 1-20,
New York. ACM press.
BERRY, G. et SETHI, R. (1986) . From regular expressions to deterministic automata.
Theoretical Computer Science, 48 : 1 17-126.
BERSTEL, J. et PERRIN, D . , éditeurs (1985). Theory of codes. Academic Press.
BERSTEL, J. et REUTENAUER, C. (1982) . Recognizable formai power series on trees.
Theoretical Computer Science, 18 :115-148.
BLAKE, R. (1926) . The paradox of temporal process. The Journal of Philosophy,
23(24) :645-654.
BLUM, L., CUCKER, F., SHUB, M. et SMALE, S. (1998) . Complexity and Real Compu­
tation. Springer-Verlag.
BLUM, L., SHUB, M. et SMALE, S. (1989) . On a theory of computation and complexity
over the real numbers ; NP completeness, recursive fonctions and universal machines.
Bulletin of the American Mathematical Society, 21(1) : 1-46.
BLUM, M. (1967) . A machine-independent theory of the complexity of recursive fonc­
tions. Journal of ACM, 14(2) :322-336.
BOJANCZYK, M. et COLCOMBET, T. (2006) . Tree-walking automata cannot be deter­
minized. Theoretical Computer Science, 350 : 164-173.
BOJANCZYK, M. et COLCOMBET, T. (2008) . Tree-walking automata do not recognize
all regular languages. SIAM Journal on Computing, 38 :658-701 .
BOURNEZ, O. et CAMPAGNOLO, M . L . (2008) . A survey o n continuous time compu­
tations. In C OOPER, S . , L OWE, B. et SORBI, A., éditeurs : New Computational
Paradigms. Changing Conceptions of What is Computable, pages 383-423. Springer­
Verlag.
BOURNEZ, o . , CAMPAGNOLO, M. L., GRAÇA, D. S. et HAINRY, E. (2006) . The general
purpose analog computer and computable analysis are two equivalent paradigms
of analog computation. In CAI, J., COOPER, S. B. et LI, A., éditeurs : Theory
and Applications of Models of Computation, Third International Conference, TAMC
2. Informatique théorique : complexité, automates et au-delà - 1 059

2006, Beijing, China, May 15-20, 2006, Proceedings, volume 3959 de Lecture Notes
in Computer Science, pages 631-643. Springer.
BOURNEZ, 0 . , CAMPAGNOLO, M. L., GRAÇA, D. S. et HAINRY, E. (2007) . Polynomial
differential equations compute all real computable fonctions on computable compact
intervals. Journal of Complexity, 23(3) :317-335.
BRENT, R. (1976) . Fast multiple-precision evaluation of elementary fonctions. Journal
of the Association for Computing Machinery, 23 :242-251 .
BRÜGGEMANN-KLEIN, A. (1993) . Regular expressions t o finite automata. Theoretical
Computer Science, 120(2) : 197-213.
BRÜGGEMANN-KLEIN, A. et WOOD, D . (1998) . One-unambiguous regular languages.
Information and Computation, 142 : 182-206.
BRZOZOWSKI, J. A. et LEISS, E. (1980) . On equations for regular languages, finite
automata, and sequential networks. Theoretical Computer Science, 10 : 19-35.
Bücm, J. R. (1960a) . On a decision method in a restricted second order arithmetic. In
TARSKI, A. et HENKIN, L. , éditeurs : Proc. Internat. Congr. on Logic, Methodology
and Philosophy of Science, pages 1-1 1 . Stanford Univ. Press.
BÜCHI, J. R. (1960b) . Weak second-order arithmetic and finite automata. Z. Math.
Logik Grundl. Math. , 6 :66-92.
Busu, V. (1931). The differential analyzer. A new machine for solving differential
equations. J. Franklin Inst. , 212 :447-488.
Buss, S. R. (1987) . The Boolean formula value problem is in ALOGTIME. In ACM,
éditeur : Proceedings of the 19th Annual ACM Symposium on Theory of Computing,
1987, New York, New York, pages 123-131 . ACM Press.
CALUDE, C. et PAVLOV, B. (2002) . Coins, quantum measurements, and Turing's bar­
rier. Quantum Information Processing, 1 ( 1-2) : 107-127.
CHANDRA, A. K., KOZEN, D. C. et STOCKMEYER, L. J. (1981) . Alternation. Journal
of the Association for Computing Machinery, 28 : 1 14-133.
CHATER, N. et VITANYI, P. (2007) . 'Ideal learning' of natural language : Positive
results about learning from positive evidence. Journal of Mathematical Psychology,
51 (3) : 135-163.
CILIBRASI, R. et VITANYI, P. (2005) . Clustering by compression. IEEE Trans. Infor­
mation Theory, 51 (4) : 1523-1545.
CILIBRASI, R. , VITANYI, P. et de WOLF, R. (2004) . Algorithmic clustering of music
based on string compression. Computer Music J. , 28(4) :49-67.
COBHAM, A. (1965). The intrinsic computational difficulty of fonctions. In BAR­
HILLEL, Y. , éditeur : Proceedings of the International Conference on Logic, Metho­
dology, and Philosophy of Science, pages 24-30. North-Rolland, Amsterdam.
COMON, H., DAUCHET, M., GILLERON, R. , LÔDING, c., JACQUEMARD, F., LUGIEZ,
D., TISON, S. et TOMMASI, M. (2007) . Tree automata techniques and applications.
http ://tata.gforge.inria.fr/.
COOK, S. A. (1971). The complexity of theorem proving procedures. Proceedings Third
Annual ACM Symposium on Theory of Computing, pages 151-158.
l 060 Panorama de l'intelligence artificielle. Volume 3
-

CooK, S. A. {1983) . An overview of computational complexity. Commun. ACM,


26{6) :400-408.
COOK, S. A. {2003). The importance of the P versus NP question. JACM, 50{1) :27-29.
COOK, S. A. et RECKHOW, R. A. { 1973.). Time bounded random access machines.
Journal of Computer and System Sciences, 7(4) :354-375.
CoPELAND, B. J. {1997) . The broad conception of computation. American Behavioural
Scientist, 40 :690-716.
COPELAND, B. J. et SYLVAN, R. (January 1999) . Beyond the universal turing machine.
Australasian Journal of Philosophy, 77 :46-66.
COURCELLE, B. {2010) . Graph algebras and monadic second-order logic. Cambridge
University Press.
DEJEAN, F. et ScHÜTZENBERGER, M. P. { 1966) . On a question from eggan. Information
and Control, 9 :23-25.
D ENIS, F., DUPONT, P. et ESPOSITO, Y. {2005). Links between probabilistic automata
and hidden markov models : probability distributions, learning models and induction
algorithms. Pattern Recognition, 38 :1349-1371 .
D ENIS, F . , ESPOSITO, Y. et HABRARD, A. {2006) . Learning rational stochastic lan­
guages. In 19th Annual Conference on Learning Theory, COLT 2006, volume 4005
de Lecture Notes in Computer Science, pages 274-288. Springer.
D ENIS, F. et GILLERON, R. {2001). Pac learning under helpful distributions. !TA,
35(2) : 129-148.
D EUTSCH, D. {1985) . Quantum theory, the Church-Turing principle and the universal
quantum computer. Proc. R. Soc. Lond. Ser. A, A400 :97-1 17.
D EUTSCH, D. (1989) . Quantum computational networks. Proc. R. Soc. Lond. A,
425 :73.
D EUTSCH, D. et JozsA, R. (1992) . Rapid solution of problems by quantum computa­
tion. Proc. R. Soc. Lond. A, 439 :553-558.
D ROSTE, M., KUICH, W. et VOGLER, H. , éditeurs (2009) . Handbook of Weighted Au­
tomata. Springer Verlag.
DURBIN, R., EDDY, S. R. , KROGH, A. et MITCHISON, G. J. (1998) . Biological Sequence
Analysis : Probabilistic Models of Proteins and Nucleic Acids. Cambridge University
Press.
EGGAN, L. C. {1963) . Transition graphs and the star-height of regular events. Michigan
Math. Journal, 10 :385-397.
EHRENFEUCHT, A. et ZEIGER, H. P. (1976) . Complexity measures for regular expres­
sions. Journal of Computer and System Sciences, 12 : 134-146.
EILENBERG, S. ( 1974) . Automata, languages and machines, volume A. Academic Press.
ELGOT, C. C. (1965) . Decision problems of finite automata design and related arith­
metics. Transactions of American Math. Society, 98 :21-52.
ETESSAMI, K. et YANNAKAKIS, M. (2009) . Recursive markov chains, stochastic gram­
mars, and monotone systems of nonlinear equations. Journal of the ACM, 56(1) : 1-
65.
2. Informatique théorique : complexité, automates et au-delà - 1 061

FAGIN, R. {1974) . Generalized first-order spectra and polynomial-time recognizable


sets. complexity of computation. In KARP, R. , éditeur : SIAM-AMS Proceedings,
volume 7, pages 43-73. American Math. Soc.
FEYNMAN, R. P. {1960) . There's plenty of room at the bottom : an invitation to
open up a new field of physics. Engineering and Science (California Institute of
Technology}, 23{5) :22-36.
FEYNMAN, R. P. {1984) . Quantum-mechanical computers. J. Opt. Soc. Am. B, 1 :464.
FÜRER, M. {2009) . Faster integer multiplication. SIAM Journal on Computing, 39{3) :
979-1005. Earlier version in Proc. 39th ACM STOC 2007 conf. , pp. 57-66.
FÜRSR, M. L., SA X E, J. B. et SIPSER, M. { 1984) . Parity, circuits, and the polynomial­
time hierarchy. Mathematical Systems Theory, 17{1) : 13-27.
GAREY, M. R. et JOHNSON, D. S. {1979) . Computers and intractability. A guide to the
theory of NP-completness. W. H. Freeman.
GIRARD, J.-Y. {1998) . Light linear logic. Information and Computation, 143(2) :175-
204.
GLUSHKOV, V. M. (1961) . The abstract theory of automata. Russian Mathematical
Surveys, 16 : 1-53.
GoLDREICH, O. (2008) . Computational Complexity : A Conceptual Perspective. Cam­
bridge University Press.
GRAÇA, D. S. {2004) . Sorne recent developments on shannon's general purpose analog
computer. Mathematical Logic Quarterly, 50(4-5) :473-485.
GRAÇA, D. S. {2007) . Computability with Polynomial Differential Equations. Thèse de
doctorat, Instituto Superior Técnico.
GRAÇA, D. S. et COSTA, J. F. (2003) . Analog computers and recursive functions over
the reals. Journal of Complexity, 19(5) :644-664.
GRIFFITHS, T. V. (1968) . The unsolvability of the equivalence problem for lambda-free
nondeterministic generalized machines. Journal of the ACM, 15(3) :409-413.
GROVER, L. K. (1996) . A fast quantum mechanical algorithm for database search.
In Proceedings of the 28th annual ACM symposium on Theory of computing, pages
212-219. ACM Press, New York.
GRZEGORCZYK, A. (1957) . On the definitions of computable real continuous functions.
Fundamenta Mathematicae, 44 :61-71 .
GURARI, E. M. (1982) . The equivalence problem for deterministic two-way sequential
transducers is decidable. SIAM Journal on Computing, 1 1 :448-452.
GUREVICH, Y. (1988) . Kolmogorov machines and related issues. Bulletin EA TCS,
33 :71-82.
HAMKINS, J. D. (2002). Infinite time Turing machines. Minds and Machines, 12(4) :
521-539.
HASHIGUCHI, K. (1988) . Algorithms for determining relative star height and star
height. Information and Computation, 78 : 124-169.
HOGARTH, M. {1994) . Non-Turing computers and non-Turing computability. Philoso­
phy of Science Association, i : 1 26-138.
1 062 Panorama de l'intelligence artificielle. Volume 3
-

HOPCROFT, J. E. et ULLMAN, J. D. ( 1979 ) . Introduction to Automata Theory, Lan­


guages, and Computation. Addison-Wesley.
HoRNER, W. G. ( 1819 ) . A new method of solving numerical equations of all orders,
by continuous approximation. Philosophical Transactions of the Royal Society of
London, 2 :308-335.
IMMERMAN, N. ( 1986 ) . Relational queries computable in polynomial time. Information
and Control, 68 ( 1-3 ) :86-104.
JONES, N. D. ( 1997) . Computability and complexity, from a programming perspéctive.
MIT press.
JONES, N. D. et SELMAN, A. L. ( 1974 ) . Turing machines and the spectra of first-order
formulas. Journal of Symbolic Logic, 39 ( 1 ) : 139-150.
KARATSUBA, A. A. et ÜFMAN, Y. ( 1962 ) . Multiplication of many-digital numbers by
automatic computers. Doklady Akad. Nauk SSSR, 145 :293-294.
KARP, R. M. et RAMACHANDRAN, V. ( 1990 ) . Parallel algorithms for shared memory
machines. In LEEUWEN, J. V., éditeur : Handbook of Theoretical Computer Science
A : Algorithms and Complexity, pages 870-941 . Elsevier Science Publishers and The
MIT Press.
KLEENE, S. C. ( 1956 ) . Representation of Events in Nerve Nets and Finite Automata,
pages 3-42. Princeton University Press.
KNUTH, D . E. ( 1981 ) . The Art of Computer Programming, volume 2 : Seminumerical
algorithms. Addison-Wesley. 2d edition.
KNUTH, D. E., MORRIS, J. et PRATT, V. ( 1977) . Fast pattern matching in strings.
SIAM Journal on Computing, 6 ( 2 ) :323-350.
LACOMBE, D. ( 1955 ) . Extension de la notion de fonction récursive aux fonctions d'une
ou plusieurs variables réelles III. Comptes Rendus de l 'Académie des Sciences Paris,
241 : 15 1-153.
LEIVANT, D. ( 1991 ) . A foundational delineation of computational feasiblity. In Pro­
ceedings of the Sixth IEEE Symposium on Logic in Computer Science {LICS'91}.
IEEE Computer Society Press.
LEIVANT, D. ( 1994 ) . Predicative recurrence and computational complexity I : Word
recurrence and poly-time. In CLOTE, P. et REMMEL, J . , éditeurs : Feasible Mathe­
matics II, pages 320-343. Birkhauser.
LEIVANT, D. et MARION, J.-Y. ( 1993 ) . Lambda calculus characterizations of poly-time.
Fundamenta Informaticae, 19 ( 1,2 ) : 167, 184.
LEVIN, L. ( 1973 ) . Universal search problems. Problems of information transmission,
9 ( 3 ) : 265-266.
LEVIN, L. ( 1986 ) . Average case complete problems. SIAM Journal on Computing,
15 ( 1 ) : 285-286.
LI, M., CHEN, X. , LI, X., MA, B. et VITANYI, P. ( 2004 ) . The similarity metric. IEEE
Trans. Inform. Th, 50 ( 12 ) :3250-3264.
LI, M. et VITANYI, P. ( 2008 ) . An Introduction to Kolmogorov Complexity and its
Applications. Springer-Verlag. 3rd edition.
2. Informatique théorique : complexité, automates et au-delà - 1 063

LIBKIN, L. (2004) . Elements of Finite Madel Theory. Springer.


MANNING, C. D. et SCHÜTZE, H. (1999) . Foundations of Statistical Natural Language
Processing. The MIT Press, Cambridge.
MARION, J.-Y. (2001) . Actual arithmetic and feasibility. In CSL, volume 2142 de
Lecture Notes in Computer Science, pages 115-129. Springer.
McNAUGHTON, R. (1966) . Testing and generating infinite sequences by a finite auto­
maton. Information and Control, 9 :521-530.
McNAUGHTON, R. et PAPERT, S. ( 1971 ) . Counter-Free Automata. The MIT Press.
McNAUGHTON, R. et YAMADA, H. (1960) . Regular expressions and state graphs for
automata. Transactions Electronic Computers, 9 :39-47.
MULLER, J.-M. (1989) . Arithmétique des ordinateurs. Masson.
ÜRD, T. (2002) . Hypercomputation : computing more than the turing machine. Arxiv
preprint math/0209332.
ÜRD, T. (2006) . The many forms of hypercomputation. Applied Mathematics and
Computation, 178(1) : 143-153.
ÜRD, T. et Krnu, T. D. (2004) . Using biased coins as oracles. Arxiv preprint
cs/0401 019.
PAN, V. Y. (1966) . Methods of computing the values of polynomials. Russian Mathe­
matical Surveys, 21(1) : 105-137.
PAPADIMITRIOU, C. H. (1994) . Computational Complexity. Addison-Wesley.
PAUL, W. (1979) . Kolmogorov complexity and lower bounds. In BUDACH, L., édi­
teur : Second Int. Conf. on Fundamentals of Computation Theory, pages 325-334.
Akademie Berlin.
PAUL, W. , PIPPENGER , N. J., SZEMEREDI, E. et TROTTER, W. T. (1983) . On de­
terminism versus nondeterminism and related problems. In Proceedings of IEEE
FOCS'83, pages 429-438. IEEE Computer Society.
PAZ, A. ( 1971) . Introduction to Probabilistic Automata. Academic Press.
PENTUS, M. (1997) . Product-free Lambek calculus and context-free grammars. Journal
of Symbolic Logic, 62(2) :648-660.
PLANDOWSKI , W. (1995). The complexity of the morphism equivalence problem for
context-free languages. Thèse de doctorat, Warsaw University. Department of Infor­
matics, Mathematics, and Mechanics.
POIBEAU, T. (2003) . Extraction automatique d 'information. Du texte brut au web
sémantique. Hermés.
RABIN, M. O. (1969) . Decidability of Second-Order Theories and Automata on Infinite
Trees. Transactions of the American Mathematical Society, 141 : 1-35.
RABIN, M. O. (1987) . ACM Turing Award Lecture, 1977 : Complexity of computations,
pages 625-633. ACM Press/ Addison-Wesley Publishing Co.
RozENBERG, G. et SALOMAA, A., éditeurs (1997) . Handbooks of Format Languages : vol
1. Ward, language, grammar ; vol 2. Linear modeling ; vol 3. Beyond words. Springer
Verlag.
RUBIN, S. (2008) . Automata presenting structures : A survey of the finite string case.
1 064 - Panorama de l'intelligence artificielle. Volume 3

Bulletin of Symbolic Logic, 14(2) : 169-209.


RUSSELL, B. ( 1935). The limits of empiricism. In Proceedings of the Aristotelian
Society, volume 36, pages 131-150. Blackwell Publishing ; The Aristotelian Society.
SAKAROVITCH, J. (2009) . Elements of Automata Theory. Cambridge University Press.
SAVAGE, J. ( 1998) . Models of computation, Exploring the power of computing. Addison
Wesley.
SAVITCH, W. J. ( 1970) . Relationship between nondeterministic and deterministic tape
classes. JOSS, 4 : 1 77-192.
SCHÔNHAGE, A. et STRASSEN, V. ( 1971 ) . Schnelle multiplikation groSer zahlen. Com­
puting, 7 : 281-292.
ScHÜTZENBERGER, M. P. ( 1965). On finite monoids having only trivial subgroups.
Information and Control, 8 : 190-194.
SEIFERAS, J. I. (1990) . Machine-independent complexity. In LEEUWEN, J. V. , éditeur :
Handbook of Theoretical Computer Science A : Algorithms and Complexity, pages
163-186. Elsevier Science Publishers and The MIT Press.
SÉNIZERGUES, G. ( 1998) . The equivalence problem for deterministic pushdown trans­
ducers into abelian groups. In Proceedings MFCS'98, volume 1450 de Lecture Notes
in Computer Science, pages 305-315. Springer.
SÉNIZERGUES, G. (2002) . L(A) =L(B) ? a simplified decidability proof. Theoretical
Computer Science, 281 :555-608.
SHANNON, C. E. ( 1941). Mathematical theory of the differential analyser. Journal of
Mathematics and Physics MIT, 20 :337-354.
SHANNON, C. E. (1948) . The mathematical theory of communication. Bell System
Tech. J. , 27 :379-423.
SHOR, P. ( 1994) . Algorithms for quantum computation : Discrete logarithms and
factoring. In GOLDWASSER, S . , éditeur : Proceedings of the 35nd Annual Symposium
on Foundations of Computer Science, pages 124-134. IEEE Computer Society Press.
SIEGELMANN, H. T. et FISHMAN, S. (1998) . Analog computation with dynamical
systems. Physica D, 120 :214-235.
SIEGELMANN, H. T. et SONTAG, E. D. (1995) . On the computational power of neural
nets. Journal of Computer and System Sciences, 50(1) : 132-150.
SIMON, D. R. (1994) . On the power of quantum computation. In Proceedings of the
35th Annual Symposium on Foundations of Computer Science, pages 1 16-123. IEEE
Computer Society Press.
SIPSER, M. (2006) . Introduction to the Theory of Computation (2nd ed.). Thomson
Course Technology.
SLOT, C. F. et van EMDE BOAS, P. (1984) . On tape versus core an application of space
efficient perfect hash fonctions to the invariance of space. In ACM, éditeur : Procee­
dings of the sixteenth annual ACM Symposium on Theory of Computing, Washington,
DG, April 30-May 2, 1984, pages 391-400. ACM Press.
SPAAN, E . , TORENVLIET, L. et van EMDE BOAS, P. (1989) . Nondeterminism fairness
and a fondamental analogy. Bulletin of the EATCS, 37 : 186-193.
2. Informatique théorique : complexité, automates et au-delà 1 065
-

THATCHER, J. W. et WRIGHT, J. B. (1968) . Generalized finite automata with an


application to a decision problem of second-order logic. Mathematical System Theory,
2 :57-82.
TURING, A. M. (1936) . On computable numbers, with an application to the Entschei­
dungsproblem. Proceedings of the London Mathematical Society, 42(2) :230-265.
TURING, A. M. (1939) . Systems of logic based on ordinals. Proceedings of the London
Mathematical Society, 45 : 161-228.
van EMDE BOAS, P. (1990) . Machine models and simulations, chapitre 1, pages 1-66.
The MIT Press and Elsevier.
van LEEUWEN, J., éditeur ( 1990) . Handbook of theoretical computer science, volume
A : Algorithms and Complexity, B : Formal Models and Semantics. The MIT Press
and Elsevier.
VERGIS, A., STEIGLITZ, K. et DICKINSON, B. (1986) . The complexity of analog com­
putation. Mathematics and Computers in Simulation, 28(2) :91-1 13.
von NEUMANN, J. (1951) . A general and logical theory of automata. In JEFFRIES,
L., éditeur : Cerebml Mechanisms in Behavior-The Hixon Symposium, pages 1-31.
Wiley. Reprinted in Papers of John von Neumann on Computing and Computer
Theory, ed. William Aspray and Arthur Burks, MIT Press, 1987.
WEIHRAUCH, K. (2000) . Computable Analysis : an Introduction. Springer.
WEYL, H. et KIRSCHMER, G. (1927) . Philosophie der Mathematik und Naturwissen­
schaft. Oldenbourg Wissenschaftsverlag.
YAO, A. C.-C. (1993). Quantum circuit complexity. In Proc. 34th IEEE Symposium
on Foundation of Computer Science. IEEE Computer Society Press.
3. Bases de données et intelligence artificielle - 1 067

Chapitre 3

Bases de données et
intelligence artificielle

Ce chapitre illustre, au travers de quelques travaux notables, les liens qui existent
entre le domaine des bases de données et celui de l'intelligence artificielle. Plus précisé­
ment, nous rappellerons les résultats de base du courant « logique et bases de données »
initiateur de nombreuses recherches à l'intersection des bases de données et de l'intelli­
gence artificielle. Ces résultats concernent l'utilisation de la logique pour modéliser les
bases de données. Puis nous nous intéresserons à la prise en compte dans les bases de
données, de contraintes dites dynamiques. Nous survolerons ensuite les travaux relatifs
à la prise en compte de requêtes à base de préférences. Et enfin nous terminerons par
la problématique de l'intégration de bases de données.

3. 1 Introduction
Les recherches en bases de données et les recherches en intelligence artificielle entre­
tiennent des liens depuis plus de trente ans, comme en témoigne le courant de recherche
« logique et bases de données » [Gallaire et Minker, 1978 ; Gallaire et al. , 1981 ; Reiter,
1983 ; Gallaire et al. , 1983, 1984] dont l'objectif était de formaliser en logique un cer­
tain nombre de problèmes rencontrés dans le domaine des bases de données. Si cette
démarche a mis quelque temps avant d'être acceptée à une époque où les concepts
utilisés dans les bases de données n'étaient pas toujours clairement dissociés des consi­
dérations technologiques, son intérêt a peu à peu été reconnu dans la communauté
scientifique. Limité tout d'abord aux bases de données relationnelles, le domaine de
cette recherche s'est ensuite étendu à la prise en compte de données plus complexes,
comme les informations incomplètes, les règles de déduction, les contraintes d'intégrité
sur plusieurs états, les informations floues, les informations de type réglementaire etc.
Cette recherche s'est également étendue vers l'étude de nouvelles fonctionnalités des
Auteurs : NICOLE BIDOIT, PATRICK Bosc, LAURENCE CHOLVY, ÜLJVIER PIVERT et MARIE-CHRISTINE
ROUSSET.
1 068 Panorama de l'intelligence artificielle. Volume 3
-

bases de données, comme par exemple l'interrogation de bases de données distribuées,


la génération de réponses plus coopératives envers l'utilisateur et la prise en compte
de requêtes de plus en plus complexes comme les requêtes à base de préférences, ou
enfin, l'étude de propriétés des bases de données comme par exemple la propriété de
confidentialité des données.
Parmi les formalismes utilisés dans ces travaux, la logique sous toutes ses formes
reste majeure : logique des prédicats du premier ordre, logique possibiliste [Dubois et
Prade, 2004] , logique temporelle [de Arno et Bidoit, 1993, 1995] , logique épistémique
[Reiter, 1988 ; Demolombe et Jones, 1996] , logique déontique [Cuppens et Demolombe,
1996 ; Carmo et al. , 1997] {cf. chapitre 1.7) , calcul des situations [Reiter, 1993] , logique
de description [Baader et al. , 2003] . Mais on trouve également d'autres formalismes
mathématiques, comme par exemple, les ensembles flous [Zadeh, 1965] ou les CP-nets
[Brafman et Domshlak, 2004] .
Faire une description exhaustive de tous les travaux qui apparaissent à l'intersection
des recherches en bases de données et en intelligence artificielle est impossible dans le
cadre de ce chapitre. Nous nous contenterons de décrire quelques-uns de ces travaux.
La section 3.2 rappellera les résultats fondamentaux et initiateurs du courant « logique
et bases de données » dont l'objectif est d'utiliser la logique pour modéliser les bases
de données. La section 3.3 s'intéressera à la question des contraintes d'intégrité dyna­
miques. La section 3.4 étudiera la prise en compte de préférences dans les requêtes.
Enfin, avant la conclusion, la section 3.5 s'intéressera au problème de l'intégration de
bases de données.

3.2 Modélisation des bases d e données relationnelles


en logique
3.2.1 Les travaux fondateurs
Parmi les travaux fondateurs de l'utilisation de la logique dans le domaine des bases
de données, on trouve ceux de Reiter [Reiter, 1983] dont l'objectif était d'utiliser la lo­
gique des prédicats du premier ordre pour formaliser les bases de données relationnelles
et décrire leurs fonctionnalités : expression d'informations plus ou moins complexes,
expression et évaluation de requêtes adressées à ces informations et mise à jour de ces
informations. L'utilisation de la logique était motivée par le fait que cet outil formel per­
met d'exprimer des phrases, les formules, et de raisonner avec ces phrases. Or, Reiter et
ses collègues ont montré que ces deux aspects se retrouvent dans les bases de données :
on exprime des données, des connaissances générales {les contraintes . . ) et on raisonne
avec (on répond à des questions, on vérifie que les contraintes sont satisfaites . . . ) .
Reiter a montré qu'on peut se placer soit dans la théorie des modèles et voir une
base de données comme une interprétation d'un langage du premier ordre particulier ;
soit dans la théorie de la preuve et voir une base de données comme un ensemble de
formules. Nous détaillons ci-dessous la première approche uniquement.
Pour Reiter, la définition dans la théorie des modèles d'une base de données
relationnelle est la suivante :
3. Bases de données et intelligence artificielle - 1 069

Definition Une base de données relationnelles est un triplet ('R, I, IC) où :


- n est un langage du premier ordre qui correspond au schéma de la base. Il est
défini de la façon suivante :
- Toute valeur d'attribut de la base de données est représentée par un symbole
de constante de n et pour simplifier on prendra le même symbole.
- Tout domaine d'attribut de la base de données est représenté par un symbole
de prédicat unaire ( type ) et pour simplifier on prendra le même symbole.
- Toute relation n-aire de la base est représentée par un symbole de prédicat
n-aire et pour simplifier on prendra le même symbole.
- Il y a un symbole de prédicat égalité, =.
- I = (Di i i) est une interprétation du langage n qui correspond à l'état de la
base. Son domaine D1 et sa fonction d'interprétation i sont définis de la façon
suivante :
- D1 est isomorphe à l'ensemble des symboles de constantes et donc à l'en­
semble des valeurs d'attributs de la base. Pour simplifier on prendra les
mêmes symboles.
- l'interprétation du prédicat égalité ( =) est la diagonale de D�
- l'interprétation d'un type T est l'ensemble des individus de D1 qui sont
associés aux valeurs du domaine d'attribut T
- l'interprétation d'un prédicat P qui représente une relation est l'ensemble
des n-uplets d'individus de D1 qui représentent les n-uplets de la relation
dans la base.
- IC est un ensemble de formules de n bien formées appelées contraintes d 'inté­
grité définie de la façon suivante :
- Toute contrainte sur les états de la base ( clef primaire, dépendance fonction­
nelle . . . ) est représentée par une formule de IC.
- Pour tout domaine d'attribut Ti dont les valeurs sont a} . . . af, la formule
Vx T(x) B (x = ai ) V . . . V (x = af) appartient à IC.
- Pour toute relation P dont les domaines d'attributs sont T1 ... Tn , la formule
Vx 1 ...Vxn P(x 1 , ... , xn ) -7 T1 (x 1 ) /\ . . . /\ Tn (Xn ) appartient à IC.

On remarquera que, vu les simplifications supposées sur le choix des symboles,


l'interprétation D1 est en fait une interprétation de Herbrand.

Definition La base de données ('R, I, IC) est cohérente si et seulement si I satisfait


IC ( c'est-à-dire I est un modèle de IC) .

Dans ces travaux, seules les contraintes d'intégrité que l'on peut exprimer en lo­
gique du premier ordre sont considérées. À la section 3.3, nous reviendrons plus en
détail sur la notion de contrainte d'intégrité. Nous verrons que ces contraintes sont
dites statiques et qu'il existe d'autres contraintes d'intégrité, dites dynamiques, dont
l'expression nécessite l'usage d'une logique temporelle.
En ce qui concerne l'interrogation d'une base de données, l'utilisation de la logique
a permis d'apporter quelques résultats, notamment dans le cadre de la simplification
de requêtes, l'équivalence de requêtes etc, et ce même si les requêtes sont exprimées en
1 070 Panorama de l'intelligence artificielle. Volume 3
-

algèbre relationnelle, laquelle est un des langages les plus en usage dans le domaine des
bases de données. Tous ces résultats sont basés sur le fait qu'une requête algébrique
peut être reformulée en logique. Ceci est rappelé par la proposition ci-dessous.
Soit BV une base de données relationnelle. Soit Q une question exprimée en algèbre
relationnelle. Notons rep(Q, BV) la réponse de Q lorsqu'elle est calculée dans BV. On
peut montrer le résultat suivant :

Proposition Soit (n, I, IC) la représentation en logique de BV. Il existe une formule
de n associée à Q, que l'on notera t(Q, xi , . . . , Xn ) , Xi , . . . , Xn étant des variables libres,
telle que : rep(Q, BV) = { < di , . . . , dn >E Dj : I satisfait t(Q, di , . . . , dn ) } .

Example. Considérons deux relations binaires Employé(e Personne; d


Département) et Phone(e Personne; p numTel) , la première liant
les employés aux départements auxquels ils appartiennent et la deuxième
liant les employés à leurs numéros de téléphone. Soit la requête algébrique
Q : flv Sd=jouet (Employé(e, d) t><1 Phone(e, p)) qui permet de retrouver tous
les numéros de téléphone des employés du département « jouet ». On peut montrer
que sa traduction est t(Q, p) = 3e(Employé(e, jouet) /\ Phone(e , p)).

Si, comme nous venons d e l e montrer, toute requête algébrique peut être reformulée
en logique, la réciproque n'est pas vraie. Plus précisément, on peut montrer qu'il existe
des formules de la logique qui ne correspondent à aucune requête algébrique. C'est le
cas par exemple de la formule : Employé(x, jouet) V Employé( Sally, y) qui exprime
la requête : « quels sont les x et les y tels que x travaille dans le département jouet
ou y est le département dans lequel travaille Sally ? ». L'expression de cette requête en
algèbre relationnelle est impossible.
Le langage de la logique du premier ordre est donc un langage plus puissant que
l'algèbre pour exprimer des requêtes sur les bases de données. Dans la section suivante,
nous verrons que c'est un langage trop puissant puisqu'il autorise l'expression de for­
mules qui n'ont pas de sens dans le cadre de la modélisation et des bases de données
en particulier.
Mais revenons aux conséquences de cette propriété. Parce qu'on peut exprimer une
base de données relationnelle en logique et parce qu'une requête algébrique peut être
traduite en une formule logique, un certain nombre de problèmes issus des bases de
données peut trouver une solution du côté de la logique. Par exemple, montrer que
deux requêtes algébriques Q et Q' sont équivalentes ( c'est-à-dire qu'elles fournissent
des réponses identiques quel que soit l'état cohérent de la base) , est un problème qui
revient à montrer : IC f= t(Q, xi , . . . , Xn ) ++ t(Q', xi , . . . , Xn ) c'est-à-dire que l'équivalence
est conséquence logique de IC.
De même, montrer que la réponse à une requête algébrique Q sera toujours vide
revient à montrer que : IC U t(Q, xi , . . . , xn ) est incohérent. Cela a été utilisé dans le
cadre des réponses coopératives.
3. Bases de données et intelligence artificielle - 1 07 1

3. 2.2 Les formules indépendantes du domaine


On a vu précédemment que le langage de la logique des prédicats du premier ordre
peut être utilisé dans le cadre des bases de données, pour exprimer des requêtes, des
contraintes d'intégrité, etc. Cependant, certains chercheurs ont montré que certaines
formules ont un sens qui n'est pas très clair et sont à écarter dans le cadre de la
modélisation. Ce sont les formules dépendantes du domaine.
Par exemple, la formule Vx3yPhone(x, y) qui signifie que la propriété d'avoir un
nu méro de téléphone est universelle pose problème. Dans une base de données où l'on
manipule des employés, leur département, leur statut marital. . . , exprimer cette formule
en tant que contrainte d'intégrité serait une erreur de modélisation. Cela voudrait dire
que tout objet, même un département, a un numéro de téléphone. Ce qui est absurde.
En réalité, ce qu'on veut dire c'est « tout employé a un numéro de téléphone », qui
s'écrit alors : Vx3y(Employé(x) --+ Phone(x, y)) . Cette fois, la propriété « avoir un
numéro de téléphone » est restreinte aux employés.
Un autre exemple est l'erreur fréquente qui consiste à écrire la requête « qui n'est pas
dans le département « jouet » ? » par la formule : -.Département(x, jouet) . Dans une
base de données où l'on manipule des employés, leur adresse, leur numéro de téléphone,
la réponse à cette question contiendra nécessairement toutes les adresses, les numéros
de téléphone . . . qui ne sont évidemment pas dans le département « jouet ». Encore une
fois, en réalité, ce que l'on veut dire c'est « quels sont les employés qui ne sont pas du
département « jouet » ? » et il faut donc écrire : Employé(x) /\-.Département(x, jouet) .
Les seules formules qu'il convient d'écrire dans une activité de modélisation de
bases de données sont des formules indépendantes du domaine. Et précisément,
les formules que nous avons critiquées précédemment n'en sont pas. Les formules
« indépendantes du domaine » ne changent pas de valuation si on fait varier le domaine
d'interprétation sans changer l'interprétation des prédicats. Leur définition est la
suivante :

Definition Soit F(xi , ... , Xn ) une formule. F est indépendante du domaine si et


seulement si pour toute interprétation I =< D1 , i > et pour toute interprétation
I* =< D1 U { * } , i > qui ne diffère de I que parce qu'elle a un individu, *• de plus dans
son domaine on a :
{< di , ... , dn >E Df : I satisfait G{i - 1 {d 1 ) , ... , i - 1 {dn ))} =
{< di , . . . , dn >E Df. : I* satisfait G{i - 1 {di ) , ... , i - 1 {dn ))}.
Malheureusement, la classe des formules indépendantes du domaine n'est pas dé­
cidable. Il n'existe donc pas d'algorithme qui assure que n'importe quelle formule,
exprimant une contrainte d'intégrité ou exprimant une requête est bien indépendante
du domaine. Les chercheurs se sont donc intéressés à définir des sous-ensembles, les plus
larges possible, de l'ensemble des formules indépendantes du domaine qui, eux, sont
décidables. Parmi ces sous-classes décidables, on peut citer par exemple la classe des
formules évaluables ( « evaluable formulas » ) [Demolombe, 1982] ou celles des formules
à champ restreint ( « range restricted formulas » ) [Nicolas, 1982] qui supposent les for­
mules mises sous forme prénexe normale conjonctive et pour lesquelles l'algorithme de
décision est très simple.
1 072 Panorama de l'intelligence artificielle. Volume 3
-

Par ailleurs, notons l'existence d'une approche différente, mais finalement conver­
gente qui, au lieu de restreindre les formules autorisées pour exprimer une requête,
consiste à modifier la sémantique du langage en restreignant le domaine de valuation
des variables aux seuls individus ayant une occurrence dans l'interprétation d'un des
prédicats du langage ou dans la formule exprimant la requête. Ainsi, par exemple,
considérons deux prédicats P (binaire) , S (unaire) ainsi que l'interprétation l=(D1 , i)
dessinée ci-dessous, supposant que D1={ a i , a2 , ... , b i , ... } est infini :
p

Le domaine actif adom(I) de I est l'ensemble fini {ai , a2 , a3 , bi }. La formule du


premier ordre ·S (x ) n'est pas indépendante du domaine mais l'ensemble {ai , b 1 } des
valuations v (x ) E adom(I) telles que I p11 ·S ( x ) est fini. C'est la réponse à la requête
•S ( x ) sur I relativement à la sémantique restreinte au « domaine actif ».
Les résultats les plus forts en théorie des langages de requête, rappelés dans [Abi­
teboul et al. , 1995] sont ceux qui montrent l'équivalence entre les quatre langages
suivants :
- la logique du premier ordre restreinte aux formules indépendantes du domaine,
- la logique du premier ordre restreinte aux formules à champ restreint,
- la logique du premier ordre dont la sémantique est restreinte au domaine actif,
- l'algèbre relationnelle.
Cette équivalence consolide chacune des « recettes » ayant permis de contourner le
problème initial et permet, en fonction du contexte, l'usage de l'une d'entre elles sans
perte de généralité. Ainsi, il est commun en bases de données, de considérer l'approche
« domaine actif » pour des raisons de simplicité.
Pour finir, on notera que ces travaux sont assez anciens. Pourtant, ces résultats
ont un grand intérêt pour la question de la validation de la modélisation, question
cruciale qui se pose au-delà du domaine des bases de données, en intelligence artifi­
cielle notamment. Autrement dit, étant donnée une information à modéliser, comment
s'assurer que la formule que l'on écrit représente bien cette information ? Identifier que
la formule que l'on écrit est dépendante du domaine permet de garantir une erreur
de modélisation, même si malheureusement, repérer que la formule que l'on écrit est
indépendante du domaine n'exclut pas une erreur de modélisation.

3.3 Contraintes d 'intégrité


3.3.1 Introduction
Le modèle relationnel, comme tous les modèles de bases de données 1 est, d'un
point de vue sémantique, très pauvre. Il permet de spécifier des tables (relations) qui
contiendront les données. Le modèle va permettre de préciser, par exemple, le nombre de
colonnes des tables (arité des relations) , ou encore, les valeurs autorisées dans chacune
1 . L'introduction est rédigée en prenant le modèle relationnel pour référence mais le contenu s'ap­
plique assez directement aux modèles non normalisés, à valeurs complexes, semi-structurés.
3. Bases de données et intelligence artificielle - 1 073

de ses colonnes (domaine des attributs) . En revanche, la description des tables par
le modèle relationnel ne permet pas d'exclure certaines combinaisons de valeurs, pas
plus bien évidemment, qu'il ne permet, à l'inverse, de forcer l'occurrence de valeurs
sous certaines conditions, etc. De manière générale, le modèle relationnel ne permet
pas d'exprimer des propriétés complexes et des lois générales que les données sont
censées respecter si toutefois on souhaite que celles-ci soient conformes aux applications
modélisées.
Pour ce faire, le modèle relationnel comme les autres modèles de données, est en­
richi par un mécanisme permettant de compléter la spécification de la structure des
données par des propriétés liées au domaine d'application. Ces propriétés sont des
méta-données appelées des contraintes d'intégrité. La connaissance et le traitement
(maintenance) des contraintes d'intégrité sont fondamentaux à plusieurs égards : (1)
comme évoqué précédemment, l'objectif premier est d'assurer une forme de fiabilité des
données, c'est-à-dire leur conformité avec la « réalité » (2) comme le typage en pro­
grammation, les contraintes d'intégrité sont un véritable levier pour l'optimisation des
traitements (mises à jour et requêtes) tant au niveau logique qu'au niveau physique ;
les contraintes servent à la fois à structurer les données et à exécuter efficacement les
traitements sur les données, ceci pouvant aller jusqu'à se dispenser de l'évaluation d'une
requête dont on a pu détecter statiquement (à la compilation , grâce aux contraintes
d'intégrité, qu'elle ne retournerait aucune réponse.
L'évolution des applications, depuis l'apparition des systèmes de gestion de base
de données relationnels jusqu'à l'émergence plus récente des systèmes de gestion de
données XML, s'est accompagnée de la nécessité accrue de développer des techniques
garantissant la sûreté, la conformité des données manipulées et améliorant la rapidité
et la fiabilité des développements.
Cette section n'a pas pour prétention d'exposer de façon exhaustive les caractéris­
tiques des systèmes de contraintes d'intégrité [Abiteboul et al. , 1995 ; Bidoit et Collet,
2001] , encore moins de couvrir les méthodes proposées par les systèmes commerciaux.
L'objectif ici est de traiter de quelques problèmes liés à l'expression et à la gestion des
contraintes illustrant les liens entre le domaine des bases de données et celui de l'intelli­
gence artificielle. La première partie de cette section est consacrée aux concepts élémen­
taires et en particulier à la formalisation en logique du premier ordre des contraintes
d'intégrité. La deuxième partie est centrée sur les contraintes dynamiques et la logique
temporelle. Elle sera d'ailleurs l'occasion d'un détour sur les langages de requêtes tem­
porels, la distinction entre requête et contrainte étant somme toute assez ténue.

3.3.2 Contraintes d'intégrité et logique du premier ordre


Nous laissons pour l'instant de côté la discussion concernant les différents types de
contraintes pour nous focaliser sur les contraintes statiques. Une contrainte statique
est une propriété, aussi complexe soit-elle, qui peut être vérifiée par simple examen de
l'état courant de la base de données, comme par exemple : un employé ne peut être
affecté qu'à un seul département.
Classiquement, une contrainte est spécifiée par une formule close de la logique du
1 074 Panorama de l'intelligence artificielle. Volume 3
-

premier ordre 2 . Pourquoi ? Parce qu'en dehors de la toute relative simplicité qu'offre
la logique du premier ordre à exprimer des propriétés, la plupart des problèmes liés
aux contraintes d'intégrité s'expriment directement en termes logiques ce qui permet
la réutilisation de résultats et outils formels existants, ce qui permet aussi l'apport de
nouveaux résultats. Voici un tour d'horizon des problèmes les plus connus et les plus
communs (voir [Abiteboul et al. , 1995] [Bidoit et Collet, 2001] pour un exposé plus
approfondi et une riche bibliographie) .

Implication
Les contraintes sont des méta-données. Il est important, par exemple pour la
validation du schéma de la base de données de pouvoir répondre à la question : étant
donné un ensemble de contraintes IC, existe-t-il d'autres contraintes qui sont nécessai­
rement satisfaites ? Et lesquelles ? Ce problème est identique au problème (de décision)
de l'implication en logique, à savoir, déterminer si un ensemble de formules IC im­
plique une formule c. Il a été abordé des points de vue algorithmique et complexité
pour différentes classes de contraintes (dépendances) . L'approche purement syntaxique
du problème consiste à exhiber un système d'inférence {axiomatisation) permettant de
construire le cas échéant une preuve de c à partir de IC 3 . Le système d'inférence le
plus connu est certainement celui d'Armstrong pour les dépendances fonctionnelles
[Armstrong, 1974] . La frontière entre logique et bases de données est tracée par la com­
plexité du problème de l'implication qui a donc conduit à considérer des sous-classes
de contraintes (acycliques, unaires, tgds, . . . ) .

Cohérence
La spécification de contraintes pour une application ne peut évidemment pas faire
l'économie de la vérification de leur cohérence : existe-t-il des données satisfaisant ces
propriétes ? Ce problème est lié à la satisfaisabilité d'un ensemble de formules, problème
bien connu pour être indécidable : existe-t-il un modèle pour cet ensemble de formules ?
Toutefois, satisfaisabilité (consistance) et cohérence ne coïncident pas totalement : un
ensemble de formules est dit satisfaisable dès lors qu'il a un modèle, celui-ci pouvant
fort bien être vide, alors qu'en base de données, un ensemble de contraintes est cohérent
si il admet au moins un modèle non vide.

Optimisation sémantique
L'optimisation des requêtes est un problème critique et combine traditionnellement
deux approches. D'une part, l'optimisation physique exploite le schéma physique de la
base {index et autres chemins d'accès) pour générer un code d'exécution performant :
les contraintes telles que clés et clés étrangères impliquent la création d'index, un atout

2. Le choix de la logique du premier ordre a un impact sur les contraintes que l'on peut exprimer
exactement comme pour les requêtes et il est parfois nécessaire de considérer un langage plus expressif.
3. L'existence d'une procédure de décision de l'implication n'implique pas l'existence d'une axio­
matisation.
3 . Bases de données et intelligence artificielle - 1 075

pour la compilation des requêtes 4 . D'autre part, l'optimisation sémantique procède,


en amont, à une réécriture des requêtes en exploitant les méta-données. Dans des cas
extrêmes, l'optimisation sémantique peut se substituer à l'évaluation de la requête et
produire la réponse sans accès aux données. Exemple : la requête demande l'extraction
des personnes ayant deux conjoints alors qu'une contrainte stipule que toute personne
a au plus un conjoint.
Les techniques de « chase » [Maier et al. , 1979] , pour l'optimisation sémantique,
figurent parmi les plus élégantes. Une formulation des requêtes et des contraintes
dans un formalisme unique, la logique permet d'utiliser la notion de subsomption
[Chakravarthy et al. , 1990] partielle pour « simplifier » les requêtes. Les logiques de
description ont largement contribué à l'optimisation sémantique, les méta-données, les
contraintes et les requêtes étant représentées dans un formalisme unique [Hacid et Ri­
gotti, 199()] [Bergamaschi et al. , 1997] [Calvanese et al. , 1998] [Beneventano et al. , 2003] .

Il n'est pas possible ici de procéder à une présentation exhaustive de tous les pro­
blèmes liés aux contraintes d'intégrité dont l'étude a donné lieu à des échanges entre
les communautés intelligence artificielle et bases de données. Il est toutefois difficile
d'éluder une discussion des méthodes de maintenance des contraintes d'intégrité.

Contraintes d'intégrité

Les contraintes d'intégrité permettent de contrôler l'évolution de la base de don­


nées et donc le processus de vérification de la cohérence intervient lors des mises à jour.
Le choix du moment 5 où la vérification est effectuée donne lieu à plusieurs classes de
méthodes. Les méthodes « a posteriori » [Nicolas, 1982] testent et effectuent si néces­
saire des traitements (annulation, réparation, adaptation) après l'exécution des mises
à jour : l'efficacité de cette stratégie naïve repose sur le filtrage des contraintes à tester
en fonction des mises à jour effectuées et sur la conception de test incrémental [Nicolas,
1982 ; Hsu et Imielinski, 1985 ; Decker, 1986 ; Bry et al. , 1988 ; Jeusfeld et Jarke, 1991] .
Les méthodes « a priori », apparentées à la vérification statique, relèvent le défi de
prédire, avant exécution d'un traitement avec mises à jour, la validité du résultat. Ces
méthodes [Henschen et al. , 1982 ; McCune et Henschen, 1989 ; Qian, 1990] ne sauraient
être générales [Abiteboul et Vianu, 1989] . Une version « dynamique » de cette stratégie
s'inspire des techniques de programmation [Dijkstra, 1975] en introduisant une précon­
dition permettant d'assurer la validité des traitements [Benedikt et al. , 1996] , [Lawley
et al., 1993] , [Lawley, 1995] , [Benzaken et Schaefer, 1998] . Schémas transactionnels
[Abiteboul et Vianu, 1989] [Bidoit et Arno, 1998] et règles actives [Zloof, 1977 ; Eswa­
ran et Chamberlin, 1975 ; Eswaran, 1976J [Widom, 1992 ; Cornai et al. , 1995 ; Fraternali
et Tanca, 1995 ; Widom et Ceri, 1996 ; Gottlob et al. , 1996 ; Coupaye et Collet, 1998 ;
Baral et al. , 1997 ; Paton, 1998] offrent encore d'autres solutions, souvent partielles, à
la maintenance de contraintes d'intégrité.

4. Les dépendances fonctionnelles constituent une base significative pour l'optimisation du tri,
opération requise par les clauses SQL telles que group by, order by, dist inct [Simmen et al. , 1996) .
5. Il est ici impossible d'évoquer la notion de transaction et son rôle.
1 076 Panorama de l'intelligence artificielle. Volume 3
-

3.3.3 Contraintes dynamiques logiques du premier ordre et


temporelle
Le rapide tour d'horizon des méthodes de maintenance de contraintes d'intégrité
introduit naturellement les contraintes de transition et les contraintes dynamiques.
Quel que soit leur type, qu'elles soient statiques, de transition ou dynamiques, les
contraintes d'intégrité participent au contrôle de l'évolution de la base de données :
c'est lorsque les données sont modifiées que ces contraintes « agissent » pour valider ou
non les changements. Une contrainte de transition, pour être vérifiée, nécessite l'accès
aux états de la base de données avant et après modification. Exemple : le salaire d'un
employé ne peut diminuer. Une contrainte dynamique nécessite a priori l'historique
entier de la base de données, i.e. les états de la base successifs depuis leur création.
Exemple : un employé ne peut être réaffecté dans un département où il a antérieurement
travaillé.
La première étape consiste à étendre le modèle relationnel 6 afin de capturer la no­
tion d'historique des données. Nous allons nous placer dans un cadre abstrait, simplifié
et fondateur [Chomicki et Toman, 1998] , laissant de côté un certain nombre de problè­
mes intéressants : le temps « concret » mesuré en minutes, secondes . . . , les durées, les
calendriers, les problèmes induits par les changements de granularité, la multitempora­
lité (temps de validité versus temps transactionnel) , le stockage efficace d'historiques,
etc. Le traitement abstrait de bases de données temporelles et d'historiques s'adosse
en général à deux représentations alternatives, simples et équivalentes.
L'approche implicite consiste à considérer une base de données temporelle I sur le
schéma (langage) R comme une suite li , . . . , In d'instances statiques, i.e. , d'interpré­
tations au sens de la section 3.2. Un historique est une base de données temporelle,
trace de l'évolution de la base de données : chaque état Ji + l ayant été obtenu par
application d'une mise à jour de l'état h
L'approche explicite utilise des estampilles sur les données et le temps est alors une
donnée stockée. La notion de temps considérée ici est discrète linéaire, isomorphe à
N. La traduction estampillée zes t de l'instance temporelle implicite I, est construite
sur le schéma nes t étendu à partir de n en substituant à chaque prédicat R d'arité k
un prédicat Res t d'arité k + 1 , l'attribut supplémentaire T modélisant le temps. For­
mellement, le contenu de la relation Res t , noté rs t (Res t ) , est donné par 1es t (Res t ) =
LJ�= l (Ji (R) X {i}) .
Dans le cadre de l'approche implicite, les langages de requêtes qui sont utilisés pour
exprimer des contraintes d'intégrité dynamiques ou temporelles (une contrainte n'étant
rien d'autre qu'une requête booléenne) sont construits à partir de la logique temporelle
linéaire TL [Prior, 1957] [Emerson, 1990] [Chomicki et Toman, 1998] . La syntaxe des
formules de TL sur un schéma n étend les règles de la logique du premier ordre FO sur
n, par : si cp 1 et cp2 sont des formules alors cp 1 until cp2 et cp 1 since cp2 sont des formules.
La notion de satisfaction d'une formule cp(x) de TL sur un historique I, à l'instant
iE[l, n] , étant donné une valuation v des variables libres x, notée [I, i, v] f=cp(x) , est
définie ci-dessous en se restreignant aux opérateurs temporels :
[I, i, v] f=cp 1 (x 1 ) until cp2 (x2) ssi il existe j >i tel que [I, j, v] f=cp2 (x2 ) et pour tout k

6. ou tout autre modèle, bien sûr.


3. Bases de données et intelligence artificielle - 1 077

tel que i< k <j , [I, k, v] f=<p 1 (œ 1 ) .


[I, i, v] f=<p 1 (œ 1 ) since <p2 (œ2 ) ssi il existe j <i tel que [I, j, v] f=<p2 (œ2 ) et pour tout k
tel que i> k>j , [I, k, v] f=<p 1 (œ 1 ) .
A partir des opérateurs temporels until et since, d'autres opérateurs sont définissables :
next, prev, . . .
Dans le cadre de l'approche explicite, les requêtes et les contraintes sont exprimées
à l'aide de FO, avec les précautions énoncées dans la section 3.2, et en considérant deux
types de variables (les variables de données et les variables temporelles) . Le langage
ainsi obtenu est un langage du premier ordre « two-sorted », noté TS-FO.
Par exemple, la contrainte imposant qu'un employé ne puisse pas être réaffecté
dans un département où il aurait précédemment travaillé s'écrira (en supposant celle-ci
évaluée sur l'état courant de la base de données) :
- en TL : V e, d G(Employé(e, d) ---+ •(True since Employé(e, d))) où G est la
modalité « toujours ».
- en TS-FO : V t, V e, d (Employé(e, d, t) ---+ •(3 t' (t' < t /\ Employé(e, d, t))))
où t et t' sont des variables temporelles, e et d sont des variables de données.
L'étude comparative de l'expressivité des langages de requêtes temporelles TL et
TS-FO est probablement l'un des sujets qui a le plus avancé récemment avec quelques
résultats surprenants. Si le choix entre représentation implicite et représentation expli­
cite n'a pas d'impact au niveau de la représentation des données, il n'en est absolument
pas de même pour les langages de requêtes du point de vue de leur expressivité. Des ré­
sultats (en opposition avec ceux établis dans le cas propositionnel par Gabbay et Kamp
[Gabbay et al. , 1980] [Kamp, 1968] ) ont apporté un éclairage intéressant et inattendu
sur l'expressivité relative de TL et TS-FO : (1) la restriction de TL aux modalités du futur
(until, next) est strictement moins expressive que TL [Abiteboul et al. , 1999] ; (2) TL
est strictement moins expressif que TS-FO [Abiteboul et al. , 1999] [Bidoit et al. , 2004]
[Toman, 2003] . Ce dernier résultat a été démontré de plusieurs manières : d'une part en
utilisant des arguments de complexité de communication ; d'autre part en utilisant plus
classiquement une extension des jeux de Ehrenfeucht-Fraïssé mais en se restreignant
aux sous langages de TL et TS-FO exprimant des propriétés « order-invariant ». Ainsi,
la propriété « existe-t-il deux états pour lesquels les affectations des employés dans
les départements sont identiques » est invariante relativement à l'ordre (de l'agenda) ;
cette propriété s'exprime trivialement à l'aide de TS-FO par

3 ti , t2 (t 1 < t2 /\ V e, d (Employé(e, d, ti) ++ Employé(e, d, t2 )))


mais ne peut l'être en TL.
Ces résultats ont motivé un certain nombre de travaux visant à étendre TL avec
pour objectif d'obtenir un langage implicite aussi expressif que TS-FO : [Wolper, 1983]
introduit une extension de TL basée sur l'usage d'expressions régulières ; les travaux de
[Toman, 2003] montrent qu'aucune extension des opérateurs temporels ne permettra
d'atteindre ce but ; [Abiteboul et al. , 1999] [Herr, 1997] introduisent des itérateurs tem­
porels et des opérateurs de point-fixe [Vardi, 1988] ; [Bidoit et Arno, 1999] étudie l'ajout
d'un opérateur « now ». [Abiteboul et al. , 1999] , [Bidoit et Objois, 2009] analysent la
hiérarchie de ces langages en terme d'expressivité.
Comme pour les contraintes statiques, cette sous-section se termine par quelques
1 078 Panorama de l'intelligence artificielle. Volume 3
-

pointeurs sur des méthodes mises en œuvre pour maintenir les dépendances tempo­
relles. Deux types de méthodes ont été explorés. Les premières font l'hypothèse que
l'historique de la base de données est entièrement stocké et peut donc être utilisé pour
vérifier les contraintes, les stratégies étant alors similaires à celles pour les contraintes
statiques. Les deuxièmes, au lieu de stocker tout l'historique, utilisent une extension de
l'état courant de la base de données pour mémoriser les informations seules nécessaires
à la vérification des contraintes [Chomicki, 1995] [Chomicki et Toman, 1995] : chaque
mise à jour implique la mise à jour de relations auxiliaires qui servent à la vérification
des contraintes temporelles. Pour un ensemble donné de contraintes, le nombre de rela­
tions auxiliaires doit être fixe et leur contenu ne doit dépendre que de celui de la base
de données. Le gain de telles méthodes réside dans le stockage des seules informations
pertinentes à la vérification des contraintes. [Bidoit et Arno, 1998] aborde la vérification
de contraintes temporelles par une approche comparable au raffinement de spécifica­
tion : à partir d'une spécification abstraite, ici un ensemble de contraintes temporelles,
est générée une spécification concrète, ici un ensemble de mises à jour paramétrées et
de règles de composition de celles-ci. La méthode, qui n'est pas générale, permet de
prendre en compte une classe significative de contraintes temporelles.

3.4 Bases de données et requêtes à préférences

3.4 . 1 Introduction
Les deux dernières décennies ont vu se manifester un intérêt croissant pour l'ex­
pression de préférences dans les requêtes adressées à des bases de données. Les raisons
d'un tel engouement sont multiples. Tout d'abord, il est apparu souhaitable d'offrir
des langages de requête plus expressifs, pouvant traduire plus fidèlement les intentions
des utilisateurs. En deuxième lieu, l'introduction de préférences dans les requêtes four­
nit une base à l'ordonnancement des éléments retournés, ce qui est particulièrement
appréciable quand le résultat d'une requête est volumineux. Enfin, a contrario, lors­
qu'une requête classique produit une réponse vide, une version relaxée (et donc moins
restrictive) de la requête a plus de chances d'être satisfaite par certains des objets de
la base.
Les approches visant à intégrer des préférences dans les requêtes de bases de don­
nées peuvent être classées en deux catégories [Hadjali et al. , 201 1] selon qu'elles sont
quantitatives ou qualitatives - voir aussi l'introduction du chapitre 1.6. Dans la pre­
mière famille, les préférences sont exprimées de façon quantitative au moyen d'une
fonction de score monotone (le score global est positivement corrélé aux scores partiels,
et chacun de ces derniers est fonction d'une ou de plusieurs valeurs d'attribut) . Comme
la fonction de score associe à chaque n-uplet un degré numérique, le n-uplet t 1 est pré­
féré au n-uplet h si le score de ti est plus grand que celui de t 2 • Dans les approches
de type qualitatif, en revanche, les préférences sont définies au travers de relations de
préférence binaires.
Ces deux familles d'approches sont présentées ci-après au travers de certains de
leurs représentants typiques.
3 . Bases de données et intelligence artificielle - 1 079

3. 4.2 Approches quantitatives


Scores explicites attachés à des entités
L'approche proposée par Agrawal et Wimmers [Agrawal et Wimmers, 2000] permet
à un utilisateur de traduire sa préférence pour une entité, soit en lui attachant un score
entre 0 et 1, soit en exprimant un veto (à l'aide du symbole Q) ou encore un jugement
d'indifférence (cas par défaut) à l'égard de cette entité. Une entité est décrite par un
n-uplet dans lequel la valeur d'un champ, soit appartient au domaine de l'attribut cor­
respondant, soit vaut * (symbole servant à remplacer toute valeur du domaine autre
que celles spécifiées dans la requête) . Considérons pour illustrer ces notions une relation
auto ( #i, marque, modèle, type, couleur, prix, . . . ) décrivant différents véhicules automo­
biles. Un utilisateur formulant les préférences { ( (Renault, Clio, rouge) , 0.4) , ( (Renault,
Clio, *) , Q), ( (Opel, Corsa, vert) , Q), ( (Ford, Fiesta, blanc) , 0.8) } indique par là même
qu'il/elle a une préférence forte pour la Ford Fiesta en blanc, une beaucoup moins
marquée pour la Renault Clio en rouge, et rejette absolument l'Opel Corsa en vert
ainsi que toute Renault Clio d'une couleur autre que rouge. L'approche inclut aussi un
opérateur générique permettant de combiner les préférences de plusieurs utilisateurs.
L'approche proposée par Koutrika et Ioannidis [Koutrika et Ioannidis, 2004] suit la
même philosophie générale mais étend [Agrawal et Wimmers, 2000] en considérant un
format plus général pour les profils de préférences utilisateur. Elle permet notamment
d'exprimer des préférences négatives ( « je n'aime pas les 4 x 4 » ) et des préférences
concernant l'absence de valeurs ( « je préfère les voitures sans GPS intégré » ) .

Approche fondée sur les ensembles flous


De même que les ensembles classiques peuvent servir à définir des prédicats boo­
léens, les ensembles flous [Zadeh, 1965] - qui visent à décrire des classes d'objets dont
les frontières sont vagues - peuvent être associés à des prédicats graduels (voir le
chapitre I.3) .
Généralement, les prédicats flous élémentaires correspondent à des adjectifs du lan­
gage naturel tels que jeune, grand, rapide. Un prédicat flou P peut être modélisé par
une fonction µp (habituellement de forme triangulaire ou trapézoïdale) d'un (ou plu­
sieurs) domaine(s) dans l'intervalle unité [O, l] . Le degré µ p (x) représente dans quelle
mesure l'élément x satisfait le prédicat graduel P (ou, de façon équivalente, dans quelle
mesure x appartient à l'ensemble flou dont la fonction caractéristique est µp ) . Un pré­
dicat flou élémentaire peut également comparer deux valeurs d'attribut à l'aide d'un
opérateur de comparaison graduel tel que « plus ou moins égal » ou « beaucoup plus
grand que ».
Il est possible d'altérer la sémantique d'un prédicat au moyen d'un modificateur,
qui est généralement associé à un adverbe du langage naturel. Ainsi, le prédicat modifié
« très cher » est plus restrictif que « cher » et « assez élevé » est moins contraignant
que « élevé ». La sémantique du prédicat mod P (où mod est un modificateur) peut
être définie de façon compositionnelle et plusieurs approches ont été proposées en ce
sens, parmi lesquelles µmodP (x) µp (x) n .
=

Des prédicats atomiques et modifiés peuvent intervenir dans des conditions com­
plexes qui vont bien au-delà de celles que l'on peut utiliser dans un cadre d'interrogation
1 080 Panorama de l'intelligence artificielle. Volume 3
-

classique. La conjonction (resp. disjonction) est interprétée à l'aide d'une norme (resp.
co-norme) triangulaire T (resp. 1-) , par exemple le minimum ou le produit (resp. le
maximum ou la somme probabiliste) . Quant à la négation, elle est modélisée par :
Vx, µ..,p ( x ) = 1 µ p (x ) . Des opérateurs de conjonction et de disjonction pondérées
-

ainsi que de moyenne pondérée peuvent être utilisés pour affecter différentes impor­
tances aux prédicats d'une requête.
Les opérations de l'algèbre relationnelle peuvent être étendues de façon directe
aux relations floues (i.e. , aux relations résultant elles-mêmes de requêtes floues, où
les n-uplets sont affectés d'un degré d'appartenance) en considérant d'une part que
ces dernières sont des ensembles flous et en donnant d'autre part un sens graduel
aux opérations appropriées. Notons que l'approche floue fournit un cadre d'interro­
gation compositionnel, contrairement à la plupart des autres approches de requêtes à
préférences (quantitatives et qualitatives) . Les définitions des opérateurs relationnels
étendus peuvent être trouvées dans [Bosc et al. , 1999] . En guise d'illustration, nous
donnons ci-après la définition de la sélection floue, où r désigne une relation floue ou
classique et cond représente un prédicat flou.

µs el(r, cond) (x ) = T(µr (x ) , µcond (x )) .

Le langage SQLf décrit dans [Bosc et Pivert, 1995 ; Pivert et Bosc, 2012] étend quant à
lui la norme SQL de façon à pouvoir gérer des requêtes floues. Le paradigme des requêtes
floues a également été appliqué à l'interrogation de bases de données multimédia [Fagin,
1998] .

Requêtes top-k

Dans l'approche des requêtes top-k [Chaudhuri et Gravano, 1999] , l'utilisateur spé­
cifie des valeurs idéales pour certains attributs ainsi qu'un nombre k de n-uplets souhai­
tés. La distance entre une valeur d'attribut et la valeur idéale est calculée à l'aide d'une
simple différence (en valeur absolue) , après normalisation préalable (on se ramène à
des valeurs entre 0 et 1). La distance globale est calculée en agrégeant les distances élé­
mentaires au moyen d'une fonction qui peut être le minimum, la somme ou la distance
euclidienne. Le score global d'un tuple est le complément à 1 de sa distance globale à
l'objet idéal. Les étapes du calcul sont les suivantes :
1 . à partir de k, de la fonction d'agrégation choisie et de statistiques sur la relation
considérée, un seuil a sur le score global est déduit ;
2. une requête booléenne calculant l'ensemble des éléments dont le score est supé­
rieur ou égal à a ou un sur-ensemble - est déterminée ;
-

3. cette requête est évaluée et le score global attaché à chaque élément du résultat
est calculé ;
4. si au moins k n-uplets possédant un score supérieur ou égal à a ont été obtenus,
les k meilleurs sont délivrés, sinon la procédure est relancée (à partir de l'étape
2) en utilisant un seuil a plus faible.
3. Bases de dotmées et intelligence artificielle - 1 0 8 1

3. 4.3 Approches qualitatives


Approches fondées sur l'ordre de Pareto
La présente décennie a vu la publication d'un grand nombre d'algorithmes visant
à calculer efficacement les réponses non dominées (au sens de l'ordre de Pareto) à une
requête donnée. Vues comme des points dans un espace multidimensionnel, ces réponses
constituent ce qu'il est convenu d'appeler une ligne de crête ( skyline en anglais) . Les
travaux pionniers en ce domaine sont ceux de Bôrzsonyi et al. [Bôrzsonyi et al. , 2001] .
Tout d'abord, rappelons le principe général des approches fondées sur l'ordre de Pareto.
Soit {G 1 , G2 , ... , Gn } un ensemble de préférences partielles atomiques. On note
t >-a; t' (resp. t !':=a; t' ) la proposition « le n-uplet t satisfait la préférence Gi mieux que
(resp. au moins aussi bien que) le n-uplet t' ». Au sens de l'ordre de Pareto, un n-uplet t
domine un autre n-uplet t' si et seulement si Vi E [1, n] , t !':=a; t' et 3k E [1, n] , t >- ak t'.
En d'autres termes, t domine t' ssi il est au moins aussi bon que t' vis-à-vis de chaque
préférence, et il est strictement meilleur que t' relativement à une préférence au moins.
Clairement, l'approche fondée sur l'ordre de Pareto ne requiert aucune hypothèse
de commensurabilité entre les degrés de satisfaction associés aux diverses préférences
élémentaires, contrairement à l'approche floue par exemple. En conséquence, certains
points de la « ligne de crête » (certains n-uplets du résultat) peuvent représenter des ré­
ponses médiocres vis-à-vis de certaines conditions atomiques (tout en étant excellentes
relativement à d'autres, et l'approche skyline ne fournit qu'un ordre partiel strict tandis
que l'approche floue conduit à un préordre total) . KieSling [KieSling, 2002 ; KieSling
et Kostler, 2002] a posé les bases d'un modèle de préférences fondé sur l'ordre de Pa­
reto pour les systèmes de bases de données. Une algèbre de préférences incluant un
opérateur appelé winnow a également été proposée par Chomicki [Chomicki, 2003] afin
d'intégrer des formules exprimant des préférences utilisateur à l'intérieur d'un cadre re­
lationnel (et de SQL) . Dans le même esprit que les requêtes skyline, Torlone et Ciaccia
[Torlone et Ciaccia, 2002] ont quant à eux introduit un opérateur appelé Best visant à
retourner les n-uplets non dominés d'une relation.
Dans ce type d'approche, quand les préférences concernent de multiples attributs,
le risque d'obtenir beaucoup de n-uplets incomparables est important. Plusieurs ap­
proches ont été proposées pour définir un ordonnancement de deux n-uplets incompa­
rables au sens de skyline, en exploitant : le nombre de n-uplets que chacun des deux
domine (notion de domination k-représentative proposée par Lin et al. [Lin et al. ,
2007] ) , ou encore un ordre de préférence sur les attributs ; voir par exemple les notions
de k-domination introduite par Chan et al. [Chan et al. , 2006a] , et de k-fréquence
proposée par les mêmes auteurs [Chan et al. , 2006b] .

CP-nets
L'utilisation de la structure appelée CP-net (réseau de préférences conditionnelles)
pour les requêtes de bases de données à préférences a été suggérée par Brafman et
Domshlak [Brafman et Domshlak, 2004] - mais cette approche avait été initialement
développée en intelligence artificielle [Boutilier et al. , 2004] (voir le chapitre I.6) . Un
CP-net est une représentation graphique de propositions traduisant des préférences
conditionnelles de type ceteris paribus. L'idée sous-jacente est que les préférences de
1 082 - Panorama de l'intelligence artificielle. Volume 3

l'utilisateur expriment généralement que, dans un contexte donné, un état de choses


partiellement décrit est strictement préféré à un autre état de choses partiellement dé­
crit, les deux états étant mutuellement exclusifs, et ce conformément à la sémantique
ceteris paribus, i.e. , toutes choses étant égales par ailleurs dans la description des deux
états. A l'aide d'un CP-net, un utilisateur peut décrire comment ses préférences sur
les valeurs d'une variable dépendent des valeurs d'autres variables. Par exemple, un
utilisateur peut formuler les propositions suivantes :
s 1 : je préfère les monospaces aux berlines ;
s 2 : pour ce qui est des monospaces, je préfère Renault à Citroën ;
s 3 : quant aux berlines, je préfère Citroën à Renault ;
s 4 : parmi les voitures de marque Renault, je préfère les noires aux blanches.
Dans l'approche CP-net appliquée aux bases de données [Brafman et Domshlak, 2004) ,
une préférence est représentée par une relation binaire sur un schéma de relation (où
les attributs sont supposés binaires) . Soit R un schéma de relation, une requête à
préférences Q sur R consiste en un ensemble Q = {si , . . . , sm} de propositions (habi­
tuellement entre des sous-tuples de R, en s'appuyant sur la sémantique ceteris paribus) .
De Q, on induit un ensemble de relations de préférence { >cp ( 1 ) , . . . , >cp (m) } , à
partir desquelles on peut dériver une relation de préférence globale >cp (Q) définissant
un ordre partiel strict sur les n-uplets de la base.
Il convient de noter que la sémantique ceteris paribus s'oppose à celle dite totalitaire,
qui est favorisée implicitement par les auteurs de la communauté des bases de données
(y compris ceux défendant une approche fondée sur l'ordre de Pareto) . La sémantique
totalitaire signifie que lorsque l'on évalue une clause de préférence d'une requête, on
ne tient pas compte des valeurs des attributs n'apparaissant pas dans cette clause. De
toute évidence, avec la sémantique ceteris paribus, le nombre de n-uplets incomparables
est en général beaucoup plus élevé qu'avec la sémantique totalitaire.

Linéarisation de domaines
L'approche proposée dans [Georgiadis et al. , 2008) considère des préférences défi­
nies comme des préordres sur des attributs relationnels et leurs domaines respectifs.
Considérons à nouveau une table auto ( #i, marque, modèle, type, couleur, prix, . . . )
décrivant diverses caractéristiques de véhicules automobiles. Un exemple de requête à
préférences au sens de [Georgiadis et al. , 2008) est constitué des propositions suivantes :
(1) « Volkswagen » est préféré à « Opel » et à « Ford » (préférence Pi ) ;
(2) Les couleurs « noir » et « gris » sont préférées à « blanc » (P2) ;
(3) Le type « berline » est préféré à « coupé », lui-même préféré à « 4 x 4 » (P3 ) ;
(4) La marque est aussi importante que le type, tandis que la combinaison marque-type
est plus importante que la couleur (P4 ).
D e telles propositions définissent des relations binaires d e préférence : ( 1 ) , ( 2 ) e t (3)
sur des domaines d'attributs, (4) sur l'ensemble des attributs. Ces relations sont sup­
posées être réflexives et transitives, i.e. , être des préordres. Les auteurs proposent une
technique de linéarisation des domaines associés à ces préordres partiels (rappelons
qu'un domaine, au sens de la théorie des domaines, est un ensemble partiellement or­
donné) . De cette façon, on induit une séquence de blocs (i.e. , une partition ordonnée)
du résultat de la requête. Dans une telle séquence, chaque bloc contient des n-uplets
3. Bases de données et intelligence artificielle - 1 083

incomparables au sens des préférences. Le premier bloc contient les éléments les plus
préférés, et dans tout autre bloc, pour chaque élément, il existe un élément plus préféré
dans le bloc précédent.
Les algorithmes proposés dans (Georgiadis et al. , 2008] calculent la séquence de blocs
constituant la réponse à une requête à préférences sans construire l'ordre induit sur les
n- uplets. Ceci est réalisé en exploitant la sémantique d'une expression de préférence
et, en particulier, en linéarisant le produit cartésien de toutes les valeurs d'attribut
apparaissant dans l'expression. Concrètement, on passe d'un ensemble de propositions
exprimant des préférences partielles à un treillis de requêtes, puis de là à un treillis des
résultats de ces requêtes, et enfin à une séquence de blocs constituant la réponse.
Par rapport aux approches fondées sur l'ordre de Pareto, l'originalité principale
réside dans l'utilisation de préordres partiels et non pas stricts pour modéliser des
préférences indépendantes positives. Ceci permet de distinguer la notion de « n-uplets
également préférés » de celle de « n-uplets incomparables » .

Approche fondée sur la logique possibiliste


Hadjali et al. présentent dans (Hadjali et al. , 201 1] une approche de requêtes à
préférences fondée sur la logique possibiliste (Dubois et Prade, 2004] - voir le chapitre
1.3 - , où les requêtes font intervenir des poids symboliques sur une échelle linéairement
ordonnée. Ces derniers peuvent être manipulés sans que l'on ait à leur affecter une
valeur précise, ce qui laisse la liberté à l'utilisateur de ne pas spécifier d'ordre par
défaut des priorités entre les préférences (contrairement aux CP-nets où un tel ordre est
induit par la structure du graphe de préférences) . L'utilisateur peut toutefois expliciter
un ordre partiel entre les préférences.
Dans le cas de préférences binaires, le codage possibiliste de la préférence condition­
nelle « dans le contexte c, a est préféré à b » est une paire de formules possibilistes :
{(-.c V a V b, 1), (-.c V a, 1 - a:) }. Ainsi, si c est vrai, on doit avoir a ou b (qui sont
les seuls choix possibles) , et dans le contexte c, il est quelque peu impératif que a soit
vrai. Ceci correspond à une contrainte de la forme N ( -.c V a) ;?: 1 - a: où N mesure la
nécessité de l'évènement passé en argument ; cette expression est elle-même équivalente
à II(-.a l c) � a: où II est la mesure de possibilité duale à N. Cette contrainte exprime
que la possibilité de n'avoir pas a est bornée supérieurement par a:, i.e. , -.a est d'autant
plus impossible que a: est petit. Pour passer de l'échelle des degrés de nécessité à une
échelle de degrés de satisfaction (ou de possibilité) , les auteurs utilisent un opérateur,
noté 1 - ( . ) , de renversement d'échelle. Le niveau de priorité 1 - (a:) associé à une
préférence est ainsi transformé en un degré de satisfaction a: quand cette préférence est
violée. Même si les valeurs des poids sont inconnues, un ordre partiel entre les différents
choix fondé sur l'opérateur leximin (Dubois et al. , 1997] peut être induit.

3.5 Intégration de bases de données


3.5. 1 Motivations
Avec l'émergence de l'Internet et de !'Intranet, il est possible d'accéder aujourd'hui
à différentes bases de données distantes, autonomes et hétérogènes, contenant pourtant
1 084 Panorama de l'intelligence artificielle. Volume 3
-

des informations qu'il peut être intéressant d'intégrer pour une application donnée. La
construction de médiateurs [Wiederhold, 2002] au-dessus de bases de données multiples
et hétérogènes a pour but de donner l'illusion aux utilisateurs qu'ils interrogent un
système de gestion de données centralisé et homogène en leur offrant comme interface
de requêtes un schéma global unique (appelé aussi schéma médiateur) .
Contrairement à un système de gestion de bases de données classique, un médiateur
ne contient pas de données, qui restent stockées dans les différentes bases de données
existantes selon un format et un schéma propres à chaque base de données, mais des
descriptions abstraites de ces données sous forme de vues. Les vues décrivent en fonction
du schéma médiateur le contenu de chaque base de données existante que l'on souhaite
intégrer via le médiateur. Formellement, une vue est une requête (i.e. , une formule
logique) définie sur les relations du schéma médiateur et identifiée par un nom.
Pour répondre aux requêtes des utilisateurs, qui sont exprimées en termes des re­
lations du schéma médiateur, le médiateur ne dispose donc pas des extensions des
relations de la requête, mais seulement des extensions des vues. Le problème du calcul
des réponses aux requêtes posées à un médiateur est donc formellement équivalent au
problème du calcul des réponses à partir d'extensions de vues.
Or, ce problème est plus difficile que le problème de l'évaluation standard d'une
requête pour laquelle on connaît de façon complète les extensions des relations
apparaissant dans la requête. En effet, les instances des relations de la requête doivent
être inférées à partir des instances (ou extensions) de vues et des définitions de ces
vues. Même dans des cas simples, on ne peut inférer les instances des relations de la
requête que de façon incomplète, comme l'illustre l'exemple suivant.

Exemple. Considérons un schéma médiateur qui contient l'unique relation binaire


Reservation qui relie une personne aux personnes pour qui elle a fait une réservation.
Considérons la requête Q(x, y) : Reservation(x, y) demandant de trouver tous les couples
de personnes (x, y) tels que la personne x a fait une réservation pour la personne y.
Supposons que seules trois bases de données très particulières soient disponibles pour
répondre à ce type de requêtes :
- BDl , qui ne peut fournir que des personnes qui ont fait une réservation pour
elles-mêmes et pour quelqu'un d'autre. Le contenu de cette base de données
peut être décrit par la vue Vl définie par Vl (x) : Reservation(x, x) /\ 3y(y =f:.
x /\ Reservation(x, y)) .
- BD2, qui ne peut fournir que des personnes qui ont fait des réservations. Le
contenu de cette base de données peut être décrit par la vue V2 définie par
V2(x) : 3yReservation(x, y) .
- BD3 ne peut fournir que des personnes pour qui des réservations ont été faites.
Le contenu de cette base de données peut être décrit par la vue V3 définie par
V3(x) : 3yReservation(y, x) .
Supposons que les extensions de ces vues soient : Vl(a) , V2(a) , V2(b) , V3(c) .
Elles permettent de déduire les extensions incomplètes suivantes de la
relation Reservation : Reservation(a, a) , Reservation(a, ?) , Reservation(b, ?) ,
·

Reservation(?, c) .
La seule réponse précise que l'on puisse fournir avec certitude à la requête Q est
3 . Bases de données et intelligence artificielle - 1 085

< a, a >. Les autres réponses précises, comme par exemple < a, c > , sont possibles
mais incertaines.

3 .5 .2 Evaluation de requêtes par réécriture


Le problème majeur est le calcul de toutes les réponses précises et certaines. Une
rép onse est précise si elle est totalement instanciée. Une réponse à une requête est
ce rtaine si elle fait partie du résultat de l'évaluation de la requête sur n'importe quelle
ext ension des relations de la requête compatible avec les extensions de vues et leurs
défi nitions.
Dans le cadre de l'intégration de sources de données par médiateur, le problème de
l'évaluation de requêtes, qui est déjà en soi plus complexe que l'évaluation standard de
requêtes, comme nous venons de le souligner, est rendu encore plus complexe du fait que
les données correspondant aux extensions des vues ne sont pas facilement disponibles.
Le rapatriement au niveau du médiateur de ces données a un coût prohibitif car elles
sont stockées de façon répartie dans des sources distantes et donc d'accès coûteux.
De plus, elles sont souvent évolutives ou volatiles. Cela rend impossible de fonder le
calcul des réponses certaines sur un raisonnement sur les extensions de vues. Les seules
ressources disponibles au niveau du médiateur sont les définitions des vues.
Le calcul des réponses ne peut alors se faire que par réécriture de la requête en
termes de vues.Cela consiste à reformuler la requête initiale en une union de requêtes
exprimées uniquement à l'aide des noms des vues, appelées réécritures de la requête en
fonction des vues.
Chacune de ces réécritures est une requête qui, ne contenant que des noms de vues,
peut alors être évaluée de façon standard sur les extensions de ces vues.
Même si l'exécution concrète de ces plans de requêtes nécessite des interfaces logi­
cielles (appelées adaptateurs ou wrappers) entre le médiateur et les sources de données,
d'un point de vue conceptuel, les réécritures représentent les plans de requêtes qui per­
mettent d'aller extraire dans les différentes bases de données les éléments de réponses
utiles pour le calcul des réponses certaines de la requête initiale.
Si dans l'idéal, on vise l'obtention de réécritures qui soient équivalentes à la re­
quête initiale, cela n'est pas toujours possible et on se contente en général d'obtenir
des réécritures (maximalement) subsumées par la requête initiale. Une réécriture est
subsumée par la requête si, en remplaçant dans le corps de la réécriture chaque vue par
sa définition, on obtient une formule logique qui implique logiquement le corps de la
requête initiale. A cause de cette propriété d'implication logique, une réécriture subsu­
mée par la requête fournit des plans de requêtes dont l'exécution fournit des réponses
qui sont nécessairement des réponses pertinentes pour la requête initiale.
Le problème de de réécriture de requêtes en termes de vues consiste à déterminer s'il
est possible de calculer l'ensemble de toutes les réécritures maximalement subsumées
d'une requête.

Exemple. Considérons un schéma médiateur permettant de définir des requêtes sur


les employés d'une entreprise en utilisant les relations suivantes : Employé (e :Per­
sonne, d :Département) , Phone ( e : Personne, p : NumTel ) , Bureau ( e : Personne, b :
NumBureau ) .
1 086 Panorama de l'intelligence artificielle. Volume 3
-

Considérons que les données sont stockées dans deux bases de données distinctes
BDl et BD2 dont le contenu est spécifié en fonction des relations du schéma médiateur
par les deux vues dont les définitions sont :
Vl ( e, b, d) : Bureau( e, b) /\ Employé( e, d)
BDl fournit des informations sur les employés, leur numéro de bureau et leur dé­
partement.
V2(e, p) : Phone(e, p) /\ Employé(e, jouet) .
BD2 fournit des informations sur les numéros de téléphone des employés du dépar­
tement jouet.
Considérons la requête Q (p , b) : Phone(sally, p) /\ Bureau(sally, b) deman­
dant les numéros de téléphone et de bureau de Sally. La seule réécriture
que l'on peut obtenir pour cette requête en fonction des vues Vl et V2 est :
Qv (P, b) : V2(sally , p) /\ Vl(sally, b, d) .

Il est important de noter que l'on n'a pas la garantie d'obtenir de réponses par exé­
cution du plan de requêtes correspondant à cette réécriture, et ce pour plusieurs raisons.
Tout d'abord, si Sally ne fait pas partie du département jouet, le plan de requêtes cor­
respondant à la réécriture ne ramènera aucune réponse. Cela est dû à l'incomplétude
des données disponibles relativement au schéma médiateur, qui est exprimée au niveau
de la définition des vues : la vue V2 spécifie dans sa définition qu'elle ne peut fournir
des informations que sur les employés du département jouet. Une autre cause d'in­
complétude est liée au fait que, sauf information supplémentaire, on ne sait pas si les
bases de données dont on spécifie le contenu par la définition de vues, sont complètes
relativement à ces définitions.
Une extension de vue est complète si on peut supposer qu'elle contient bien toutes
les réponses à la requête qu'elle définit. Par exemple, poser que l'extension de la vue
V2 de l'exemple précédent est complète c'est garantir que la base de données BD2
dont elle modélise le contenu contient bien tous les numéros de téléphone de tous les
employés du département jouet. Cette hypothèse est souvent trop forte en intégration
d'informations où l'on ne peut que supposer la correction mais pas la complétude d'une
extension de vue. Poser que l'extension de la vue V2 est correcte (sans être nécessai­
rement complète) exprime que la base de données BD2 contient bien des numéros de
téléphone d'employés du département jouet mais pas nécessairement tous.

3.5.3 Décidabilité et complexité


De nombreux travaux ([Beeri et al. , 1997 ; Levy, 2001 ; Abiteboul et Duschka, 1998 ;
Calvanese et al. , 2000a,b ; Goasdoué, 2001] ont été effectués sur la décidabilité et la
complexité des problèmes de réécriture de requêtes en termes de vues, et d'évaluation
de requêtes à partir d'extensions de vues, en fonction des langages utilisés pour ex­
primer respectivement les requêtes, les vues et les réécritures, et des hypothèses faites
sur les extensions de vues relativement à leurs définitions. En particulier, [Abiteboul
et Duschka, 1998 ; Calvanese et al. , 2000a] montrent l'influence sur la complexité du
problème de l'hypothèse de la complétude des extensions de vues relativement à leurs
définitions. Il a été montré par [Abiteboul et Duschka, 1998] que sous l'hypothèse d'ex­
tensions de vues correctes (non nécessairement complètes) , le problème de répondre
3. Bases de données et intelligence artificielle - 1 087

à une requête Datalog (standard) à partir des extensions de vues définies comme des
requêtes conjonctives est polynomial (en fonction de la taille des données) , alors que
sous l'hypothèse d'extensions complètes, ce problème est coN P-complet. Si le langage
de requêtes et de vues est Datalog, alors, dans les deux cas, le problème est indécidable.
[Calvanese et al. , 2000a] ont étendu ce genre de résultats à des langages de requêtes et
de vues faisant partie de la famille des logiques de description [Baader et al. , 2003] .
[Beeri et al. , 1997 ; Goasdoué, 2001] ont étudié le problème de réécriture de requêtes
en termes de vues, quand les langages de requêtes, de vues et de réécritures sont des
langages de la famille CARIN [Levy et Rousset, 1998] combinant Datalog et les logiques
de description (cf. chapitre I.5) .
[Calvanese et al. , 2000b] ont montré que l'évaluation d'une réécriture d'une requête
en termes de vues, même si on peut montrer qu'elle est équivalente à la requête (et pas
simplement subsumée) , ne garantit pas de trouver toutes les réponses que l'on peut
obtenir par l'évaluation de la requête à partir des extensions de vues. Autrement dit,
on obtient une nouvelle cause possible de l'incomplétude des réponses, principalement
due aux limites du pouvoir d'expression du langage de réécriture. Ainsi, il peut se faire
qu'une réécriture définie dans un langage plus expressif que le langage de réécriture
imposé pour modéliser les plans de requêtes conduise à l'obtention de plus de réponses
que n'importe quelle réécriture dans le langage considéré.
[Goasdoué, 2001] fournit une condition suffisante assez générale garantissant l'ob­
tention par réécriture de toutes les réponses possibles à une requête à partir d'extensions
de vues. Si la requête possède un nombre fini de réécritures maximales définies dans le
langage des requêtes conjonctives avec inégalité, alors le résultat de l'évaluation de la
requête sur les extensions des vues est égal à l'union des réponses obtenues par exécu­
tion des plans de requêtes correspondant aux réécritures maximales. Cette condition
a pour corollaire de garantir qu'un médiateur pourra calculer toutes les réponses en
un temps polynomial en fonction de la taille des données (même s'il est exponentiel en
fonction de la taille de la requête et des vues) . Ces travaux ont été appliqués dans la
conception et l'implémentation du médiateur PICSEL [Goasdoué et al. , 2000 ; Rousset
et al. , 2002] en liaison avec France Telecom R& D.
Plus récemment, les travaux autour de DL-Lite [Calvanese et al. , 2007] se sont
fondés sur des arguments de complexité du problème du calcul des réponses d'une
requête en fonction de la taille des données pour définir la famille de logiques de des­
cription DL-Lite. DL-Lite fournit un cadre de formalisation d'ontologies garantissant
une interrogation efficace de données définies et interrogées via des ontologies.

3.6 Conclusion
En conclusion, il est important d'évoquer l'activité de recherche particulièrement
intense ciblant actuellement les données semi-structurées et le format d'échange de
données XML. Dans ce contexte aussi, bien évidemment, les contraintes d'intégrité
jouent un rôle important relativement à la gestion des données, au raisonnement et à
l'optimisation. De nombreux travaux [Davidson et al. , 2007] [Arenas, 2009] ont récem­
ment attaqué le problème de l'expression et de la gestion de schémas et de contraintes
XML telles que les dépendances de clés, clés étrangères, fonctionnelles, les contraintes
1 088 Panorama de l'intelligence artificielle. Volume 3
-

de chemin [Buneman et al. , 2001] [Buneman et al. , 2003] [Fan et Siméon, 2003] . Dans ce
cadre, par exemple, les logiques modales [Kripke, 1963] ont été explorées parce qu'elles
offrent une formalisation simple et directe de propriétés de graphes ainsi que des méca­
nismes de raisonnement puissants pour ces structures : les graphes (ou plus simplement
les arbres) étiquetés sont utilisés très communément pour représenter les données XML
[Calvanese et al. , 1999] [Alechina et al. , 2003] [Demri, 2003] . L'expression des schémas
et des contraintes a été étudiée dans (Bidoit et Colazzo, 2007] [Bidoit et de Arno, 1998] .
Concernant les requêtes à préférences, il est connu que les fonctions de score ne
peuvent modéliser toutes les préférences qui sont des ordres partiels stricts [Fishburn,
1999] , pas même celles pouvant apparaître de façon naturelle dans des applications
de bases de données [Chomicki, 2003] . Par exemple, les fonctions de score ne peuvent
pas capturer les requêtes skyline (voir [Hadjali et al. , 201 1] ) . Notons aussi qu'il n'est
pas toujours simple de définir les fonctions de score. Puisque les relations binaires
utilisées dans les approches qualitatives peuvent être définies en termes de fonctions
de score, l'approche qualitative est plus générale que celle quantitative. Notons qu'il
est raisonnable d'imposer que les préférences qualitatives, même si elles ne sont pas
fondées sur une comparaison de scores globaux, aient un comportement monotone
par rapport aux scores partiels. Les aspects liés à l'implémentation de ces modèles,
notamment l'évaluation de requêtes, n'ont pu être abordés ici faute de place, mais sont
évidemment cruciaux dans un contexte de bases de données où le volume d'information
à traiter est en général très élevé. Dans cette synthèse, nous nous sommes limités aux
travaux les plus récents, mais le lecteur intéressé peut se référer à [Pivert et Bosc, 2012]
pour une étude plus complète.
On observe enfin que les ontologies sont maintenant au cœur du Web sémantique
[Berners-Lee et al. , 2001] . Elles fournissent une vue conceptuelle des données et services
mis à disposition sur le Web, dans le but de faciliter leur manipulation. Répondre à
des requêtes conjonctives sur des ontologies est un problème central pour la mise en
œuvre du Web sémantique. La famille DL-Lite [Calvanese et al. , 2007] a été spéciale­
ment définie pour garantir que répondre à une requête est polynomial dans la taille des
données interrogées. DL-Lite est un fragment du langage d'ontologies OWL 7 du W3C
et de son évolution à venir OWL2 8• De plus, DL-Lite étend RDFS 9, avec la possibilité
de déclarer des relations disjointes ou d'exprimer des restrictions de cardinalités. RDFS
est le standard du W3C pour décrire les méta-données des ressources du Web séman­
tique. Une étape de reformulation de la requête en fonction des axiomes et contraintes
déclarés dans l'ontologie est nécessaire pour garantir la complétude des réponses. Le
point important est que cette reformulation (comme la réécriture en termes de vues)
est indépendante des données.
Un résultat majeur de [Calvanese et al. , 2007] est que DL-Lite est un des fragments
décidables maximaux de la logique du premier ordre pour lequel répondre à des requêtes
sur des grands volumes de données en présence de contraintes logiques sur le schéma
est traitable. Les travaux sur DL-Lite ont été généralisés à la réécriture de requêtes en
termes de vues en décentralisé dans [Abdallah et al. , 2009] . Pour des raisons de passage

7. http : //www . w3 . org/2004/0WL/


8. http : //www . w3 . org/TR/owl2- overview/
9. http : //www . w3 . org/TR/rdf - s chema/
3. Bases de données et intelligence artificielle - 1 089

à l'échelle, de robustesse et de protection de données, il est pertinent en effet d'étudier


un modèle de données totalement décentralisé pour le Web sémantique vu comme un
immense système pair-à-pair de gestion de données.

Références
ABDALLAH, N., GOASDOUÉ, F. et ROUSSET, M.-C. (2009) . D L-LITEn in the light
of propositional logic for decentralized data management. In International Joint
Conference on Artificial Intelligence (IJCAI).
ABITEBOUL, S. et DuSCHKA, O. M. (1998) . Complexity of answering queries using
materialized views. In A C M , éditeur : PODS '98. Proceedings of the Seventeenth
ACM SIG-SIGMOD-SIGART Symposium on Principles of Database Systems, New
York, NY 10036, USA. ACM Press.
ABITEBOUL, S . , HERR, L. et van den BUSSCHE, J. (1999) . Temporal connectives ver­
sus explicit timestamps to query temporal databases. In Journal of Computer and
System Science, volume 58(1), pages 54-68.
ABITEBOUL, S . , HULL, R. et VIANU, V. (1995) . Foundations of Databases. Addison­
Wesley.
ABITEBOUL, S. et VIANU, V. (1989) . A transaction-based approach to relational da­
tabase specification. JACM, 36(4) :758-789.
AGRAWAL, R. et WIMMERS, E. (2000) . A framework for expressing and combining
preferences. In Proc. of SIGMOD 2000, pages 297-306.
ALECHINA, N., DEMRI, S. et de RIJKE, M. (2003) . A modal perspective on path
constraints. J. Log. Comput. , 13(6) :939-956.
ARENAS, M. (2009) . Xml integrity constraints. In Encyclopedia of Database Systems,
pages 3592-3597. Springer.
ARMSTRONG, W. (1974) . Dependency structures of data base relationships. In Proc.
IFIP Congress, pages 580-583, North Rolland, Amsterdam.
BAADER, F . , CALVANESE, D . , McGUINNESS, D . , NARDI, D. et PATEL-SCHNEIDER,
P. F., éditeurs (2003) . The Description Logic Handbook : Theory, Implementation,
and Applications. Cambridge University Press.
BARAL, C . , LOBO, J. et TRAJCEVSKI, G. (1997) . Formal characterizations of active
databases : Part ii. In DOOD, pages 247-264.
BEERI, C., LEVY, A. et ROUSSET, M.-C. (1997) . Rewriting queries using views in
description logics, editor acm. In PODS '97. Proceedings of the Sixteenth ACM
=

SIG-SIGMOD-SIGART Symposium on Principles of Database Systems, May 12-14,


1997, Tucson, Arizona, New York, NY 10036, USA. ACM Press.
BENEDIKT, M., GRIFFIN, T. et LIBKIN, L. (1996) . Verifiable properties of database
transactions. In PODS, volume 15, pages 117-127. ACM Press.
BENEVENTANO, D., BERGAMASCHI, S. et SARTORI, c. (2003) . Description logics for
semantic query optimization in object-oriented database systems. ACM Trans. Da­
tabase Syst. , 28 : 1-50.
1 090 Panorama de l'intelligence artificielle. Volume 3
-

BENZAKEN, V. et SCHAEFER, X. (1998) . Static management of integrity in object­


oriented databases : Design and implementation. In EDBT, pages 31 1-325.
BERGAMASCHI, S., SARTORI, C., BENEVENTANO, D. et VINCINI, M. (1997) . ûdb­
tools : A description logics based tool for schema validation and semantic query
optimization in object oriented databases. In AI*IA, pages 435-438.
BERNERS-LEE, T., HENDLER, J. et 0 . LASSILA (2001). The semantic web. Scientific
American, 279.
BÔRZSÔNYI, S., KOSSMANN, D. et STOCKER, K. (2001). The skyline operator. In Proc.
of the 1 7th IEEE Inter. Conf. on Data Engineering, pages 421-430.
BIDOIT, N. et AMO, S. D. ( 1998) . A first step towards implementing dynamic algebraic
dependences. TCS, 190(2) : 1 15-149.
BIDOIT, N. et AMo, S. D. ( 1999) . Implicit temporal query languages : towards comple­
teness. In Proceedings of the 19th conference on Foundations of Software Technology
and Theoretical Computer Science, pages 245-257.
BIDOIT, N. et COLAZZO, D. (2007) . Testing xml constraint satisfiability. Electr. Notes
Theor. Comput. Sei. , 174(6) :45-61.
BIDOIT, N. et COLLET, C. (2001). Contraintes d'intégrité et règles actives. In Bases
de Données et Internet (Modèles, Langages, et systèmes, pages 47-74. Hermès.
BIDOIT, N. et de AMO, S. ( 1998) . A first step towards implementing dynamic algebraic
dependences. Theor. Comput. Sei. , 190(2) : 1 15-149.
BIDOIT, N., de AMo, S. et SEGOUFIN, L. (2004) . Order independent temporal proper­
ties. J. Log. Comput. , 14(2) : 277-298.
BIDOIT, N. et ÜBJOIS, M. (2009) . Fixpoint and while temporal query languages. J.
Log. Comput. , 19(2) :369-404.
Bosc, P. , B UCKLES, B . , PETRY, F. et PIVERT, o. (1999) . Fuzzy Sets in Approximate
Reasoning and Information Systems - The Handbook of Fuzzy Sets Series, chapitre
Fuzzy Databases, pages 403-468. Kluwer Academic Publishers.
Bosc, P. et PIVERT, O. (1995) . SQLf : a relational database language for fuzzy que­
rying. IEEE Transactions on Fuzzy Systems, 3(1) : 1-17.
BOUTILIER, c., B RAFMAN, R. , DOMSHLAK, c., Hoos, H. et POOLE, D. (2004) . CP­
nets : A tool for representing and reasoning with conditional ceteris paribus prefe­
rence statements. J. Artif. Intell. Res. {JAIR}, 21 : 135-191.
BRAFMAN, R. et DOMSHLAK, C. (2004) . Database preference queries revisited TR2004-
1934. Rapport technique, Cornell University, Computing and Information Science.
BRY, F., DECKER, H. et MANTHEY, R. (1988) . A uniform approach to constraint
satisfaction and constraint satisfiability in deductive databases. In EDBT, pages
488-505.
BUNEMAN, P. , DAVIDSON, S. B., FAN, W., HARA, c. S. et TAN, W. c. (2001) . Reaso­
ning about keys for xml. In DBPL, pages 133-148.
BUNEMAN, P. , FAN, W. et WEINSTEIN, S. (2003) . Interaction between path and typ e
constraints. ACM Trans. Comput. Log. , 4(4) :530-577.
CALVANESE, D . , DE GIACOMO, G. et LENZERINI, M. (2000a) . Answering queries using
3. Bases de données et intelligence artificielle - 1 09 1

views i n description logics. In Proceedings of AAAI 2000.


CALVANESE, D., DE GIACOMO, G., LENZERINI, M. et VARDI, M. ( 2000b ) . Answering
regular path queries using views. In Proceedings of ICDE 2000.
CALVANESE, D., GIACOMO, G. D . , LEMBO, D . , LENZERINI, M. et ROSATI, R. ( 2007) .
Tractable reasoning and efficient query answering in description logics : The dl-lite
family. Journal of Automated Reasoning (JAR}, 39 ( 3 ) :385-429.
CALVANESE, D., GIACOMO, G. D. et LENZERINI, M. ( 1999 ) . Representing and reasoning
on xml documents : A description logic approach. J. Log. Comput. , 9 ( 3 ) : 295-318.
CALVANESE, D., LENZERENI, M. et NARDI, D. ( 1998 ) . Description logics for conceptual
data modeling. In Logics for Databases and Information Systems. Kluwer.
CARMO, J . , DEMOLOMBE, R. et JONES, A. ( 1997) . Toward a uniform logical represen­
tation of different kinds of integrity constraints. In Proc. of ECSQAR U-FAPR '97,
LNAI 1244, pages 614-620. Springer-Verlag.
CHAKRAVARTHY, u., GRANT, J. et MINKER, J. ( 1990 ) . Logic-based approach to se­
mantic query optimization. TODS, 15 ( 2 ) : 162-207.
CHAN, C., JAGADISH, H. , TAN, K . , TUNG, A. et ZHANG, Z. ( 2006a) . Finding k­
dominant skylines in high dimensional space. In Proc. of SIGMOD 2006, pages
503-514.
CHAN, C., JAGADISH, H. , TAN, K., TUNG, A. et ZHANG, Z. ( 2006b ) . On high dimen­
sional skylines. In Proc. of EDBT 2006, LNCS 3896, pages 478-495.
CHAUDHURI, S. et GRAVANO, L. ( 1999 ) . Evaluating top-k selection queries. In Proc.
of the 25th VLDB Conference, pages 399-410.
CHOMICKI, J. ( 1995 ) . Efficient checking of temporal integrity constraints using bounded
history encoding. ACM Trans. Database Syst. , 20 ( 2 ) : 149-186.
CHOMICKI, J. ( 2003 ) . Preference formulas in relational queries. ACM Transactions on
Database Systems, 28 : 1-40.
CHOMICKI, J. et TOMAN, D. ( 1995 ) . Implementing temporal integrity constraints using
an active dbms. IEEE Trans. Knowl. Data Eng. , 7 ( 4 ) : 566-582.
CHOMICKI, J. et TOMAN, D. ( 1998 ) . Temporal logic in information systems. In Logic
for databases and information systems, chapitre 3, pages 31-70. Kluwer Academic
Publisher.
CoMAI, S., FRATERNALI, P. , PSAILA, G. et TANCA, L. ( 1995 ) . A customizable model
for the semantic of active databases. In DS-6, pages 270-314.
CoUPAYE, T. et COLLET, C. ( 1998 ) . Modèles de comportement des SGBD actifs :
caractérisation et comparaison. Technique et Science Informatiques {TSI}, 17 ( 3 ) :
299-328.
CUPPENS, F. et DEMOLOMBE, R. ( 1996 ) . A deontic logic for reasoning about confi­
dentiality. In Proc. of 3rd International Workshop on Deontic Logic in Computer
Science {DEON'96}.
DAVIDSON, S. B., FAN, W. et HARA, C. S. ( 2007) . Propagating xml constraints to
relations. J. Comput. Syst. Sei. , 73 ( 3 ) :316-361 .
de AMo, S. et BIDOIT, N . ( 1993 ) . Contraintes dynamiques d'inclusion et schémas
1 092 Panorama de l'intelligence artificielle. Volume 3
-

transactionnels. In Neuvièmes Journées Bases de Données Avancées.


de AMo, S. et BIDOIT, N. (1995) . A first step towards implementing dynamic algebraic
dependencies. In 893, L., éditeur : Proceedings of 5 th ICDT.
DECKER, H. ( 1986) . Integrity enforcement on deductive databases. In Expert Database
Conf. , pages 381-395.
D EMOLOMBE, R. (1982) . Syntactical characterization of a subset of domain inde­
pendent formulas. Technical report, ONERA-CERT.
DEMOLOMBE, R. et JONES, A. (1996) . Integrity constraints revisited. Journal of the
Interest Group in Pure and Applied Logics, 4(3) .
DEMRI, S. (2003) . Modal logics for semistructured data. Invited talk at "Third Work­
shop on Methods for Modalities (M4M-3) ".
DIJKSTRA, E. (1975) . Guarded commands, non-determinacy and a calculus for the
derivation of programs. ACM SIGPLAN Notices, 10(6) : 2-14.
DUBOIS, D . , FARGIER, H. et P RADE, H. {1997) . Beyond min aggregation in multicriteria
decision : (ordered) weighted min, discri-min, leximin. In YAGER, R. et KACPRZYK,
J., éditeurs : The Ordered Weighted Averaging Operators - Theory and Applications,
pages 181-192. Kluwer Acad. Publ.
DUBOIS, D . et P RADE, H. (2004) . Possibilistic logic : a retrospective and prospective
view. Fuzzy Sets and Systems, 144(1) :3-23.
EMERSON, E. A. ( 1990) . Temporal and modal logic. In van LEEUWEN, J., éditeur : In
Handbook of Theoretical Computer Science Volume B : Formal Models and Seman­
tics. Elsevier.
ESWARAN, K. (1976) . Specifications, Implementations and Interactions of a trigger
subsystem in an integrated database system. Rapport technique RJ 1820, IBM san
jose Research Laboratory, San Jose - California, USA.
EswARAN, K. P. et CHAMBERLIN, D. D. (1975) . Functional specifications of subsystem
for database integrity. In VLDB, pages 48-68.
FAGIN, R. (1998) . Fuzzy queries in multimedia database systems. In Proc. of PODS
1998, pages 1-10. ,
FAN, W. et SIMÉON, J. (2003) . Integrity constraints for xml. J. Comput. Syst. Sei. ,
66( 1) :254-291 .
FISHBURN, P. {1999) . Preference structures and their numerical representations. Theor.
Comput. Sei. , 2 17(2) :359-383.
FRATERNALI, P. et TANCA, L. (1995) . A structured approach for the definition of the
semantics of active databases. ACM Trans. Database Syst. , 20(4) :414-471 .
GABBAY, D . M . , PNUELI, A., SHELAH, S. et STAVI, J. (1980) . O n the temporal basis
of fairness. In POPL, pages 163-173.
GALLAIRE, H. et MINKER, J. (1978) . Logic and databases. Plenum.
GALLAIRE, H., MINKER, J. et NICOLAS, J. (1981) . Advances in database theory, vol 1.
Plenum.
GALLAIRE, H. , MINKER, J. et NICOLAS, J. (1983) . Advances in database theory, vol
21. Plenum.
3 . Bases de données et intelligence artificielle - 1 093

G ALLAIRE, H., MINKER, J. et NICOLAS, J. M. ( 1984) . Logic and databases : a deductive


approach. ACM Surveys, 16(2) .
GEORGIADIS, P. , KAPANTAIDAKIS, I., CHRISTOPHIDES, V., NGUER, E. et SPYRATOS,
N. (2008) . Efficient rewriting algorithms for preference queries. In Proc. of ICDE
2008, pages 1 101-1 1 10.
GoASDOUÉ, F. (2001) . Réécriture de requêtes en termes de vues dans CARIN et
intégration d 'informations. Thèse de doctorat, Université Paris Sud XI - Orsay.
GoASDOUÉ, F. , LATTES, V. et ROUSSET, M.-C. (2000) . The use of CARIN language
and algorithms for information integration : the picsel system. International Journal
on Cooperative Information Systems, 9 :383-401 .
GOTTLOB, G., MOERKOTTE, G. et SUBRAHMANIAN, V . S. (1996) . The park semantics
for active rules. In Proc. of EDBT'96, LNCS 1057, pages 35-55. Spinger.
H ACID, M.-S. et RIGOTTI, C. (1995) . Combining resolution and classification for se­
mantic query optimization. In DOOD, pages 447-466.
HADJALI, A., KACI, S. et PRADE, H. (20 1 1 ) . Database preference queries - a possibi­
listic logic approach with symbolic priorities. Ann. Math. Artif. Intell. , 63(3-4) :357-
383.
HENSCHEN, L., McCUNE, W. et NAQVI, S. (1982) . Compiling constraint-checking
programs from first-order formulas. In Advances in Data Base Theory, volume 2,
pages 145-169. Plenum Press.
HERR, L. (1997) . Langages de Requête pour les Bases de Données Temporelles. Thèse
de doctorat, Université Paris-Sud 1 1 .
Hsu, A. et IMIELINSKI, T. ( 1985) . lntegrity checking for multiple updates. In NAVATHE,
S., éditeur : Proceedings of the 1985 ACM SIGMOD International Conference on
Management of Data, Austin, Texas, May 28-31, 1985, pages 152-168. ACM Press.
JEUSFELD, M. et JARKE, M. (1991). From relational to object-oriented integrity sim­
plification. In DOOD, pages 460-477.
KAMP, H. W. (1968) . Tense Logic and the Theory of Linear Order. Phd thesis,
University of California, Los Angeles.
KIESLING, W. (2002). Foundations of preferences in database systems. In Proc. of the
2002 VLDB Conference, pages 31 1-322.
KIESLING, W. et KÔSTLER, G. (2002) . Preference SQL - design, implementation,
experiences. In Proc. of the 2002 VLDB Conference, pages 990-1001.
KOUTRIKA, G. et IOANNIDIS, Y. E. (2004) . Personalization of queries based on user
preferences. In BosI, G., BRAFMAN, R. I., CHOMICKI, J. et KIESLING, W. , éditeurs :
Preferences, volume 04271 de Dagstuhl Seminar Proceedings. IBFI, Schloss Dagstuhl,
Germany.
KRIPK E, S. (1963) . Semantical considerations on modal logic. Acta Philosophica Fen­
nica, 16 :83-94.
LAWLEY, M. (1995) . Transaction safety in deductive object-oriented databases. In
DOOD, pages 395-410.
LAWLEY, M. , TOPOR, R. et WALLACE, M. ( 1993 ) . Using weakest preconditions to
simplify integrity constraint checking. In Australian Database Conference, pages
1 094 Panorama de l'intelligence artificielle. Volume 3
-

161-170.
LEVY, A. (200 1 ) . Answering queries using views : a survey. VLDB Journal.
LEVY, A. et ROUSSET, M.-C. (1998) . Combining horn rules and description logics in
carin. Artificial Intelligence, 101.
LIN, X. , YUAN, Y., ZHANG, Q. et ZHANG, Y. (2007) . Selecting stars : the k most
representative skyline operator. In Proc. of the ICDE 2001, pages 86-95.
MAIER, D . , MENDELZON, A. 0. et SAGIV, Y. (1979) . Testing implications of data
dependencies. ACM Trans. Database Syst. , 4( 4) :455-469.
McCUNE, W. et HENSCHEN, L. (1989) . Maintaining state constraints in relational
databases : A proof theoretic basis. JACM, 36(1) :46-68.
NICOLAS, J. M. ( 1982). Logic for improving integrity checking in relational databases.
Acta Informatica, 18(3) .
PATON, E., éditeur (1998) . Active Rules in Database Systems. Springer Verlag.
PIVERT, O. et Bosc, P. (2012) . Fuzzy Preference Queries to Relational Databases.
Imperial College Press, London, UK.
PRIOR, A. (1957) . Time and modality. In John Locke Lectures for 1955-56. Oxford
University Press.
QIAN, X. (1990) . An axiom system for database transactions. !PL, 36(4) : 183-189.
REITER, R. (1983) . Towards a logical reconstruction of relational database theory. In
On Conceptual Modelling : Perspectives from Artificial Intelligence, Databases and
Programming Languages. Springer Verlag.
REITER, R. (1988) . What should a database know. In Proceedings of PODS.
REITER, R. (1993) . Proving properties of states in the situation calculus. Artificial
intelligence, 64(2) .
ROUSSET, M.-C . , BIDAULT, A. , FROIDEVAUX, C., GAGLIARDI, H., G OASDOUÉ, F.,
REYNAUD, C. et SAFAR, B. (2002) . Construction de médiateurs pour intégrer des
sources d'informations multiples et hétérogène : le projet picsel. Information, Inter­
action, Intelligence, 2 :9-58.
SIMMEN, D . , SHEKITA, E. et MALKEMUS, T. (1996) . Fundamental techniques for order
optimization. In JAGADISH, H. et MUMICK, I. , éditeurs : Proceedings of the 1996
ACM SIGMOD International Conference on Management of Data, Montreal, Quebec,
Canada, June 4-6, 1996, pages 57-67. ACM Press.
TOMAN, D. (2003) . On incompleteness of multi-dimensional first-order temporal logics.
In Proceedings of the 1 Oth International Symposium on Temporal Representation and
Reasoning, pages 99-106.
TORLONE, R. et CIACCIA, P. (2002) . Finding the best when it's a matter of preference.
In Proc. of the 1 0th Italian National Conf. on Advanced Data Base Systems {SEBD
2002}, pages 347-360.
VARDI, M. ( 1988) . A temporal fixpoint calculus. In Proceedings of the 5th ACM
Symposium on Principles of Programming Languages, pages 250-259.
WrnoM, J. (1992) . A Denotational Semantics for the Starburst Production Rule Lan­
guage. SIGMOD Record, 21 (3) :4-9.
3. Bases de données et intelligence artificielle - 1 095

WIDOM, J. et CERI, S. (1996) . Active Database systems - Triggers and Rules for Advan­
ced Database Processing. Morgan Kaufmann Publishers, San Francisco, California.
WIEDERHOLD, G. (2002) . Mediators in the architecture of future information systems.
IEEE Computers.
WoLPER, P. (1983) . Temporal logic can be more expressive. In Information and
Control, volume 56(1-2) , pages 72-99.
ZADEH, L. (1965). Fuzzy sets. Information and Control, 8 :338-353.
ZL OOF, M. (1977) . Query-By -Example : a data base language. IBM Systems Journal,
16( 4) :324-343.
4. Web sémantique - 1 097

Chapitre 4

Web sémantique

Le Web sémantique ambitionne de rendre le contenu du Web accessible au calcul.


Il ne s'agit rien moins que de représenter de la connaissance à l'échelle du Web. Les
principales technologies utilisées dans ce cadre sont : la représentation de connaissance
assertionnelle à l'aide de graphes, la définition du vocabulaire de ces graphes à l'aide
d'ontologies, la connexion des représentations à travers le Web, et leur appréhension
pour interpréter la connaissance ainsi exprimée et répondre à des requêtes. Les tech­
niques d'intelligence artificielle (IA) , et principalement de représentation de connais­
sances, y sont donc mises à contribution et à l'épreuve. En effet, elles sont confrontées
à des problèmes typiques du Web tels que l'échelle, l'hétérogénéité, l'incomplétude,
l'incohérence et la dynamique. Ce chapitre propose une courte présentation de l'état
du domaine et renvoie aux autres chapitres concernant les technologies mises en œuvre
dans le Web sémantique.

4. 1 Introduction
L'idée d'utiliser la représentation de connaissances sur le worldwide Web a germé
assez rapidement après le développement du Web. Des systèmes tels qu'Ontobroker
[Fensel et al. , 1998] et SHOE [Luke et al. , 1997] ont intégré la représentation formelle
de la connaissance dans les pages Web alors qu'Ontoserver [Farquhar et al. , 1995] et
HyTroeps [Euzenat, 1996] permettaient d'éditer la connaissance en utilisant le Web.
Mais c'est en 1998 que Tim Berners Lee a véritablement posé les principes, et
surtout proposé le nom, du « Web sémantique ». Il avait déjà introduit au sein du
W3C 1 le langage RDF dont le but initial était d'annoter les pages Web. A l'époque, il
écrivait « A Semantic Web is not Artificial Intelligence », mais a ajouté plus tard que
c'était « Knowledge Representation goes Global » [Berners-Lee, 1998] .
En 2000, cette notion de Web sémantique n'avait pas trouvé d'écho particulièrement
favorable ni donné lieu a des développements d'envergure. Mais la DARPA a lancé le

Auteurs : JÉRÔME EUZENAT et MARIE-CHRISTINE ROUSSET.


1. WorldWide Web Consortium : l'organisation qui recommande les technologies du Web.
1 098 - Panorama de l'intelligence artificielle. Volume 3

programme DAML (DARPA Agent Markup Language) dirigé par James Hendler, l'ins­
tigateur de SHOE. Immédiatement après, s'est tenu un séminaire intitulé « Semantics
for the Web » [Fensel et al. , 2003] qui a permis de lancer plusieurs efforts européens
dont le réseau thématique OntoWeb auquel a succédé le réseau d'excellence Knowledge
Web. Ces efforts ont permis d'impliquer nombre de chercheurs en intelligence artificielle
dans le développement des technologies pour le Web sémantique [Euzenat (ed.) , 2002] .
Le Web sémantique est souvent présenté comme un « Web pour les machines » : il
s'agit d'utiliser, pour représenter la connaissance sur le Web, des langages formels qui
soient susceptibles de traitement par les machines. Il est, dès lors, naturel d'utiliser les
techniques développées en intelligence artificielle.
L'application principale du Web sémantique est effectivement la recherche d'infor­
mation : être capable de retrouver un document précis car annoté avec des « méta­
données sémantiques ». Alors que cet objectif pouvait sembler lointain en 2000, il est
maintenant beaucoup plus tangible. En dix ans, on a vu l'utilisation par Facebook
d'Open Graph, la définition de l'ontologie légère schema.org par quatre des principaux
moteurs de recherche (Bing, Google, Yahoo, Yandex) , et l'utilisation par Google du
knowledge graph permettant non plus de retourner des listes de documents mais de
répondre à des questions de manière structurée.
Beaucoup d'autres types d'applications ont vu le jour, toutes fondées sur les mêmes
bases : l'annotation de certaines ressources à l'aide du même langage de représenta­
tion de connaissance. Plus que de Web sémantique, on parle alors d'application des
technologies sémantiques. Ainsi,
- les services Web sémantiques dans lesquels les interfaces de services Web (en­
trées, sorties) sont annotés sémantiquement ;
- les systèmes pair-à-pair sémantiques dans lesquels les ressources à partager sont
annotées sémantiquement ;
- les réseaux sociaux sémantiques dans lesquels les relations sociales sont annotées
sémantiquement ;
- le bureau sémantique ( « semantic desktop » ) dans lequel les informations per­
sonnelles (agenda, carnet d'adresses, etc.) sont exprimées sémantiquement ;
- l'intelligence ambiante dans laquelle les capteurs, dispositifs et information qu'ils
échangent sont annotés sémantiquement ;
- le Web des données dans lequel des corpus de données sont exprimées et liées à
l'aide des langages du Web sémantique.
Le Web sémantique s'est donc largement étendu au-delà des espérances initiales. Il
s'agit d'un vaste champ d'investigation dans lequel sont abordées des problématiques
variées comme la confiance dans les systèmes pair-à-pair ou l'argumentation d'aligne­
ments entre ontologies. Comme les technologies du Web ont progressivement investi
tous les types d'applications informatiques, il semble en aller de même avec les tech­
nologies sémantiques.
Nous allons aborder les relations entre les techniques d'intelligence artificielle et ce
que sont les technologies du Web sémantique. Pour cela nous évoquerons trois grands
problèmes au cœur du Web sémantique : représenter la connaissance (§4.2) , raisonner
avec cette connaissance (§4.3) et mettre diverses sources de connaissance en relation
(§4.4) . Ce découpage peut sembler arbitraire. En effet, il ne correspond pas à une
4. Web sémantique - 1 099

succession temporelle, la définition d'ontologies peut être faite a priori ou a posteriori,


et le raisonnement peut intervenir à tous les niveaux, des simples graphes aux réseaux
d'ontologies. Cependant, ces trois sections correspondent à un type d'activités et de
techniques bien identifiées.
Chacun, on le verra, fait appel aux techniques d'intelligence artificielle, principa­
lement de représentation de connaissance et de raisonnement, et pourrait tirer parti
d'autres techniques décrites dans ce livre. On ne pourra ici que survoler les caractéris­
tiques des technologies sémantiques. Des présentations plus complètes sont disponibles
dans différents ouvrages (Antoniou et van Harmelen, 2008 ; Hitzler et al. , 2009) .

4. 2 Représenter la connaissance
Le premier problème posé à l'entreprise du Web sémantique est l'expression de
données factuelles sur le Web. A cet effet, il est nécessaire de disposer d'un langage
pour la représentation de ces données adapté à son utilisation sur le Web.
Pour cela, le langage RDF (Resource Description Pramework) est le langage recom­
mandé par le W3C et adopté par les praticiens.

4.2 . 1 RDF : des graphes conceptuels simples


RDF (Lassila et Swick, 1999 ; Klyne et Carroll, 2004) est un langage formel qui
permet d'affirmer des relations entre des « ressources ». Il sera utilisé pour annoter des
documents écrits dans des langages non structurés, ou comme une interface pour des
documents écrits dans des langages ayant une sémantique équivalente (des bases de
données, par exemple) .
Un graphe RDF est un ensemble de triplets de la forme (sujet, prédicat, objet) . Les
éléments de ces triplets peuvent être des URis ( Uniform Resource Identifiers (Berners­
Lee et al. , 1998] ) , des littéraux ou des variables (aussi appelées « blancs » ) . L'utilisation
d'URI est une originalité intéressante par rapport aux pratiques de représentation de
connaissance. Les URI se comportent comme de simples identificateurs mais ils sont, en
général, associés à un espace de nom qui permet d'indiquer l'espace auquel appartient
un identificateur. Ainsi, un graphe RDF peut faire usage de vocabulaires de provenances
différentes sans risque d'ambiguïté ou de conflit. Par exemple, foaf : Person identifie le
concept Person dans l'espace de noms http : //xmlns . com/foaf/O . 1/ si celui-ci est abrégé
en foaf : .
Cet ensemble de triplets peut être effectivement représenté de façon naturelle par un
graphe (plus précisément un multigraphe orienté étiqueté) , où les éléments apparaissant
comme sujet ou objet sont les sommets, et chaque triplet est représenté par un arc dont
l'origine est son sujet et la destination son objet (voir figure 1). Ce graphe sera codé
par un document RDF /XML (Beckett, 2004) ou Turtle (Beckett, 2008) .
La figure 1 présente une partie d'un graphe RDF. Notons dans les URis que cer­
taines ressources sont spécifiques à différents vocabulaires : FOAF, RDF, rel . Les objets
d'un triplet qui sont des littéraux sont représentés dans un rectangle (ici, « Pierre » ) .
Les sommets non étiquetés représentent des variables. Intuitivement, ce graph�
1 1 OO - Panorama de l'intelligence artificielle. Volume 3

rdf : type
Pierre ,________,, foaf : Person

FIGURE 1 - Un graphe RDF : Pierre connaît un parent d'une de ses collègues.

comprendre comme « Pierre connaît un parent d'une de ses collègues ». Cette séman­
tique « intuitive » ne suffisant pas à un traitement automatique, il faut munir RDF
d'une sémantique formelle.
RDF propose aussi certains mots-clés réservés, qui permettent de donner une séman­
tique particulière à des ressources. Ainsi, on peut représenter des ensembles d'objets
{rdf : bag) , des listes {rdf : sequence) , des relations d'arité quelconque {rdf : value) . RDF
autorise aussi la réification d'un triplet comme une entité liée aux trois éléments du
triplet par les relations rdf : subj ect, rdf : predicate et rdf : obj ect .
La sémantique d'un graphe RDF est exprimée en théorie des modèles [Hayes, 2004] .
RDF est donc à proprement parler une logique. Cette sémantique est un peu particu­
lière car les prédicats, qui correspondent naturellement aux prédicats d'une logique
dyadique, peuvent être utilisés comme objets. Ainsi, le triplet (rdf : type, rdf : type,
rdf : Property} est licite en RDF et doit pouvoir être interprété {il indique effective­
ment que rdf : type dénote un prédicat) . Ceci est réalisé à l'aide d'une interprétation
construite en deux temps : une première passe associe une dénotation à chacun des URis
utilisés et une seconde passe interprète ceux présents en position de prédicat comme
des relations binaires. C'est la particularité principale de la sémantique de RDF par
rapport à celle du calcul des prédicats.
Certains graphes RDF peuvent être traduits en formules de la logique positive (sans
négation) , conjonctive, existentielle du premier ordre (sans symboles fonctionnels) . A
chaque triplet (s, p, o} on associe la formule atomique p( o , s) , où p est un nom de
prédicat, et o et s sont des constantes si ces éléments sont des URis ou des littéraux
dans le triplet, et des variables sinon. Un graphe se traduit par une formule qui est la
fermeture existentielle de la conjonction des formules atomiques associées à ses triplets.
Ainsi, le graphe de la figure 1 se traduit par la formule :

3?bl, ?b2, ?b3; foaf : na.me{?b3, "Pierre") /\ foaf : knows{?b3, ?bl ) /\


rdf : type{?bl , foaf : Person) /\ rel : daughter{?bl , ?b2) /\ rel : worksWith{?b2, ?b3)

Les modèles d'une telle formule sont en bijection avec ceux définis par la sémantique
directe en théorie des modèles. Cette « traduction logique » de RDF permet de le rap­
procher d'autres représentations : la logique, bien sûr, mais aussi les bases de données
{Datalog positif, voir chapitre 111.3) ou les graphes conceptuels (voir chapitre 1.5) .
Au début du Web sémantique, un concurrent de RDF était le formalisme des cartes
topiques ( « tapie maps » (Biezunski et al. , 1999] ) , un standard ISO issu de HyTime
dont le but était d'annoter les documents multimédia. Il ne rencontre cependant plus
guère de succès malgré quelques utilisations intéressantes. Une de ses particularités par
4. Web sémantique - 1 101

SELECT ?n , ?z
FROM Figure 1
WHERE {
?x rel : daught er ?y
?y rel : worksWith ?z .
?z foaf : knows ?x . }
OPTI ONAL { ?z f oaf : name ?n }

FIGURE 2 Une requête SPARQL e t l e patron d e graphe associé (la partie optionelle
-

est en traits discontinus) .

rapport à RDF était la séparation des noms et des concepts. Mais la sémantique des
cartes topiques n'est pas suffisamment définie pour une exploitation automatique.

4.2.2 Exploiter RDF


La recommandation de RDF [Hayes, 2004] définit sa sémantique et il reste à la
charge des développeurs de démontrer que leurs mécanismes d'inférence sont corrects
et complets par rapport à la sémantique (on ne trouve que des conséquences, et toutes
les conséquences) . Un tel mécanisme est cependant évoqué dans les propositions du
W3C et le rapprochement avec les graphes conceptuels simples permet de préciser ce
mécanisme de raisonnement. Il s'agit d'un homomorphisme de graphes étiquetés, pour
lequel des algorithmes efficaces (bien qu'il s'agisse d'un problème N P-complet) ont été
développés (voir chapitre I.5) .
Une forme de raisonnement privilégiée est la réponse à des requêtes structurées (par
opposition à tester si une formule est conséquence) . Le langage de requête développé
pour RDF, SPARQL [Prud'hommeaux et Seaborne (ed.), 2008] , est inspiré dans sa
syntaxe par le langage SQL utilisé dans les bases de données relationnelles. Il permet de
trouver les valeurs de variables qui rendent un motif de graphe conséquence du graphe
initial. Ainsi, la requête de la figure 2 retournera une réponse : { ("Pierre", _ : b3) } à
partir du graphe de la figure 1 .
S a spécification initiale est décrite à l'aide de la notion d'homomorphismes entre
graphes, typique des graphes conceptuels (voir chapitre I.5). SPARQL est donc un
hybride entre les graphes conceptuels et les bases de données. Il est construit autour
de patrons de graphes (graphes RDF contenant des variables) assemblés par des opé­
rateurs classiques (conjonction, disjonction, conjonction optionnelle, filtrage) . Les ré­
ponses sont données par des homorphismes de graphes qui sont ensuite combinés à
l'aide des opérateurs utilisés dans SQL [Pérez et al. , 2009] .

4.2.3 Le Web des données


En 2006, constatant que le Web sémantique se développait somme toute assez peu,
Tim Berners-Lee [2006] a proposé une méthodologie permettant de publier de grandes
quantités de données sur le Web de telle sorte qu'elles puissent être intégrées au Web
sémantique. Il s'agit du Web des données qui se définit par la publication de corpus
de données en RDF en utilisant des URI déréférençables, c'est-à-dire que l'on peut
1 1 02 Panorama de l'intelligence artificielle. Volume 3
-

obtenir des informations sur chaque chose identifiée en utilisant l'URI qui la nomme
(via HTTP) . Qui plus est il est conseillé de lier les corpus entre eux, principalement par
le prédicat owl : sameAs indiquant que deux URI dans deux corpus différents identifient
la même ressource.
Les règles gouvernant le Web des données s'énoncent comme suit :
l. Utiliser des URI pour nommer les choses ;
2. Utiliser des URI HTTP pour que l'on puisse se renseigner sur ces noms (en les
mettant dans un navigateur) ;
3. Lorsque quelqu'un s'enquiert d'un URI, lui fournir de l'information utile à l'aide
de standards (RDF, SPARQL) ;
4. Inclure des liens vers d'autres URI (et vers d'autres sources) , qu'ils puissent
découvrir plus de choses.
Le Web des données constitue ainsi un immense graphe RDF accessible par le
protocole HTTP comme le Web. Celui-ci a pris une réalité très importante, tout d'abord
avec DBpedia (Bizer et al. , 2009] , une extraction massive de Wikipedia en RDF ainsi que
de nombreux efforts qui sont venus se lier à DBpedia, puis avec en 2009, la publication
par plusieurs gouvernements (notamment anglo-saxon) de sources d'archives en RDF.

4.2.4 Perspectives
RDF est un langage relativement simple et stable. Il remplit bien son rôle au sein
du Web sémantique. Cependant, il souffre de limitations périphériques. Ainsi, s'il est
simple de parler de triplets et de manipuler les triplets que l'on a à disposition, il est
beaucoup plus difficile de parler d'un sous-ensemble de triplets. Actuellement, ces sous­
ensembles se trouvent souvent être le contenu d'un fichier, mais ceci ne fonctionne plus
lorsque les triplets d'intérêt sont répartis sur le Web. Une demande croissante est donc
de pouvoir explicitement nommer et manipuler des graphes RDF (on parle de « named
graphs », graphes nommés) .
Un besoin complémentaire est la possibilité d'associer des assertions à des triplets.
Ceci pourrait permettre d'associer un triplet à un graphe nommé ou de lui associer des
informations quant à son origine ou la confiance que l'on peut lui accorder. Ce besoin
a été depuis longtemps pris en compte dans les implémentations qui enregistrent des
« quads » au lieu de triplets, le quatrième élément servant à identifier le triplet (et donc
à le mentionner dans d'autres triplets) .
Ces deux besoins, ainsi que des questions de simplification de RDF, sont actuelle­
ment considérés par le W3C pour la prochaine version de RDF.

4.3 Raisonner dans le Web sémantique : ontologies


Une fois capable d'exprimer les données, le second problème concerne la définition
du vocabulaire utilisé dans les graphes RDF. C'est faire non seulement l'inventaire des
termes utilisés pour décrire les données, mais aussi poser les axiomes qui permettent de
les définir et donc à une machine de les exploiter. Ces vocabulaires sont définis par des
ontologies (voir chapitres 1.5 et 1.20) . On considérera ci-dessous les ontologies comme
4. Web sémantique - 1 1 03

des ensembles d'axiomes décrits dans une logique spécifique. Plusieurs de ces logiques
ont été définies.

4. 3 . 1 RDFS
RDFS (pour RDF Schéma [Brickley et Guha, 2004) ) a pour but d'étendre le langage
RDF en décrivant plus précisément les ressources utilisées pour étiqueter les graphes.
En RDFS, cette extension est vue comme l'introduction d'un vocabulaire (un ensemble
d'URis) particulier auquel une sémantique spécifique par rapport à celle de RDF est as­
sociée. RDF introduit déjà quelques mots-clé dans l'espace de nom rdf : qui permettent
de structurer la connaissance :
- (ex : Sonia rdf : type ex : Employa) la ressource ex : Sonia est une instance de la
classe ex : Employa ;
- (rel : worksWith rdf : type rdf : Property) affirme que rel : worksWith est un prédi­
cat (une ressource utilisable pour étiqueter les arcs) ;
RDFS s'écrit toujours à l'aide de triplets RDF, en introduisant de nouveaux mots-clés
dans l'espace de nom rdfs, comme :
- (ex : Employe rdf : type rdfs : Class) la ressource ex : Employe a pour type rdfs : ­
Class, et est donc une classe ;
- (ex : Employe rdfs : subClassOf foaf : Person) la classe ex : Employe est une sous­
classe de foaf : Pers on, toutes les instances de ex : Employa sont donc des instances
de foaf : Person, c'est le cas de ex : Sonia ;
- (ex : worksWi th rdf s : range ex : Employee) affirme que toute ressource utilisée com­
me extrémité d'un arc étiqueté par rel : worksWith est une instance de la classe
ex : Employee.
La sémantique de RDFS étend celle de RDF en considérant certaines URI comme
identifiant des classes et en les interprétant en deux temps, comme les propriétés [Hayes,
2004] . Cependant, RDFS ne fournit que des mécanismes primitifs pour spécifier ces
classes. Son expressivité correspond à celle d'un langage de « frames ». D'autres langages
ont été définis pour aller au-delà.

4.3.2 OWL : une application des logiques de descriptions


Le langage OWL [Horrocks et al. , 2003 ; Dean et Schreiber (eds.) , 2004 ; Beckett,
2009] est, quant à lui, dédié aux définitions de classes et de types de propriétés, et donc
à la définition d'ontologies. Inspiré des logiques de descriptions (voir chapitre I.5) et
successeur de DAML+OIL [van Harmelen et al. , 2001] , il fournit différents construc­
teurs permettant d'exprimer de façon plus fine les propriétés des classes définies.
La syntaxe de OWL, bâtie sur RDF, introduit un vocabulaire spécifique dans l'es­
pace de nom owl. Ce vocabulaire est principalement utilisé pour exprimer des construc­
teurs des logiques de descriptions. Contrairement à RDFS, OWL ne peut s'exprimer
simplement en introduisant de nouveaux prédicats ou classes. Les graphes doivent
utiliser ceux-ci d'une manière précise pour être interprétables (comme par exemple
l'imbrication de owl : Restriction ci-dessous) . Ainsi, tout graphe RDF utilisant ce vo­
cabulaire ne constitue pas nécessairement une ontologie OWL valide. La sémantique
de chaque constructeur est définie en théorie des modèles [Patel-Schneider et al. , 2004 ;
1 1 04 Panorama de l'intelligence artificielle. Volume 3
-

Motik et al. , 2009c] . Elle est directement issue des logiques de descriptions. La séman­
tique associée aux mots-clés de OWL est plus précise que celle associée au graphe RDF
représentant une ontologie OWL (elle permet plus de déductions) .
Ainsi, OWL permet de décrire des concepts, par exemple la propriété « fille »
(daughter ) , comme une sous-propriété de l'inverse de hasParent dont le codomaine
et de sexe féminin :
<owl : Obj e ctProperty rdf : about = " rel : daughter " >
<owl : subPropertyOf>
<owl : Obj e ctProperty>
<owl : inverseOf rdf : resource= " rel : hasParent " / >
</owl : Obj e ctProperty>
</owl : subPropertyOf>
<rdf s : range>
<owl : Restri c t i on>
<owl : onProperty rdf : resource= " f oaf : gender " />
<owl : hasValue>female</owl : hasValue>
</owl : Restri c t i on>
</rdf s : range>
</owl : Obj e ctProperty>

OWL introduit une autre contrainte assez forte dans la sémantique des ontologies :
elle est construite sur des ensembles d'entités exclusifs. Ainsi, une URI ne peux pas dé­
noter à la fois une classe et une propriété ou une classe et un individu. Cette contrainte,
qui ne s'applique pas à RDF ni à RDFS, n'est pas valide pour OWL Full. La contrainte
de séparation des domaines d'interprétation est relâchée artificiellement dans OWL 2
en introduisant des entités distinctes associées à un même URI.
Nous donnons ici les principaux constructeurs utilisés dans OWL, dans une syntaxe
simplifiée (les mots-clés réservés de OWL, habituellement préfixés de owl : ) , ainsi que
leur « sémantique intuitive » (voir (Motik et al. , 2009b] pour une définition précise) .
- Les mots-clés de RDF (rdf : type, rdf : Property ) et RDFS ( rdfs : subClassOf ,
rdfs : subPropertyOf , rdfs : range, rdfs : domain) sont utilisés avec la même séman­
tique ;
- owl : Class est une nouvelle (méta)classe ;
- owl : sameAs et owl : differentFrom permettent d'affirmer que deux individus sont
égaux ou différents ;
- owl : inverseOf sert à affirmer qu'une propriété p est l'inverse de p' (dans
ce cas, le triplet (s p o) a pour conséquence ( o p' s)) ; d'autres caractéris­
tiques sont par exemple la réflexivité ( owl : Reflexi veProperty ) , la transitivité
( owl : Transi ti veProperty ) , la symétrie ( owl : SymmetricProperty) ou la fonction­
nalité ( owl : FunctionalProperty) ;
- owl : allValuesFrom associe une classe C à une relation P. Ceci définit la classe des
objets x tels que si (x P y) est un triplet, alors la classe de y est C (quantification
universelle de rôle en logique de descriptions) . owl : someValuesFrom encode la
quantification existentielle de rôle ;
- owl : minCardinality (resp. owl : maxCardinality ) définit la classe des objets n'ay­
ant pas moins (resp. plus) d'un certain nombre d'objets distincts par une pro­
priété particulière. Une version qualifiée de ces constructeurs, introduite en OWL
2, impose en plus que les objets soient dans une classe particulière ;
4. Web sémantique - 1 1 05

OWL-Full
------- OWL 2
OWL-DL RDFS

DL-Liten =OWL2 QL î
OWL-Lite �pRDF
î

DL-Litecore

RDF

FIGURE 3 - Une hiérarchie de langages d'ontologies pour le Web sémantique. Les flèches
ou l'inclusion représentent l'ordre d'expressivité des différents langages. pRDFS est un
sous-ensemble de RDFS défini dans (Pérez et al. , 2009] .

- owl : oneOf permet de décrire une classe en extension par la liste de ses instances ;
- owl : hasValue affirme qu'une propriété doit avoir comme objet un certain indi-
vidu ;
- owl : disj ointWith permet d'affirmer que deux classes n'ont aucune instance com­
mune ;
- owl : unionOf , owl : intersectionOf et owl : complementOf permettent de définir une
classe comme l'union ou l'intersection de deux classes, ou le complémentaire
d'une autre classe ;
- owl : hasSelf définit la classe des objets en relation avec eux-mêmes par une
relation particulière ;
- owl : hasKey indique qu'un ensemble de propriétés est une clé pour une classe,
c'est-à-dire que deux individus distincts ne peuvent pas partager le même tuples
de valeurs pour ces propriétés ;
- owl : propertyChainAxiom permet de composer plusieurs relations entre-elles pour
obtenir une propriété ou une relation ;
- owl : NegativePropertyAssertion permet d'exprimer qu'un individu n'a pas une
valeur précise pour une propriété particulière.
Nous n'avons pas cité ici certains constructeurs, qui peuvent être trivialement im­
plémentés grâce à ceux que nous avons évoqués (par exemple owl : equi valentClass,
servant à affirmer que deux classes sont identiques, peut être écrit grâce à deux
rdfs : subClassOf ) .
OWL propose aussi des constructeurs de types de données que nous n'abordons pas
ici. Ils sont toutefois importants car ils conduisent facilement à des incohérences.
1 1 06 Panorama de l'intelligence artificielle. Volume 3
-

4.3.3 Compromis expressivité/efficacité


Le compromis expressivité/efficacité a toujours été présent dans les travaux sur
les logiques de descriptions. Déjà en 2001, nous proposions d'utiliser un encodage des
logiques de descriptions préservant l'opportunité de choisir la logique correspondant à
un compromis particulier dans un cadre unifié [Euzenat, 2002] .
Cette attitude s'est matérialisée dans OWL 1 sous la forme des trois langages :
- OWL Lite ne contient qu'un sous-ensemble réduit des constructeurs disponibles
et leur utilisation peut être restreinte (par exemple, les contraintes de cardinalité
n'utilisent que les entiers 0 ou 1). Ceci assure que le test de subsomption (per­
mettant de déterminer si les instances d'une classe sont nécessairement instances
d'un autre classe) pourra être calculé (un problème de N P , donc « simple » en
représentation de connaissances) ;
- OWL DL contient l'ensemble des constructeurs, mais avec des contraintes parti­
culières sur leur utilisation qui assurent la décidabilité du test de subsomption.
En revanche, la grande complexité de ce langage (un de ses fragments est PS­
PACE-complet) semble rendre nécessaire une approche heuristique ;
- OWL Full, sans aucune contrainte, pour lequel le problème de comparaison de
types est vraisemblablement indécidable.
Mais les besoins différents des utilisateurs peuvent nécessiter un découpage différent
de celui retenu par le W3C. Ainsi, on pourrait préférer à OWL DL un langage dont la
disjonction est exclue, la sémantique de la négation est intuitionniste et où les classes
peuvent être considérées comme des instances. Un tel langage n'est pas défini actuel­
lement. Pour en bénéficier, il aurait fallu développer une approche plus modulaire des
langages du Web sémantique. Ainsi des sous-langages ont été définis indépendamment
du W3C afin de pouvoir disposer de mécanismes de raisonnement plus efficaces où d'y
associer des langages de règles plus expressifs.
Tout d'abord, les travaux en logiques de description ont conduit à proposer des
langages dont le but est de répondre rapidement à l'interrogation de données modulo
une ontologie. DL-Lite (Calvanese et al. , 2007 ; Artale et al. , 2009] est une sous-famille
de OWL qui ne contient ni disjonction, ni contraintes sur les rôles (sauf l'existence) ,
ni négation généralisée. Les requêtes conjonctives en DL-Lite peuvent être évaluées
efficacement en les transformant en requêtes de bases de données et les évaluant dans
les SGBD existants (voir chapitre III.3) . Cette famille contient un représentant plus
expressif que RDFS (DL-Liten) .
Une autre approche (Voltz, 2004 ; Hustadt e t al. , 2007] consiste à déterminer un
sous-langage de OWL dont l'expressivité est encore plus réduite que celle de OWL-Lite
et de lui associer un langage de règles de telle sorte que la complexité reste polynomiale.
OWL 2 réintroduit ceci à l'aide de la notion de profil de langage (Motik et al. ,
2009a] . Il propose en sus des langages proposés dans la première version de OWL, les
langages :
OWL 2 EL supprime toute quantification universelle de OWL DL (c'est-à-dire qu'il
interdit la quantification universelle, les restrictions de cardinalité, la disjonc­
tion, la négation et les propriétés de relations) ainsi que les rôles inverses (mais
il autorise la composition de rôles) . C'est donc un fragment du calcul des pré­
dicats comparable aux graphes conceptuels simples (ou graphes de base, voir
4. Web sémantique - 1 1 07

chapitre 1.5) ;
OWL 2 QL correspond à DL-Liten. ;
OWL 2 RL supprime toute construction pouvant engendrer des objets inconnus et
surtout oriente les axiomes de telle sorte, par exemple, que seules certaines expres­
sions (existentielles) sont autorisées en super-classe et certaines expressions (uni­
verselles) sont autorisées en sous-classes d'un axiome de type rdf s : subClassOf .
Plusieurs problèmes comme le test de subsomption peuvent se résoudre en temps
polynomial dans ce langage.
La figure 3 propose deux vues des relations entre les principaux langages définis autour
de OWL et de RDFS.

4.3.4 Raisonnement
Le développement d'outils efficaces pour raisonner dans le Web sémantique sera un
critère décisif pour l'adoption d'un langage particulier. Ce sont ces moteurs d'inférence
qu'il faudra encapsuler dans des systèmes de requêtes plus évolués afin d'interroger
le Web et agir sur les réponses obtenues. Or, le problème de déterminer en RDF si
un graphe est une conséquence d'un autre est déjà un problème N P-complet. Des al­
gorithmes efficaces ont pourtant été développés pour calculer les homomorphismes de
graphes qui répondent à ce problème (basés sur les améliorations de rétrogression dé­
veloppées pour les réseaux de contraintes ; voir chapitre II.6) .
Mais, dans le contexte du Web sémantique, le problème est plus ardu de plusieurs
manières :
- Certains veulent accomplir un raisonnement sur l'ensemble du Web sémantique,
c'est-à-dire sur toute l'information en OWL ou RDF présente sur le Web. On
parlait, en 201 1 , de dizaines de milliards de triplets dans le « linked open data
cloud » seulement.
- Ces graphes et le raisonnement à développer dépendent d'ontologies dans les­
quelles les problèmes de raisonnement peuvent être indécidables.
- Enfin, cette information est distribuée et hétérogène.
Les travaux sur le raisonnement avec ces langages se sont poursuivis dans deux
directions :
- le développement, comme précédemment, de procédures de décision pour les
logiques de description sous-jacentes à OWL [Horrocks et Sattler, 2007 ; Motik
et al. , 2009d] .
- la recherche, comme on vient de le voir, de fragments de OWL pour lesquels on
peut disposer de procédures de décision efficaces.

4.3.5 Requêtes modulo ontologies


La définition de SPARQL en fonction des homomorphismes entre graphes pose un
problème : il n'est pas aisé de l'appliquer à d'autres sémantiques que celle de RDF
simple. En effet, si l'on ne dispose pas de résultat de correction et de complétude entre
homomorphisme et conséquence pour ces langages, l'évaluation de la requête est décon­
nectée de la sémantique. C'est le cas si l'on se propose d'interroger des bases RDF en
1 1 08 Panorama de l'intelligence artificielle. Volume 3
-

tenant compte du fait que ces bases sont exprimées en RDF Schema ou en OWL. Cepen­
dant, SPARQL peut être redéfini en fonction de la notion de conséquence [Alkhateeb
et al. , 2009] . Cette redéfinition permet d'utiliser différentes notions de conséquences
pour s'adapter à différents langages.
Divers efforts ont été développés afin de dépasser ce problème. Ainsi, il est possible
de répondre à des requêtes SPARQL modulo une ontologie décrite en RDFS par simple
réécriture de la requête comme une requête PSPARQL (que l'on peut décrire comme
SPARQL disposant de la clôture transitive sur les propriétés [Alkhateeb et al. , 2008] ) .
Des résultats similaires ont été obtenus [Pérez e t al. , 2010] sur un sous-ensemble de
SPARQL. De même, le langage SPARQL-DL [Sirin et Parsia, 2007] permet d'évaluer
des requêtes dans une syntaxe SPARQL en fonction d'ontologies en OWL-DL. Cepen­
dant, les requêtes sont limitées aux requêtes conjonctives et l'usage des variables est
restreint.
Le groupe de travail chargé de définir SPARQL 1 . 1 travaille sur la notion de régime
d'inférence de SPARQL [Glimm et Ogbuji, 201 1] . Cette notion rend le langage de
requêtes plus paramétrable en permettant de redéfinir la notion de conséquence, mais
aussi les motifs de requêtes et les types de réponses attendues.
Indépendamment de SPARQL, d'autres travaux ont étendu Datalog pour qu'il
puisse prendre en compte des requêtes en fonction d'une ontologie écrite en DL-Liten
(donc en RDFS) [Cali et al. , 2009] ou étudié la complexité de telles requêtes en y
incluant l'opération UNION de SPARQL [Artale et al. , 2009] .

4.3.6 Règles
En ce qui concerne les langages de règles, la situation est moins claire que pour
les autres langages du Web sémantique. Le W3C a abouti à un « rule interchange
format » (RIF [Boley et al. , 2013] ) dont le but est de ménager à la fois les tenants
de règles définies en programmation logique (chapitre II.4) et ceux des règles métier
( « business rules » ) , sortes de règles déclenchant des actions lorsqu'une condition est
remplie. Deux dialectes ont donc été définis : BLD pour « Basic Logic Dialect » and
PRD pour « Production Rule Dialect », partageant une portion de syntaxe commune
(RIF-Core) . RIF a une syntaxe différente des, déjà nombreuses, syntaxes proposées par
les autres langages mais offre un pont avec RDF et OWL. La syntaxe RDF de RuleML
et de SWRL [Horrocks et al. , 2004] semble donc être abandonnée.
Sur le plan théorique, les travaux développés en programmation logique s'appliquent
naturellement à l'utilisation de règles dans le Web sémantique et plus directement au
dialecte BLD de RIF. Malheureusement, la connexion entre la partie ontologique et la
partie règle reste à spécifier. Un premier travail a cependant été fait pour exprimer le
fragment OWL 2 RL à l'aide de RIF-Core.
La combinaison de logiques de description et de Datalog a déjà été proposée [Levy
et Rousset, 1998] . Dans le contexte du Web sémantique, on est d'abord parti d'une ap­
proche moins expressive : DLP ( « description logic programs » [Grosof et al. , 2003] ) est
un langage minimal à l'intersection des clauses de Horn et des logiques de description.
Il ne permet donc ni d'exprimer tout ce que l'on peut trouver dans un langage comme
OWL-Lite, ni toute la programmation logique. Par contre, il devrait être adapté pour
raisonner à large échelle. DLP a inspiré OWL 2 RL. Une intégration serrée des logiques
4. Web sémantique - 1 1 09

de description (chapitre 1.5) et de « answer set programming » (chapitre 11.4) , qui réin­
troduit donc des aspects comme la négation par échec fini et la possibilité de prendre
en compte l'hypothèse du monde clos, a aussi été étudiée [Motik et Rosati, 2010] .
D'autres travaux ont considéré la reconstruction des logiques de descriptions sur la
base de langages de programmation logique [Hustadt et al. , 2007, 2008] .
Du côté des graphes conceptuels, des règles logiques ont été proposées comme une
extension des graphes conceptuels simples (voir chapitre 1.5, [Baget et Mugnier, 2002] )
qui peuvent être appliquées directement à RDF.

4.3. 7 Inférences robustes


Une propriété typique du Web est la quantité d'information que l'on y trouve.
Malheureusement, il s'y trouve beaucoup d'information erronée, périmée, redondante
ou incomplète. L'utilisateur humain est en général capable de discerner ces problèmes
et de les surmonter sans trop y penser. Mais il n'en ira pas de même des applications
du Web sémantique. Il est donc nécessaire de développer des modes de raisonnement
qui tirent parti du Web sémantique, c'est-à-dire qui soient le plus fidèle possible aux
spécifications des langages utilisés, sans pour autant être perturbés par les erreurs qui
peuvent y être exprimées. En un mot, il faut des moteurs d'inférence robustes.
Ceux-ci peuvent utiliser des techniques très variées (logiques paraconsistantes ou
modèles statistiques, logiques intuitionnistes) adaptées au contexte du Web sémantique.
Certaines propositions utilisent des logiques non monotones [Pührer et al. , 2010] pour
contrecarrer d'éventuelles incohérences. Le raisonnement anytime ou sous contraintes
de ressources pourraient, quant à eux, être utilisés pour surmonter l'immense taille du
Web. Cependant, cet aspect de la robustesse de l'utilisation de la connaissance dans
un Web sémantique n'est que très peu développé.
D'autres travaux cherchent à réduire l'impact d'éventuelles erreurs dans des on­
tologies. Ils ne prennent en compte que les axiomes qui étendent une ontologie en
définissant de nouveaux concepts et non ceux qui modifient ou donnent une définition
alternative de concepts existants [Hogan et al. , 2009] . C'est une option radicale pour
obtenir des extensions conservatives (voir §4.4.3) .

4.3.8 Perspectives
Le langage OWL 2 a été recommandé par le W3C à l'automne 2009, le langage
SPARQL 1 . 1 est en passe d'être recommandé [Harris et Seaborne, 2012] . Il y a ce­
pendant de très actifs travaux de recherche liés à l'inférence efficace à l'aide de ces
langages. On se trouve à la croisée des activités de bases de données, où la quantité
de données prime, et de représentation de connaissance, où l'expressivité des ontolo­
gies prime. A ces problèmes, traditionnels mais jamais appliqués à une telle échelle,
s'ajoute l'incidence du réseau avec des problématiques de communication, de latence
et de caches.
Du côté raisonnement, le Web sémantique est donc une importante source de pro­
blèmes pour l'intelligence artificielle et, en particulier, la déduction automatique (voir
chapitre II.3) .
1 1 1 0 Panorama de l'intelligence artificielle. Volume 3
-

Du côté représentation, les langages offerts par le Web sémantique sont peu ex­
pressifs et orientés vers la représentation factuelle. Des efforts pour apporter d'autres
éléments de représentation de connaissance sont en cours. Ainsi, il existe divers travaux
pour apporter des représentations floues aux langages d'ontologies [Stoilos et al., 2007 ;
Bobillo et Straccia, 2009] .

4.4 Gérer ! 'hétérogénéité


Une fois la connaissance formelle introduite sur le Web, il convient d'en tirer parti.
Ceci pose des problèmes particuliers. En effet, le Web sémantique étant fondé sur les
mêmes règles d'autonomie et d'indépendance que le Web, les ontologies utilisées par
les diverses sources de connaissance peuvent être différentes. Il est donc nécessaire de
les réconcilier et d'exprimer les relations entre ces ontologies.

4.4. 1 Sémantique des alignements et des réseaux d'ontologies


Le premier problème est la description des relations entre ontologies, c'est-à-dire
qu'un individu est le même qu'un autre individu ou qu'une classe est plus générale
qu'une autre. En général, une telle relation, nommée correspondance lie des éléments
de deux ontologies par une relation. Ainsi, on peut vouloir exprimer que l'attribut
daughter est plus spécifique que l'attribut child :

(rel : daughter, Ç, my : child)

Ces correspondances, lorsqu'elles sont issues de programmes alignant les ontologies


sont souvent associées à une mesure de confiance. Mais les correspondances peuvent
dépasser le simple langage d'ontologies, ainsi,

( cyc : englishID, = , foaf : givenname+" " +foaf : name )

signifie que la propriété englishID est équivalente à la concaténation de deux propriétés


dans l'ontologie FOAF. Un ensemble de telles correspondances entre deux ontologies
est appelé un alignement. Plus généralement, il peut être nécessaire de décrire des
réseaux d'ontologies impliquant plusieurs ontologies et alignements.
Il existe un consensus sur la nécessité d'exprimer des alignements entre ontologies
[Euzenat et Shvaiko, 2007] , mais, contrairement aux langages d'ontologies, il n'y a pas
de standard pour exprimer alignements et réseaux d'ontologies et quelle doit en être la
sémantique.
Une première solution est d'utiliser tout simplement OWL. Il offre owl : sameAs pour
exprimer que deux objects sont les mêmes et cette possibilité est très utilisée dans le
Web des données (tout en maintenant ces axiomes à l'écart des jeux de données, voir
§4.2.3). Il offre aussi owl : equivalentClass et rdfs : subClassOf qui permettent d'expri­
mer l'équivalence et la subsomption entre classes. Le problème de l'utilisation de OWL
dans ce cadre est qu'il contraint à fusionner les sources de données pour pouvoir les
exploiter. Les liens entre sources de données n'ont pas d'existence, ou de sémantique,
indépendante.
4. Web sémantique - 1111

Cette même remarque s'applique au langage SKOS [Miles et Bechhofer, 2009] qui
permet d'exprimer des thesauri et offre des primitives permettant de définir des rela­
tions entre termes de ces thesauri.
Des propositions pour résoudre ce problème ont été faites. Ainsi, C-OWL [Bouquet
et al. , 2004] offre un langage permettant d'exprimer les ontologies en OWL et des
relations entre entités des ontologies à l'aide d'assertions de subsomption, d'équivalence
et d'incompatibilité entre concepts. L'originalité de C-OWL est d'envisager les réseaux
d'ontologies en tant que tels et de proposer une sémantique spécifique qui préserve la
localité des ontologies (contrairement à la solution consistant à exprimer les alignements
entre ontologies à l'aide de la syntaxe de OWL) . La sémantique de C-OWL est fondée
sur les logiques de descriptions distribuées [Borgida et Serafini, 2003] .
L'approche épistémique [Calvanese et al. , 2008] est fondée sur la logique KD45 qui
modélise la connaissance de chaque pair. Cette approche, parce qu'elle ne permet que
de propager l'information sur la connaissance qu'un pair a d'une formule ne permet
pas de propager de connaissance sur la négation de celle-ci. En particulier, tout comme
dans C-OWL, les correspondances sont orientées.
La sémantique à égaliseurs [Zimmermann et Euzenat, 2006 ; Zimmermann, 2008]
préserve les interprétations des différents langages de représentations : ainsi les onto­
logies reliées peuvent être exprimées dans des langages différents. Pour interpréter les
correspondances, elle plonge les interprétations des ontologies dans un domaine com­
mun. Par rapport à la sémantique de C-OWL, celle-ci permet un raisonnement global
sur les réseaux d'ontologies (par exemple en composant des alignements) [Zimmermann
et Euzenat, 2006] .

4.4.2 Raisonner avec des réseaux d'ontologies


Une fois que l'on dispose de réseaux d'ontologies, encore faut-il pouvoir les utiliser
pour raisonner. Cela peut renvoyer à plusieurs types de problèmes :
Tester la cohérence c'est-à-dire déterminer si le réseau d'ontologies (où une de ses
sous-parties) possède un modèle ;
Tester la conséquence d'une formule close utilisant une seule ontologie, ou d'une
. correspondance, dans un réseau d'ontologies ;
Répondre à une requête c'est-à-dire déterminer les affectations de variables per-
mettant de satisfaire une formule.
La résolution de ces problèmes requiert souvent des techniques spécifiques. C'est un
champ de recherche encore très largement ouvert qui a trouvé très peu de dévelop­
pements concrets et encore moins d'applications. Il pose en effet des problèmes très
importants de passage à l'échelle.
Tout d'abord, la plupart des raisonneurs pour OWL sont capables de déterminer
les ontologies importées par une ontologie particulière et de raisonner avec l'ensemble
des ontologies. Rapatrier l'ensemble des informations nécessaires risque de ne plus être
possible lorsqu'une ontologie contient non seulement des axiomes génériques mais aussi
les données. Cette approche ne peut non plus s'appliquer lorsque les données ne sont
accessibles que par le biais d'accès SPARQL.
1 1 1 2 Panorama de l'intelligence artificielle. Volume 3
-

Dans le domaine des systèmes pairs-à-pairs sémantiques, les pairs disposent de


données exprimées dans leur ontologie propre et sont liés par des alignements qui
peuvent être des ensembles d'assertions de subsomption. SomeWhere [Adjiman et al. ,
2006] a développé une approche originale au test d'incohérence et à la réponse aux
requêtes. Il utilise le raisonnement propositionnel sur le schéma des ontologies afin de
déterminer les plans de réponse aux requêtes, puis il évalue les requêtes de proche en
proche.
DRAGO [Serafini et Tamilin, 2005] est un raisonneur distribué pour C-OWL. Les
ontologies sont décrites en OWL-DL et les alignements utilisent le langage orienté de
C-OWL (une correspondance exprime comment un pair peut importer l'information
d'un autre pair, mais pas l'inverse) . DRAGO est implémenté comme un algorithme de
tableau distribué où la construction d'un modèle pour un pair peut récursivement faire
appel à la satisfaction de formules obtenues par le biais de correspondances provenant
d'autres pairs.
IDDL [Zimmermann et Le Duc, 2008] est un raisonneur distribué qui permet de
déterminer la cohérence d'un réseau d'ontologies dans la sémantique à égaliseurs [Zim­
mermann et Euzenat, 2006] . Il fonctionne indépendamment des logiques utilisées dans
chacun des nœuds, dont le minimum est qu'elles supportent la logique A.CC, mais le
langage des alignements est réduit à la subsomption et la disjonction de rôles et de
concepts.
Un des aspects importants de ces trois raisonneurs est qu'ils agissent de manière
décentralisée : chaque pair ou agent est livré à lui-même et doit communiquer avec les
autres.
Des tentatives plus localisées se sont concentrées sur le raisonnement sur simplement
deux ontologies alignées [Meilicke et al. , 2009 ; Jimenez Ruiz et al. , 2009 ; Zurawski
et al. , 2008] . En général les approches développées utilisent la sémantique simple de
OWL (où les ontologies sont fusionnées à l'aide des alignements) . Plusieurs travaux
se sont penchés sur la « réparation » de correspondances qui rendent un alignement
incohérent. En général, ils consistent à choisir un sous-alignement consistant répondant
à un critère particulier. La problématique est similaire à celle de la révision de croyances
(voir chapitre I . 1 1 ) .

4.4.3 Raisonnement confiné


La notion d'extension conservative a été définie pour les logiques de descriptions
[Ghilardi et al. , 2006 ; Lutz et al. , 2007] . Elle permet, en principe, de s'assurer que ce que
l'on peut déduire de l'extension d'une théorie était déjà déductible de la théorie initiale.
Cette propriété est donc une propriété très forte pour garantir qu'une ontologie ne soit
pas polluée par sa connexion à d'autres ontologies. En logique de description, elle est
raffinée en considérant que cette conservation ne concerne que les formules exprimables
dans le vocabulaire de l'ontologie initiale ou un sous-ensemble de ce vocabulaire. Cela
permet de disposer de « modules » qui apportent chacun leur connaissance.
L'intérêt d'une telle approche est qu'elle permet de raisonner efficacement puisque
l'ensemble des conséquences utilisant le vocabulaire d'une ontologie particulière peut
être traité au sein de cette ontologie avant d'être propagé aux autres ontologies connec­
tées (ou, à l'inverse, recherchées uniquement dans cette ontologie) . Malheureusement,
4. Web sémantique - 1 1 13

décider si une ontologie, ou un réseau d'ontologies, est une extension conservative d'une
autre ontologie est très coûteux et même indécidable pour A.CC QIO qui forme le cœur
de OWL-DL [Ghilardi et al. , 2006] .

4.4.4 Aligner des ontologies


Le problème d'alignement d'ontologies [Euzenat et Shvaiko, 2007] consiste à déter­
miner les alignements entre deux ontologies. De nombreux algorithmes ont été déve­
loppés pour résoudre ce problème s'inspirant de techniques développées dans différents
domaines.
On distinguera deux types d'approches :
- des approches fondées sur le contenu des ontologies, c'est-à-dire les axiomes qui
fondent ces ontologies. Ce peut être :
- les étiquettes utilisées pour nommer ou commenter les éléments des onto­
logies. On utilise alors des techniques inspirées du traitement de la langue
(chapitre III.5) et de la recherche d'information ;
- la structure des relations entre les entités de l'ontologie (particulièrement la
hiérarchie de spécialisation) . On utilise alors des techniques de théorie de
graphes ;
- les instances des concepts (extensions) , lorsqu'ils sont disponibles. On utilise
alors des techniques d'apprentissage (chapitre I.9) , d'analyse de données et
de dédoublement d'enregistrements ;
- la sémantique des ontologies est quant à elle plutôt utilisée pour expanser les
alignements déjà obtenus ou tester la cohérence d'un alignement (voir §4.4.2) .
On utilise des techniques de démonstration automatique (chapitre II.3) et
de raisonnement par contraintes (chapitre II.6) .
- des approches fondées sur le contexte des ontologies, c'est-à-dire les liens que
ces ontologies entretiennent avec d'autres ressources. Ce peut être :
- un corpus de documents annotés par l'une ou les deux ontologies qui per­
mettra d'utiliser des techniques d'apprentissage statistique (chapitre I.9) ;
- une ou plusieurs ontologies utilisées comme connaissance de contexte et per­
mettant de déduire des axiomes ;
- le retour de l'utilisateur lors de son utilisation des ontologies alignées per­
mettant d'affiner ses choix ;
- l'utilisation de ressources spécifiques disponibles comme DBPedia, WordNet
ou UMLS.
On ne peut donc pas présenter ici ces différents types de systèmes. On évoque
ci-dessous ceux utilisant l'apprentissage, une des techniques plus spécifiquement d'IA.

4.4.5 Alignement et apprentissage


L'alignement d'ontologies est typiquement une tâche inductive plutôt que déduc­
tive : il n'y a pas de règles qui permettent d'inférer des alignements, seulement des
heuristiques permettant de les trouver. Il est ainsi naturel que les développeurs d'algo­
rithmes d'alignements aient réutilisé des techniques d'apprentissage pour obtenir des
1 1 1 4 Panorama de l'intelligence artificielle. Volume 3
-

alignements. Deux types de techniques peuvent être mises à contribution : l'appren­


tissage à partir de données, où l'apprentissage cherche des régularités dans de grandes
quantités de données, et l'apprentissage à partir d'exemples, où l'utilisation d'exemples
d'alignements sur le corpus permet d'en induire le motif.
Comme précisé plus haut, l'apprentissage à partir d'exemples est le moins fréquent
car il n'y a pas de technique d'alignement facilement généralisable. Il peut cependant
être utilisé dans deux cas. Tout d'abord, lorsqu'un utilisateur est capable de montrer
quelques alignements simples à partir desquels le système peut apprendre (il est aussi
possible d'utiliser cette information pour propager les alignements) . Ensuite, lorsque
l'on dispose d'un alignement de référence et que l'on veut apprendre les paramètres de
l'algorithme qui donnent de meilleurs résultats (Ehrig et al. , 2005] .
Les techniques d'apprentissage à partir de données consistent principalement à dé­
terminer la ressemblance entre classes en fonction de la ressemblance entre leurs en­
sembles d'instances (où la probabilité pour les instances de l'une d'être instance de
l'autre) . Il peut s'agir de techniques symboliques comme l'analyse de concepts (Stumme
et Mâdche, 2001 ; Kalfoglou et Schorlemmer, 2003] , les arbres de décisions (Xu et Em­
bley, 2003] ou plus numériques comme les réseaux de neurones (Mao et al. , 2010] , les
réseaux bayésiens (Pan et al. , 2005] , l'extraction de règles d'associations (David et al.,
2007] ou un mélange de ces approches (Doan et al., 2004] .

4.4.6 Perspectives
L'alignement d'ontologies, comparé aux autres aspects mis en œuvre dans le Web
sémantique, n'en est qu'à ses balbutiements. De nombreuses pistes sont disponibles
pour améliorer ce maillon essentiel du Web sémantique. On peut en particulier citer
(Shvaiko et Euzenat, 2013] :
- une meilleure compréhension formelle de la sémantique des alignements,
- le développement et l'évaluation d'algorithmes fondés sur le contexte et en par-
ticulier d'algorithmes tirant parti des immenses ressources offertes par le Web
et bientôt le Web sémantique,
- la sélection et la configuration automatique d'algorithmes en fonction de la si­
tuation,
- l'implication de l'utilisateur de manière transparente de sorte de pouvoir exploi­
ter ses réactions et sa connaissance dans l'activité d'alignement,
- le développement de systèmes sociaux et collaboratifs tirant parti d'une multi­
tude d'utilisateurs utilisant ontologies et alignements,
- l'infrastructure et le support pour stocker et partager de nombreux alignements,
- le raisonnement à large échelle avec des alignements, ainsi que les techniques
d'approximations permettant de passer à l'échelle.

4.5 Conclusion
Comme le Web, le Web sémantique est un objet indéfini. L'un et l'autre peuvent
être réduits aux technologies qui les composent : URL, HTTP, HTML d'un côté, URI ,
4. Web sémantique - 1 1 15

RDF, OWL, SPARQL et Alignements de l'autre. Mais dans les deux cas on passera à
côté de la réalité.
Le Web sémantique est un écosystème fondé sur ces technologies. Comme tel, se
demander s'il est enfin disponible n'est pas pertinent. La bonne question est : sera-t-il
capable d'évoluer et de perdurer ?
Pour la recherche en intelligence artificielle, c'est un formidable terrain d'appli­
cation. Comme on a essayé de le montrer, de nombreuses techniques provenant de
représentation de connaissance (chapitre I.5) , de raisonnement (chapitres II.3 et II.5) ,
de résolution de contraintes (chapitre II.6) , ou d'apprentissage (chapitre I.9) sont mises
à contribution dans le cadre du Web sémantique. Et encore, par manque de place, nous
sommes nous concentrés sur la partie représentation de connaissance et raisonnement
du Web sémantique. La partie consistant à acquérir des données pour l'y intégrer fait
aussi appel aux techniques d'ingénierie des connaissances (chapitre I.20) , de traitement
de la langue (chapitre III.5) et d'apprentissage (chapitre I.9) .
C'est un terrain d'application la plupart du temps exigeant : l'échelle est gigan­
tesque, les utilisateurs sont pressants. Qui plus est, les techniques développées en in­
telligence artificielle sont confrontées à des contraintes particulières qui obligent à les
adapter (par exemple, les contraintes réseaux interviennent dans le raisonnement et
bientôt les contraintes sociales imposeront de nouveaux développements) .
C'est aussi un terrain d'application prometteur : chaque technique qui trouvera sa
place au sein des technologies du Web sémantique aura des millions d'utilisateurs.

Références
ADJIMAN, P. , CHATALIC, P. , GoAsoouÉ, F., ROUSSET, M.-C. et SIMON, L. (2006) .
Distributed reasoning in a peer-to-peer setting : Application to the semantic web.
Journal of artificial intelligence research, 25 :269-314.
ALKHATEEB, F., BAGET, J.-F. et EUZENAT, J. (2008) . Constrained regular expressions
in SPARQL. In ARABNIA, H. et SOLO, A., éditeurs : Proceedings of the international
conference on semantic web and web services {SWWS}, Las Vegas (NV US), pages
91-99.
ALKHATEEB, F., BAGET, J.-F. et EUZENAT, J. {2009) . Extending SPARQL with regular
expression patterns (for querying RDF) . Journal of web semantics, 7(2) :57-73.
ANTONIOU, G. et VAN HARMELEN, F. (2008) . A semantic web primer. The MIT press,
2 édition.
ARTALE, A., CALVANESE, D . , KONTCHAKOV, R. et ZAKHARYASCHEV, M. (2009) . The
DL-Lite family and relations. Journal of artificial intelligence research, 36 : 1-69.
BAGET, J.-F. et MUGNIER, M.-L. (2002) . Extensions of simple conceptual graphs :
the complexity of rules and constraints. Journal of artificial intelligence research,
16 :425-465.
B ECK ETT, D. (2004) . RDF /XML syntax specification (revised) . Recommendation,
W3C. http : //www . w3 . org/TR/REC-rdf- syntax/.
BECKETT, D. (2008) . Turtle - terse RDF triple language. Team submission, W3C.
http : //www . w3 . org/TeamSubmission/turtle/.
1 1 1 6 Panorama de l'intelligence artificielle. Volume 3
-

BECKETT, D. (2009) . OWL 2 web ontology language document overview. Recommen­


dation, W3C. http : //www . w3 . org/TR/owl2-overview/.
BERNERS-LEE, T. ( 1998) . Design issue : What the semantic web can represent. http :
//www . w3 . org/Designissues/RDFnot . html.
BERNERS-LEE, T. (2006) . Design issue : Linked data. http : //www . w3 . org/
Designissues/LinkedData.
BERNERS-LEE, T., FIELDING, R. et MASINTER, L. ( 1998) . Uniform resource identifiers
(URI) : Generic syntax. RFC 2396, IETF. http : //www . ietf . org/rfc/rfc2396 . txt .
BIEZUNSKI, M., B RYAN, M. et NEWCOMB, S. (1999) . Topic maps : Information techno­
logy - document description and markup languages. Standard 13250 :2000, ISO /IEC.
http : //www . y12 . doe . gov/sgml/sc34/document/0129 . pdf .
BIZER, C . , LEHMANN, J., KOBILAROV, G., AUER, S., BECKER, C . , CYGANIAK, R. et
HELLMANN, S. (2009) . DBpedia : a crystallization point for the web of data. Journal
of web semantics, 7(3) : 1 54-165.
BoBILLO, F. et STRACCIA, U. (2009) . Fuzzy description logics with general t-norms
and datatypes. F'uzzy sets and systems, 160(23) :3382-3402.
BOLEY, H., HALLMARK, G., KIFER, M., PASCHKE, A., POLLERES, A. et REYNOLDS, D.
(2013) . RIF core dialect. Recommendation, W3C. http : //www . w3 . org/TR/rif- core/.
BORGIDA, A. et SERAFIN!, L. (2003). Distributed description logics : Assimilating
information from peer sources. Journal on data semantics, I : 153-184.
B OUQUET, P. , GIUNCHIGLIA, F., VAN HARMELEN, F., SERAFIN!, L. et STUCKENSCH­
MIDT, H. (2004) . Contextualizing ontologies. Journal of web semantics, 1 ( 1 ) :325-
343.
BRICKLEY, D. et G UHA, R. (2004) . RDF vocabulary description language 1.0 : RDF
schema. Recommendation, W3C. http : //www . w3 . org/TR/rdf-schema/.
CALÏ, A., G OTTLOB, G. et LUKASIEWICZ, T. (2009) . A general datalog-based frame­
work for tractable query answering over ontologies. In Proc. 28th A CM Principle of
Database Systems conference {PODS), Providence {RI US}, pages 77-86.
CALVANESE, D . , DE GIACOMO, G., LEMBO, D., LENZERINI, M. et ROSATI, R. (2007) .
Tractable reasoning and efficient query answering in description logics : the DL-Lite
family. Journal of automated reasoning, 39(3) :385-429.
CALVANESE, D . , GIACOMO, G. D . , LEMBO, D . , LENZERINI, M. et ROSATI, R. (2008) .
Inconsistency tolerance in P2P data integration : An epistemic logic approach. In­
formation systems, 33(4-5) :360-384.
DAVID, J . , G UILLET, F. et BRIAND, H. (2007) . Association rule ontology matching
approach. International journal of semantic web information systems, 3(2) :27-49.
DEAN, M. et S CHREIBER (EDS . ) , G. (2004) . OWL web ontology language reference.
Recommendation, W3C. http : //www . w3 . org/TR/ owl-ref /.
DOAN, A.-H. , MADHAVAN, J., DOMINGOS, P. et HALEVY, A. (2004) . Ontology mat­
ching : a machine learning approach. In STAAB, S. et STUDER, R. , éditeurs : Handbook
on ontologies, chapitre 18, pages 385-404. Springer Verlag, Berlin (DE) .
EHRIG, M., STAAB, S. et SURE, Y. (2005) . Bootstrapping ontology alignment methods
with APFEL. In Proc. 4th International Semantic Web Conference {ISWC), volume
4. Web sémantique - 1 1 1 7

3729 de Lecture notes in computer science, pages 186-200, Galway (IE) .


EUZENAT, J. (1996) . Hytropes : a www front-end to an object knowledge manage­
ment system. In Proc. 1 Oth demonstration track on knowledge acquisition workshop
(KA W), Banff {CA), pages (62) 1-12.
EUZENAT, J. (2002) . An infrastructure for formally ensuring interoperability in a he­
terogeneous semantic web. In CRUZ, 1., DECKER, S., EUZENAT, J. et McGUINNESS,
D., éditeurs : The emerging semantic web, pages 245-260. IOS press, Amsterdam
(NL) .
EUZENAT, J. et SHVAIKO, P. (2007) . Ontology matching. Springer, Heidelberg ( DE ) .
EUZENAT ( ED . ) , J. (2002) . Research challenges and perspectives of the semantic web.
EU-NSF strategic report, ERCIM, Sophia Antipolis (FR) . http : //www . ercim . org/
EU-NSF/semweb . html.
FARQUHAR, A., FrKES, R. , PRATT et RICE (1995). Collaborative ontology construction
for information integration. Rapport technique 63, Knowledge system laboratory,
Stanford university, Stanford (CA US) .
FENSEL, D., DECKER, S., ERDMANN, M. et STUDER, R. (1998) . Ontobroker : The very
high idea. In Proc. 11th International Florida Artificial Intelligence Research Society
Conference (FLAIRS), Sanibel Island (FL US), pages 131-135.
FENSEL, D., HENDLER, J., LIEBERMAN, H. et WAHLSTER, W. , éditeurs (2003) . Spin­
ning the Semantic Web : Bringing the World Wide Web to Its Full Potential. The
MIT Press.
GHILARDI, S., LUTZ, C. et WOLTER, F. (2006) . Did l damage my ontology ? a case for
conservative extensions in description logics. In Proc. 1 Oth International conference
on principles of knowledge representation and reasoning, Lake District {UK), pages
187-197.
GLIMM, B. et ÜGBUJI, C. (201 1). SPARQL 1 . 1 entailment regimes. Working draft,
W3C. http : //www . w3 . org/TR/sparql11- entailment .
GROSOF, B . , HoRROCKS, 1., VoLz, R. et DECKER, S. (2003) . Description logic pro­
grams : combining logic programs with description logic. In Proc. 12th World Wide
Web conference, Budapest (HU), pages 48-57.
HARRIS, S. et SEABORNE, A. (2012) . SPARQL 1 . 1 query language. Proposed recom­
mendation, W3C. http : //www . w3 . org/TR/sparql1 1-query.
HAYES, P. (2004) . RDF semantics. Recommendation, W3C. http : //www . w3 . org/TR/
rdf-mt/.
HITZLER, P. , KROTZSCH, M. et RUDOLPH, S. (2009) . Foundations of semantic web
technologies. Chapman & Hall/CRC,.
HOGAN, A., HARTH, A. et POLLERES, A. (2009) . Scalable authoritative OWL reasoning
for the web. International journal of semantic web information Systems, 5(2) :49-90.
HORROCKS, I., PATEL-SCHNEIDER, P. , BoLEY, H., TABET, S . , G ROSOF, B. et DEAN,
M. (2004) . SWRL : a semantic web rule language combining OWL and RuleML.
http : //www . w3 . org/Submission/SWRL/.
HORROCKS, 1., PATEL-SCHNEIDER, P. et van HARMELEN, F. (2003) . From SHIQ and
RDF to OWL : The making of a web ontology language. Journal of web semantics,
1 1 1 8 Panorama de l'intelligence artificielle. Volume 3
-

1 ( 1 ) : 7-26.
HORROCKS, I. et SATTLER, U. ( 2007) . A tableau decision procedure for shoiq. Journal
of automated reasoning, 39 ( 3 ) :249-276.
HUSTADT, u., MOTIK, B. et SATTLER, u. ( 2007) . Reasoning in description logics by a
reduction to disjunctive datalog. Journal of automated reasoning, 39 ( 3 ) :351-384.
HUSTADT, u., MOTIK, B. et SATTLER, u. ( 2008 ) . Deciding expressive description logics
in the framework of resolution. Information and computation, 206 ( 5 ) :579-601 .
JIMENEZ Rmz, E . , CUENCA GRAU, B . , HORROCKS, I . et BERLANGA, R . ( 2009 ) . On­
tology integration using mappings : Towards getting the right logical consequences.
In Proc. 6th European Semantic Web Conference (ESWC}, volume 5554 de Lecture
notes in computer science, pages 173-188, Hersounisous ( GR) .
KALFOGLOU, Y. et SCHORLEMMER, M. ( 2003 ) . Ontology mapping : the state of the
art. The knowledge engineering review, 18 ( 1 ) : 1-31 .
KLYNE, G. et CARROLL, J. ( 2004 ) . RDF concepts and abstract syntax. Recommenda­
tion, W3C. http : //www . w3 . org/TR/rdf- concepts/.
LASSILA, O . et SWICK, R. ( 1999 ) . Resource description framework ( RDF ) model
and syntax specification. Recommendation, W3C. http : //www . w3 . org/TR/ 1999/
REC-rdf- syntax- 19990222/.
LEVY, A. et ROUSSET, M.-C. ( 1998 ) . Combining Horn rules and description logics in
CARIN. Artificial intelligence, 104 ( 1-2 ) : 165-209.
LUKE, S., SPECTOR, L., RAGER, D. et HENDLER, J. ( 1997) . Ontology-based web agents.
In Proc. lst International Conference on Autonomous Agents, pages 59-66.
LUTZ, C . , WALTHER, D. et WOLTER, F. ( 2007) . Conservative extensions in expressive
description logics. fn Proc. 20th International joint conference on artificial intelli­
gence, Hyderabad {IN}, pages 453-458.
MAO, M . , PENG, Y. et SPRING, M. ( 2010 ) . An adaptive ontology mapping approach
with neural network based constraint satisfaction. Journal of web semantics, 8 ( 1 ) : 14-
25.
MEILICKE, c., STUCKENSCHMIDT, H. et TAMILIN, A. ( 2009 ) . Reasoning support for
mapping revision. Journal of logic and computation, 19 ( 5 ) :807-829.
MILES, A. et BECHHOFER, S. ( 2009 ) . SKOS simple knowledge organization system :
Reference. Recommendation, W3C. http : //www . w3 . org/TR/skos-reference.
MOTIK, B . , G RAU, B. C . , HoRROCKS, 1 . , Wu, Z., FoKOUE, A. et LUTZ, C. ( 2009a) .
OWL 2 web ontology language profiles. Recommendation, W3C. http : //www . w3 .
org/TR/owl2-profiles/.
MOTIK, B., PATEL-SCHNEIDER, P. et CUENCA GRAU, B. ( 2009b ) . OWL 2 web on­
tology language direct semantics. Recommendation, W3C. http : //www . w3 . org/TR/
owl2-direct- semant ics/.
MOTIK, B., PATEL-SCHNEIDER, P. et PARSIA, B. ( 2009c ) . OWL 2 web ontology lan­
guage structural specification and functional-style syntax. Recommendation, W3C .
http : //www . w3 . org/TR/owl2-syntax/.
MOTIK, B. et ROSATI, R. ( 2010 ) . Reconciling description logics and rules. Journal of
the ACM, 57 ( 5 ) .
4. Web sémantique - 1 1 1 9

MOTIK, B., SHEARER, R. et HORROCKS, 1. (2009d) . Hypertableau reasoning for des­


cription logics. Journal of artificial intelligence research, 36 : 165-228.
PAN, R. , DING, Z., Yu, Y. et PENG, Y. (2005) . A Bayesian network approach to
ontology mapping. In Proc. 4th International Semantic Web Conference (ISWC},
volume 3729 de Lecture notes in computer science, pages 563-577, Galway (IE) .
PATEL-SCHNEIDER, P. , HAYES, P. et HORROCKS, 1. (2004) . OWL web ontology lan­
guage semantics and abstract syntax. Recommendation, W3C. http : //www . w3 . org/
TR/owl-absyn/.
P ÉREZ, J., ARENAS, M. et GUTIERREZ, C. (2009) . Semantics and complexity of
SPARQL. ACM transactions on database systems, 34(3) : 16.
P ÉREZ, J., ARENAS, M. et GUTIERREZ, C. (2010) . nSPARQL : A navigational language
for RDF. Journal of web semantics, 8(4) :255-270.
PRUD 'HOMMEAUX, E. et SEABORNE ( ED . ) , A. (2008) . SPARQL query language for
RDF. Recommendation, W3C. http : //www . w3 . org/TR/rdf- sparql-query.
PÜHRER, J . , HEYMANS, S. et EITER, T. (2010) . Dealing with inconsistency when
combining ontologies and rules using DL-programs. In Proc. 7th Extended Semantic
Web Conference (ESWC}, Hersounissos (GR}, page June.
SERAFIN!, L. et TAMILIN, A. (2005) . DRAGO : Distributed reasoning architecture for
the semantic web. In Proc. 2nd European Semantic Web Conference (ESWC}, volume
3532 de Lecture notes in computer science, pages 361-376, Hersounisous (GR) .
SHVAIKO, P. et EUZENAT, J. (2013) . Ontology matching : state of the art and future
challenges. IEEE Transactions on knowledge and data engineering, 25(1) : 158-176.
SIRIN, E. et PARSIA, B. (2007) . SPARQL-DL : SPARQL query for OWL-DL. In Proc.
3rd OWL Experiences and Directions Workshop (O WLED}, Innsbruck (AT).
STOILOS, G., STAMOU, G. , PAN, J . , TZOUVARAS, V. et HORROCKS, 1. (2007) . Reasoning
with very expressive fuzzy description logics. Journal of artificial intelligent research,
30 :273-320.
STUMME, G. et MA.OCHE, A. (2001). FCA-Merge : Bottom-up merging of ontologies. In
Proc. 1 7th International Joint Conference on Artificial Intelligence (IJCAI}, pages
225-234, Seattle (WA US) .
van HARMELEN, F., PATEL-SCHNEIDER, P. et HORROCKS, 1. (2001). Reference
description of the DAML + OIL ontology markup language. Note, W3C. http :
//www . daml . org/2001/03/reference . html.
VOLTZ, R. (2004) . Web Ontology Reasoning with Logic Databases. Thèse de doctorat,
Universitat Fridericiana zu Karlsruhe.
Xu, L. et EMBLEY, D. (2003) . Discovering direct and indirect matches for schema
elements. In Proc. Bth International Conference on Database Systems for Advanced
Applications (DASFAA), pages 39-46, Kyoto (JP) .
ZIMMERMANN, A. (2008) . Sémantique des connaissances distribuées. Thèse de doctorat,
Université Joseph-Fourier.
ZIMMERMANN, A. et EUZENAT, J. (2006) . Three semantics for distributed systems and
their relations with alignment composition. In Proc. 5th conference on International
semantic web conference (ISWC), Athens (GA US}, pages 16-29.
1 1 20 Panorama de l'intelligence artificielle. Volume 3
-

ZIMMERMANN, A. et LE Duc, C. (2008) . Reasoning on a network of aligned ontologies.


In Proc. 2nd International conference on web reasoning and rule systems {RR),
Karlsruhe (DE}, pages 43-57.
ZURAWSKI, M., SMAILL, A. et ROBERTSON, D. (2008) . Bounded ontological consistency
for scalable dynamic knowledge infrastructures. In Proc. 3rd Asian Semantic Web
Conference {ASWC}, volume 5367 de Lecture notes in computer science, pages 212-
226, Bangkok (TH) .
5. Intelligence artificielle et langage - 1 1 2 l

Chapitre 5

Intelligence artificielle et
langage

Ce chapitre donne un aperçu du rôle de l'intelligence artificielle dans le traitement


automatique des langues. Notre fil conducteur est le développement chronologique des
systèmes de traitement automatique des langues (section 5.2) . Ce survol est nécessaire­
ment partiel et subjectif ; plutôt que de donner une introduction générale au traitement
automatique des langues, il s'intéresse plus particulièrement aux aspects logiques et
discursifs (section 5.3) et aux apports de l'apprentissage automatique (section 5.4) .

5.1 Introduction
L'intelligence artificielle (IA) a pour but de comprendre et de modéliser par des
moyens informatiques l'intelligence humaine. Or, parmi les traits les plus frappants
des humains, indices de leur intelligence, on trouve leur capacité à utiliser un sys­
tème langagier pour communiquer, ce système langagier étant bien plus complexe que
n'importe autre système de communication utilisé parmi toutes les espèces animales
connues. Depuis le début de l'informatique, les chercheurs se sont intéressé aux proces­
sus du traitement du langage humain par des méthodes informatiques et ce, à tous les
niveaux du système langagier : c'est le domaine du traitement automatique des langues
(TAL ; encore appelé traitement automatique du langage naturel, linguistique informa­
tique, linguistique computationnelle, voire ingénierie linguistique, selon la facette sur
laquelle on souhaite mettre l'accent) . Mais les principales interactions et contributions
de l'IA à la linguistique ont eu lieu dans le domaine de la sémantique et de la prag­
matique, c'est-à-dire dans la modélisation du contenu d'une phrase, d'un texte ou d'un
dialogue.
D'un point de vue linguistique, le contenu d'une phrase est capturé au moins en
partie par un formalisme qui donne les conditions de vérité de la phrase, c'est-à-dire les
conditions qui devraient s'appliquer pour que la phrase soit vraie. Les linguistes formels
Auteurs : NICHOLAS ASHER, LAURENCE DANLOS et PIERRE ZWEIGENBAUM.
1 1 22 Panorama de l'intelligence artificielle. Volume 3
-

sont habitués à utiliser le formalisme d'un langage formel comme les logiques du pre­
mier ordre ou d'ordre supérieur. Ces conditions sont représentées par un ensemble de
modèles rendant vraie la formule logique qui est la traduction d'une phrase en langue
naturelle. Pour tester la justesse de cette traduction, ces linguistes utilisent les consé­
quences logiques du langage formel pour tester leurs analyses sémantiques. Une ana­
lyse sémantique reçoit un appui empirique en fonction de la justesse des conséquences
de l'analyse sémantique. Par exemple, une analyse de la sémantique des syntagmes
adverbiaux comme à minuit ou avec enthousiasme qui prédit que (5.lb-d) sont des
conséquences logiques de l'analyse de (5. la) est mieux vérifiée a priori qu'une analyse
de (5. la) dont (5. lb-d) ne sont pas des conséquences logiques.
(5. 1) a. Jean a beurré son toast avec enthousiasme à minuit.
b. Jean a beurré son toast avec enthousiasme.
c. Jean a beurré son toast.
d. Jean a beurré quelque chose.
Une propriété importante pour l'analyse sémantique est la compositionnalité, dont
il existe plusieurs versions. En gros la compositionnalité nous dit que le contenu d'une
expression complexe doit être une fonction des contenus des expressions qui la com­
posent, de leur structure syntaxique, et, depuis l'arrivée de la sémantique dynamique,
que l'on discutera plus en détail ci-dessous, du contexte discursif et même du contexte
énonciatif. Pour beaucoup de philosophes et de linguistes, la division entre la séman­
tique et la pragmatique se situe dans l'exploitation du contexte discursif et énonciatif.
Mais pour beaucoup d'autres, et au moins pour certains d'entre nous, cette division
est un peu arbitraire, car on peut citer beaucoup de travaux où le contexte discursif
interagit même avec le sens des mots [Kamp, 1973 ; Asher, 2011]. Dans ce qui suit nous
insisterons peu sur la division entre sémantique et pragmatique. Nous examinerons en
revanche plus en détail l'idée que donner le sens d'une phrase ou d'un mot isolé n'est
pas adéquat pour capter le contenu de cette phrase ou de ce mot dans un contexte
particulier : l'unité de l'analyse conceptuelle du contenu doit être au moins le discours.
La linguistique est une science ancienne. Les études linguistiques remontent au
cinquième siècle avant notre ère avec les travaux syntaxiques du grammairien indien
Panini et les discussions sur le sens des mots dans le Cratule de Platon. Depuis les
révolutions chomskiennes et montagoviennes des années cinquante et soixante du siècle
dernier, nous disposons de modèles bien formalisés en syntaxe et en sémantique. Le
grand problème est que très peu de ces modèles sont opératoires pour plus qu'un sous­
ensemble jouet d'une langue naturelle. Et comme le montrent les recherches venant de
l'IA que nous esquisserons ci-dessous, il y a de fait un gouffre entre ces théories et un
calcul effectif du sens d'un texte ou d'un discours.

5.2 Les premiers efforts


Les premiers efforts des chercheurs en IA sur le langage ont consisté à modéliser
les informations contenues dans un texte et les échanges entre humains. Pour des rai­
sons propres aux principaux chercheurs concernés, ces recherches ne se sont appuyées
ni sur les descriptions ni sur les théories existantes en linguistique (par exemple, les
5. Intelligence artificielle et langage - 1 1 23

théories de la structure syntaxique de Chomsky (Chomsky, 1964, 1965] , et la gram­


maire de Montague (Thomason, 1974] pour la sémantique) . Il faut noter que si les
pionniers en IA s'intéressaient peu à la syntaxe et la sémantique de la phrase, c'est
parce qu'ils se rendaient au moins implicitement compte de la dépendance contextuelle
du sens et des phrases et voulaient d'emblée modéliser les informations véhiculées dans
un texte entier, voire dans un discours ou dans une conversation. À rebours, des cher­
cheurs comme Marvin Minsky et Roger Schank ont su profiter du développement de
langages de programmation de haut niveau comme LISP pour écrire des « grammaires
sémantiques » modélisant quelques textes très simples (Minsky, 1969, 1994 ; Schank et
Abelson, 1977] . Ces grammaires consistaient en une structure avec des cases destinées
à être remplies par une représentation des clauses ou des phrases du texte, en utilisant
des relations liées aux verbes et à leurs · arguments. Ces structures étaient appelées
« scripts » ou « frames » et codifiaient les connaissances typiques sur un objet ou un
événement, comme aller au restaurant. Les scripts étaient déclenchés par la présence
d'un mot dans le texte ou dans le titre du texte, et comportaient des prédicats et des ar­
guments. Ces arguments pouvaient être des variables destinées à être liées dans le texte
aux arguments des verbes correspondant à des prédicats. En exploitant des scripts, un
programme pouvait répondre à des questions simples comme Qui a mangé au restau­
rant ?, même si cette information n'était pas explicite, en instanciant les participants
du script avec des noms. Une fois le script instancié, la question posée pouvait être
mise en correspondance avec les éléments du script et le programme pouvait mettre
en correspondance le sujet du verbe manger dans la question et l'acteur du prédicat
MANGER dans le script.
(5.2) Alice est allée au restaurant. Alice a commandé le plat du jour.
Les faiblesses de ces propos ont été évidentes dès le début. Les représentations sé­
mantiques étaient fragiles. Pour presque chaque nouveau texte, il fallait introduire un
nouveau script dans la bibliothèque. De plus, les systèmes inférentiels sous-jacents aux
scripts étaient faibles et les informations que l'on pouvait extraire d'un script se rame­
naient de ce fait en gros à ce que l'on avait déjà mis dans le script. Par ailleurs, l'interface
entre le langage et les scripts était naïve et ne pouvait traiter que des textes très simples
construits par les auteurs des scripts eux-mêmes. Plus ou moins à cette époque, Joseph
Weizenbaum avait construit presque une parodie de cette approche en développant le
système conversationnel Eliza (Weizenbaum, 1966] . La méthode informatique derrière
ELIZA était encore plus simple que celle des scripts (la reconnaissance de formes) . Le
système simulait un psychothérapeute et avait dans une bibliothèque des phrases en
anglais. Il pouvait reconnaître des mots comme father, mother dans un énoncé écrit
par un humain (le « patient » ) . ELIZA choisissait alors au hasard l'une des phrases de
sa bibliothèque comprenant le même mot pour répondre à son interlocuteur. Avec un
choix judicieux de phrases dans la bibliothèque, ELIZA faisait croire à certains de ses
interlocuteurs qu'elle était une machine pensante et langagière. ELIZA avait passé le
test de Turing ! L'article du philosophe John Searle, « Chinese Room Experiment », a
effectué une critique sévère de ce type d'approche (Searle, 1980] . L'argument de Searle
est simple : il construit une « expérience de pensée » où une personne uniquement an­
glophone exécute dans une chambre les instructions d'un programme pour répondre à
des questions en chinois. La personne reçoit une question en chinois, c'est-à-dire pour
1 1 24 Panorama de l'intelligence artificielle. Volume 3
-

lui une suite de caractères ou chiffres et sort, selon ses instructions une autre suite de
caractères représentant une réponse en chinois (voir la discussion dans le chapitre 3.9) .
L'intuition de Searle et de beaucoup de ses lecteurs est que cette personne n'a aucune
idée du contenu des expressions en chinois qu'elle manipule. Manifestement, l'approche
des scripts et frames avait échoué à réaliser un objectif principal de ses inventeurs -
créer une machine qui comprenait le langage humain.
Les raisons pour lesquelles les scripts ont largement été abandonnés sont nom­
breuses. Schank et Minsky voulaient traiter toute la complexité du système langagier
sans étudier ni prendre en compte la complexité des interfaces entre syntaxe et séman­
tique, entre sémantique et pragmatique, et entre phrase et discours. Une analyse de
l'interface entre syntaxe et sémantique, telle qu'elle avait déjà été esquissée par le lin­
guiste et philosophe Richard Montague dans les années 60 donnait un moyen de générer,
à partir d'informations lexicales, des représentations sémantiques subtiles écrites dans
un langage logique avec une sémantique bien définie, contenant entre autres une notion
puissante de conséquence logique. Les grammaires de Montague utilisaient pour calculer
le sens le langage du lambda-calcul simplement typé et la notion de conséquence était
celle de la logique d'ordre supérieur ou plus tard celle définie sur l'ensemble des modè­
les généralisés de Henkin pour ce langage. Les types de base employés par Montague
permettaient une sémantique intensionnelle des expressions, une sémantique bien plus
raffinée qu'une sémantique dont les assignations d'extensions aux termes et de valeurs
de vérité aux phrases ne suffisaient pas pour capter leur sens.
Les premiers chercheurs en IA sur le TAL ignoraient ou rejetaient cet axe mon­
tagovien de recherche. De plus, rappelons que la méthode de scripts était très fragile
(peu robuste, dirait-on maintenant) et sans système de raisonnement. Les contenus que
leurs auteurs voyaient dans leurs scripts n'étaient pas là pour une raison fondamentale.
On peut dire qu'un ordinateur ou un humain comprend un message avec un sens s si
le comportement du système change d'une manière particulière et prédictible en vertu
de s et pas d'un autre sens non équivalent s'. Les prédicats des scripts n'étaient que
des connecteurs entre messages non analysés et donc ne pouvaient ni accorder un sens
particulier ni distinguer entre deux messages possédant des sens différents.
Bien que cette approche n'ait pas abouti à des résultats à la hauteur des objectifs
de ses inventeurs, elle est l'ancêtre d'autres approches encore utilisées en extraction
d'informations (dans les campagnes Message Understanding Conferences et ensuite)
[MUC5, 1993) , qui se servent de patrons pour extraire des informations sur des sujets
ciblés. Cette approche a aussi démontré l'importance des connaissances conceptuelles
pour la compréhension d'un texte, et a donné une méthode pour isoler dans un texte
les objets et événements importants. Cette méthode est à la base d'outils de TAL
contemporains comme les systèmes de reconnaissance d'entités nommées ( named entity
recognition ou NER) . Néanmoins, il y a maintenant un consensus pour dire que les
techniques à base de patrons et de reconnaissance de formes ne peuvent donner que
des informations sémantiques de surface ( shallow semantics) . Les idées des scripts ont
été adoptées et persistent aussi dans la sémantique lexicale, c'est-à-dire la description
et la modélisation du contenu des mots. Le projet FrameNet de Berkeley [Johnson
et Fillmore, 2000) , initialement conçu comme une ressource informatique lexicale pour
l'anglais et maintenant adapté ou en cours d'adaptation à plusieurs autres langues dont
5. Intelligence artificielle et langage - 1 1 25

le français, l'espagnol et l'allemand, associe des mots non fonctionnels (c'est-à-dire les
verbes, adjectifs et noms communs) à des cadres ou scripts. Ce projet lexical est moins
ambitieux que l'approche de Schank ; il ne prétend pas construire un système qui saisit
les sens de mots. Mais il hérite aussi des difficultés des scripts tant qu'on ne leur a pas
défini de sémantique claire ni de système pour exploiter cette sémantique.
Le besoin d'exploiter les représentations du contenu plus en profondeur avait bien
été perçu. Un courant de recherche en IA sur le langage a donc basculé vers l'étude et
la modélisation en profondeur de la sémantique et de la pragmatique par des méthodes
logiques.

5 .3 La logique, l'IA et le TAL


Le développement des démonstrateurs automatiques pour la logique du premier
ordre, ainsi que les systèmes de raisonnement plausible ou non monotone de John
McCarthy et Ray Reiter, deux figures de l'intelligence artificielle, ont aussi beaucoup
influencé le traitement automatique des langues, surtout au niveau du discours où l'on
doit citer les travaux de Jerry Hobbs et ceux de Grosz et Sidner (Grosz, 1979 ; Grosz
et Sidner, 1986] .

5.3. 1 Logique pour la syntaxe et la sémantique


Pendant les années 1980, différents chercheurs, armés de méthodes logiques, des
méthodes de réécriture et de résolution de systèmes de contraintes, se sont penchés
sur l'interface syntaxe/sémantique pour répondre à certaines faiblesses de l'approche
des scripts. L'informaticien Ron Kaplan s'est allié avec la linguiste Joan Bresnan pour
construire un nouveau formalisme syntaxique, la Lexical Functional Grammar ou LFG,
qui combinait des méthodes computationnelles avec des descriptions linguistiques (Bres­
nan, 1982 ; Kaplan et Bresnan, 1983] . Il faut mentionner aussi d'autres formalismes
similaires comme la Head driven Phrase Structure Grammar ou HPSG (Pollard, 1984 ;
Pollard et Sag, 1987] et les grammaires d'arbres adjoints (TAG, (rem , basés sur des
lexiques sophistiqués mais utilisant des règles de combinaison relativement simples
comme l'opération d'unification de structures de traits. La logique a aussi permis à
des chercheurs comme Ed Stabler et Mark Johnson de codifier les grammaires dites
« Gouvernement et Liage » de Chomsky en utilisant des formulations dans la logique
du premier ordre (Johnson, 1989] . Ces travaux ont donné lieu a des analyseurs syn­
taxiques automatiques qui pouvaient construire une forêt d'arbres pour des phrases
complexes, reflétant une analyse linguistique fine.
En parallèle, des études approfondies se poursuivaient sur les grammaires de Lam­
bek (Lambek, 1958] et les grammaires catégorielles(Oehrle et al. , 1988] . Une grammar
catégorielle consiste de deux parties, une lexique qui assigne à chaque mot un type ou
catégorie, et un ensemble de règles d'inférence qui calcule le type d'une séquence de
mots. Bien que cette grammaire soit une grammaire de syntagmes (prhase structure
grammar) comme ceux de Chomsky, les règles sont beaucoup plus proches, ou sont
même identiques, à des axiomes en logique. En faite, la grammaire compositionnelle a
un lien étroit avec le lambda calcul simplement typé. L'intérêt de cette grammaire est
1 1 26 Panorama de l'intelligence artificielle. Volume 3
-

que les axiomes sont fixés une fois pour toutes et encodent la structure compositionnelle
d'un langage, et donc la grammaire est déterminée simplement par le lexique.
Sur le plan sémantique, les développements et fertilisations mutuelles entre intel­
ligence artificielle et linguistique se poursuivaient aussi mais le progrès sur le plan de
machines plus « intelligentes » allait à petits pas et sans grand succès. L'idée, encore
présente dans la linguistique formelle de nos jours, était de construire à partir d'une
représentation syntaxique une formule en logique (du premier ordre ou d'ordre supé­
rieur) pour représenter le contenu d'une phrase ou d'un texte en termes de conditions
de vérité ou d'évaluation. En d'autres termes, le sens était défini par les modèles de
cette formule logique. Au vu de la complétude de la logique du premier ordre, on pou­
vait espérer raisonner de façon automatisée sur le contenu pour au moins une fraction
importante de la langue.
Pour passer de la syntaxe à une formule logique représentant le sens d'une phrase,
il faut (1) construire des entrées lexicales, (2) combiner ces entrées lexicales, et (3)
donner une portée particulière à tout opérateur introduit dans la traduction ainsi faite.
La deuxième étape avait été largement étudiée par Montague et d'autres sémanticiens
de son école en utilisant le lambda-calcul typé de Church. Par exemple, d'après l'arbre
syntaxique pour la phrase (5.3) , on a les informations que aime est un syntagme verbal
avec un temps (présent) , un verbe aimer, et un objet direct Bob.
(5.3) Alice aime Bob.
En traduisant Bob comme une constante logique b et en donnant au verbe une re­
présentation dans la logique d'ordre supérieur avec un opérateur >. de Church (1940] ,
>.x>.T>.yT(aime(y, x) ) , où T est un opérateur de type ( e --t t) --t ( e --t t) qui sera
spécifié par le temps du verbe, les règles de réduction dans le >.-calcul prédisaient la
formule (5.4) pour le syntagme verbal.
(5.4) >.y Présent(aime (y, b))
qui pourrait ensuite se combiner avec la traduction du sujet pour produire une formule
logique donnant les conditions de vérité pour la phrase complète. L'école de Montague a
démontré comment généraliser cette procédure à beaucoup de constructions complexes
des langues naturelles, y compris les temps verbaux, les quantificateurs, les modalités,
les ellipses, la coordination, les propositions relatives.
Par contre la première étape consistant à donner des représentations adéquates aux
mots posait et pose encore beaucoup de problèmes si l'on veut doter une machine de la
capacité de raisonner sur les informations lexicales de façon logique. Nous reviendrons à
ces problèmes plus loin. Pour l'instant, nous discutons de la dernière étape de la chaîne
de traitement que nous venons d'esquisser. Cette troisième étape consiste à donner
des portées aux quantificateurs et opérateurs qui se trouvaient dans la traduction en
logique d'un texte. Et c'est là où la linguistique formelle a eu du mal avec les formalismes
standard en logique du premier ordre. Prenons un exemple banal.
(5.5) Un homme est entré dans le bar. Il fumait un cigare.
Le pronom il de la deuxième phrase dépend clairement du quantificateur introduit par
le déterminant un. Mais dans des méthodes de logique classique la portée du quantifi­
cateur s'arrête au maximum à la fin de la première phrase. Il n'y avait pas de solution
élégante ni dans la logique classique ni dans la grammaire de Montague. Pour cela les
5. Intelligence artificielle et langage - 1 1 27

linguistes ont réinventé une sémantique pour les textes, la sémantique « dynamique »,
qui était très similaire à la sémantique des programmes. Dans la sémantique des pro­
grammes, nous rappelons que chaque commande effectue soit une transition de l'état
de la machine soit un test sur l'état courant. Une action possible consiste à donner une
valeur aléatoire à une variable liée intuitivement par un quantificateur existentiel ; il est
très important pour les programmes que cette valeur assignée à la variable soit propa­
gée dans les états suivants de la machine, à moins qu'elle ne soit remplacée. C'est aussi
ce qui se passe dans l'exemple (5.5) : la valeur de la variable liée par le quantificateur
existentiel est « propagée » vers l'état qui est l'entrée du traitement de la deuxième
phrase, et celle-ci peut alors être reprise par l'interprétation. En construisant diverses
méthodes de sémantique dynamique, les linguistes avaient découvert ou réinventé les
ressources de l'informatique théorique qui sont utilisées pour la sémantique des lan­
gages de programmation [Kamp et Reyle, 1993 ; Groenendijk et Stokhof, 1991 ; Harel,
1984] . Depuis il y a eu des interactions intéressantes entre les méthodes abstraites de
sémantique pour les langages de programmation (la méthode des continuations) et la
sémantique pour les langages naturels [de Groote, 2006 ; Barker et Shan, 2006] .
Cette transition à une sémantique dynamique pour les textes a permis de traiter de
façon beaucoup plus sophistiquée les problèmes linguistiques dits « anaphoriques », où
l'interprétation d'un mot ou construction dépend du contexte linguistique précédent.
Au milieu des années 1980, des chercheurs principalement européens, en particulier
les linguistes et informaticiens qui s'intéressaient à la sémantique dynamique, dans le
groupe de recherche de Hans Kamp parmi d'autres, ont commencé à s'intéresser à
des implémentations de sémantique formelle. Des chercheurs ont utilisé le langage de
programmation PROLOG pour construire des interfaces syntaxe/sémantique pour la
sémantique dynamique et LFG [Frey et al. , 1983] . Ces implémentations continuent de
nos jours avec des analyseurs syntaxiques toujours plus performants et des algorithmes
toujours plus sophistiqués pour l'interface syntaxe/sémantique.
La sémantique dynamique a eu beaucoup de succès depuis les trente dernières an­
nées. Néanmoins, certaines faiblesses sont apparues dans le traitement des expressions
anaphoriques en sémantique dynamique. Cette sémantique ne distingue pas des anté­
cédents multiples qui sont jugés possibles. Or, les recherches en linguistique ont montré
dès la fin des années 1980 que de meilleures prédictions sur l'interprétation de divers
éléments dépendant du contexte discursif pour leur contenu étaient possibles si l'on
concevait le contexte discursif non pas comme une séquence de valeurs assignées à des
variables, mais plutôt comme une structure relationnelle comprenant des constituants
discursifs reliés par des relations discursives ou rhétoriques [Fox, 1987 ; Asher, 1993 ;
Lascarides et Asher, 1993] . Plus tard, des recherches en psychologie et psycholinguis­
tique ont confirmé expérimentalement que la résolution des anaphores dépend de la
structure discursive du texte [Kehler et al. , 2008] .

5.3 .2 Structure discursive


En IA la structure discursive, qui est composée d'éléments de contenu liés entre
eux par des relations donnant leur rôle discursif dans le texte, avait déjà été un sujet
d'étude à la fin des années 1970 et 1980 [Schank et Abelson, 1977 ; Grosz, 1979 ; Hobbs,
1985 ; Polanyi, 1985 ; Grosz et Sidner, 1986] . Ces auteurs avaient suggéré plusieurs
1 1 28 Panorama de l'intelligence artificielle. Volume 3
-

modèles pour une structure discursive. Schank et Abelson d'une part, et Grosz et
Sidner d'autre part, ont développé l'idée, qui a son origine moderne chez le philosophe
Paul Grice [1975) , d'une analyse d'un texte ou dialogue basée sur les intentions et les
plans. Ces chercheurs postulaient que la structure discursive d'un texte correspondait
à la structure d'un plan récursif dans l'esprit du locuteur. Chez Grosz et Sidner, ces
plans étaient composés à l'aide de deux opérateurs ; l'un reliait deux segments d'un
discours si le deuxième segment détaillait ou spécifiait le plan du premier plan ; l'autre
était un opérateur de séquence qui ordonnait les actions dans un plan particulier, de
façon analogue à l'opérateur ";" de la logique dynamique. L'approche de Mann et
Thompson [1986 ; 1987) de la structure discursive continuait dans cette direction, en
enrichissant le nombre et la capacité descriptive des relations intentionnelles reliant
des segments de texte. La fertilisation entre la recherche sur les plans et le discours
a été fertile [Grosz et Kraus, 1993 ; Lochbaum, 1998) . Ces auteurs ont pu profiter des
langages et logiques de planification dans leurs travaux, ainsi que des développements
de modélisations en logique modale des connaissances, croyances et intentions, fournies
par de multiples chercheurs en IA, dont en particulier Joe Halpern, Ron Fagin et Moshe
Vardi [Halpern et al. , 1995) à travers des conférences comme Theoretical Aspects of
Reasoning about Knowledge.
L'approche intentionnelle de la structure discursive avait néanmoins un point faible
qui requérait des hypothèses fortes pour qu'il ne la rende pas implausible. Le problème
était qu'il fallait inférer les intentions des locuteurs à partir de ce qui avait été dit, et que
ces inférences sont souvent incertaines et même fausses. Pour remédier à ce problème, il
fallait poser des hypothèses sur les locuteurs et interlocuteurs. Ces hypothèses, venues
aussi de Grice, supposaient que faisait partie des connaissances communes des partici­
pants d'une conversation le fait que tout locuteur était fortement coopératif avec ses
interlocuteurs et disait ce qu'il croyait être la vérité. Avec ces hypothèses et des axiomes
reliant des traits langagiers avec des intentions particulières (par exemple si le locuteur
posait une question c'était parce qu'il voulait obtenir une réponse informative et véri­
dique) , les chercheurs dans ce domaine avaient réussi à analyser à la main des dialogues
pédagogiques qu'ils avaient construits et à en déduire leur structure discursive.
Les relations de cohérence (dites « rhétoriques » ) ont été aussi utiles non seulement
pour le développement d'une sémantique textuelle mais aussi pour les applications
computationnelles, par exemple le résumé de texte [Marcu, 1997) . Avec des analyseurs
discursifs plus performants, il devient envisageable d'avoir des systèmes sophistiqués
exploitant la structure discursive pour la fouille d'informations ou d'opinions.

5.3.3 Sémantique lexicale


Rappelons qu'un traitement adéquat de la sémantique doit passer par un encodage
du contenu des mots, c'est-à-dire par une réflexion sur la sémantique lexicale. Dans le
cadre logique donné par la grammaire de Montague, chaque élément lexical est repré­
senté par un >.-terme. Par exemple le mot chat set représenté par le terme >.x chat(x) .
En assignant à chaque mot un type approprié et en s'appuyant sur la structure syn­
taxique d'une phrase, les sémanticiens on pu construire la formule logique d'une phrase.
Le problème est que >.x chat(x) ne nous donne pas d'éléments pour faire des inférences à
base d'informations purement lexicales. Par exemple, si l'on veut inférer (5.6a) à partir
5. Intelligence artificielle et langage - 1 1 29

de (5.6b) , nous avons besoin d'informations auxiliaires qui ne viennent pas directement
des entrées lexicales produites dans la tradition sémantique de Montague.
(5.6 ) a. Boris est un chat.
b. Boris est un animal.
La solution à ce problème dans l'approche montagovienne était de construire des pos­
tulats de sens donnant ces inférences, une approche poussée par Dowty [1979] . Mais les
linguistes n'avaient pas vraiment essayé de codifier de manière systématique ces postu­
lats. Dans l'IA deux pistes se sont dégagées pour apporter des techniques pour résoudre
ce problème. La première consiste à essayer d'axiomatiser de façon plus ou moins com­
plète dans la logique du premier ordre les informations associés à des lexèmes, dont
l'exemple de la base de connaissances CYC développée par Douglas Lenat, qui continue
probablement à être l'effort le plus massif en ce sens [Lenat, 1995] . Cette approche est
encore d'actualité dans la discipline de l'ontologie formelle et des conférences comme
FOIS et ISMIS, ainsi que les conférences générales en IA, et a eu le plus de succès avec
l'axiomatisation des informations temporelles et spatio-temporelles.
Une deuxième piste a consisté à utiliser des outils comme les structures de traits et
l'unification, développés pour le traitement de la syntaxe en LFG et HPSG, avec des
treillis de concepts associés à des mots. L'utilisation de systèmes d'héritage comme ceux
examinés par Horty, Thomason et Touretsky [1987] servaient de moteur d'inférence.
L'idée clef de cette approche est de simplifier l'encodage des connaissances lexicales en
utilisant un langage beaucoup moins expressif que la logique du premier ordre. Cette
approche est la plus visible en linguistique dans les travaux de James Pustejovsky [1995]
et sa théorie du lexique génératif. En IA ces techniques sont utilisées dans les domaines
de la terminologie et de l'ontologie : nous renvoyons le lecteur au chapitre 1.20 de cet
ouvrage sur l'ingénierie des connaissances qui décrit les travaux relatifs à l'élaboration
et aux usages des ontologies, et au chapitre 1.5 Raisonner avec des ontologies : logiques
de description et graphes conceptuels.
Cependant ces approches ont eu du mal à se faire accepter dans la sémantique for­
melle. Elles se sont développées sans grand regard pour leurs fondements logiques, et
n'étaient de ce fait pas vraiment en position de produire des connaissances lexicales
sophistiquées dans la forme requise par les approches logiques. Les faiblesses de forma­
lisation et la difficulté d'intégrer les systèmes de traits dans le À-calcul, qui demeure le
moteur principal pour le composition de sens dans la sémantique formelle, ont eu pour
résultat que cette piste n'a pas eu beaucoup d'effet sur la sémantique formelle jusqu'à
présent.
Ces deux approches ne sont pourtant pas exclusives. De nombreux travaux ont
utilisé des langages de représentation des connaissances (voir le chapitre 1.5) possédant
un fondement logique affirmé, comme les Graphes Conceptuels [Sowa, 1984] ou les
Logiques de Description [Brachman et Schmolze, 1985] , pour représenter concepts et
sens de mots. Le couplage à des modèles syntaxiques à base de structures de traits et
de relations prédicat-arguments comme les LFG leur donnait les avantages des deux
approches.
Cependant, comme dans tous les autres cas, la mise en œuvre de ces méthodes sur
des textes réels et en vraie grandeur rencontre plusieurs difficultés. Il faut d'une part
réconcilier la rigidité du À-calcul et la souplesse de la langue, dont la métonymie est
1 1 3 0 Panorama de l'intelligence artificielle. Volume 3
-

un exemple. Les auteurs de Bouaud et al. [1996] examinent ainsi l'expression (5.7) :
(5. 7) la dilatation d'une sténose
Si l'on a défini l'action de « dilater » comme portant sur un objet physique (par exemple
une artère) , et sachant qu'une sténose est un état pathologique (le rétrécissement d'une
artère) 1 , l'expression (5. 7) ne permet pas de construire une représentation satisfaisant
les contraintes énoncées car les types objet et état sont incompatibles. On rencontre ici
un phénomène courant : le fait qu'un mot désignant un état soit employé pour désigner
l'objet qui subit cet état, ce qui constitue une forme particulière de métonymie. Des
mécanismes permettant d'échapper à ces contraintes sont alors nécessaires, comme la
coercition de type (Pustejovsky, 1995] , et demandent de sortir du >.-calcul pour rester
adéquats.
D 'autre part, la description exhaustive pour une langue des représentations lexicales
nécessaires demande soit un effort humain colossal, comme l'a entrepris CYC, soit des
méthodes d'acquisition automatique de connaissances à partir de corpus textuels () ou
d'encyclopédies, ce que l'existence de Wikipédia (http : //www . wikipedia . fr/) rend
aujourd'hui envisageable.

5.3.4 La pragmatique et la logique non monotone


Nous avons déjà mentionné la division classique en linguistique entre la sémantique
et la pragmatique, entre le contenu strict ( « ce qui a été dit » ) et contenu impliqué
( « ce qui a été suggéré » ) . Certains linguistes pensent que cette division est très claire,
d'autres pensent que non. Mais la plupart des linguistes prennent au sérieux l'idée que
le contenu d'un mot, phrase ou discours a un noyau qui donne lieu à des inférences
classiques déductives et une « périphérie » supportant des inférences « molles ». Parmi
ce contenu « périphérique » on trouve les implicatures scalaires. Considérons comme
exemple ce petit échange :
(5.8) a. A : Est-ce que tous les linguistes ont participé à la manifestation ?
b. B : Quelques linguistes y ont participé.
La réponse à la question (5.8a) ne dit pas que tous les linguistes n'étaient pas à la ma­
nifestation, mais elle l'implique. Cette implication est appelée une implicature scalaire.
Notons aussi qu'elle est défaisable. Cela signifie que B peut continuer avec :
(5.8c) B : En effet, ils y étaient tous.
sans rendre sa contribution en (5.8b) inconsistante, ce qui ne serait pas le cas si l'im­
plicature était une conséquence non défaisable.
Les inférences défaisables sont omniprésentes dans la langue et leur maîtrise consti­
tue une partie importante de la compétence linguistique. Ces inférences sont bien sûr
au cœur de l'analyse des implicatures. Mais elles sont présentes aussi dans la déduction
d'une structure discursive pour un texte. Les inférences qui donnent comme conclusion
qu'une relation rhétorique est présente entre deux constituants discursifs sont très sou­
vent des inférences défaisables. Elles jouent aussi un rôle important dans les décisions
d'attachement préférentiel de syntagmes prépositionnels dans un arbre syntaxique :
par exemple,
1. On définit ainsi des « restrictions de sélection ».
5. Intelligence artificielle et langage - 1 13 1

(5 .9) The murderer lunged towards John. John hit the murderer with a hammer.
le syntagme prépositionnel with a hammer peut s'attacher soit au syntagme nominal
the murderer pour préciser la dénotation du syntagme nominal, soit au syntagme verbal
hit the murderer comme adverbe de manière, ce qui serait l'attachement préféré dans
ce contexte discursif. Les inférences défaisables constituent une partie importante du
mécanisme de déduction des liens anaphoriques, comme l'ont montré les travaux de
Megumi Kamayama [1995] . Celle-ci donne comme exemple :
(5. 10) Jean a frappé Arnold Schwarzenegger. Il a eu mal.
Il s'agit ici de déterminer le référent de il. Étant donné les informations générales à
cette époque sur Arnold Schwarzenegger, la résolution préférée mais défaisable pour
le pronom était Jean. Finalement, on peut citer le domaine de la désambiguïsation
lexicale comme un autre champ où sont employées des inférences défaisables. Prenons
par exemple le verbe anglais enjoy. Dans
(5. 1 1) John enjoyed the meal.
le verbe requiert un événement comme objet direct : John a apprécié les plats du repas,
ou encore la conversation du repas, le décor du repas, etc. Or l'interprétation préférée de
cette phrase est que Jean a apprécié les plats du repas. Mais cette interprétation reste
défaisable : John aurait pu dans un autre contexte aimer la conversation ou l'ambiance
bien qu'il ait trouvé les plats médiocres.
C'est l'IA qui a fourni aux linguistes et aux philosophes des formalisations précises
du raisonnement défaisable en développant la logique non monotone. La méthode de
circonscription de John McCarthy [1980] et la logique des défauts de Ray Reiter [1980] ,
développées à la fin des années 70, offraient des cadres formels bien définis pour étudier
le raisonnement défaisable et ont engendré d'autres systèmes formels pour la logique
non monotone, beaucoup d'articles, et une série de colloques internationaux sur ce
thème (voir le chapitre 1.2 de cet ouvrage) . En partie, les formalisations de McCar­
thy et de Reiter répondaient à un défi lancé par l'un des partisans des modèles de
scripts/frames, Marvin Minsky, qui avait dit que la logique ne pouvait pas formaliser
de façon adéquate une phrase comme
(5. 12) Les oiseaux volent.
(penser au cas des autruches) . Depuis, l'étude linguistique des phrases comportant des
syntagmes nominaux « génériques » comme (5. 12) a confirmé que les efforts de Mc­
Carthy et Reiter ont fourni à la linguistique des outils précieux. Ces méthodes et leurs
descendants ont été appliqués à beaucoup de phénomènes linguistiques. Pour n'en citer
que quelques exemples : la présupposition [Mercer, 1987] , l'inférence des relations rhé­
toriques [Lascarides et Asher, 1993 ; Hobbs et al. , 1993 ; Asher et Lascarides, 2003] , les
modalités [Veltman, 1996] , l'analyse des temps verbaux [Asher, 1992] , les implicatures
scalaires [van Rooij et Schultz, 2004] , les syntagmes nominaux génériques [Asher et
Morreau, 1995 ; Pelletier et Asher, 1997] .
Ces approches basées sur des systèmes de raisonnement fournissaient des méca­
nismes puissants pour traiter un certain nombre de phénomènes linguistiques. Elles se
montraient néanmoins encore trop fragiles pour traiter des textes arbitraires et don­
ner une véritable validation empirique des théories sous-jacentes. La manipulation de
l 1 32 Panorama de l'intelligence artificielle. Volume 3
-

l'incertain avec le raisonnement non monotone requérait par exemple un effort d'axio­
matisation considérable pour arriver à modéliser des phénomènes simples. Ici encore,
l'espoir est que le développement des techniques d'apprentissage (voir plus bas, sec­
tion 5.4) et l'arrivée d'analyseurs syntaxiques performants à large couverture rendront
ces méthodes réellement utilisables.

5.3.5 Raisonnement et dialogue


La formalisation du raisonnement par les chercheurs en IA a aussi un rôle très im­
portant dans le dialogue. Il existe plusieurs sortes de raisonnements pertinents pour
l'analyse du dialogue. La première est un raisonnement de coordination entre le lo­
cuteur et l'interlocuteur sur le sens du message ou tour de dialogue. Les recherches
pionnières du philosophe Lewis [1969] ont introduit le concept de jeux de signalisation
où un acteur connaît l'état du monde et émet un signal tandis qu'un autre acteur doit
« interpréter » le signal, c'est-à-dire l'associer à un état du monde possible. L'équilibre
de ces jeux détermine le contenu informationnel du signal. Depuis les travaux de Lewis,
des économistes ont approfondi le concept et apporté beaucoup de résultats et de préci­
sions importantes [Crawford et Sobel, 1982 ; Farrell, 1993 ; Rabin, 1990] . Les linguistes
et philosophes se sont mis à exploiter le formalisme des jeux pour analyser le contenu
des expressions linguistiques, ainsi que les inférences pragmatiques [van Rooij , 2004] .
Mais peu d'attention avait été accordée au développement d'un modèle computationnel
du raisonnement en termes de théorie des jeux jusqu'au début des années 2000 [Bonzon
et al. , 2006] .
Un deuxième type de raisonnement pertinent pour l'analyse du dialogue est celui
activé par le calcul du locuteur de son tour de dialogue, anticipant les répliques de son
interlocuteur. Le locuteur souvent choisit de dire ce qu'il dit en fonction de son calcul
de l'effet du message sur son interlocuteur. Pour cela, il faut que le locuteur modélise
les croyances et les préférences de son interlocuteur et la façon dont il va réagir. Cela
constitue un raisonnement de décision, mais dans la mesure où l'interlocuteur doit faire
la même chose, le raisonnement devient celui d'un jeu avec une notion d'équilibre. La
question délicate est de déterminer la granularité de ce raisonnement. Il est clair que les
locuteurs ajustent leur message en apprenant des choses sur leur auditoire. Donc ce rai­
sonnement doit être efficace. De plus, les croyances et les préférences des interlocuteurs
ne sont révélées que partiellement, à travers ce qu'ils disent et font. Donc ce système de
raisonnement doit être qualitatif. Avec l'arrivée des systèmes compacts et qualitatifs de
représentation des préférences [par exemple, voir Boutilier, 1999 ; Domshlak, 2002, ou
encore le chapitre 1.6 de cet ouvrage] , les chercheurs en intelligence artificielle se sont
beaucoup intéressés au raisonnement dans le cadre de la théorie des jeux, en particulier
dans les jeux booléens, où les actions sont représentées par des formules proposition­
nelles [Bonzon, 2007] . Cela va à son tour avoir des conséquences importantes pour la
linguistique formelle et computationnelle, car cela donne les moyens de construire des
modèles de ce raisonnement qui sont à la fois qualitatifs et raisonnablement efficaces.
Ce chapitre de la linguistique reste encore à écrire mais les moyens sont là pour faire
un grand pas vers le but final de l'IA en TAL : le traitement automatisé quasi-complet
du comportement langagier d'un agent humain.
5. Intelligence artificielle et langage 1 1 33
-

5 .4 La statistique et les méthodes d'apprentissage en


TAL
Avec l'arrivée d'ordinateurs performants possédant une mémoire suffisante pour
st o cker de grands corpus d'exemples réels, la question suivante s'est posée aux divers
domaines de la linguistique : les théories développées sur des exemples construits à la
main sont-elles en mesure de traiter des données réelles et de taille conséquente ?
Les efforts de collecte de données textuelles menés pour l'anglais dès les années
1970 se sont amplifiés au fil des décennies - le British National Corpus [Burnard,
1995] , le Penn Thee Bank [Marcus et al. , 1993] , les données des campagnes Message
Understanding Conferences [MUC5, 1993] , le Penn Discourse TueeBank [Prasad et al. ,
2008] - et des collectes ont suivi dans d'autres langues. Les très grands corpus de
textes atteignent une taille comparable à celle de l'ensemble des productions langagières
auxquelles est exposé un humain - ils diffèrent certes dans leur composition relative
mais leur taille ouvre des perspectives nouvelles pour l'étude des langues et de leur
acquisition.
Les implémentations de théories linguistiques utilisant des règles purement sym­
boliques fondées sur des connaissances expertes (connaissances a priori, introspection
ou résultat de l'étude de corpus par des humains) se sont montrées fragiles face à ce
défi. Les analyseurs morphologiques et syntaxiques, qui étaient les plus mûrs, se sont
le mieux adaptés, mais pour la sémantique, le discours et la pragmatique, seuls des
fragments limités de la langue ou des corpus très particuliers (avec des textes courts ou
des textes décrivant un domaine spécifique) ont fourni des validations partielles pour
certaines théories. Les ressources lexicales et sémantiques manquaient pour construire
des systèmes suffisamment couvrants et robustes.
Les techniques statistiques ont envahi le domaine du TAL à partir du milieu des
années 1990 [Klavans et Resnik, 1996] , les approches symboliques reposant sur la lo­
gique demandant un travail trop énorme d'axiomatisation des connaissances lexicales,
sémantiques et conceptuelles nécessaires à une large couverture des corpus existants.
Avec l'arrivée de corpus de taille significative, les méthodes d'apprentissage automa­
tique, en particulier numériques (voir le chapitre I.9 de cet ouvrage) , sont devenues de
plus en plus attractives pour le TAL. Le décalage dans la construction de tels corpus
dans des langues autres que l'anglais a induit un décalage équivalent dans l'invasion de
ces méthodes pour ces autres langues, dont le français.
Pour des problèmes simples de classification (par exemple les « étiqueteurs mor­
phosyntaxiques », qui déterminent la catégorie syntaxique correcte d'un mot dans le
contexte où il est employé) , les méthodes statistiques ont produit des résultats très
probants [Schmid, 1994 ; Brill, 1995] . Et pour des problèmes plus complexes mais pour
lesquels on avait une quantité suffisante de données bien annotées, elles ont mieux réussi
que les méthodes analytiques et symboliques. Par exemple, des analyseurs syntaxiques
construits à l'aide de méthodes d'apprentissage automatique surclassent régulièrement
les résultats des analyseurs construits sur des bases de règles [Collins, 1997] . Ils sont
maintenant à la base d'une grande partie des interfaces computationnelles syntaxe­
sémantique. On peut encore citer, en sémantique, la détermination des sens de mots
ambigus (désambiguïsation sémantique) [Kilgarriff et Palmer, 2000] ou encore l'attri-
1 1 34 Panorama de l'intelligence artificielle. Volume 3
-

bution de rôles sémantiques [Carreras et Màrquez, 2005] par apprentissage supervisé.


La traduction automatique est un autre exemple de tâche où les méthodes statistiques
concentrent l'essentiel des recherches actuelles [voir par exemple Allauzen et Yvon,
201 1] et sous-tendent des systèmes comme celui de Google ou viennent compléter des
systèmes traditionnels comme Systran.
Pour des problèmes complexes avec moins de données bien annotées (une situa­
tion courante pour la sémantique des textes) , les méthodes d'apprentissage n'ont pas
jusqu'à présent donné les résultats espérés. Pour comprendre les enjeux, rappelons la
distinction entre l'apprentissage supervisé, qui se base sur des annotations complètes,
et l'apprentissage non supervisé ou semi-supervisé, qui peut exploiter des données non
annotées. En général pour les problèmes linguistiques, l'apprentissage supervisé a été
jusqu'à présent le plus utilisé.
Mais pour la sémantique des textes et la pragmatique du discours, l'apprentissage
supervisé se heurte à des problèmes fondamentaux. Un problème majeur, par exemple,
dans les données annotées avec une structure discursive ou une structure temporelle
{TimeML) , est que ces structures sont complexes et beaucoup moins bien comprises que
les structures syntaxiques. Cette complexité est telle que pour arriver à un accord in­
terannotateur usuel en linguistique computationnelle, les manuels d'annotation doivent
simplifier ou réglementer fortement les intuitions des annotateurs. La complexité en­
traîne aussi des problèmes de consistance ; par exemple les annotations de structure
temporelle sont souvent globalement inconsistantes avec les axiomes sur les relations
temporelles, par exemple ceux d'Allen [1983] . Finalement, la complexité de la tâche
d'annotation rend l'annotation humaine longue et coûteuse ; les chercheurs sont alors
confrontés à un manque de données qui sont de plus souvent bruitées. De ce fait, les
recherches se tournent actuellement vers l'exploration des méthodes semi-supervisées
ou non supervisées.
Pour surmonter ces verrous techniques, l'un des défis contemporains est de trou­
ver comment marier les approches statistiques et analytiques de manière optimale. Ken
Church prédisait d'ailleurs à la conférence COLING 2010 2 que les méthodes statistiques
ont maintenant atteint leur pic, et qu'un retour de balancier vers les approches sym­
boliques devrait se produire. Les possibilités d'intégration de contraintes symboliques
dans les méthodes d'apprentissage se limitent encore à des contraintes exprimables
dans des fragments logiques de très faible expressivité (en général la logique propo­
sitionnelle) . Et pour traiter les problèmes de sémantique contextuelle, il faut pouvoir
trouver les meilleures méthodes pour encoder la structure du contexte dans les mé­
thodes d'apprentissage. Pour s'attaquer au problème des données, il faudrait améliorer
et raffiner l'apprentissage non supervisé et semi-supervisé pour les différentes tâches
linguistiques.
La présence de corpus de très grande taille a permis aux chercheurs de mettre
en pratique la sémantique distributionnelle [Habert et Zweigenbaum, 2002] . On peut
maintenant représenter tous les emplois d'un mot qu'un adulte entendra dans sa vie
avec un vecteur encodant le pourcentage des cas où un tel mot est par exemple le

2. Intervention à la table ronde « RING (RefreshINGenious Ideas) », dont l'un des sujets débattus
était « The Pendulum has swung too far. The revival of empiricism in the 1990s was an exciting time.
But now there is no longer much room for anything else. »
5. Intelligence artificielle et langage - 1 1 35

sujet de tel autre mot. Ces vecteurs se placent dans un espace de grande dimension et
permettent de faire émerger des classes de mots de façon non supervisée [Hirschman
et al. , 1975 ; Grefenstette, 1994 ; Habert et al. , 1996] . Ces classes non supervisées sont
également de plus en plus utilisées comme attributs supplémentaires en classification
supervisée, par exemple pour la segmentation en syntagmes minimaux ( chunks) et pour
la reconnaissance d'entités nommées ['Ihrian et al. , 2010] . Un enjeu est maintenant de
faire entrer cette représentation du sens dans un calcul compositionnel 3 , en faisant
attention aux effets des mots fonctionnels comme, par exemple, les opérateurs booléens
et les quantificateurs V et 3, pour obtenir le sens d'une phrase, voire d'un texte ou
d'un discours. Ceci reste encore un problème non résolu aujourd'hui. Par contre, nous
estimons que la sémantique distributionnelle est une ressource riche qui est exploitable
pour d'autres tâches, par exemple comme traits pertinents pour la construction de la
structure discursive d'un texte.
Enfin, l'ancrage de la langue dans le monde est une dimension complémentaire
que des chercheurs abordent de façon croissante 4 , par l'intermédiaire par exemple de
grands corpus où des textes sont associés à des images ou des vidéos, et où les caracté­
ristiques des objets rencontrés dans ces modalités différentes sont mises en relation avec
le contenu des textes. Cela permet de contribuer à la résolution de certaines des tâches
mentionnées plus haut, comme la désambiguïsation de sens de mots [Barnard et al. ,
2003] , et d'étendre la sémantique distributionnelle à des attributs à la fois textuels et
issus de la perception des images [Bruni et al. , 201 1] .

5.5 Conclusion
Dans ce chapitre nous avons esquissé l'histoire du rôle de l'intelligence artificielle
dans le traitement automatique des langues. Nous nous sommes concentrés sur les as­
pects logiques, sémantiques et discursifs (section 5.3) et aux apports de l'apprentissage
automatique (section 5.4) , car c'est dans ces sous-domaines du traitement automatique
des langues où on retrouve les interactions les plus immédiates entre la linguistique et
l'intelligence artificielle. Le traitement automatique des langues a fourni à l'intelligence
artificielle des problématiques et applications nouvelles et stimulantes pendant presque
toute l'histoire de ces deux jeunes disciplines. Et nous pensons que cette interaction,
qui est très bénéfique aux deux disciplines, continuera à prendre de l'envergure.

Références
ALLAUZEN, A. et YVON, F. (2011). Méthodes statistiques pour la traduction automa­
tique. In GAUSSIER, E. et YVON, F., éditeurs : Modèles statistiques pour l 'accès à
l 'information textuelle, chapitre 7, pages 271-356. Hermès, Paris.
3. C'est par exemple l'objectif mis en avant par Ed Hovy dans ses conférences invitées récentes, de
COLING 2010 à NAACL 2012.
4. Voir par exemple le Workshop on Learning Word Meaning /rom Non-Linguistic Data à HLT­
NAACL 2003 : http : //acl . ldc . upenn . edu/W/W03/W03- 0600 . pdf .
1 1 3 6 Panorama de l'intelligence artificielle. Volume 3
-

ALLEN, J. F. (1983) . Maintaining knowledge about temporal intervals. Communica­


tions of the ACM, 26( 1 1 ) :832-843.
AsHER, N. (1992) . A default, truth conditional semantics for the progressive. Linguis­
tics and Philosophy, 15 :463-508.
ASHER, N. (1993) . Reference to Abstract Objects in Discourse. Kluwer Academic
Publishers.
AsHER, N. (20 1 1 ) . Lexical Meaning in Context. Cambridge University Press.
AsHER, N. et LASCARIDES, A. (2003) . Logics of Conversation. Cambridge University
Press.
ASHER, N. et MORREAU, M. (1995) . What some generic sentences mean. In CARLSON,
G. et PELLETIER, F., éditeurs : The Generic Book, pages 300-339. University of
Chicago Press, Chicago.
BARKER, C. et SHAN, K. (2006) . Types as graphs : Continuations in type logical
grammar. Journal of Logic, Language and Information, 15(4) .
BARNARD, K., JOHNSON, M. et FORSYTH, D . (2003) . Word sense disambiguation with
pictures. In REGINA BARZILAY, E. R. et SISKIND, J. M. , éditeurs : Proceedings of
the HLT-NAACL 2003 Workshop on Learning Word Meaning from Non-Linguistic
Data, pages 1-5.
B ONZON, E. (2007) . Modélisation des interactions entre agents rationnels : les jeux
booléens. Thèse de doctorat, Université Paul Sabatier, Toulouse.
BONZON, E., LAGASQUIE-SCHIEX, M. C . , LANG, J. et ZANUTTINI, B. (2006) . Boolean
games revisited. In et AL. , G. B . , éditeur : ECAI 2006, pages 265-270. IOS Press.
BOUAUD, J . , BACHIMONT, B. et ZWEIGENBAUM, P. (1996) . Processing metonymy : a
domain-model heuristic graph traversa! approach. In TSUJII, J.-I. , éditeur : Procee­
dings of the 16th COLING, pages 137-142, Copenhagen, Denmark.
BOUTILIER, C. ( 1999) . Sequential optimality and coordination and multiagent sys­
tems. In Proceedings of the Sixteenth International Joint Conference on Artificial
Intelligence (IJCAI-99}, pages 527-534, Stokholm.
BRACHMAN, R. J. et SCHMOLZE, J. (1985). An overview of the KL-ONE knowledge
representation system. Cognitive Science, 9 : 171-216.
BRESNAN, J., éditeur (1982) . The Mental Representation of Grammatical Relations.
MIT Press.
B RILL, E. (1995) . Transformation-based error-driven learning and natural language
processing : A case study in part-of-speech tagging. Computational Linguistics,
2 1 (4) :543-565.
BRUNI, E., TRAN, G. B. et BARONI, M. (20 1 1 ) . Distributional semantics from text
and images. In Proceedings of the GEMS 201 1 Workshop on GEometrical Models of
Natural Language Semantics, pages 22-32, Edinburgh, UK. Association for Compu­
tational Linguistics.
BuRNARD, L. (1995) . Users Reference Guide for the British National Corpus. Bri­
tish National Corpus Consortium, Oxford University Computing Services, Ox­
ford, UK, version 1.0 édition. http : / /homepages . abdn . ac . uk/k . vdeemter /pages/
teaching/NLP/pract icals/bnc-doc . pdf , 524p.
5. Intelligence artificielle et langage 1 1 3 7
-

CARRERAS, X. et MÀRQUEZ, L. (2005) . Introduction to the CoNLL-2005 shared task :


Semantic role labeling. In Proceedings of the Ninth Conference on Computational
Natural Language Learning {CoNLL-2005}, pages 152-164, Ann Arbor, Michigan.
Association for Computational Linguistics.
CHOMSKY, N. (1964) . Syntactic Structures. Mouton and Co. , The Hague.
CHOMSKY, N. (1965) . Aspects of the Theory of Syntax. MIT Press, Cambridge, MA.
CHURCH, A. (1940) . A formulation of the simple theory of types. Journal of Symbolic
Logic, 5 :56-68.
COLLINS, M. (1997) . Three generative, lexicalized models for statistical parsing. In
Association for Computational Linguistics, 35th Annual Meeting and Bth Conference
of the European Chapter, Proceedings of the Conference, pages 16-23.
CRAWFORD, V. et SOBEL, J. ( 1982) . Strategic information transmission. Econometrica,
50(6) : 1431-1451 .
de GROOTE, P. (2006) . Towards a Montagovian account o f dynamics. In SALT 16,
pages 148-155. CLC Publications.
DOMSHLAK, C. (2002) . Modeling and Reasoning about Preferences with CP Nets. Thèse
de doctorat, Ben Gurion University.
DoWTY, D. R. (1979) . Word meaning and Montague Grammar : The semantics of verbs
and times in Generative Semantics and Montague 's PTQ. Numéro 7 de Studies in
Linguistics and Philosophy. Kluwer, Dordrecht.
FARRELL, J. (1993) . Meaning and credibility in cheap talk games. Garnes and Economie
Behavior, 5 :514-531 .
Fox, B. (1987) . Discourse Structure and Anaphora. Cambridge University Press,
Cambridge.
FREY, W., REYLE, U. et RoHRER, C. ( 1983) . Automatic construction of a knowledge
base by analyzing texts in natural language. In Proceedings of the International Joint
Conference on Artificial Intelligence, pages 727-730.
GREFENSTETTE, G. (1994) . Explorations in Automatic Thesaurus Discovery. Na­
tural Language Processing and Machine Translation. Kluwer Academic Publishers,
London.
GRICE, H. P. (1975) . Logic and conversation. In COLE, P. et MORGAN, J. L., éditeurs :
Syntax and Semantics Volume 3 : Speech Acts, pages 41-58. Academic Press.
GROENENDIJK, J. et STOKHOF, M. (199 1 ) . Dynamic predicate logic. Linguistics and
Philosophy, 14 :39-100.
GROSZ, B. (1979) . Utterance and objective : Issues in natural language communication.
In Proceedings of the Joint International Conference in Artificial Intelligence {IJCAI
1979), pages 1067-1076.
GRosz, B. et SIDNER, C. (1986) . Attention, intentions and the structure of discourse.
Computational Linguistics, 12 : 175-204.
GRosz, B. J. et KRAUS, S. (1993). Collaborative plans for group activities. In Pro­
ceedings of the Thirteenth International Joint Conference on Artificial Intelligence,
pages 367-373, Los Altos, California. Morgan Kaufmann.
1 1 3 8 Panorama de l'intelligence artificielle. Volume 3
-

HABERT, B., NAULLEAU, E. et NAZARENKO, A. (1996) . Symbolic word clustering for


medium-size corpora. In 16th International Conference on Computational Linguis­
tics, pages 490-495, Copenhagen, Denmark.
HABERT, B. et ZWEIGENBAUM, P. (2002) . Contextual acquisition of information cate­
gories : what has been done and what can be done automatically ? In NEVIN, B. E. et
JOHNSON, S. M., éditeurs : The Legacy of Zellig Harris : Language and information
into the 21st Century - Vol. 2. Mathematics and computability of language, pages
203-231. John Benjamins, Amsterdam.
HALPERN, J . , FAGIN, R. , MOSES, Y. et VARDI, M. (1995). Reasoning About Knowledge.
MIT Press, Cambridge, MA.
HAREL, D. ( 1984) . Dynamic logic. In GABBAY, D. et GUENTHER, F . , éditeurs :
Handbook of Philosophical Logic, Volume II : Extensions of Classical Logic, volume 2,
pages 497-604. D. Reidel Publishing Co. , Dordrecht.
HIRSCHMAN, L., GRISHMAN, R. et SAGER, N. (1975) . Grammatically-based automatic
word class formation. Information Processing & Management, 1 1 :39-57.
HOBBS, J. R. (1985) . On the coherence and structure of discourse. Rapport technique
CSLI-85-37, Center for the Study of Language and Information, Stanford University.
HOBBS, J. R. , STICKEL, M. , APPELT, D. et MARTIN, P. (1993) . Interpretation as
abduction. Artificial Intelligence, 63(1-2) :69-142.
JOHNSON, C. et FILLMORE, C. J. (2000) . The FrameNet tagset for frame-semantic and
syntactic coding of predicate-argument structure. In Proceedings ANLP-NAACL,
Seattle, WA.
JOHNSON, M. {1989) . Parsing as deduction : the use of knowledge of language. Journal
of Psycholinguistic Research, 18( 1) : 105-128.
KAMEYAMA, M. (1995) . Indefeasible semantics and defeasible pragmatics. In Quanti­
fiers, Deduction and Context, pages 476-482. CSLI Lecture Notes 57.
KAMP, H. (1973) . Free choice permission. Proceedings of the Aristotelian Society,
74 :57-74.
KAMP, H. et REYLE, U. (1993) . From Discourse to the Lexicon : Introduction to Model­
theoretic Semantics of Natural Language, Formal Logic and Discourse Representation
Theory. Kluwer Academic Publishers.
KAPLAN, R. et B RESNAN, J. (1983) . Lexical-functional grammar : A formal system for
grammatical representation. In BRESNAN, J . , éditeur : The Mental Representation
of Grammatical Relations. MIT Press, Cambridge MA.
KEHLER, A., KERTZ, L. , ROHDE, H. et ELMAN, J. (2008) . Coherence and coreference
revisited. Journal of Semantics (Special Issue on Processing Meaning), 25(1) : 1-44.
KILGARRIFF, A. et PALMER, M. (2000) . Special issue on SENSEVAL : Evaluating word
sense disambiguation programs. Computers and the Humanities, 34(1-2) .
KLAVANS, J. L. et RESNIK, P. , éditeurs (1996) . The Balancing Act. MIT Press, Cam­
bridge, MA.
LAMBEK, J. (1958) . The mathematics of sentence structure. American Mathematical
Monthly, 65 : 154-170.
LASCARIDES, A. et AsHER, N. (1993) . Temporal interpretation, discourse relations and
5. Intelligence artificielle et langage 1 1 39
-

commonsense entailment. Linguistics and Philosophy, 16(5) :437-493.


L ENAT, D. (1995) . Cyc : a large-scale investment in knowledge infrastructure. Com­
munications of the ACM, 38(11) :33 - 38.
LEWIS, D. (1969) . Convention : A Philosophical Study. Harvard University Press.
LOCHBAUM, K. E. (1998) . A collaborative planning model of intentional structure.
Computational Linguistics, 24(4) :525-572.
MANN, W. C. et THOMPSON, S. A. (1986) . Rhetorical structure theory : Description
and construction of text structures. In KEMPEN, G., éditeur : Natural Language
Generation : New Results in Artificial Intelligence, pages 279-300.
MANN, W. C. et THOMPSON, S. A. (1987) . Rhetorical structure theory : A framework
for the analysis of texts. International Pragmatics Association Papers in Pragmatics,
1 :79-105.
MAROU, D. (1997) . The rhetorical parsing of unrestricted natural language texts. In
COHEN, P. R. et WAHLSTER, W. , éditeurs : Proceedings of the Thirty-Fifth Annual
Meeting of the Association for Computational Linguistics and Eighth Conference
of the European Chapter of the Association for Computational Linguistics, pages
96-103, Somerset, New Jersey. Association for Computational Linguistics.
MARCUS, M. P. , SANTORIN!, B. et MARCINKIEWICZ, M. A. (1993) . Building a large
annotated corpus of English : The Penn treebank. Computational Linguistics, 19(2) :
313-330.
McCARTHY, J. (1980) . Circumscription-a form of non-monotonie reasoning. Artificial
Intelligence, 13(1-2) :27-39.
MERCER, R. (1987) . AA default logic approach to the derivation of natural language
presuppositions. Thèse de doctorat, University of British Columbia.
MINSKY, M. (1969) . Semantic Information Processing. The MIT Press, Cambridge.
MINSKY, M. (1994) . A framework for representing knowledge. In WINSTON, P. H.,
éditeur : Psychology of Computer Vision. McGraw-Hill, New York.
MUC5 (1993) . Fifth Message Understanding Conference {MUC-5), San Francisco, Ca.
Defense Advanced Research Projects Agency, Morgan Kaufmann.
ÜEHRLE, R. , BACH, E. et WHEELER, D . , éditeurs (1988) . Categorial Grammars and
Natural Language Structures. Numéro 32 de Studies in Linguistics and Philosophy.
Kluwer, Dordrecht.
PELLETIER, F. J. et ASHER, N. (1997) . Generics and defaults. In van BENTHEM, J.
et ter MEULEN, A. , éditeurs : Handbook of Logic and Language, pages 1125-1 177.
North Rolland, Amsterdam.
POLANYI, L. (1985) . A theory of discourse structure and discourse coherence. In
W. H . EILFORT, P. D. K. et PETERSON, K. L., éditeurs : Papers from the General
Session at the 21st Regional Meeting of the Chicago Linguistics Society.
POLLARD, C. (1984) . Generalized Phrase Structure Grammars, Head Grammars and
Natural Language. Thèse de doctorat, Stanford University.
POLLARD, C. et SAG, 1. A. (1987) . Information-Based Syntax and Semantics. Vol 1 :
Fundamentals. CSLI.
1 1 40 Panorama de l'intelligence artificielle. Volume 3
-

PRASAD, R. , D INESH, N., LEE, A., MILTSAKAKI, E. , ROBALDO, L., JOSHI, A. et WEB­
BER, B. {2008) . The penn discourse treebank 2.0. Proceedings of the 6th International
Conference on Language Resources and Evaluation (LREC 2008}, page 2961.
PUSTEJOVSKY, J. {1995) . The Generative Lexicon. MIT Press.
RABIN, M. {1990) . Communication between rational agents. Journal of Economie
Theory, 51 : 144-170.
REITER, R. {1980) . A logic for default reasoning. Artificial Intelligence, 13 :91-132.
ScHANK, R. et ABELSON, R. {1977) . Scripts, Plans, Goals, and Understanding. Law­
rence Erlbaum Associates, Hillsdale, New Jersey.
SCHMID, H. { 1994) . Probabilistic part-of-speech tagging using decision trees. In Pro­
ceedings of the International Conference on New Methods in Language Processing,
pages 44-49, Manchester, UK.
SEARLE, J. R. {1980) . Minds, brains, and programs. Behavioral and Brain Sciences,
3(3) :417-424.
SowA, J. F. { 1984) . Conceptual Structures : Information Processing in Mind and
Machine. Addison-Wesley, London.
THOMASON, R. H., éditeur {1974) . Formal Philosophy. Yale University Press, New
Haven. ·

TOURETSKY, D . , HORTY, J. et THOMASON, R. {1987) . A clash of intuitions : The


current state of nonmonotonic multiple inheritance systems. In Proceedings of the
International Joint Conference on Artificial Intelligence vol. 1, pages 476-482.
TURIAN, J . , RATINOV, L.-A. et BENGIO, Y. {2010) . Word representations : A simple
and general method for semi-supervised learning. In Proceedings of the 48th Annual
Meeting of the Association for Computational Linguistics, pages 384-394, Uppsala,
Sweden. Association for Computational Linguistics.
VAN RooIJ, R. {2004) . Signalling games select horn strategies. Linguistics and Philo­
sophy, 27 :493-527.
VAN RooIJ, R. et SCHULTZ, K. {2004) . Exhaustive interpretation of complex sentences.
Journal of Logic, Language and Information, 13{4) :491-519.
VELTMAN, F. {1996) . Defaults in update semantics. Journal of Philosophical Logic,
25 :221-261.
WEIZENBAUM, J. {1966) . Eliza-a computer program for the study of natural language
communication between man and machine. Communications of the ACM, 9(1) : 1-5.
6. Bioinfonnatique - 1 1 4 1

Chapitre 6

Bioinformatique

Dans ce chapitre, nous introduisons successivement les principaux objets et leur


différents niveaux d'étude en bioinformatique : les macromolécules, leurs interactions
ainsi que la formalisation et l'extraction de connaissance, et présentons pour chacun
des exemples d'apports de techniques d'intelligence artificielle sur différents problèmes
clefs de ce domaine. Cette présentation est nécessairement partielle et partiale, tant
la diversité des problèmes abordés et des techniques utilisées est vaste ; nous espérons
cependant qu'elle illustre la richesse des interactions qui se sont créées et continuent
de croître entre ces deux disciplines.

6.1 Introduction
La bioinformatique s'intéresse à toutes les applications de l'informatique et des tech­
nologies de l'information à la biologie moléculaire. En tant que domaine de recherche,
elle est devenue visible avec le développement rapide des technologies de séquençage
de génome au début des années 1990, se focalisant d'abord sur les problèmes d'analyse
de séquences d'ADN. De nos jours, la bioinformatique offre un large spectre couvrant
la conception de bases de données, d'algorithmes dédiés, de techniques statistiques ou
de théories pour résoudre des problèmes formels ou pratiques générés par la gestion
et l'analyse de données biologiques diverses, dépassant largement le seul cadre des sé­
quences d'ADN. Elle s'étend maintenant à toutes les approches informatiques visant
à améliorer la compréhension des processus biologiques, à toutes les échelles du vivant
{ADN, cellule, tissu, organisme, populations) .
De fait, la bioinformatique exploite des résultats issus de domaines variés de l'in­
formatique, des statistiques et des mathématiques. La finalité générale, l'interprétation
de données brutes, souvent de nature discrète (telles les séquences) , et produites dans
des quantités importantes par des technologies dites à haut débit, a rapidement donné
de l'importance aux techniques issues de l'intelligence artificielle. Les méthodes de
découverte de motifs, de fouille de données, de traitement du signal et du langage,

Auteurs : FRANÇOIS COSTE, CLAIRE NÉDELLEC, THOMAS SCHIEX et JEAN-PHILIPPE VERT.


1 142 Panorama de l'intelligence artificielle. Volume 3
-

d'apprentissage automatique, d'optimisation, de satisfaction de contraintes, de raison­


nement, et de visualisation de données complexes, sont particulièrement utiles dans ce
contexte. L'efficacité des algorithmes est souvent décisive en bioinformatique, compte
tenu de la taille des données manipulées (la séquence du génome humain, par exemple,
contient de l'ordre de trois milliards de caractères) . Enfin, les données fournies par
la biologie moléculaire étant issues de processus expérimentaux, elles sont habituel­
lement entachées d'erreurs. Cela a donné la part belle aux approches permettant de
raisonner dans l'incertain, en particulier aux approches probabilistes de l'apprentissage
automatique (voir chapitre I.9) .

6.2 Les macromolécules


Au cœur de chaque cellule, des bactéries aux organismes les plus complexes, se
trouve un ensemble de macromolécules, incluant en particulier les chromosomes qui
portent le patrimoine génétique de l'espèce et sont transmis de génération en géné­
ration. Chaque chromosome est constitué d'une longue double-hélice d'acide désoxy­
ribonucléique (ADN} dont chaque brin est un enchaînement de nucléotides, pouvant
être de quatre types : adénine (A) , thymine (T) , guanine (G) ou cytosine (C) . Chaque
nucléotide d'un des deux brins (A, T, G ou C) est apparié par des liaisons hydrogène
à un nucléotide complémentaire de l'autre brin (T, A, C ou G respectivement) . Ces
séquences de nucléotides sont le support dans la cellule de différents processus biochi­
miques qui permettent, à partir de régions localisées de l'ADN comme les gènes, la
synthèse d'autres molécules telles que les acides ribonucléiques (ARN}, dont certaines
sont ensuite traduites en protéines qui sont elles-mêmes des polymères linéaires formés
d'une succession d'acides aminés, dont il existe 20 types. Chaque acide aminé est re­
présenté par un triplet de nucléotides (appelé codon) . L'ADN contient donc l'essentiel
de l'information nécessaire à l'exécution du programme de travail de la cellule, que la
biologie vise à analyser et comprendre.
La détermination de la séquence de nucléotides qui constitue tout ou partie de
l' ADN d'un ensemble de cellules s'appelle le séquençage. Les techniques de séquen­
çage, apparues dans les années 1970, étaient initialement assez lentes et coûteuses.
Les progrès technologiques rapides permirent cependant de séquencer de nombreux
organismes, entre le premier virus séquencé en 1977 et le génome humain séquencé
en 2003. Une nouvelle génération de séquenceurs est en train de révolutionner ce do­
maine : en lisant en parallèle des milliards de courts fragments (typiquement entre
30 et 150 nucléotides) , ces méthodes ont drastiquement réduit le coût et la durée du
séquençage [Metzker, 2010] . L'assemblage de ces fragments soulève des problèmes algo­
rithmiques variés [Miller et al. , 2010] , alors que l'on annonce simultanément le dévelop­
pement de nouvelles technologies capables de séquencer directement un chromosome
entier, ce qui rendrait obsolète ce problème d'assemblage. Ces évolutions technolo­
giques rapides sont fréquentes. Elles peuvent rapidement transformer un problème de
bioinformatique crucial en un problème obsolète.
Le séquençage de l' ADN permet, d'une part, de mieux analyser le patrimoine géné­
tique de chaque espèce, et d'autre part d'étudier, au sein d'une espèce, les différences
génétiques entre différents individus. Au niveau d'une espèce, le passage de l' ADN sé-
6. Bioinformatique - 1 1 43

quencé à l'ensemble des molécules (ARN, protéines) que la cellule peut produire reste
un problème difficile car les régions de l' ADN impliquées dans ce processus ne sont pas
explicites et peuvent être morcelées. Ces problèmes d'analyse de séquence et de pré­
diction de gènes continuent de faire l'objet de nombreux travaux en bioinformatique.
Une fois ce catalogue construit, il faut encore identifier les fonctions biochimiques de
chaque molécule, les conditions dans lesquelles leur synthèse est déclenchée et les ac­
teurs avec lesquels elle peut réagir ou interagir. L'annotation fonctionnelle des génomes
cherche à répondre à ces questions. Au sein d'une espèce, la comparaison des génomes
de différents individus peut permettre l'identification de mutations ou de variations
structurales de !'ADN responsables de différences de phénotype ou de susceptibilités à
certaines maladies.

6.2.1 Gènes de protéines


Une des première étapes dans l'analyse des séquences d'ADN consiste à identifier les
régions géniques qui expriment des protéines. Le code des protéines est dégénéré puisque
plusieurs codons, dits synonymes, représentent un même acide aminé, la fréquence des
codons synonymes dans chaque génome présentant une variabilité importante. Une
partie des codons jouent un rôle de ponctuation : certains marquent par exemple la fin
(obligatoire) d'un gène, alors que d'autres indiquent le démarrage (possible) d'un gène.
Il est naturellement crucial de commencer la lecture 3 par 3 des nucléotides d'un gène
sur le « bon pied » (dans la bonne phase) pour correctement interpréter les codons.

Prédiction de gènes La prédiction des gènes de protéines peut être d'une difficulté
très variable selon le type d'organisme et en particulier la compacité de son génome.
Dans les organismes les plus simples (virus, bactéries) , une protéine est associée à un
intervalle de la séquence d'ADN du génome, ces intervalles pouvant être chevauchants.
Dans les organismes possédant un noyau (eucaryotes) , du parasite du paludisme
aux vertébrés, en passant par les plantes, un gène est habituellement segmenté en une
succession de régions appelées « exons », séparées par des régions non codantes appelées
introns. Une ponctuation assez floue encadre ces différentes régions. Un intron est ainsi
bordé par des motifs mal caractérisés, appelés signaux d'épissage, dont le contenu est lié
à des interactions avec une machinerie moléculaire complexe et mal connue. La part du
génome utilisée par ces gènes peut être très faible, ce qui ne facilite pas leur recherche.
Trois grands principes sont utilisés pour détecter les gènes :
l. les propriétés statistiques spécifiques liées à l'utilisation du code génétique (pé­
riodicité grossière de 3, fréquences des codons ... ) et à la présence des signaux
(épissage, codons spécifiques ... ) . On parle d'approche ab initio ou intrinsèque.
2. la similarité (syntaxique) d'une partie du génome avec une séquence expérimen­
talement caractérisée comme faisant partie d'un gène. On parle d'approche ex­
trinsèque.
3. la conservation de la séquence entre deux régions de deux organismes pas trop
proches (ayant suffisamment divergé au cours de l'évolution pour qu'une telle
conservation soit inattendue) . Si elle est significative, cette conservation doit être
1 144 Panorama de l'intelligence artificielle. Volume 3
-

le fruit d'une pression sélective liée au fait que la région assure une fonction biolo­
gique importante et porte sans doute un gène. On parle d'approche comparative.
L'approche ab initio s'est rapidement appuyée sur des modélisations classiques de
la segmentation utilisées en reconnaissance des formes et en traitement du signal et du
langage. Dans un premier temps, ce sont essentiellement des variantes des chaînes de
Markov qui ont été utilisées pour caractériser les gènes des organismes simples (bac­
téries) . Le cas plus complexe des organismes eucaryotes, avec des gènes segmentés, a
été abordé en s'appuyant sur des modèles de type chaînes de Markov cachées (HMM)
[Rabiner, 1990] ou des variantes telles les semi-HMM, permettant de représenter ex­
plicitement les distributions de longueur des différentes régions, exons, introns, région
sans gène, etc. . . Pour identifier les signaux de ponctuations « flous » dans les gènes,
une très grande variétés de méthodes de classification de motifs textuels ont été uti­
lisées : réseaux de neurones, fonctions de discrimination linéaires ou non, séparateurs
à vaste marges (SVM) (voir chapitre I.9) , modèles probabilistes (chaînes de Markov
non homogènes, réseaux bayésiens... . Voir chapitre II.8) . Tous ces modèles, qu'ils soient
probabilistes ou non, sont généralement appliqués dans un cadre « supervisé » et néces­
sitent par conséquent la construction préalable de grands jeux d'apprentissage utilisés
pour estimer les paramètres des modèles. La construction du jeu d'apprentissage peut
être assez lourde, car elle nécessite généralement un travail expérimental délicat. Ces
méthodes sont toujours utilisées dans les prédicteurs de gènes ab initio [Lukashin et
Borodovsky, 1998 ; Stanke et al. , 2006 ; Burge et Karlin, 1997] . Un travail algorith­
mique non négligeable a été nécessaire pour permettre de tirer parti des propriétés
spécifiques du problème de prédiction de gènes pour rendre praticable les approches
de type semi-HMM dont les algorithmes associés, de complexité quadratique, sont peu
compatibles avec la taille des données traitées.
Les approches extrinsèques et comparatives sont limitées par la connaissance d'un
existant avec lequel se comparer. La majorité des travaux ici ne proviennent pas de l'in­
telligence artificielle mais s'appuient sur des programmes issus du domaine de l'analyse
de séquences permettant la comparaison rapide de séquence à grande échelle tels que
BLAST [Altschul et al. , 1990] , qui est l'un des outils les plus utilisés de la bioinforma­
tique. Les régions similaires ainsi identifiées sont rarement complètes ou précises, mais
assez fiables.
Depuis les années 2000, l'essentiel des travaux a été consacré à la conception de pré­
dicteurs « consensuels » (ou intégratifs) permettant de prendre en compte simultané­
ment le plus possible d'informations pertinentes : propriétés statistiques, similarités de
séquence, conservation de séquence, prédictions issues d'autres sources (expérimentales
ou non) . Le modèle HMM qui modélise la distribution de probabilité jointe des données
observées, c'est-à-dire la séquence d'ADN, et de sa segmentation en exons, introns ... qui
sont des données cachées, devient mal adapté. En effet, l'intégration d'une variété de
données de sources disparates dans un tel cadre est incompatible avec les hypothèses
d'indépendance sous-jacentes au formalisme. Les prédicteurs de gènes intégratifs uti­
lisent donc systématiquement des modèles discriminants, modélisant uniquement en
quoi les observations rendent plus ou moins vraisemblables différentes segmentations.
Ainsi, le formalisme des champs aléatoires conditionnels [Lafferty et al. , 2001] est main­
tenant au cœur de nombreux prédicteurs de gènes car il permet de se libérer, dans une
6. Bioinformatique - 1 1 45

certaine mesure, des conditions d'indépendance des HMM en s'intéressant à la probabi­


lité des segmentations sachant les observations. Les CRF sont utilisés dans des logiciels
tels que Craig [Bernal et al., 2007] ou CONRAD [DeCaprio et al. , 2007] et étaient
déjà implicitement utilisés dans certains logiciels plus anciens tels qu'EuGène [Foissac
et Schiex, 2005] , utilisés en mode intégratif. L'extension de méthodes de classification
telles que les SVM à des objets structurés complexes comme les segmentations a éga­
lement mené à la création d'approches discriminantes non probabilistes telles que les
Hidden Markov-SVM [Altun et al. , 2003] . Ces méthodes sont utilisées dans le prédicteur
de gènes mGene [Schweikert et al. , 2009] .

A nnotation fonctionnelle L'identification de gènes dans un génome ne fournit


qu'un catalogue des constituants de la machinerie cellulaire : l'annotation fonctionnelle
de ces constituants vise à élucider leur fonction biologique. L'approche classique pro­
cède par homologie : les séquences sont annotées par transfert de l'annotation d'une
séquence similaire, généralement trouvée par alignement local de séquences à l'aide
d'outils tels que BLAST [Altschul et al. , 1990] . A partir du moment où des familles de
séquences partageant une annotation sont connues, on peut établir une signature carac­
téristique de chacune des familles et utiliser ces signatures pour annoter les nouvelles
séquences. De nombreuses banques de motifs sont disponibles en ligne. Parmi les plus
connues, on peut citer Prosite [Hulo et al. , 2008] , qui propose des signatures calculées
de façon semi-automatique pour caractériser des sites fonctionnels, des domaines et des
familles de protéines, ainsi que Transfac [Wingender et al. , 2000] , spécialisée dans les
signatures de sites de fixation des facteurs de transcription sur l'ADN, qui sont des sites
situés dans les régions promotrices en amont des gènes et impliqués dans la régulation
de la quantité de protéines à synthétiser à partir du gène. Interpro [Hunter et al. , 2009] ,
banque fédérative de signatures protéiques est un très bon point d'entrée donnant un
aperçu de la variété des signatures des protéines. Les signatures sont généralement dé­
finies par la recherche de régions conservées au cours de l'évolution dans l'ensemble
de la famille, par alignement multiple de séquence ou par découverte de motifs. Elles
peuvent caractériser des régions localisées et bien conservées comme par exemple un
site actif de protéine. Dans ce cas, des motifs exacts, allant de la séquence dégénérée
aux motifs utilisés dans Prosite (à l'expressivité inférieure aux expressions régulières) ,
peuvent être utilisés ainsi que leur version pondérée pour la caractérisation de régions
moins conservées. La découverte de motifs [Brazma et al. , 1998 ; Brejova et al. , 2003]
est un domaine de la bioinformatique ayant tiré profit des techniques d'exploration
d'espace de recherche développées en intelligence artificielle et offrant aujourd'hui des
outils fonctionnels aux biologistes tels que Weeder [Pavesi et al. , 2001] , procédant par
énumération et sélection de motifs sur-représentés sur l'ADN, Pratt [Jonassen et al. ,
1995] , découvrant des motifs Prosite par exploration en profondeur d'abord et ancrage
sur des positions exactement conservées, ou AlignAce [Roth et al. , 1998] et MEME
[Bailey et Elkan, 1994] , identifiant des régions localement conservées respectivement
par échantillonage de Gibbs et Expectation Maximization. Pour caractériser des ré­
gions plus longues, il est nécessaire d'utiliser des modèles probabilistes. Par exemple,
une protéine est généralement décomposée en quelques domaines {unités structurelles
et fonctionnelles autonomes observées chez les protéines) ; les bases de données ProDom
1 1 46 Panorama de l'intelligence artificielle. Volume 3
-

[Corpet et al. , 1998] et Pfam [Sonnhammer et al. , 1997] contiennent plusieurs milliers
de modèles de chaînes de Markov cachées de type profile ( pHMM ) (Durbin et al. , 199 8]
caractéristiques de chaque type de domaine connu et largement utilisés par la com­
munauté pour l'annotation de génomes. Le succès des pHMM tient en leur structure
simple de type gauche-droite, modélisant cependant les phénomènes d'insertions, de
délétions et de mutations, et surtout dans le schéma d'entraînement des pondérations
basé sur une grande utilisation de densités de probabilité définies a priori, implémenté
dans les deux principales suites logicielles SAM et HMMR (Krogh et al. , 1994 ; Eddy,
1998] . Des structures de HMM plus spécialisées intégrant des connaissances expertes
sur l'application visée ont été conçues avec succès pour la prédiction de régions trans­
membranaires dans TMHMM (Sonnhammer et al. , 1998] et / ou de signaux peptidiques
dans Phobius (Kall et al. , 2004] , éventuellement couplées à des réseaux de neurones
artificiels comme dans SignalP 3.0 [Bendtsen et al. , 2004] . L'inférence automatique
de la structure de HMMs reste un problème difficile et relativement ouvert, même si
des avancées, obtenues par le croisement de techniques d'alignement de séquence avec
des méthodes d'inférence grammaticale, ont pu être réalisées dans ce domaine pour la
caractérisation de familles de protéines [Kerbellec, 2008] .

Prédiction de structures 3D La fonction biologique d'une protéine étant large­


ment déterminée par sa structure tridimensionnelle, la prédiction de cette structure à
partir de la séquence d'acides a�inés lus sur le génome revêt un grand intérêt. De nom­
breux outils spécifiques issus de l'intelligence artificielle ont été développés pour tenter
de résoudre ce problème considéré comme l'un des grands défis de la biophysique. On
peut notamment citer l'utilisation de méthodes d'apprentissage supervisée pour pré­
dire la structure tridimensionnelle locale (Baldi et al. , 1999 ; Ward et al. , 2003 ; Kuang
et al. , 2004] , ou de réseaux de neurones récurrents pour prédire la carte de contacts
globale entre les acides aminés (Pollastri et Baldi, 2002] . Une autre approche consiste
à prédire directement la famille structurale de la protéine, problème qui est souvent
formalisé comme un problème d'apprentissage supervisé multiclasse sur séquences : un
nombre fini de familles structurales est défini par comparaison des structures connues
[Murzin et al. , 1995] , et le but est de prédire la classe d'une protéine de séquence donnée
étant donné les classes d'un ensemble de protéines de séquences et structures connues.
Cette formulation a promu le développement de nombreuses méthodes d'apprentissage
statistique pour la classification supervisée de séquences de longueurs variables, en
particulier les méthodes à noyau utilisant des noyaux pour séquences [Jaakkola et al.,
2000 ; Leslie et al. , 2002 ; Saigo et al. , 2004] .

Analyse de transcriptome Les problématiques d'annotation de protéines se li­


mitent rarement à l'analyse des séquences d'acides aminés. Une autre source d'in­
formation utile pour comprendre le rôle que peut jouer une protéine dans un contexte
cellulaire donné est son niveau d'expression, estimé par la mesure de la quantité d' ARN
messager codant cette protéine par des puces à ADN, ou, depuis peu, via les nouvelles les
nouvelles technologies de séquençage ( RNA-seq) . Ces technologies permettent en effet,
pour un coût relativement modeste, de mesurer l'expression de l'ensemble des gènes
d'un organisme, appelé son transcriptome, dans un échantillon donné. En mesurant
6. Bioinfonnatique - 1 1 47

l'expression des gènes dans des échantillons soumis à diverses conditions expérimen­
tales, provenant de différents patients, ou provenant de souches ayant des différences
génétiques connues, on peut caractériser chaque gène par son profil d'activité dans
ces différents échantillons. Cette information est évidemment très utile pour l'annota­
tion fonctionnelle des gènes, et de nombreux outils de classification supervisée et non
supervisée, visualisation, ou décomposition en composantes additives on été proposés
dans ce but. Par exemple, la simple classification hiérarchique est un outil maintenant
standard pour détecter des groupes de gènes ayant des profils similaires, et donc sus­
ceptibles d'avoir également des fonctions similaires [Eisen et al. , 1998] . Les algorithmes
de classification supervisée ont été utilisés pour prédire la fonction de gènes à partir
de leurs profils d'expression [Brown et al. , 2000] . Un autre exemple est l'utilisation
d'analyse en composantes principales ou de factorisation de matrices pour la recherche
de variables latentes susceptibles de représenter des modules de gènes participant à une
même fonction biologique [Raychaudhuri et al. , 2000 ; Brunet et al. , 2004] .

Intégration de données Les séquences et les données d'expression des gènes ne


sont d'ailleurs pas les seules informations dont on peut disposer pour tenter d'inférer
les fonctions des gènes. La protéomique, qui quantifie directement la concentration des
protéines dans un échantillon donné, ou d'autres technologies qui permettent de me­
surer à grande échelle les sites de fixation sur l' ADN de nombreuses protéines ou les
variations de méthylation de l'ADN, fournissent également de précieuses informations.
Une problématique centrale dans ce contexte est donc l'intégration de données, visant
à combiner ces différents types de données hétérogènes dans des modèles de classifi­
cation supervisés ou non. On peut citer par exemple les développements récents des
méthodes à noyaux [Lanckriet et al. , 2004] , des méthodes bayésiennes pour l'intégration
d'informations fournies par différents types de données [Troyanskaya et al. , 2003] , ou
des méthodes de graphes pour l'intégration de similarités [Nabieva et al. , 2005] .

6.2.2 Gènes d' ARN


Une partie du fonctionnement de la cellule est rendue possible par d'autres molécules
que les protéines. Il s'agit de l' ARN, longtemps considéré comme un support temporaire
de l'information entre ADN (génome) et protéines (après traduction) . Depuis plusieurs
années, le rôle crucial de la molécule d'ARN dans le fonctionnement cellulaire a été
largement confirmé, menant à un intérêt croissant pour les gènes dits d' ARN non codant
pour des protéines (non coding RN As, ncRNA) .
Contrairement à l'ADN, molécule double brin dont la structure est une hélice, bien
connue, l'ARN est une famille de molécules simple brin formée d'acides ribonucléiques
identifiés par les lettres A, U, G et C (!'Uracile remplace la Thymine) . En se liant à elle­
même via des liaisons hydrogènes (préférentiellement A-U et G-C - ces dernières étant
plus stables - mais pas exclusivement) , l'ARN forme des hélices locales définissant une
structure tridimensionnelle qui peut lui conférer une fonction biochimique spécifique.
Comme elle est déterminante pour leur fonction, et qu'elle permet seule de les comparer
de façon informative, la structure d'un ARN et sa détermination à partir de sa séquence
seule a fait l'objet d'un intérêt depuis longtemps. Si l'apport de la physique statistique
et de la programmation dynamique [Nussinov et Jacobson, 1980 ; Zuker et Stiegler,
1 1 48 Panorama de l'intelligence artificielle. Volume 3
-

1981] pour déterminer une structure d'énergie optimale reste essentiel, les modèles
thermodynamiques restent assez approximatifs, et la vraie structure n'est malheureu­
sement pas souvent la structure optimale. Certains outils de prédiction de structure
tels que celui de Gaspin et Westhof [1995] ou MC-SYM [Major, 2003] s'appuient sur des
formalismes de l'intelligence artificielle tels que les réseaux de contraintes [Rossi et al. ,
2006] pour caractériser et identifier les structures possibles d'une séquence d'ARN en
intégrant plus d'informations que les données de thermodynamique.
Pour intégrer encore plus d'information, une approche comparative est souvent
utilisée. Elle consiste à prédire une structure sur la base de plusieurs séquences d' ARN
ayant la même fonction mais issus d'organismes différents. Une structure idéale est
alors une structure qui peut être adoptée par ces séquences ( formation d'hélices ) et qui
est d'énergie pas trop éloignée de l'énergie optimale. L'approche fondamentale [Sankoff,
1985] s'appuie sur la programmation dynamique mais est trop lourde en pratique. Des
versions heuristiques mais efficaces ont donc été définies [Touzet et Perriquet, 2004 ;
Bernhart et al. , 2008] .
La question de l'annotation des génomes a conduit à développer des méthodes
d'identifications de gènes d' ARN dans les génomes complets. Trois types d'approches
existent : (1) en partant d'une description de la structure d'ARN connus et en cher­
chant les régions qui peuvent se replier selon la même structure, (2) via une approche
comparative (exploitant la conservation des hélices et autres composants essentiels de
la structure) ou (3) ab initio (en s'appuyant sur les propriétés intrinsèques de l'ARN ) .
La première approche nécessite de pouvoir formaliser ce qu'est « la structure »
d'une famille ARN, ce qui est déjà problématique. En ignorant certaines complexités
des structures, celles-ci peuvent en général se décrire via un arbre, et le formalisme
des grammaires stochastiques libres de contexte ( Stochastic Context Free Grammar,
ou SCFG ) , utilisé notamment en intelligence artificielle en analyse du langage, fournit
des représentations pouvant être entraînées automatiquement pour caractériser chaque
famille de séquences de structures connues. Ces modèles, aussi appelés modèles de co­
variance [Sakakibara et al. , 1994 ; Eddy et Durbin, 1994] , sont ensuite utilisés pour
analyser (parser) la séquence génomique (par programmation dynamique) et identifier
des régions qui sont vraisemblablement des gènes d'ARN de la même famille. Diffé­
rentes bases de données (RFAM [Griffiths-Jones et al. , 2005] , ncRNAdb [Szymanski
et al. , 2007] ... ) regroupent au niveau international un ensemble de modèles de ce type.
Ces modèles probabilistes restent lourds et peu « compréhensibles » par les biologistes.
Une autre famille d'approche s'appuie plus sur l'utilisation de langages dédiés et ac­
cessibles pour décrire les propriétés que doivent satisfaire les ARN d'une famille don­
née [Laferriere et al. , 1994 ; Dsouza et al. , 1997 ; Billoud et al. , 1996] . Les formalismes
de description des connaissances tels que les réseaux de contraintes et les réseaux de
contraintes pondérées ont ainsi été utilisés [Thebault et al. , 2006 ; Zytnicki et al. , 2008] .
Les algorithmes associés, de type « recherche arborescente avec filtrage par cohérence
locale » [Rossi et al. , 2006] , permettent ensuite de localiser les régions qui satisfont ces
propriétés, par la résolution d'un problème de satisfaction de contraintes . Plus ou­
verts que les modèles probabilistes, ils présentent l'inconvénient de ne pas disposer de
méthodes de construction automatique à partir d'un jeu d' ARN de structure connue.
D 'autres méthodes suivent une approche hybride [Macke et al. , 2001] .
6. Bioinformatique - 1 1 49

L'approche comparative s'appuie assez largement sur les algorithmes de prédiction


comparative de structures d'ARN (Touzet et Perriquet, 2004 ; Bernhart et al. , 2008] .
Ils construisent une structure consensus à partir des régions similaires en séquence
dans l'ensemble des génomes considéré. A partir des énergies des structures et de leur
conservation dans les différents génomes, l'algorithme décide si ces régions conservées
définissent un gène d'ARN. Ce problème de discrimination est résolu, dans le logiciel
RNAZ, via l'utilisation d'un discriminant de type SVM [Washietl, 2007] .
L'approche ab initio pure reste encore très limitée car les propriétés générales des
gènes d' ARN sont moins fortes que celles des gènes de protéines. Elle consiste à exploiter
la nécessité d'une présence suffisante de nucléotides GC pour stabiliser les hélices,
méthode simple qui ne donne des résultats que pour les génomes pauvres en GC, pour
lesquels on observe un contraste suffisant.

6.3 Les réseaux biologiques


L'annotation fonctionnelle des gènes et protéines se heurte rapidement au fait que
la plupart des fonctions biologiques dans une cellule impliquent de nombreux acteurs
qui interagissent entre eux. La description et la modélisation de ces fonctions ne peut
donc pas se limiter à la description des acteurs pris individuellement. Les formalismes
des graphes, et plus largement des systèmes dynamiques, se sont rapidement imposés
pour décrire ces réseaux de protéines et d'autres molécules en interaction, et que l'on
appelle collectivement les réseaux biologiques.
Le concept de réseau biologique se décline en différentes catégories, relatifs aux
fonctions biologiques assurées par les réseaux. Les voies métaboliques assurent l'exploi­
tation et la transformation des ressources disponibles en énergie. Elles sont constituées
par des réactions chimiques de dégradation et de synthèse travaillant de manière sé­
quentielle, et catalysées par des protéines spéciales appelées enzymes (Cornish-Bowden
et al. , 2005] . La transmission de signaux extracellulaires au sein de la cellule passe
par des cascades (rapides) de modifications successives de différentes protéines, et sont
organisées aux sein de ce que l'on appelle les voies de signalisation. La production ré­
gulée des protéines s'organise via le contrôle de l'expression de gènes par des protéines
spécifiques (les facteurs de transcription) , induisant éventuellement des phénomènes de
rétro-contrôle, et aboutissant à des réseaux de régulation génétique (De Jong, 2002] .
La construction, la modélisation, l'analyse, la simulation et l'exploitation de ces
réseaux sont au cœur de la biologie des systèmes, un des domaines les plus actifs
de la bioinformatique aujourd'hui. On y distingue deux sous-domaines : les questions
relatives à l'identification des interactions et des voies fonctionnelles à partir de jeux
de données variés sont rassemblées sous le terme de biologie intégrative, ou inférence de
réseau. La modélisation dynamique rassemble par contre les méthodologies permettant
de simuler ces systèmes, d'étudier les propriétés de leurs évolutions temporelles, allant
jusqu'à la proposition de plan expérimentaux pour contrôler leur comportement.

Niveaux de description Les réseaux biologiques non seulement se distinguent par


leur fonction au sein de la cellule, mais varient aussi par leur niveau de description.
Dans le cas le plus grossier, seuls les effets à long terme de l'augmentation d'un produit
1 1 50 Panorama de l'intelligence artificielle. Volume 3
-

sur le taux de production de ses cibles sont décrits par des graphes d'interaction ou
des graphes d'influence, qui peuvent être obtenus par exemple par inférence automa­
tique. Des descriptions plus cinétiques concernent les effets déterministes des réactions
moléculaires c'est-à-dire, l'état du système au temps n + 1 en fonction de son état au
temps n. C'est le cas par exemple, des réseaux de signalisation. Elles sont représentées
par des graphes de réaction qui sont interprétés à l'aide de langages et de formalismes
booléens (Kauffman, 1971 ; Chabrier-Rivier et al., 2004] . Ces approches déterministes
sont parfois prises en défaut par l'existence de différentes échelles de temps, en parti­
culier dans les réseaux de régulation génétique - une transcription est bien plus longue
que la dégradation d'une protéine. La dynamique devient alors non déterministe, ses
attracteurs à moyen terme qui varient dans l'espace des concentrations sont décrits
à l'aide de modèles multivalués ou linéaires par morceaux (Thomas, 1981 ; De Jong,
2002] .

Inférence de réseaux biologiques Les divers réseaux biologiques sont générale­


ment construits à partir d'expériences biologiques longues et coûteuses. Par exemple,
l'identification des gènes régulés par un facteur de transcription donné passe par des
·
mutations dirigées au niveau de l'ADN pour empêcher la fixation du facteur de trans­
cription à un endroit qu'il aura déjà fallu déterminer. Afin d'accélérer la construction de
ces réseaux et d'étendre leur couverture, sans biais, à l'ensemble des acteurs concerné,
des méthodes d'inférence automatique ont été proposées pour la reconstruction in silico
des réseaux biologiques. Les mesures du niveau d'expression des gènes (puces à ADN,
RNA-seq) au niveau de la cellule, dans différentes conditions, à différents instants ou
chez différents individus laissent en effet entrevoir la possibilité d'observer des corré­
lations entre les niveaux d'expression de différents gènes qui seraient les conséquences
de régulations entre ces gènes.
Les modèles graphiques probabilistes (champs de Markov, modèles graphiques
gausssiens mais plus particulièrement les réseaux bayésiens) ont été largement mo­
bilisés sur ce type d'approche (Friedman et al. , 2000] . Ils fournissent en effet un cadre
statistique et des méthodes d'inférence relativement efficaces pour détecter des relations
d'indépendance conditionnelles entre variables aléatoires en recherchant une structure
la plus simple possible expliquant les données. Mais les modèles construits ne sont pas
nécessairement causaux (Pearl, 2000] . Lorsque l'on dispose de mesures d'expression au
cours de séries temporelles, des méthodes d'inférences de systèmes dynamiques ont été
proposées, comme par exemple les réseaux booléens (Akutsu et al. , 2000] ou les réseaux
bayésiens dynamiques (Dojer et al. , 2006] . Une autre approche appelée génomique géné­
tique (Jansen et Nap, 2001] consiste à exploiter en sus la variabilité génétique (supposée
connue) entre individus pour expliquer les différents profils d'expression observés.
D'autres approches cherchent, plus directement, à connecter des gènes ayant des
profils d'expression similaires en terme de corrélations ou d'information mutuelle (Mar­
golin et al. , 2006 ; Kharchenko et al., 2004 ; Jansen et al. , 2003] . Un autre type d'ap­
proche, enfin, consiste à inférer de nouvelles connections dans un réseau partiellement
connu par une procédure d'apprentissage automatique, en apprenant en quoi les don­
nées disponibles permettent de prédire les arêtes déjà connues (Ben-Hur et Noble, 2005 ;
Bleakley et al. , 2007 ; Mordelet et Vert, 2008] .
6. Bioinformatique - 1151

Enfin, l'acquisition de paramètres fins est réalisée par l'intégration d'observations


cinétiques à l'aide d'approches hypothetico-déductives, que ce soit sur des réseaux gé­
nétiques ou de signalisation (Corblin et al. , 2009 ; Calzone et al. , 2006] ou les voies
métaboliques, pour lesquelles on parvient à planifier des tests validant la fonction d'en­
zymes (King et al. , 2009] .

Modélisation dynamique Une fois un réseau biologique construit, un certain


nombre de méthodologies permettent de modéliser les effets des interactions entre mo­
lécules sur le comportement global du système, en s'appuyant sur du raisonnement
automatique à base de contraintes.
Les graphes d'interaction mettent en évidence des effets à long terme en com­
parant différents états stationnaires du système. Dans ce but, on intègre une règle
causale (D'haeseleer et al. , 1999] dans des approches formelles de type résolution de
contraintes ou modélisation booléenne, pour tester la cohérence entre données et modè­
les (Bay et al. , 2003 ; Juvan et al. , 2005 ; Covert et al. , 2008 ; Guziolowski et al. , 2009] .
La formalisation des voies métaboliques, s'effectuant par un raffinement des graphes
d'interaction en intégrant une information sur la stoechiométrie des réactions, sup­
portent des contraintes linéaires sur les états stationnaires, qui sont bien plus fortes
que les contraintes causales induites par la structure du graphe (Reder, 1988] . L'analyse
de flux élémentaires exploitent ces contraintes linéaires, définissant un programme li­
néaire, pour contrôler le comportement de ces voies (Schuster et al. , 2000 ; Durot et al. ,
2009 ; Larhlimi et Bockmayr, 2009] .
Le niveau des graphes de réaction et des systèmes multivalués permet de raisonner
plus précisément sur le comportement cinétique du système (Monteiro et al. , 2008] .
Différentes déclinaisons d'algèbres de processus se concentrent sur le comportement
moyen de ces système (Regev et Shapiro, 2002 ; Antoniotti et al. , 2003 ; Danos et La­
neve, 2004 ; John et al. , 2009] . On utilise enfin des logiques temporelles ou des parcours
de diagrammes de décision pour raisonner sur les trajectoires du système, en identifiant
ses attracteurs, en vérifiant si les évolutions du système sont conformes aux expérimen­
tations, ou en prédisant la réponse des systèmes à diverses influences (Calzone et al. ,
2006 ; Klamt et al. , 2006 ; Bernot et al. , 2004 ; Monteiro et al. , tics ; Fauré et al. , 2009] .

6.4 Formalisation et extraction des connaissances


6.4. 1 Ontologies
Le volume de données, leur disparité et le besoin d'interprétation et d'intégration ont
ouvert un vaste champ d'application en bioinformatique aux approches d'intelligence
artificielle relevant de l'intégration de données structurées et non structurées, à base
d'ontologies (voir chapitres 1.20 et 1.5) et de raisonnement formel (voir chapitre II.4) .
De nombreuses ontologies en biologie sont disponibles en ligne (voir le site BioPor­
ta� dont la justesse, l'expressivité, la pertinence, et la validité de la sémantique formelle
sont très variables. Leur représentation est généralement réduite à une arborescence
de concepts. L'ontologie la plus remarquable, Gene Ontology (GO) (Ashburner et al. ,
2000] est le résultat d'un effort collaboratif initié pour l'annotation manuelle de gènes.
1 1 52 Panorama de l'intelligence artificielle. Volume 3
-

Principalement adaptée aux eucaryotes et initialement pour l'annotation de génomes


de souris, de mouche et de levure, GO contient plus de 27 000 concepts, organisés en
trois hiérarchies, qui décrivent les processus biologiques, fonctions moléculaires et com­
posants cellulaires, plus les relations part-of et regulates. Plus de 120 génomes ont été
manuellement annotés par des concepts de GO. L'intérêt de telles annotations formelles
est de permettre des traitements automatiques, dont principalement, la comparaison
de gènes et l'annotation de nouveaux génomes par homologie [Conesa et al. , 2005] .
Une autre utilisation fréquente en analyse de transcriptome consiste à interpréter la
corrélation de niveaux d'expression de gènes à l'aide des fonctions connues de ces gènes
[Marco et Francesco, 2006] .
GO est l'objet de deux critiques principales : son manque de pertinence pour certains
organismes dont les procaryotes, et sa très grande taille qui rend difficile la recherche
des concepts pour l'annotation manuelle ou la comparaison de gènes, malgré les navi­
gateurs comme AmiGO et la gestion des synonymes. De sorte que pour l'annotation
de nouveaux génomes, des classifications fonctionnelles réduites à quelques centaines
de fonctions, et mieux adaptées peuvent être préférées (voir pour une comparaison
[M Rison SCG, 2000]) , bien que leur sémantique soit généralement moins formelle et
que l'alignement avec GO soit souvent négligé. Une dernière conséquence regrettable
de la normalisation à l'aide de GO est que les informations initiales plus riches, ex­
primées en langue naturelle sont parfois remplacées automatiquement, par des termes
très généraux de GO dans les bases généralistes de biologie dans un but louable de
normalisation, tel que par exemple dans Genome Reviews.
Au-delà de GO où un effort considérable de formalisation est fait, la confusion entre
un vocabulaire contrôlé et structuré et une ontologie est fréquente dans les ontologies
distribuées et le manque de distinction claire entre le lexique du domaine et les labels
qui nomment les concepts est à l'origine de nombreuses formules invalides telles que
detection of osmotic stimulus --+ response to osmotic stress, qui empêchent une exploi­
tation formelle corrrecte. L'absence de relation autre que la relation de généralité oblige
également les concepteurs à des contorsions qui nuisent à la sémantique formelle, par
exemple, la définition des concepts response to / humidity / water deprivation / ftoo­
ding comme spécialisations de water response dans GO illustre la confusion entre l'eau
et l'appréciation de la quantité d'eau par l'organisme dans son environnement. L'uti­
lisation majoritaire de ces ontologies est encore manuelle ; elles servent de référentiel
d'annotation ou de classification, plus ou moins normalisé.
A l'opposé, des bases de connaissances à la représentation très expressive (voir
section 6.3) telles que la représentation de voies métaboliques, sont utilisées à des fins
de modélisation et de simulation, mais la spécificité de leur objet les exclut du cadre
ontologique.

6.4.2 Extraction et recherche d'information


Dans le champs de l'intelligence artificielle, la classification de documents, l'extrac­
tion d'information (El) et la recherche d'information (RI) appliquées à la biologie sont
des domaines en pleine expansion [Hirschman et al. , 2002 ; Ananiadou et Mcnaught,
2005 ; Nédellec et al. , 2009 ; Altman et al., 2008 ; Jensen et al. , 2006] . Après bientôt dix
ans de recherche spécifique à la biologie, des outils opérationnels et intégrés dans des
6. Bioinformatique - 1 1 53

applications bioinformatiques commencent à voir le jour. Conjointement, la maturité


des recherches génériques dans ces domaines, la mise à disposition de librairies d'ap­
prentissage automatique (voir chapitre 11. 10) telle que Weka [Witten et Frank, 2005] et
de plates-formes de traitement automatique de la langue (TALN) (voir chapitre llI.5)
généralistes comme Gate [Bontcheva et al. , 2004] ou UIMA, ou spécialisées pour la
biologie, par exemple Textpresso [Mueller et al. , 2004] , BioAlvis [Bossy et al. , 2008] ,
les efforts investis dans l'organisation de compétitions telles que BioCreative, BioNLP,
LLL, TREC genomics sur des tâches relevant de l'EI et de la RI, ont permis le dé­
veloppement, l'adaptation, l'intégration et la comparaison de méthodes relevant des
statistiques, de l'apprentissage automatique et du TALN. L'intégration de ces résul­
tats dans des applications bioinformatiques est encore limitée, mais prend de l'ampleur
grâce aux efforts de distribution et de publication.
Plus particulièrement, la reconnaissance automatique des entités nommées (REN)
consiste à identifier les noms propres tels que les noms de gènes, d'espèces, de lignées
cellulaires, de molécules, ou plus généralement les formes figées. Elle est une étape
critique de toute application documentaire en ce qu'elle permet d'identifier les objets
significatifs dans les documents. La reconnaissance elle-même, c'est-à-dire le typage
d'un terme du document comme désignant ou non un membre du type est à distinguer
de la normalisation qui consiste à associer à l'entité reconnue son nom canonique, sans
ambiguïté. La REN en biologie a fait l'objet de nombreuses compétitions, dont NLPBA
(GENIA) [Kim et al. , 2004] et BioCreative [Smith et al. , 2008 ; Morgan et al. , 2008] ,
et études favorisées par la diffusion de nomenclatures centralisées (GenBank, Hugo,
UMLS) et de corpus annotés qui ont permis la mise au point de méthodes d'appren­
tissage de classification discriminante (surtout IDT, SVM et CRF) , voir le chapitre
11. 10. Combinées à des étapes d'analyse de texte (segmentation, analyse terminolo­
gique) , elles donnent des résultats de rappel et précision très variables selon les types
d'entités et la richesse des dictionnaires. Actuellement, quasiment toutes les recherches
en REN concernent la reconnaissance de noms de gène et de protéines avec un net
succès comme démontrés par les sites IHOp ou CoCitation. Le système ABNER [Set­
tles, 2005] est apprécié pour ses performances, son interface et son accessibilité pour des
non-spécialistes. Les progrès à .venir se situent plutôt (1) au niveau de la décomposition
des sous-problèmes à traiter : homonymie, noms de mutants, distinction entre entités
biologiques (opéron, promoteur, etc.) et rattachement à l'espèce, (2) de l'intégration
des méthodes de TALN et d'apprentissage, et (3) de la qualité de l'annotation manuelle
[Nédellec et al. , 2006] , plutôt qu'au niveau des méthodes de classification elles-mêmes.
Contrairement au domaine biomédical, le domaine de la biologie n'a pas suscité
beaucoup de travaux d'analyse terminologique, sinon l'exploitation de terminologies
plus ou moins structurées par projection directe sur le texte. Les termes proviennent
généralement des labels de GO (McCray et al. , 2002] ou de MESH et Specialist Lexicon
de UMLS, et la projection inclut éventuellement la désambiguïsation du sens (Andreo­
poulos et al. , 2008] . La question de la variation terminologique se limite en général à
la lemmatisation et au comptage des mots en commun entre les termes du texte et de
la terminologie.
Les tâches les plus populaires en El au-delà de la REN concernent l'extraction
de relations d'interaction protéine-protéine dans BioCreative ou d'interaction génique
1 1 54 Panorama de l'intelligence artificielle. Volume 3
-

dans LLL où de nets progrès en terme de qualité sont observés, mais où le passage à
l'échelle reste un verrou malgré des tentatives remarquables comme celle de MEDIE.
Par exemple, il s'agit dans GerE stimulates sigK transcription d'identifier la protéine
GerE comme agent de l'interaction dont sigK est la cible. L'approche à base de patrons
de surface, par exemple un verbe d'interaction encadré par deux noms de protéines, est
peu à peu abandonnée au profit de l'analyse syntaxique des dépendances qui permet de
rendre compte de cas de dépendances longues distances, d'ellipses ou d'apposition que
les patrons échouent à traiter [Rinaldi et al. , 2008] . Par exemple dans la phrase : GerE
stimulates cotD transcription and cotA transcription [.. ], and, unexpectedly, inhibits
.

[. .] transcription of the gene {sigK) [. ..], l'extraction de l'interaction suppose d'avoir


.

préalablement identifié que GerE est le sujet du verbe inhibits dont la transcription
du gène sigK est l'objet. L'extraction de relations à base d'apprentissage automatique
(classification discriminante) est rendue difficile par la complexité et la variété des for­
mulations et la relative petite taille des corpus annotés. Le travail pluridisciplinaire de
Alain-Pierre et al. (2008] compense par exemple cette limitation grâce à la programma­
tion logique inductive (PLI) , exploitant une ontologie décrivant les différents modèles
biologiques sous-jacents, tels que la fixation ( binding) de la protéine sur le promoteur,
l'appartenance à un régulon ou la mutation du gène cible.
Les avancées dans le domaine de la RI pour l'indexation automatique en texte plein
(à-la- Google) , par opposition à l'indexation contrôlée, sont limitées par la faible adé­
quation des terminologies existantes. Trois raisons principales en sont à l'origine. Outre
la rareté et l'incomplétude des terminologies pour de nombreux domaines à l'exclusion
de certains champs du domaine biomédical, les terminologies sont conçues à des fins
d'indexation contrôlée c'est-à-dire manuelle, ou de normalisation du vocabulaire, et
non pas pour la projection automatique sur du texte. De ce fait, les termes d'indexa­
tion sont choisis pour leur compréhensibilité hors contexte quand les rédacteurs vont
préférer une formulation moins dense. Enfin, les synonymes sont rarement indiqués, ou
de façon incomplète au regard de la richesse des formulations textuelles. L'acquisition
plus ou moins automatisée à partir de corpus de terminologies structurées repose sur
l'extraction automatique de termes (Nédellec et al. , 2009] , utilisant ou non des métho­
des de variation morpho-syntaxiques, puis l'application de patrons dits à-la-Hearst ou
la sémantique distributionnelle (classification non supervisée clustering) pour l'extrac­
tion de relations de synonymie ou d'hyperonymie. Les années à venir devraient voir
l'intégration de ces approches automatiques avec des interfaces coopératives dans des
applications opérationnelles.
Jusqu'ici, l'hypothèse très forte de bijection parfaite entre les labels des concepts
des ontologies et les termes des textes a négligé des phénomènes linguistiques très fré­
quents tels que la métonymie GerE stimule sigK peut être indifféremment décrit par
-

GerE stimule l 'expression de sigK et inversement a limité les capacités d'inférence et


-

l'expressivité dans les ontologies pour préserver le lien au texte. Par exemple le terme
hyperthermophile bacteria dans un document devrait être représenté non pas unique­
ment par le concept hyperthermophile bacteria mais à l'aide des concepts d'habitat, de
températures normales et extrêmes pour un habitat, et d'intervalles de température, si
l'ontologie doit permettre un raisonnement sur les biotopes des bactéries. Cette voie est
peu explorée en lien avec l'analyse textuelle et reste un chaînon manquant pour l'ex-
6. Bioinfonnatique - 1 1 55

ploitation des ontologies dans des applications documentaires. Elle est liée à la question
montante de l'implication textuelle ( textual entailment) en EL

6.5 Conclusion
Nous avons présenté dans ce chapitre quelques problématiques phares de la bio­
informatique qui ont bénéficié de méthodes issues de l'intelligence artificielle, et qui
ont également généré de nouveaux besoins de structuration, modélisation et analyse
de données et de connaissance. La biologie vit depuis une décennie une véritable ré­
volution caractérisée par l'apparition à un rythme effréné de nouvelles technologies
générant d'énormes quantités de données, et par l'importance croissante prise par les
outils mathématiques et informatique pour la manipulation et l'exploitation de ces
données pour en extraire de la connaissance. On peut prédire que l'intelligence artifi­
cielle aura encore une belle place à prendre pour assister le biologiste à travers cette
révolution, en n'oubliant jamais - aussi bien du côté informatique que biologique - que
les prédictions in silico ne restent que des prédictions et qu'elles doivent être confirmées
expérimentalement in vitro ou, mieux, in vivo.

Remerciements : Nous souhaitons remercier pour leur aide à la rédation ce chapitre


Philippe Bessières, Robert Bossy, Jacques Nicolas et Anne Siegel.

Références
AKUTSU, T., MIYANO, S. et KUHARA, S. (2000) . Algorithms for identifying Boolean
networks and related biological networks based on matrix multiplication and finger­
print fonction. J. Comput. Biol. , 7(3-4) :331-343.
ALAIN-PIERRE, M., ERICK, A. et PHILIPPE, B. (2008) . Genic interaction extraction by
reasoning on an ontology. In SALAKOSKI, T., REBHOLZ-SCHUHMANN, D. et PYY­
SALO, S., éditeurs : Proceedings of the Third International Symposium on Semantic
Mining in Biomedicine {SMBM 2008}, Turku, Finland. Turku Centre for Computer
Science (TUCS ) .
ALTMAN, R. B., BERGMAN, c., BLAKE, J., BLASCHKE, c., COHEN, A., GANNON, F.,
GRIVELL, L., HAHN, u. , HERSH, W., HIRSCHMAN, L., JENSEN, L. J . , KRAL LINGER,
M., MONS, B., O ' DONOGHUE, S. I., PEITSCH, M. c., REBHOLZ-SCHUHMANN, D . ,
H . , S. et A . , V . (2008) . Text mining fo r biology - the way forward : opinions from
leading scientists. Genome Biology, 9 :2.
ALTSCHUL, S. F., G1sH, W., MILLER, W. , MYERS, E. W. et LIPMAN, D. J. (1990) .
Basic local alignment search tool. J Mol Biol, 215(3) :403-10.
ALTUN, Y. , TSOCHANTARIDIS, I. et HOFMANN , T. (2003) . Hidden markov support
vector machines. In FAWCETT, T. et MISHRA, N., éditeurs : ICML, pages 3-10.
AAAI Press.
ANANIADOU, S. et MCNAUGHT, J. (2005) . Text Mining for Biology And Biomedicine.
Artech House, Inc.
1 1 56 Panorama de l'intelligence artificielle. Volume 3
-

ANDREOPOULOS, B . , ALEXOPOULOU, D. et SCHROEDER, M. (2008) . Word sense disam­


biguation in biomedical ontologies with term co-occurrence analysis and document
clustering. IJDMB, 2(3) : 193-215.
ANTONIOTTI, M., POLICRITI, A., UGEL, N. et MISHRA, B. (2003) . Model building
and model checking for biochemical processes. Cell Biochemistry and Biophysics,
38 :271-286.
ASHBURNER, M., BALL, C . , BLAKE, J., BOTSTEIN, D., BUTLER, H., C HERRY, M. ,
DAVIS, A., DOLINSKI, K . , DWIGHT, S. et EPPIG, J. (2000) . Gene ontology : Tool for
the unification of biology. Nature Genetics, 25(1) :25-29.
BAILEY, T. L. et ELKAN, C. (1994) . Fitting a mixture model by expectation maxi­
mization to discover motifs in biopolymers. Proc !nt Conf Intell Syst Mol Biol,
2 : 28-36.
B ALDI, P. , B RUNAK, S., FRASCONI, P. , SODA, G. et POLLASTRI, G. ( 1999) . Exploiting
the past and the future in protein secondary structure prediction. Bioinformatics,
15 :937-946.
BAY, S., SHRAGER, J . , POHORILLE, A. et LANGLEY, P. (2003) . Revising regulatory
networks : from expression data to linear causal models. Journal of Biomedical
Informatics, 35(289-297) .
BEN-HUR, A. et NOBLE, W. S. (2005) . Kernel methods for predicting protein-protein
interactions. Bioinformatics, 21(Suppl. 1) :i38-i46.
BENDTSEN, J. D . , NIELSEN, H., von HEIJNE, G. et BRUNAK, S. (2004) . lmproved
prediction of signal peptides : SignalP 3.0. J. Mol. Biol., 340 :783-795.
BERNAL, A., C RAMMER, K., HATZIGEORGIOU, A. et PEREIRA, F. (2007) . Global
discriminative learning for higher-accuracy computational gene prediction. PLoS
Comput Biol, 3(3) :e54.
BERNHART, S. H., HOFACKER, 1. L., WILL, S. , GRUBER, A. R. et STADLER, P. F.
(2008) . RNAalifold : improved consensus structure prediction for RNA alignments.
BMC Bioinformatics, 9 :474.
BERNOT, G . , C OMET, J.-P. , RICHARD, A. et G UESPIN-MICHEL . , J. (2004) . A fruitful
application of formal methods to biological regulatory networks : Extending thomas'
asynchronous logical approach with temporal logic. Journal of Theoretical Biology,
229(3) :339-347.
BILLOUD, B . , KONTIC, M. et VIARI, A. (1996) . Palingol : a declarative programming
language to describe nucleic acids' secondary structures and to scan sequence data­
base. Nucleic Acids Res, 24(8) : 1395-403.
BLEAKLEY, K . , BIAU, G. et VERT, J.-P. (2007) . Supervised reconstruction of biological
networks with local models. Bioinformatics, 23(13) :i57-i65.
BONTCHEVA, K . , TABLAN, V. , MAYNARD, D. et CUNNINGHAM, H. (2004) . Evolving
GATE to meet new challenges. Natural Language Engineering.
BOSSY, R. , KOTOUJANSKY, A., AUBIN, S. et NÉDELLEC, C. (2008) . Close integration
of ml and nlp tools in bioalvis for semantic search in bacteriology. In BURGER,
A., PASCHKE, A., ROMANO, P. et SPLENDIANI, A., éditeurs : Proceedings of the
Workshop on Semantic Web Applications and Tools for Life Sciences, Edinburgh,
6. Bioinformatique - 1 1 57

United Kingdom, November 28. CEUR.


BRAZMA, A., JoNASSEN, 1. , EIDHAMMER, 1. et GILBERT, D. (1998) . Approaches to the
automatic discovery of patterns in biosequences. J. Comput. Biol. , 5 :279-305.
B REJOVA, B., VINAR, T. et LI, M. (2003) . Pattern Discovery : Methods and Software.
In KRAWETZ, S. A. et WOMBLE, D. D., éditeurs : Introduction to Bioinformatics,
chapitre 29, pages 491-522. Humana Press.
BROWN, M. P. , GRUNDY, W. N., LIN, D . , CRISTIANINI, N., SUGNET, c. W. , FUREY,
T. S., ARES, M. et HAUSSLER, D. (2000) . Knowledge-based analysis of microarray
gene expression data by using support vector machines. Proc. Natl. Acad. Sei. USA,
97(1) :262-7.
BRUNET, J. P. , TAMAYO, P. , GOLUB, T. R. et MESIROV, J. P. (2004) . Metagenes and
molecular pattern discovery using matrix factorization. Proc Natl Acad Sei U S A,
101(12) :4164-9.
BURGE, C. et KARLIN, S. (1997) . Prediction of complete gene structures in human
genomic DNA. J Mol Biol, 268(1) :78-94.
CALZONE, L., FAGES, F. et SOLIMAN, S. (2006) . Biocham : An environment for mo­
deling biological systems and formalizing experimental knowledge. Bioinformatics,
22 :1805-1807.
CHABRIER-RIVIER, N., CHIAVERINI, M., DANOS, V., FAGES, F. et SCHÂCHTER, V.
(2004) . Modeling and querying biomolecular interaction networks. Theor. Comput.
Sei., 325(1) :25-44.
CoNESA, A., GoTz, S . , GARCIA-G OMEZ, J. M . , TEROL, J., TALON, M. et RoBLES,
M. (2005) . Blast2go : a universal tool for annotation, visualization and analysis in
functional genomics research. Bioinformatics, 21(18) :3674-3676.
CORBLIN, F., TRIPODI, S., FANCHON, E. , RoPERS, D. et TRILLING, L. (2009) . A decla­
rative constraint-based method for analyzing discrete genetic regulatory networks.
Biosystems, 98(2) :91-104.
CORNISH-BOWDEN, A. , JAMIN, M. et SAKS, V. (2005) . Cinétique enzymatique. EDP
Sciences.
CORPET, F., GOUZY, J. et KAHN, D. (1998) . The ProDom database of protein domain
families. Nucleic Acids Res., 26 :323-326.
COVERT, M. W., XIAO, N., CHEN, T. et KARR, J. (2008) . Integrating metabolic,
transcriptional regulatory and signal transduction models in Escherichia coli. Bio­
informatics, 18 :2044-50.
DANOS, V. et LANEVE, C. ( 2004 ) . Formal molecular biology. Theoretical Computer
Science, 325(1) :69 - 11 0.
DE JONG, H. (2002). Modeling and simulation of genetic regulatory systems : A
literature review. Journal of Computational Biology, 9(1) :67-103.
DECAPRIO, D., VINSON, J. P. , PEARSON, M. D . , MONTGOMERY, P. , DOHERTY, M. et
GALAGAN, J. E. (2007) . Conrad : gene prediction using conditional random fields.
Genome Res, 17(9) : 1389-98.
D 'HAESELEER, P. , WEN, X. , FUHRMAN, S. et SoMOGYI, R. (1999) . Linear modeling
of mrna expression levels during cns development and injury. In Pacifie Symposium
1 1 5 8 Panorama de l'intelligence artificielle. Volume 3
-

on Biocomputing, pages 41-52.


DoJER, N., GAMBIN, A., MIZERA, A., WILCZYNSKI, B. et TIURYN, J. ( 2006 ) . Applying
dynamic Bayesian networks to perturbed gene expression data. BMC Bioinformatics,
7 :249.
DSOUZA, M., LARSEN, N. et ÜVERBEEK, R. ( 1997) . Searching for patterns in genomic
data. Trends Genet, 13 ( 1 2 ) :497-8.
DURBIN, R. , EDDY, S. R. , KROGH, A. et MITCHISON, G. J. ( 1998 ) . Biological Sequence
Analysis : Probabilistic Models of Proteins and Nucleic Acids. Cambridge University
Press.
DUROT, M., B OURGUIGNON, P.-Y. et SCHACHTER, V. ( 2009 ) . Genome-scalemodels
of bacterial metabolism : reconstruction and applications. FEMS Microbiol Rev,
33 : 164-190.
EDDY, S. R. ( 1998 ) . Profile hidden Markov models. Bioinformatics, 14 :755-763.
EDDY, S. R. et DURBIN, R. ( 1994 ) . RNA sequence analysis using covariance models.
Nucleic Acids Res, 22 ( 1 1 ) :2079-88.
EISEN, M. B . , SPELLMAN, P. T., BROWN, P. O. et BOTSTEIN, D. ( 1998 ) . Cluster
analysis and display of genome-wide expression patterns. Proc. Natl. Acad. Sei.
USA, 95 : 14863-14868.
FAURÉ, A., NALDI, A., LOPEZ, F., CHAOUIYA, C., CILIBERTO, A. et THIEFFRY, D.
( 2009 ) . Modular logical modelling of the budding yeast cell cycle. Mol. BioSyst. ,
5 : 1787 - 1796.
FOISSAC, S. et SCHIEX, T. ( 2005 ) . Integrating alternative splicing detection into gene
prediction. BMC Bioinformatics, 6 : 25.
FRIEDMAN, N., LINIAL, M., NACHMAN, I. et PE'ER, D. ( 2000 ) . Using Bayesian networks
to analyze expression data. J. Comput. Biol. , 7 ( 3-4 ) :601-620.
GASPIN, C. et WESTHOF, E. ( 1995 ) . An interactive framework for RNA secondary
structure prediction with a dynamical treatment of constraints. J Mol Biol, 254 ( 2 ) :
163-74.
GRIFFITHS-JONES, S . , MoxoN, S., MARSHALL, M. , KHANNA, A., EDDY, S. R. et BATE­
MAN, A. ( 2005 ) . Rfam : annotating non-coding RNAs in complete genomes. Nucleic
Acids Res, 33 (Database issue) :Dl21-4.
GUZIOLOWSKI, c., BOURDE, A., MOREEWS, F. et SIEGEL, A. ( 2009 ) . Bioquali cytos­
cape plugin : analysing the global consistency of regulatory networks. BMC Geno­
mics, 10.
HIRSCHMAN, L., PARK, J., Tsum, J., WONG, L. et Wu, C. ( 2002 ) . Accomplishments
and challenges in literature data mining for biology. Bioinformatics, 18 : 1553-1561.
HuLo, N., BAIROCH, A., BULLIARD, V., CERUTTI, L., CUCHE, B. A. , de CASTRO, E.,
LACHAIZE, c., LANGENDIJK- GENEVAUX, P. S. et SIGRIST, c. J. ( 2008 ) . The 20 years
of PROSITE. Nucleic Acids Res. , 36 :D245-249.
HUNTER, S . , APWEILER, R. , ATTWOOD, T. K., BAIROCH, A. , BATEMAN, A., BINNS, D. ,
BORK, P. , DAS, u . , DAUGHERTY, L., DUQUENNE, L., FINN, R. D . , GOUGH, J . , RAFT,
D . , HULO, N., KAHN, D., KELLY, E., LAUGRAUD, A., LETUNIC, I., LONSDALE, D.,
LOPEZ, R. , MADERA, M., MASLEN, J., McANULLA, c . , McDOWALL, J., MISTRY, J. ,
6. Bioinformatique - 1 1 59

MITCHELL, A., MULDER, N., NATALE, D . , ÜRENGO, c. , QUINN, A. F., SELENGUT,


J. D . , SIGRIST, C. J., THIMMA, M., THOMAS, P. D . , VALENTIN, F., WILSON, D . , Wu,
C. H. et YEATS, C. (2009) . InterPro : the integrative protein signature database.
Nucleic Acids Res, 37(Database issue) :D21 1-5.
JAAKKOLA, T., DIEKHANS, M. et HAUSSLER, D . (2000) . A Discriminative Framework
for Detecting Remote Protein Homologies. J. Comput. Biol. , 7(1 ,2) :95-1 14.
JANSEN, R. , Yu, H., GREENBAUM, D., KLUGER, Y. , KROGAN, N., CHUNG, S., Ervr1L1,
A., SNYDER, M., GREENBLATT, J. et GERSTEIN, M. (2003) . A Bayesian networks
approach for predicting protein-protein interactions from genomic data. Science,
302(5644) :449-453.
JANSEN, R. C. et NAP, J. P. (2001) . Genetical genomics : the added value from
segregation. Trends Genet, 17(7) :388-91.
JENSEN, L. J. J., SARIC, J. et BORK, P. (2006) . Literature mining for the biologist : from
information retrieval to biological discovery. Nature reviews. Genetics, 7(2) : 1 19-129.
JOHN, M. , LHOUSSAINE, c., NIEHREN, J. et UHRMACHER, A. (2009) . The attributed pi
calculus with priorities. Transactions on Computational Systems Biology, XII(594) .
JONASSEN, I., COLLINS, J. F. et HIGGINS, D. G. (1995) . Finding flexible patterns in
unaligned protein sequences. Protein Sei. , 4 : 1587-1595.
JUVAN, P. , DEMSAR, J., SHAUNLSKY, G. et ZUPAN, B. (2005). Genepath : from mu­
tations to genetic networks and back. Nucleic Acids Research, 33(Web Server is­
sue) :W749-W752.
KALL, L., KROGH, A. et SoNNHAMMER, E. L. (2004) . A combined transmembrane
topology and signal peptide prediction method. J. Mol. Biol. , 338 : 1027-1036.
KAUFFMAN, S. ( 1971). Gene regulation networks : a theory for their global structure
and behaviors. Curr Top Dev Biol, 6(6) : 145-82.
KERBELLEC, G. (2008) . Apprentissage d 'automates modélisant des familles de sé­
quences protéiques. Thèse de doctorat, Université Rennes 1 .
KHARCHENKO, P. , VITKUP, D. et CHURCH, G. M . (2004) . Filling gaps in a metabolic
network using expression information. Bioinformatics, 20 Suppl 1 :Il 78-I185.
KIM, J.-D., ÜHTA, T., TSURUOKA, Y. , TATEISI, Y. et N . , C. (2004) . Introduction to the
bio-entity recognition task at jnlpba. In Proc. of NLPBA/Coling wshp. International
Conference on Computational Linguistics (COLING'04) .
KING, R. , ROWLAND, J., ÜLIVER, S., YOUNG, M., AUBREY, W., BYRNE, E. , LIAKATA,
M. , MARKHAM, M., Prn, P. , SOLDATOVA, L., SPARKES, A., WHELAN, K. et CLARE,
A. (2009) . The automation of science. Science, 324(5923) :85-9.
KLAMT, S., SAEZ-RODRIGUEZ, J . , LINDQUIST, J. A . , SIMEON!, L. et GILLES, E. D.
(2006) . A methodology for the structural and functional analysis of signaling and
regulatory networks. BMC Bioinformatics, 7 :56.
KROGH, A., BROWN, M., MIAN, I. S., SJOLANDER, K. et HAUSSLER, D. (1994) . Hidden
Markov models in computational biology. Applications to protein modeling. J. Mol.
Biol. , 235 :1501-1531.
KUANG, R. , LESLIE, C. S. et YANG, A.-8. (2004) . Protein backbone angle prediction
with machine learning approaches. Bioinformatics, 20(10) : 1612-1621 .
1 1 60 - Panorama de l'intelligence artificielle. Volume 3

LAFERRIERE, A., GAUTHERET, D. et CEDERGREN, R. (1994) . An RNA pattern mat­


ching program with enhanced performance and portability. Comput Appl Biosci,
10(2) :21 1-2.
LAFFERTY, J. D . , McCALLUM, A. et PEREIRA, F. c. N. (2001) . Conditional random
fields : Probabilistic models for segmenting and labeling sequence data. In B RODLEY,
C. E. et DANYLUK, A. P. , éditeurs : ICML, pages 282-289. Morgan Kaufmann.
LANCKRIET, G. R. G., DE BIE, T., CRISTIANINI, N. , J ORDAN, M. I. et NOBLE, W. S.
(2004) . A statistical framework for genomic data fusion. Bioinformatics, 20(16) :
2626-2635.
LARHLIMI, A. et BOCKMAYR, A. (2009) . A new constraint-based description of the
steady-state flux cone of metabolic networks. Discrete Appl. Math. , 157(10) :2257-
2266.
LESLIE, C., ESKIN, E. et NOBLE, W. (2002). The spectrum kernel : a string kernel
for SVM protein classification. In ALTMAN, R. B., D UNKER, A. K. , HUNTER, L.,
LAUERDALE, K. et KLEIN, T. E., éditeurs : Proceedings of the Pacifie Symposium on
Biocomputing 2002, pages 564-575, Singapore. World Scientific.
LUKASHIN, A. V. et BORODOVSKY, M. (1998) . GeneMark.hmm : new solutions for
gene finding. Nucleic Acids Res, 26(4) : 1 107-15.
M RISON S C G , Hodgman TC, T. J. (2000) . Comparison of functional annotation
schemes for genomes. Funct Integr Genomics, 1 :56-69.
MACKE, T. J . , ECKER, D. J . , GUTELL, R. R. , GAUTHERET, D . , CASE, D. A. et SAM­
PATH, R. (2001) . RNAMotif, an RNA secondary structure definition and search
algorithm. Nucleic Acids Res, 29(22) :4724-35.
MAJOR, F. (2003) . Building three-dimensional ribonucleic acid structures. Computing
in Science & Engineering, pages 44-53.
MARCO, M. et FRANCESCO, P. (2006) . Using gene ontology and genomic controlled vo­
cabularies to analyze high-throughput gene lists : Three tool comparison. Computers
in Biology and Medicine, 7-8(36) : 193-215.
MARGOLIN, A. A., NEMENMAN, r . , BASSO, K., WIGGINS, c . , STOLOVITZKY, G.,
DALLA FAVERA, R. et CALIFANO, A. (2006) . ARACNE : an algorithm for the
reconstruction of gene regulatory networks in a mammalian cellular context. BMC
Bioinformatics, 7 Suppl 1 :87.
McCRAY, A. T . , BROWNE, A. c. et BODENREIDER, o. (2002) . The lexical properties
of the gene ontology. Proc AMIA Symp, pages 504-508.
METZKER, M. L. (2010) . Sequencing technologies - the next generation. Nat Rev
Genet, 1 1 ( 1) :31-46.
MILLER, J. R. , KOREN, S. et SUTTON, G. (2010) . Assembly algorithms for next­
generation sequencing data. Genomics.
MONTEIRO, P. , DUMAS, E., BESSON, B., MATEESCU, R., PAGE, M., FREITAS, A. et
de JONG, H. ( BMC Bioinformatics) . A service-oriented architecture for integrating
the modeling and formal verification of genetic regulatory networks. 2oog, 10 :450.
MONTEIRO, P. , RoPERS, D . , MATEESCU, R. , FREITAS, A. et de JoNG, H. (2008) .
Temporal logic patterns for querying dynamic models of cellular interaction networks.
6. Bioinformatique - 1 161

Bioinformatics, 24(26) :i227-33.


MoRDELET, F. et VERT, J.-P. (2008) . Sirene : Supervised inference of regulatory
networks. Bioinformatics, 24(16) :i76-i82.
MORGAN, A., Lu, z., WANG, X. , COHEN, A., FLUCK, J., RucH, P. , DIVOLI, A., FuN­
DEL, K., LEAMAN, R. , HAKENBERG, J . , SUN, c., LIU, H. H., TORRES, R. , KRAU­
THAMMER, M., LAU, W., LIU, H. , Hsu, C. N., ScHUEMIE, M., COHEN, B. K. et
HIRSCHMAN, L. (2008) . Overview of biocreative ii gene normalization. Genome
Biology, 9 ( Suppl 2) .
MuELLER, H.-M. , KENNY, E. E. et STERNBERG, P. W. (2004) . Textpresso : An
ontology-based information retrieval and extraction system for biological literature.
FLoS Biology, 2(11) :309.
MURZIN, A. G., BRENNER, S. E. , HUBBARD, T. et CHOTHIA, C. (1995) . SCOP : A
structural classification of proteins database for the investigation of sequences and
structures. J. Mol. Biol. , 247 :536-540.
NABIEVA, E., JIM, K., AGARWAL, A., CHAZELLE, B. et SINGH, M. (2005). Whole­
proteome prediction of protein fonction via graph-theoretic analysis of interaction
maps. Bioinformatics, 21 Suppl 1 :i302-i310.
NÉDELLEC, C., BESSIÈRES, P. , B ossY, R. , KOTOUJANSKY, A. et MANINE, A.-P. (2006) .
Annotation guidelines for machine learning-based named entity recognition in mi­
crobiology. In HILARIO, M. et NEDELLEC, C., éditeurs : Froceedings of the Data and
text mining in integrative biology workshop, associé à ECML/FKDD, pages 40-54,
Berlin, Allemagne.
NÉDELLEC, C., NAZARENKO, A. et BOSSY, R. (2009) . Ontology and information extrac­
tion. In STAAB, S. et STUDER, R. , éditeurs : Handbook on Ontologies, International
Handbooks on Information Systems. Springer.
Nussrnov, R. et JACOBSON, A. B. (1980) . Fast algorithm for predicting the secondary
structure of single-stranded RNA. Froc Natl Acad Sei U S A, 77(11) :6309-13.
PAVESI, G., MAURI, G. et PESOLE, G. (2001). An algorithm for finding signals of
unknown length in DNA sequences. Bioinformatics, 17 Suppl 1 :S207-214.
PEARL, J. (2000) . Causality : Models, reasoning, and inference. Cambridge Univ Pr.
POLLASTRI, G. et BALDI, P. (2002) . Prediction of contact maps by GIOHMMs and
recurrent neural networks using lateral propagation from all four cardinal corners.
Bioinformatics, 18 Suppl 1 :S62-S70.
RABINER, L. (1990) . A tutorial on hidden Markov models and selected applications in
speech recognition. Readings in speech recognition, 53(3) :267-296.
RAYCHAUDHURI, S., STUART, J. M. et ALTMAN, R. B. (2000) . Principal components
analysis to summarize microarray experiments : application to sporulation time se­
ries. Fac Symp Biocomput, pages 455-466.
REDER, C. (1988) . Metabolism control theory : A structural approach. J Theor Biol,
2(135) : 175-201.
REGEV, A. et SHAPIRO, E. (2002) . Cells as computation. Nature, 419(6905) :343.
RINALDI, F., SCHNEIDER, G., KALJURAND, K . , KLENNER, M., HESS, M., ROMACKER,
M. , von ALLMEN, J.-M. et VACHON, T. (2008) . Ontogene in biocreative ii. In Froc.
1 1 62 Panorama de l'intelligence artificielle. Volume 3
-

of the Second BioCreative Challenge Evaluation Workshop, pages 193-198, Madrid,


Spain.
ROSSI, F., VAN BEEK, P. et WALSH, T. ( 2006 ) . Handbook of constraint programming.
Elsevier Science Ltd.
ROTH, F. P. , HUGHES, J. D . , ESTEP, P. W. et CHURCH, G. M. ( 1998 ) . Finding DNA
regulatory motifs within unaligned noncoding sequences clustered by whole-genome
mrna quantitation. Nat. Biotechnol. , 16 ( 10 ) :939-945.
SAIGO, H. , VERT, J.-P. , UEDA, N. et AKUTSU, T. ( 2004 ) . Protein homology detection
using string alignment kernels. Bioinformatics, 20 ( 1 1 ) : 1682-1689.
SAKAKIBARA, Y., BROWN, M., HUGHEY, R. , MIAN, r. S., SJOLANDER, K., UNDER­
WOOD, R. C. et HAUSSLER, D. ( 1994 ) . Stochastic context-free grammars for tRNA
modeling. Nucleic Acids Res, 22 ( 23 ) :5112-20.
SANKOFF, D. ( 1985 ) . Simultaneous solution of the RNA folding, alignment and proto­
sequence problems. SIAM Journal on Applied Mathematics, 45 ( 5 ) :810-825.
SCHUSTER, S., FELL, D. et DANDEKAR, T. ( 2000 ) . A general definition of metabo­
lic pathways useful for systematic organization and analysis of complex metabolic
networks. Nature Biotechnology, 18 ( 3 ) :326-332.
SCHWEIKERT, G . , ZIEN, A., ZELLER, G., BEHR, J., DIETERICH, c., ÜNG, c. S., PHI­
LIPS, P. , D E B ONA, F., HARTMANN, L., BOHLEN, A., KRUGER, N., SONNENBURG, S.
et RATSCH, G. ( 2009 ) . mGene : accurate SVM-based gene finding with an application
to nematode genomes. Genome Res, 19 ( 1 1 ) :2133-43.
SETTLES, B. ( 2005 ) . Abner : an open source tool for automatically tagging genes,
proteins and other entity names in text. Bioinformatics, 2 1 ( 14 ) :3191-3192.
SMITH, L., TANABE, L., ANDo, R. , Kuo, C. J., CHUNG, F. I., Hsu, C. N., LIN, Y. S.,
KLINGER, R. , FRIEDRICH, C., GANCHEV, K., TORII, M., LIU, H., HADDOW, B.,
STRUBLE, C., POVINELLI, R. , VLACHOS, A., BAUMGARTNER, W. , HUNTER, L., CAR­
PENTER, B . , TSAI, R. , DAI, H. J., LIU, F., CHEN, Y. , SUN, c., KATRENKO, S.,
ADRIAANS, P. , BLASCHKE, C., TORRES, R. , NEVES, M., NAKOV, P. , DIVOL!, A.,
LOPEZ, M. M., MATA, J. et WILBUR, J. W. ( 2008 ) . Üverview of biocreative ii gene
mention recognition. Genome Biology, 9 ( Suppl 2 ) .
SoNNHAMMER, E. L., EDDY, S. R. et DURBIN, R. ( 1997) . Pfam : a comprehensive
database of protein domain families based on seed alignments. Proteins, 28 ( 3 ) :405-
420.
SONNHAMMER, E. L., von HEIJNE, G. et KROGH, A. ( 1998 ) . A hidden Markov model
for predicting transmembrane helices in protein sequences. Proc Int Conf Intell Syst
Mol Biol, 6 : 1 75-182.
STANKE, M. , SCHOFFMANN, O., MORGENSTERN, B. et WAACK, S. ( 2006 ) . Gene pre­
diction in eukaryotes with a generalized hidden Markov model that uses hints from
external sources. BMC Bioinformatics, 7 :62.
SZYMANSKI, M., ERDMANN, V. A. et BARCISZEWSKI, J. ( 2007) . Noncoding RNAs
database ( ncRNAdb ) . Nucleic Acids Res, 35 ( Database issue) :D162-4.
THEBAULT, P. , de GIVRY, S. , SCHIEX, T. et GASPIN, C. ( 2006 ) . Searching RNA mot ifs
and their intermolecular contacts with constraint networks. Bioinformatics, 22 ( 17) :
6. Bioinformatique - 1 1 63

2074-80.
TH OMAS, R. ( 1981 ) . On the relation between the logical structure of systems and their
ability to generate multiple steadt states or sustained oscillations. Springer Ser.
Synergetics, 9 : 180-193.
ToUZET, H. et PERRIQUET, 0 . ( 2004 ) . CARNAC : folding families of related RNAs.
Nucleic Acids Res, 32 (Web Server issue ) :Wl42-5.
T ROYANSKAYA, O. G., DOLINSKI, K., OWEN, A. B., ALTMAN, R. B. et BoTSTEIN,
D. ( 2003 ) . A bayesian framework for combining heterogeneous data sources for
gene function prediction ( in saccharomyces cerevisiae) . Proc. Natl. Acad. Sei. USA,
100 ( 14 ) :8348-8353.
WARD, J. J., McGUFFIN, L. J . , BuxTON, B. F. et JONES, D. T. ( 2003 ) . Secondary
structure prediction with support vector machines. Bioinformatics, 19 ( 13 ) : 1650-
1655.
WASHIETL, S. ( 2007) . Prediction of structural noncoding RNAs with RNAz. Methods
Mol Biol, 395 :503-26.
WINGENDER, E. , CHEN, X., HEHL, R., KARAS, H., LIEBICH, I. , MATYS, V. , MEIN­
HARDT, T., PRUBETA, M., REUTER, I. et SCHACHERER, F. ( 2000 ) . TRANSFAC : an
integrated system for gene expression regulation. Nucl. Acids Res., 28 ( 1 ) :316-319.
WITTEN, I. H. et FRANK, E. ( 2005 ) . Data Mining : Practical Machine Learning Tools
and Techniques. Morgan Kaufmann Series in Data Management Systems. Morgan
Kaufmann.
ZUKER, M. et STIEGLER, P. ( 1981 ) . Optimal computer folding of large RNA sequences
using thermodynamics and auxiliary information. Nucleic Acids Res, 9 ( 1 ) : 133-48.
ZYTNICKI, M., GASPIN, C. et SCHIEX, T. ( 2008 ) . DARN ! A weighted constraint solver
for RNA motif localization. Constraints, 13 ( 1 ) :91-109.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 65

Chapitre 7

Intelligence artificielle et
reconnaissance des formes,
• •

v1s1on, apprentissage

Ce chapitre décrit quelques problèmes et méthodes associant intelligence artificielle,


reconnaissance des formes, vision par ordinateur et apprentissage. La convergence de
ces domaines va en s'amplifiant, et ce chapitre en fournit quelques illustrations. La
première porte sur l'exploitation de systèmes à base de connaissances pour l'interpré­
tation d'images et la reconnaissance structurelle de formes et d'objets dans les images.
La deuxième traite de la supervision de codes, qui permet de construire des applica­
tions spécifiques en exploitant des bibliothèques existantes d'algorithmes de traitement
d'images, en se concentrant sur la formulation des objectifs de traitement. Enfin, la
troisième illustration montre comment différents cadres théoriques et méthodes d'ap­
prentissage peuvent être associés aux contraintes inhérentes au cadre de la robotique.

7. 1 Introduction
La convergence entre les domaines de l'intelligence artificielle et ceux de la recon­
naissance des formes, de la vision par ordinateur et de la robotique est de plus en
plus visible, et les recouvrements et intersections entre ces domaines se sont élargis
ces dernières années. L'objectif de ce chapitre est d'en montrer quelques aspects, en
particulier pour l'interprétation de haut niveau de scènes visuelles et pour l'intégration
de connaissances dans les méthodes de traitement et d'interprétation.
Beaucoup de thèmes abordés dans les autres chapitres et de méthodes qui y sont
décrites peuvent également être associés à des problématiques de reconnaissance des
formes, vision artificielle ou encore interprétation d'images. Il en va de même pour les
problématiques de la robotique. Ainsi les théories de l'incertain sont elles largement
utilisées pour modéliser les imperfections des données, des objectifs et des modes de
Auteurs : ISABELLE BLOCH, RÉGIS CLOUARD, MARINETTE REVENU et ÜLIVIER SIGAUD.
1 1 66 Panorama de l'intelligence artificielle. Volume 3
-

raisonnement, par exemple pour la fusion d'images. L'apprentissage est au cœur de


nombreux développements actuels, par exemple pour la fouille d'images, ou encore en
robotique. Les systèmes multiagents ont été depuis longtemps exploités pour la co­
opération de méthodes en analyse d'images, ainsi que pour les interactions entre ou
avec des robots. Enfin, pour citer un dernier exemple, les représentations structurelles
(graphes, hypergraphes, réseaux bayésiens, ontologies, systèmes à base de connais­
sances. . . ) trouvent naturellement leur place dans des méthodes de modélisation et
d'interprétation du contenu des images ou des vidéos, et permettent d'associer des in­
formations de bas niveau à des informations de haut niveau et des connaissances pour
guider l'interprétation des scènes observées. C'est par exemple le cas en raisonnement
spatial (voir aussi le chapitre I.4) .
Dans ce chapitre, nous décrivons un petit nombre de ces multiples interactions. Dans
la section 7.2, nous proposons un bref panorama des interactions entre intelligence
artificielle et vision par ordinateur, en particulier pour la reconnaissance des formes
dans des images, en mettant l'accent sur les systèmes à base de connaissances. Si les
ontologies sont de plus en plus développées pour guider l'interprétation de scènes, en
décrivant les concepts liés à leur contenu, elles sont également exploitées pour décrire
les objectifs du traitement des images. La section 7.3 traite ainsi de la génération
automatique d'applications de traitement d'images par des méthodes de supervision de
codes. Enfin, dans la section 7.4, un domaine différent est abordé, celui de la robotique,
en mettant en avant les aspects d'apprentissage.

7. 2 IA en vision par ordinateur et reconnaissance des


formes

Dans cette section, nous proposons un bref panorama des interactions entre intel­
ligence artificielle et vision par ordinateur, du point de vue des systèmes à base de
connaissances pour l'interprétation d'images et de scènes, et pour la reconnaissance de
formes, de structures ou d'objets dans les images. L'objectif général de ces approches
est d'ajouter de la sémantique aux images, en associant des informations visuelles ex­
traites des images d'une part et des connaissances ou des modèles d'autre part [Crevier
et Lepage, 1997 ; Le Ber et Napoli, 2002] .
Une des difficultés principales, au-delà des questions de représentation et de rai­
sonnement, est de mettre en correspondance les niveaux perceptuels et conceptuels.
Le niveau perceptuel comporte les primitives extraites des images, donc proches de
l'information au niveau des pixels en 2D ou des voxels en 3D. Le niveau conceptuel
est au contraire souvent décrit sous forme textuelle. Ce problème est souvent appelé le
problème du fossé sémantique, défini par [Smeulders et al. , 2000] comme suit : « the
lack of coïncidence between the information that one can extract from the visual data
and the interpretation that the same data have for a user in a given situation » . Il
est proche des problèmes d'ancrage de symboles traités en intelligence artificielle et en
robotique [Harnad, 1990 ; Coradeschi et Saffiotti, 1999] .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 67

7.2. 1 Connaissances
Les connaissances modélisées dans les systèmes à base de connaissances concernent
la scène et tout ce qui peut être utile à son interprétation. La distinction la plus classique
est toujours celle de [Matsuyama et Hwang, 1990] :
- les connaissances génériques sur le type de scène (décrivant typiquement les
objets qu'elle contient et les relations entre ces objets) ou le type d'images,
- les connaissances spécifiques aux images, constituant les données d'observation
de la scène, et à leur traitement, et qui sont nécessaires pour extraire des infor­
mations de ces images,
- les connaissances permettant de faire le lien entre la scène et l'image, contribuant
à répondre au problème du fossé sémantique.

7.2.2 Relations spatiales


Les connaissances ayant trait à l'espace, et en particulier aux relations spatiales,
sont particulièrement importantes pour l'interprétation d'images [Bloch, 2005 ; Kuipers
et Levitt, 1988] . Nous utilisons en effet considérablement les relations spatiales pour
décrire, détecter et reconnaître les objets : elles permettent de lever l'ambiguïté entre
des objets d'apparences similaires et elles sont souvent plus stables que les caractéris­
tiques d'apparence des objets eux-mêmes (c'est le cas des structures anatomiques par
exemple, comme nous le verrons dans l'exemple plus loin) . Le raisonnement spatial a
fait l'objet de nombreuses études en vision par ordinateur et reconnaissance des formes,
en intelligence artificielle, en sciences cognitives ou encore en systèmes d'information
géographiques. Selon la hiérarchie sémantique proposée dans [Kuipers et Levitt, 1988] ,
les relations spatiales peuvent être séparées, entre autres, en relations topologiques et
relations métriques. Parmi les relations métriques, on distingue les relations direction­
nelles et les relations de distance, ou encore des relations plus complexes telles que
« entre » ou « le long de ».
Dans le domaine du raisonnement spatial qualitatif, la plupart des modèles de re­
présentation sont symboliques, souvent dans des formalismes logiques, et concernent
principalement les relations topologiques [Vieu, 1997] ou cardinales [Ligozat, 1998]
(voir le chapitre 1.4) . Pour raisonner sur des données concrètes telles que des images,
des formalismes quantitatifs ou semi-quantitatifs sont plus expressifs. En particulier,
des modèles flous de nombreuses relations ont été proposés [Bloch, 2005] . Ils ont l'avan­
tage de permettre plus facilement de répondre aux questions du fossé sémantique. Par
exemple, la représentation floue d'un concept tel que « proche de » permet d'une
part de représenter l'imprécision inhérente à ce concept et d'autre part d'instancier sa
sémantique (via le choix des paramètres par exemple) en fonction du domaine consi­
déré [Hudelot et al., 2008] . Elle permet de plus de répondre à deux types de questions
au cœur de l'interprétation structurelle des images :
- dans quelle mesure une relation est-elle satisfaite entre deux objets donnés ?
- quelle est la zone de l'espace dans laquelle une relation à un objet de référence
est satisfaite (à un certain degré) ?
Parmi les modèles de relations spatiales, ceux reposant sur des outils de morphologie
mathématique présentent l'avantage de fournir un cadre unifié de représentations aussi
1 1 68 Panorama de l'intelligence artificielle. Volume 3
-

bien purement quantitatives, purement qualitatives (logiques en particulier) , que semi­


quantitatives (floues) [Bloch, 2006] .

7.2.3 Modes de représentation et d'organisation des connais­


sances
Comme dans d'autres domaines, la représentation de connaissances en vision et en
reconnaissance des formes se caractérise par :
- la définition d'une représentation comme un ensemble de conventions syn­
taxiques et sémantiques pour décrire un élément de connaissance ;
- des représentations logiques (dont l'expressivité dépend de la logique utilisée) ;
- des représentations compactes (seules les propriétés et caractéristiques perti-
nentes sont explicitées) ;
- une facilité de manipulation ;
- une représentation explicite de ce qui est important pour le raisonnement.
La plupart des données manipulées dans les domaines concernés ici sont numériques.
Le passage à des représentations logiques, souvent moins coûteuses et plus compactes
que des représentations numériques, nécessite une conversion vers le symbolique.
Les exigences des représentations symboliques se situent à plusieurs niveaux, on­
tologiques, épistémiques et computationnels. Les deux premiers niveaux induisent des
contraintes sur le langage et le troisième sur les mécanismes d'inférence.
Les systèmes à base de connaissances récents peuvent être vus comme des extensions
des systèmes experts classiques, en permettant des modes différents de représentation
des connaissances et de raisonnement. Les exemples les plus classiques comportent :
- les règles de production : ils ont l'avantage d'être faciles à adapter ou à étendre,
et leur fonctionnement et les résultats peuvent être facilement expliqués. Ils ont
l'inconvénient d'une représentation fragmentée de la connaissance induisant un
manque d'efficacité, et leur pouvoir d'expression dépend essentiellement du type
de logique utilisée ;
les frames [Minsky, 1974] , qui constituent une forme déclarative de systèmes à
base de connaissances, dans lesquels une liste d'attributs ou de propriétés est
assortie de caractéristiques et de valeurs de ces caractéristiques. Ils trouvent leur
utilité dans la description de concepts généraux, de classes d'objets. Des liens
hiérarchiques, d'héritage, de spécialisation et d'instanciation permettent de ma­
nipuler des classes de granularités différentes. Ces systèmes sont le plus souvent
statiques, mais une certaine dynamique peut y être introduite en affectant des
procédures aux attributs. Un exemple de leur utilisation pour représenter la
connaissance sur le traitement des images peut être trouvé dans [Clément et
Thonnat, 1993] ;
- les réseaux sémantiques (Quillian, 1967] s'appuient sur une représentation gra­
phique de la base de connaissances, dans laquelle les nœuds représentent les
concepts et les objets, et les arcs représentent des relations. Les règles d'infé­
rence s'appuient sur des propriétés d'héritage lorsque l'on passe par des arcs
d'une classe à une classe plus spécifique. Leur représentation sous forme de
graphes relationnels attribués est souvent utilisée pour représenter l'informa-
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 69

tion spatiale ;
- les graphes conceptuels (Sowa, 1984 ; Chein et Mugnier, 2008] , constitués de
nœuds de concepts et de nœuds de relations, et d'arcs permettant de les relier. La
représentation graphique permet de les construire et de les manipuler aisément ;
- les ontologies et les logiques de description, qui fournissent une formalisation, de
manière cohérente et consensuelle, des connaissances d'un domaine donné (Gru­
ber, 1993] (voir aussi le chapitre 1.5) .
En vision et en interprétation d'images, où l'on opère dans des environnements
incomplètement spécifiés et seulement partiellement connus, on trouve des exemples
de systèmes à base de connaissances essentiellement pour la supervision de pro­
grammes (Clément et Thonnat, 1993 ; Nazif et Levine, 1984] et pour l'interprétation
d'images (Desachy, 1990 ; Hanson et Rieseman, 1978 ; Matsuyama, 1986 ; McKeown
et al. , 1985] , pour ne citer que les travaux précurseurs.
En vision, des tâches spécifiques de focalisation et adaptation (avec leurs méca­
nismes attentionnels, de révision ou réparation et de maintien de la cohérence) , de
coopération et fusion ( confrontative, augmentative, intégrative) , de coordination (déli­
bérative, réactive, optimale) sont ajoutées aux systèmes à base de connaissances (Gar­
bay, 2001] .
Des travaux récents proposent d'utiliser les ontologies pour introduire de la séman­
tique et pour réduire le problème du fossé sémantique. Par exemple dans (Town, 2006] ,
il est proposé d'ancrer dans le domaine de l'image, à l'aide de techniques d'apprentis­
sage supervisé, les termes d'un langage de requêtes utilisé pour rechercher des images
par mots-clés. Une approche semblable est utilisée par (Mezaris et al. , 2004] et (Hude­
lot, 2005] , qui définissent une ontologie intermédiaire de concepts visuels dont chaque
concept est ancré à un ensemble de descripteurs calculés dans l'image. Cette approche
permet d'une part de faire des requêtes de manière qualitative à l'aide des concepts de
l'ontologie intermédiaire ou du domaine mais elle permet aussi de filtrer et sélectionner
les résultats pertinents en fonction de leurs caractéristiques visuelles.
Les modes de raisonnement associés à ces différents types de représentations dé­
pendent de la logique utilisée. Un des problèmes difficiles est la mise en correspondance
entre un modèle de connaissances et des informations extraites des images, en parti­
culier à cause du fossé sémantique. Ce problème est simplifié lorsque ces informations
représentent directement des objets (Saathoff et Staab, 2008 ; Benz et al. , 2004] . Lorsque
ce n'est pas le cas (par exemple lorsque l'image à interpréter est sur-segmentée) des ap­
proches de mise en correspondance inexacte de graphes, de satisfaction de contraintes
ou de raisonnement spatial doivent être mises en œuvre (Perchant et Bloch, 2002 ;
Bengoetxea et al. , 2002 ; Deruyver et Hodé, 1997, 2009 ; Colliot et al. , 2006 ; Nempont
et al. , 2010, 2013 ; Atif et al. , 2013] .

7 .2.4 Incertain
Les informations manipulées en interprétation d'images et en vision par ordinateur
sont le plus souvent imparfaites. Ces imperfections se manifestent sous de multiples
formes : ambiguïté, biais, bruit, incomplétude, imprécision, incertitude, incohérence
et conflit . . . auxquelles peut s'ajouter le caractère variable et évolutif des informations
dans des scènes dynamiques. Ces imperfections, que l'on retrouve dans la plupart des
1 1 70 Panorama de l'intelligence artificielle. Volume 3
-

problèmes de traitement de l'information [Dubois et Prade, 2001] , sont dues aux phé­
nomènes observés, aux limites des capteurs, aux algorithmes de reconstruction et de
traitement, au bruit, au manque de fiabilité (souvent dû aux limites précédentes) , au
mode de représentation, aux connaissances et concepts manipulés.
Il est particulièrement important d'inclure ces imperfections dans les représentations
et dans les modes de raisonnement.
La plupart des modèles numériques utilisés en image pour la représentation de
l'incertain sont les probabilités, les fonctions de croyances, les ensembles flous et les
possibilités. Ils ont été particulièrement développés en fusion d'informations [Bloch,
2008] , mais également pour représenter des informations structurelles telles que des
relations spatiales [Bloch, 2005] .
Dans les représentations probabilistes, le langage est constitué de distributions de
probabilités sur un référentiel. Elles permettent de prendre en compte de manière
rigoureuse des incertitudes aléatoires ou stochastiques. Il est plus difficile de rendre
compte des autres formes d'imperfections, à la fois formellement et sémantiquement.
L'inférence bayésienne, souvent utilisée, permet un raisonnement abductif.
La théorie des fonctions de croyances (ou théorie de Dempster-Shafer [Shafer, 1976])
repose sur un langage défini par des fonctions (appelées dans ce cadre fonctions de
masse, de croyance et de plausibilité) sur l'ensemble des parties du référentiel. Les re­
présentations permettent de tenir compte à la fois de l'imprécision et de l'incertitude
(y compris sous sa forme subjective) , de l'ignorance, de l'incomplétude, et donnent
accès au conflit. L'inférence par la règle de Dempster réalise une agrégation de type
conjonctif des informations combinées. D 'autres règles ont été proposées plus récem­
ment, permettant d'autres types de comportement [Denœux, 2008] .
Dans la théorie des ensembles flous et des possibilités [Dubois et Prade, 1980, 1988 ;
Zadeh, 1965] , le langage est formé de sous-ensembles flous du référentiel, ou de distribu­
tions de possibilités sur celui-ci. Il permet de représenter des informations qualitatives,
imprécises, vagues. L'inférence se fait par des règles logiques (ou leur équivalent sous
forme numérique) , réalisant essentiellement un raisonnement de type déductif, pouvant
être qualitatif. L'intérêt des ensembles flous pour le traitement de l'information en
image et vision peut se décliner en particulier selon les quatre aspects suivants [Bloch,
2003, 2006] :
- la capacité des ensembles flous à représenter l'information spatiale dans les
images ainsi que son imprécision, à différents niveaux {local, régional ou global) ,
et sous différentes formes {numérique, symbolique, quantitative, qualitative) ,
- la possibilité de représenter des informations très hétérogènes, extraites directe­
ment des images ou issues de connaissances externes, comme des connaissances
expertes ou génériques sur un domaine ou un problème,
- la possibilité de généraliser aux ensembles flous des opérations pour manipuler
l'information spatiale,
- la souplesse des opérateurs de combinaison permettant de fusionner des infor­
mations de multiples natures dans des situations très variées.
Pour plus de détails sur les représentations de l'incertitude, voir le chapitre I.3.
Ces modèles ont été intégrés dans les modes de représentation des connaissances
décrits plus haut, dont les ontologies [Hudelot et al., 2008 ; Hudelot et al. , 2010] .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 171

7.2 .5 Exemple : reconnaissance de structures cérébrales dans


des images IRM 3D
L'interprétation automatique de scènes complexes telles que le cerveau requiert
l' utilisation d'un modèle comportant des connaissances sur les structures composant
la scène. Dans le cas d'une scène simple où tous les objets présentent une radiométrie
différente, une information a priori sur cette propriété peut être suffisante pour réaliser
la reconnaissance des objets. Ce n'est pas le cas d'une image du cerveau par résonance
magnétique (IRM) car la radiométrie des structures à reconnaître n'est pas toujours
discriminante. Nous sommes donc amenés à utiliser d'autres caractéristiques telles que
l'agencement spatial des structures 1 .
L'agencement structurel de l'anatomie cérébrale est connu et stable chez des sujets
sains. Il reste même relativement stable en présence de pathologies. Cet agencement
structurel peut être décrit sous la forme de relations spatiales entre structures comme
cela est généralement fait dans les descriptions anatomiques [Hasboun, 2005 ; Waxman,
2000] . L'ensemble de ces relations spatiales forme ainsi une représentation compacte
de l'anatomie (même si cette représentation est incomplète) permettant de s'affranchir
partiellement de la variabilité anatomique normale. Il possède ainsi de bonnes propriétés
de généralisation.
Réaliser la reconnaissance en utilisant un tel modèle consiste à obtenir des régions
de l'image satisfaisant les relations portées par ce modèle. Pour cela il est possible de
s'appuyer sur une segmentation préliminaire de l'image, de laquelle peut être extraite
une représentation sous forme de graphe (les nœuds représentant les régions de la seg­
mentation sont valués par des propriétés telles que le volume de la région et les arcs
représentent par exemple des relations spatiales satisfaites par les régions de la seg­
mentation) . Le processus de reconnaissance peut alors être exprimé comme la mise en
correspondance exacte (isomorphisme de graphes) ou inexacte du graphe représentant
la segmentation et du graphe représentant le modèle structurel. L'estimation d'une
annotation optimale est un problème combinatoire complexe (dans la plupart des cas,
NP-difficile) .
Cependant ces approches supposent que la segmentation initiale est correcte. Or
celle-ci est en général imparfaite et il n'existe pas d'isomorphisme entre les graphes
représentant le modèle et la segmentation. Une mise en correspondance inexacte doit
donc être réalisée, par exemple par l'extraction d'un morphisme flou [Perchant et Bloch,
2002 ; Cesar et al. , 2005] entre ces graphes. Dans [Deruyver et Rodé, 1997, 2009] , les
auteurs utilisent une sur-segmentation de l'image, plus facile à obtenir. Ils associent
explicitement une structure du modèle à un ensemble de régions de la sur-segmentation
puis formulent le problème de reconnaissance comme un problème de satisfaction de
contraintes à deux niveaux. Les variables sont les structures anatomiques à reconnaître
et prennent pour valeur un ensemble de régions de la sur-segmentation initiale.
La correction de la segmentation (ou de la sur-segmentation) initiale n'étant pas
assurée, il est préférable de réaliser simultanément la segmentation et la reconnais­
sance. L'approche proposée dans [Bloch et al. , 2003 ; Colliot et al. , 2006] consiste ainsi
à extraire séquentiellement les structures anatomiques en suivant un ordre calculé a

1. Cette section est en grande partie issue de [Nempont et al. , 2010] .


1 1 72 Panorama de l'intelligence artificielle. Volume 3
-

priori [Fouquier et al. , 2008 ; Fouquier et al. , 2012) . Ce processus débute par l'extraction
des structures les plus simples à segmenter. Les relations spatiales du modèle struc­
turel et ces segmentations permettent alors de contraindre l'espace de solutions des
structures anatomiques plus délicates à extraire. Plus le processus progresse, plus le
nombre de structures segmentées est important et plus l'espace de solutions des struc­
tures restant à extraire est contraint. Cette approche bénéficie d'une représentation
ontologique des connaissances médicales et des relations spatiales, et les modèles flous
de ces relations permettent de passer aisément du domaine conceptuel au domaine
spatial, répondant ainsi aux questions du fossé sémantique [Hudelot et al. , 2008] .

(a) {b)

FIGURE 1 (a) Coupe axiale d'une IRM 3D d'un patient présentant une tumeur céré­
-

brale. {b) Résultats de reconnaissance des structures internes [Nempont et al. , 2010] .

Tout en utilisant ce type de modèle structurel, une autre méthode de résolution,


globale et non plus séquentielle, visant à extraire une solution {l'affectation d'une ré­
gion de l'espace à chaque structure anatomique à reconnaître) satisfaisant les relations
du modèle structurel, a été proposée dans [Nempont et al. , 2010, 2013) . L'espace de
solutions est progressivement réduit par l'exclusion des affectations incohérentes avec le
modèle structurel. Un réseau de contraintes est construit à partir du modèle structurel
et un algorithme de propagation réduit alors l'espace de recherche, ce qui permet dans
un deuxième temps d'extraire une solution approximative (voir le chapitre II.6 pour les
méthodes de raisonnement par contraintes) . La figure 2 illustre ce processus : la réduc­
tion de l'espace de solutions du noyau caudé gauche CNl est obtenue en considérant
la contrainte « le noyau caudé gauche CNl est extérieur au ventricule latéral gauche
LVl ». Lorsque ce processus s'achève, l'espace de solutions des structures du modèle est
assez réduit pour permettre d'obtenir un résultat de segmentation et de reconnaissance
final par l'extraction d'une surface minimale relativement aux résultats du processus
de propagation.

Un exemple de résultat dans un cas pathologique est illustré (sur une coupe) dans
la figure 1 .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 73

I�

�I

FIGURE 2 Représentation schématique de l'approche de reconnaissance de structures


-

cérébrales dans des images IRM par propagation de contraintes [Nempont et al. , 2010] .
1 1 74 Panorama de l'intelligence artificielle. Volume 3
-

Pour conclure sur ce point, on peut retenir que l'interprétation d'images à partir de
modèles connaît un regain d'intérêt en se situant au carrefour du domaine du traite­
ment des images, de la vision par ordinateur et de la reconnaissance des formes d'une
part, et du domaine de l'intelligence artificielle d'autre part. L'association de modèles
structurels génériques et de spécifications propres au contexte, prenant en compte in­
certitudes et variabilités, permet de répondre à la question du fossé sémantique. Ces
approches sont actuellement développées pour l'annotation d'images et de vidéos, la
segmentation et la reconnaissance d'objets et de structures, le raisonnement spatial
pour l'exploration d'images, ou encore la production de descriptions de haut niveau du
contenu des images et des séquences d'images.

7. 3 Supervision d e codes pour l e traitement automa­


tique des images
Le besoin en logiciels d'analyse automatique d'images se fait de plus en plus pressant
à mesure que l'image numérique s'impose comme une source d'information privilégiée.
Les dispositifs d'acquisition permettent d'accéder à des informations jusqu'ici inconnues
ou inaccessibles, qui prennent une importance stratégique dans de nombreux domaines
comme la médecine, la télésurveillance, la sécurité, le contrôle qualité, la recherche de
ressources naturelles, la protection de l'environnement, l'écologie, etc. Cependant, la
multiplication de ces dispositifs conduit à la production d'un flot toujours croissant de
données qu'il devient difficile d'exploiter manuellement.
Le traitement d'images s'inscrit dans un processus préliminaire destiné à préparer
les images à leur analyse ultérieure par des humains ou par des systèmes d'interpré­
tation. Il couvre tous les objectifs de transformation d'images en images qui visent
à réduire, améliorer ou organiser les données initiales. On distingue généralement les
objectifs de compression des données, d'amélioration du rendu visuel, de restauration
d'informations manquantes, de reconstruction d'informations spatio-temporelles (3D
ou mouvement) , de segmentation en primitives plus abstraites (régions ou contours) et
de détection d'objets. Il n'a aucun pouvoir décisionnel, mais son rôle est crucial puis­
qu'il doit garantir que les transformations sur les images se font sans perte ni altération
de l'information pertinente.
La recherche en traitement d'images fournit traditionnellement son savoir-faire sous
la forme d'algorithmes de transformation d'images. Un grand nombre d'algorithmes
capables de couvrir un vaste champ d'opérations ont été développés. Une application
concrète combine généralement plusieurs de ces algorithmes en suivant une stratégie de
construction des résultats ascendante, descendante ou mixte. Chaque algorithme s'éla­
bore sur un modèle numérique supposé de l'information à traiter, ce qui conditionne son
domaine d'applicabilité et son efficacité. De ce fait, il n'existe pas d'algorithme univer­
sel. Il est donc nécessaire de créer un programme spécifique pour chaque application, en
sélectionnant et en enchaînant les algorithmes adaptés. Cependant, l'utilisation d'une
bibliothèque d'algorithmes de traitement d'images relève d'une expertise hautement
spécialisée pour savoir quand et comment employer les algorithmes.
Les systèmes de supervision de codes visent à fournir aux utilisateurs un outil
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 7 5

leur permettant de construire leurs propres applications par exploitation d'une biblio­
thèque d'algorithmes de traitement précodés. Les utilisateurs n'ont plus besoin d'être
des experts de traitement d'images ; leur rôle est centré sur la formulation des objec­
tifs de traitement. C'est le système qui pilote la bibliothèque de codes pour construire
les programmes par enchaînement et paramétrage des codes en fonction des objectifs
formulés.

7.3. 1 Formulation d'objectifs de traitement d'images


La formulation des objectifs de l'application revêt une importance primordiale puis­
qu'elle est utilisée par le système pour orienter le choix, le paramétrage et l'enchaî­
nement des codes. Trois catégories d'information doivent être considérées dans une
formulation complète :
1. La description du processus d 'acquisition des images permet de redonner les infor­
mations sur la scène qui ont été perdues, altérées ou cachées lors de la production
d'images.
2. L'expression d'une sémantique associée au contenu de la scène permet de désigner
les informations à considérer comme pertinentes.
3. La spécification du but de l 'application permet de préciser son rôle dans la chaîne
d'analyse complète.
Les deux premières catégories d'information correspondent à la définition de la
classe d'images que l'on a à traiter. Toutes ces informations sont requises pour combler
en partie les fossés sensoriel et sémantique [Smeulders et al. , 2000] , ce que schématise
la figure 3.

Fossé sMSOlfel
Sœne i---....
t...
I ' --�
imaoe ....---+"'
-

1
Desi;tlpteurs ;..
: ��----"IX�-�-

L_. ·-·�·,,·-'�'' '��,··-- -�--· �·- � Abatnlcdon


AllQulsldon OescriOtlOn

FIGURE 3 - Le fossé sensoriel résulte de la perte d'information entre la réalité d'une


scène et sa représentation par une image. Le fossé sémantique sépare l'interprétation
d'une scène que quelqu'un peut se faire à partir d'une représentation par image et celle
faite à partir d'une description par des caractéristiques quantitatives [Smeulders et al.,
2000] .
1 1 76 Panorama de l'intelligence artificielle. Volume 3
-

Définition d'une classe d'images


Pour définir une classe d'images, deux modèles ont été envisagés dans la littérature
selon qu'il s'agit d'une définition par extension ou par intension.
Dans une définition par extension, l'information a priori est représentée par des
parties d'images exemples, qui peuvent se présenter sous la forme de « masques » ou
de « patchs ».
- Un masque représente une région dans l'image qui délimite un objet d'intérêt
ou une partie caractéristique d'image, comme dans l'exemple de la figure 4.b.
Les masques sont utilisés par le système pour extraire automatiquement un
ensemble de valeurs caractéristiques de l'objet désigné (couleur, forme, taille,
etc.) ou un ensemble de propriétés des images (nature du bruit, répartition de
l'illumination, etc.) .
- Un patch est une imagette extraite d'une image exemple qui isole une par­
tie saillante d'un objet d'intérêt (souvent localisée autour d'un point d'intérêt
comme dans la figure 4.c) . Les objets d'intérêt sont ainsi modélisés par un dic­
tionnaire iconique formé avec l'ensemble des patchs extraits de plusieurs images
exemples. Ces patchs sont utilisés par le système pour détecter des occurrences
de ces objets dans les images [Agarwal et al. , 2004 ; Leibe et al. , 2008] à partir
de leur parties caractéristiques.

s.:
Il � llfJ<

.. . __

- d

FIGURE 4 - Deux façons différentes de décrire par extension le véhicule commercial de


la figure (a) : (b) par un masque encadrant les pixels du véhicule, (c) par des patchs
autour des points d'intérêt.

L'intérêt d'une définition par extension est de limiter la charge cognitive des utilisa­
teurs du système puisque la formulation ne nécessite aucun langage de représentation.
En revanche, le fait que la définition de la classe d'images soit assignée par le système
seul, à partir d'une liste prédéfinie de caractéristiques extraites des images, rend cette
définition peu adaptable aux particularités de chaque application.
Dans une définition par intension, les informations a priori sont représentées for­
mellement par une description linguistique. L'intérêt de cette définition est de mieux
profiter de l'expertise de l'utilisateur sur la scène. Elle fournit un langage capable de
représenter la sémantique de la scène et permet ainsi de mieux capturer la variabilité
des applications. Les ontologies sont ici largement utilisées [Hunter, 2001 ; Bloehdorn
et al. , 2005 ; Town, 2006 ; Renouf et al. , 2007 ; Margret Anouncia et Saravanan, 2007 ;
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 77

Maillot et Thonnat, 2008 ; Neumann et Müller, 2008 ; Gurevich et al. , 2009] . Le lan­
gage de description est généralement construit à partir d'une ontologie de domaine qui
fournit les primitives du langage. La description d'une classe d'images particulière est
une ontologie d 'application qui est obtenue par sélection et réification de primitives de
l'ontologie du domaine [Câmara et al. , 2001] . Par exemple, [Maillot et Thonnat, 2008]
proposent « l'Ontologie des Concepts Visuels » qui définit les concepts de texture, de
couleur, de géométrie et de relations topologiques. La figure 5 donne une représentation
textuelle de la définition d'un grain de pollen avec cette ontologie. Pour mieux rendre
compte de la variabilité des manifestations visuelles des objets dans la scène, le langage
accepte des valeurs qualitatives à partir de variables linguistiques, aussi bien pour les
caractéristiques comme par exemple « rose », « très circulaire », « fortement oblongue »,
etc., que pour les relations spatiales telles que « devant », « à côté de », etc.
Toutefois, la construction de la solution nécessite des valeurs quantitatives. De ce
fait, la définition intensionnelle doit aborder le problème de l' ancrage des symboles
dans le but de connecter les symboles linguistiques aux valeurs des données image.
L'enracinement des symboles peut être mené en utilisant des dictionnaires tels que le
« Color Naming System » [Berk et al. , 1982] , où l'espace HSL est divisé en 627 couleurs
distinctes, chacune étiquetée par un nom, ou le dictionnaire des textures « Texture
Naming System dictionary » [Rao et Lohse, 1993] .
Mais, le plus souvent, l'enracinement des symboles est appréhendé comme un pro­
blème d'apprentissage à partir d'une base de masques. De ce fait, ce sont souvent des
approches mixtes qui sont utilisées. La définition par intension est complétée d'une
définition par extension qui permet ainsi un ancrage des concepts de l'ontologie dans
les données [Maillot et Thonnat, 2008 ; Hudelot et al. , 2008 ; Clouard et al. , 2010] .

Pai.r!J. . ""• -­
•ü'iJ ""� � j:t}6($) lj1
Fuaœaa, gcaoo try : cR:ülir;. aUp:lc.;I'
.llm : lm�
1 huei : pln'k
IP&ttl.r1 1:1im � �i+i"
'�lijfi)· � ! Gf(UU,l l�d
1D;dunJ1 1CîC(llmi;,, : alglîf
5'!"11:1.ll rat.:btJM : .� 't!l.�nt:l.!i'�Pa.nV1 ooœ<JO , IF'oo..!.1 �
f11 n.r-"1'\'(i'11i' P'.it1P'>· J"�P"œ�, F'mJs.)

FIGURE 5 Représentation textuelle de la définition d'un grain de pollen de type


-

« poaceae » faite à partir de « l'Ontologie de Concepts Visuels » proposée par [Maillot


et Thonnat, 2008] .

Spécification du but de l'application


La spécification du but d'une application peut être faite soit par des exemples de
résultats attendus soit par l'expression des tâches à accomplir.
Dans une spécification par l'exemple, un but est formulé par l'intermédiaire d'une ou
plusieurs images de référence qui contiennent la représentation des résultats à obtenir
sur des images tests. Ces exemples sont utilisés par le système pour sélectionner un
algorithme prédéfini ou construire une chaîne d'algorithmes qui produit des résultats
1 1 78 Panorama de l'intelligence artificielle. Volume 3
-

proches des images de référence. Trois représentations différentes des résultats ont été
proposées dans la littérature :
- Les images de référence contiennent des sketchs qui sont des tracés faits par
l'utilisateur sur des images tests qui donnent des exemples de contours ou de
régions attendus en sortie [Draper et al. , 1999] , comme dans l'exemple de la
figure 6.a.
- Les images de référence sont des segmentations manuelles qui donnent les ré­
sultats exacts à obtenir pour les images tests [Martin et al. , 2006] , comme dans
l'exemple de la figure 6.b.
- Les images de référence contiennent des gribouillages qui pointent les régions
d'intérêt sans les détourer complètement [Protière et Sapiro, 2007] . Générale­
ment, ces gribouillages sont des traits dessinés directement sur les régions d'in­
térêt et sur la région du fond complémentaire des objets, comme dans l'exemple
de la figure 6.c.

FIGURE 6 - Différentes approches de la spécification de but par l'exemple : (a) par


sketch, {b) par segmentation manuelle, ( c) par gribouillages.

L'avantage de cette spécification est qu'elle est par nature quantitative puisqu'elle
prend ses valeurs directement dans les données image. De plus, elle allège la charge
cognitive des utilisateurs parce qu'elle ne nécessite aucun vocabulaire spécialisé. Mais,
l'inconvénient de cette approche est qu'une image de référence n'est pas suffisante pour
formuler toutes les formes d'objectifs. Elle ne s'applique réellement que pour des buts
de segmentation, de détection d'images et éventuellement d'amélioration.

Les buts de compression, de restauration ou de reconstruction sont plus difficilement


envisageables. De plus, elle ne couvre pas toutes les classes d'images. En particulier, elle
est fastidieuse à mettre en œuvre pour les images 3D et les séquences d'images. Enfin,
elle ne permet pas de moduler les contraintes spécifiques attachées à l'objectif telle que
« préférer les fausses détections aux oublis » ou le contraire, ou encore « préférer aucun
résultat à des résultats non parfaitement satisfaisants » ou au contraire « préférer un
résultat même partiel à aucun résultat ».

Dans la spécification par tâche, une tâche décrit une fonctionnalité du système,
comme « détecter l'objet 'véhicule' » ou « segmenter l'image ». Cette approche nécessite
un langage de représentation de l'objectif plus ou moins évolué.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 79

Il est ici possible d'associer des contraintes à la tâche pour en préciser sa portée.
De plus, la spécification par tâche présente l'avantage de couvrir tous les objectifs de
traitement d'images : il suffit pour cela de définir le nom d'une tâche.

L'inconvénient est que la formulation est qualitative, sans réel lien avec les données
image. Cela a deux conséquences importantes :
- premièrement, la spécification par tâche n'est pas assez enracinée dans les don­
nées,
- deuxièmement, il n'existe qu'un nombre fini de formulations d'objectifs diffé­
rentes.

C'est pourquoi là aussi, les approches récentes utilisent des approches mixtes qui
combinent une spécification par tâches et une spécification par l'exemple.

FIGURE 7 Les concepts d'une ontologie de la formulation d'applications de traitement


-

d'images [Clouard et al. , 2010] .

La figure 7 présente une ontologie (Clouard et al. , 2010] qui couvre la définition
de la classe d'images en mixant les approches par intension et par extension et la
spécification des buts mixant les approches par tâche et par l'exemple.

Supervision de codes
La mise à disposition d'une formulation des objectifs de l'application est le préalable
au développement d'une solution sous forme d'une chaîne de traitement.
Dans le paradigme de la supervision de codes [Thonnat et Moisan, 2000] , les tech­
niques de traitement d'images sont implantées sous forme de codes exécutables indé­
pendants et regroupés dans une bibliothèque. Un programme de traitement d'images
est alors représenté sous forme canonique par un graphe orienté de codes. Les liens
entre les codes décrivent le réseau d'images et de valeurs de paramètres échangées
1 1 80 Panorama de l'intelligence artificielle. Volume 3
-

entre ces codes. Par exemple, la figure 8 montre une chaîne de traitement qui effectue
une détection de contours par différence de deux gaussiennes.
Le problème de la supervision de codes a été abordé de différentes façons, dont les
plus abouties sont :
- la compétition de compétences ;
- l'instanciation de squelettes de plans ;
- la planification de chaînes de codes ;
- le raisonnement à partir de cas ;
- la construction incrémentale du résultat.

pexponent ialf i l t er i ng 0 . 2 image1 image2


pexponent i a l f i l t ering 0 . 8 image1 image3
psub image2 image3 image4
pzerocro s s 8 image4 re sultat

FIGURE 8 Un programme est un graphe de codes exécutables paramétrés. A gauche,


-

est donnée la représentation d'une détection de contours utilisant l'algorithme DOG


(Difference of Gaussian) sous la forme d'un graphe de codes. A droite, le même algo­
rithme est représenté sous la forme d'une séquence des codes exécutables équivalente.

Compétition de compétences
L'idée de base de cette approche est d'exploiter la concurrence entre plusieurs stra­
tégies de traitement prédéfinies. Par exemple, [Charroux et al. , 1996] proposent d'exé­
cuter différentes chaînes de segmentation d'images en parallèle, puis de construire le
résultat final avec les régions les mieux segmentées par chacun de ces algorithmes. La
qualité d'une région est mesurée par son degré d'appartenance à une classe d'objets du
domaine, calculé par un classifieur entraîné pour reconnaître les objets du domaine à
partir de masques faits sur des images exemples.
Martin et al. [Martin et al., 2006] proposent de mettre en concurrence les chaînes
de segmentation d'images pour ensuite sélectionner la meilleure, avec le meilleur pa­
ramétrage. La sélection se fait par apprentissage à partir d'exemples d'images pour
lesquelles on fournit la segmentation de référence « idéale » faite à la main. La chaîne
finalement sélectionnée, avec son paramétrage, est celle qui minimise une distance entre
la segmentation obtenue sur une image test et la segmentation de référence donnée pour
cette même image.
L'intérêt de cette approche est qu'elle ne requiert pas de modélisation explicite
d'une expertise. En revanche, elle utilise des chaînes de traitement qui sont figées et en
nombre fini, dont la seule adaptation repose sur les valeurs de paramètres.

Instanciation de squelette de plans


C'est certainement l'approche qui a engendré le plus de systèmes, avec des travaux
pionniers comme : ÜCAPI [Clément et Thonnat, 1993] , VSDE [Bodington, 1995] , CONNY
[Liedtke et Blômer, 1992] , COLLAGE [Lansky et al. , 1995] ou encore MvP [Chien et
Mortensen, 1996] .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 8 1

L'expertise de traitement est codée dans des squelettes de plans hiérarchiques qui
associent en plusieurs niveaux de décomposition une tâche correspondant à un problème
à un ensemble de codes qui constituent les éléments d'une chaîne de traitement possible.
Les squelettes de plans sont codés par des arbres ET/OU qui indiquent comment une
tâche peut être décomposée en sous-tâches. À chaque nœud, des règles sont utilisées
pour choisir la branche de décomposition la plus adaptée et les valeurs de paramètres
en fonction des éléments de la formulation. La figure 9 présente une ontologie reprenant
les concepts impliqués dans cette approche.

ha.�Goal
\
\, �lriltil

FIGURE 9 - Concepts et éléments fondamentaux d'une ontologie de traitement d'images


(Gurevich et al. , 2009] .

Par rapport à l'approche précédente, cette approche permet d'adapter la compo­


sition des chaînes aux spécifications données dans la formulation des objectifs. En
revanche, elle nécessite de savoir identifier et représenter des expertises de résolution
pour chaque type de problème possible.

Raisonnement à partir de cas


Le raisonnement à partir de cas s'appuie sur la mémorisation de chaînes de trai­
tement construites avec succès dans le passé, pour traiter une nouvelle application
« similaire » (voir aussi le chapitre I.8) .
En traitement d'images, cette approche a été utilisée pour retrouver directement
des plans de traitement (Charlebois, 1997 ; Ficet-Cauchard et al. , 1999] ou pour dé­
terminer le bon jeu de paramètres pour configurer une chaîne de traitement générale
[Perner et al. , 2005 ; Frucci et al. , 2008] . Le raisonnement est fondé sur l'analyse de
la formulation du problème à résoudre pour tenter de retrouver un cas similaire, qui
sera ensuite adapté aux particularités du problème courant. S'il n'existe pas de cas
similaire, alors ce nouveau cas doit être appris et stocké dans la base.
1 1 82 Panorama de l'intelligence artificielle. Volume 3
-

Le raisonnement à partir de cas ne nécessite pas la représentation d'une expertise


de traitement explicite. En revanche, le point critique de cette approche réside dans
l'adaptation des cas au contexte particulier de l'appliéation qui revêt une importance
considérable en traitement d'images, du fait de variabilité intrinsèque des données.

Planification de chaînes de codes

Au contraire des approches précédentes qui codent explicitement un ensemble de


chaînes ou de squelettes de chaînes de traitement, cette approche propose de construire
dynamiquement la chaîne par planification.
Les systèmes utilisant une planification linéaire reposent sur la modélisation d'un
type d'expression qui peut être propagée le long des chaînes de traitement. Le raison­
nement est focalisé sur les opérations à appliquer à l'expression initiale pour construire
l'expression finale attendue. L'expression initiale correspond à la formulation donnée
par l'utilisateur sous forme intensionnelle ou sous forme extensionnelle. Dans ce dernier
cas, l'expression est construite par extraction automatique de caractéristiques dans des
images exemples. La génération des chaînes peut être combinatoire. Chaque opérateur
de la chaîne est modélisé par une liste de préconditions et une liste des effets sur l'ex­
pression, comme dans le système EXTI [Dalle et Dejean, 1998] . Ou encore, la chaîne
peut être générée par application de règles de production attachées aux nœuds qui sé­
lectionnent les prochains opérateurs en fonction de l'expression courante, comme dans
les systèmes LLVE [Matsuyama, 1989] et SOLUTION [Rost et Münkel, 1998] .
L'approche par planification permet de créer des chaînes originales pour chaque
application. Cependant, elle se heurte à la difficulté de modéliser le problème sous la
forme d'une expression propageable le long des chaînes de traitement et surtout à la
difficulté de devoir estimer a priori les effets des opérations sur cette expression.
C'est pourquoi, ce problème a aussi été abordé en utilisant une planification hié­
rarchique pour améliorer l'efficacité de la planification. Le système BORG [Clouard
et al. , 1999] utilise un tableau noir pour bâtir un plan en utilisant plusieurs niveaux
d'abstraction. L'objectif initial formulé par l'utilisateur est décomposé progressivement
en sous-tâches de plus de plus précises jusqu'à aboutir à des opérateurs exécutables.
Des sources de connaissances codent les différentes alternatives de décomposition d'une
tâche d'un niveau en sous-tâches de niveau inférieur. La figure IO présente un exemple
de construction d'un tel plan.

Dans tous les cas, l'application finale est la chaîne de traitement construite opéra­
teur par opérateur, qui peut ensuite être utilisée de façon autonome. Afin de limiter
l'impact des choix faits au moment de la construction de chaînes, [Draper et al. , 1999]
avec le système ADORE proposent de garder différentes alternatives de chaînes possibles
dans la représentation du programme. Ils utilisent un processus de décision markovien
pour choisir dynamiquement le bon chemin dans ces chaînes, à partir de caractéristiques
extraites automatiquement de chaque image traitée.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 83

f ..
jOb}6ctDorect/on •sgrlcuHural 11<1/d"I
. . UOt<ldl

11 1
Tld>o
A
I1l C4Mo�� I 1 TOP-OOWN-OETECTION-KS
SOUAœ<JUONNAISSN<CEa j
------.
Reg/on ToObjoo/L ocaliullon

EDGE-SEGMENTATICJN.KS

......

EDGE-OISTANCE·BASED-CLO1�
1 EdgaCloslng
71"

EVALUATlON-KS

Watarshed
Sewnanration

WATERSHED-SEGMENTATION·KS

p-lnversloo 1
,___. ..___, 1,_'>..
....< ___....._ _
___,
p-watershed

FIGURE 10 - Extrait d'un plan de traitement hiérarchique pour la détection de champs


agricoles dans des images aériennes [Clouard et al. , 2010] .

Construction incrémentale du résultat


La construction incrémentale du résultat procède par évolution progressive et
contrôlée des données d'entrée vers les données désirées en sortie. Cette approche peut
être vue comme duale des approches précédentes, dans le sens où le raisonnement est
focalisé sur l'analyse des données produites après l'application de traitement. Les algo­
rithmes de traitement d'images sont ici complètement éclatés en un ensemble de règles
[Nazif et Levine, 1984] ou d'agents rationnels indépendants [Boucher, 1999 ; Bovem­
kamp et al. , 2004] . Dans une telle approche, il n'y a pas de stratégie de génération des
chaînes de traitement qui soit explicitée. Le raisonnement reste focalisé sur l'analyse
de l'état courant des données après application des premiers traitements, dans le but
de décider des prochains traitements à appliquer dans le cas de règles ou de résoudre
les conflits d'accès aux données dans le cas de systèmes multiagents.
La construction incrémentale du résultat nécessite une phase d'acquisition des
connaissances. Mais le contrôle décentralisé facilite l'acquisition de ces connaissances,
puisqu'il n'est pas nécessaire pour l'ingénieur de la connaissance d'expliciter des stra­
tégies de résolution. En revanche, le processus global de résolution reste complexe à
maîtriser parce que la convergence vers une solution n'est garantie que par l'action de
règles ou d'agents qui n'ont qu'une vision très locale de leurs effets. Chaque règle ou
chaque agent est responsable de savoir estimer la valeur de sa contribution par rap­
port à l'état courant de la résolution. Cette limite oblige souvent à ajouter des niveaux
d'abstraction dans la hiérarchie des règles ou des agents rationnels pour avoir une vision
plus globale de la résolution.

7.3.2 Recherches actuelles


Parmi les recherches menées sur le thème de la supervision de codes pour le traite­
ment et l'analyse automatiques des images, il faut noter le dynamisme et l'originalité
1 1 84 Panorama de l'intelligence artificielle. Volume 3
-

des travaux proposés en France. L'enjeu de ces recherches est d'élaborer des solutions
pour concevoir des systèmes de vision à destination de spécialistes d'un domaine d'ap­
plication particulier n'ayant aucune connaissance en traitement des images (géographes,
biologistes, documentalistes, truquistes de cinéma, etc. ) , afin de leur donner la possibi­
lité de produire seuls des logiciels de traitement d'images. A plus court terme, il s'agit
de construire des systèmes configurables qui aident les ingénieurs en vision à déployer
rapidement des applications dédiées sans avoir à tout programmer.
Aujourd'hui, les résultats de ces travaux sont exploités dans le cadre de l'aide à
l'indexation sémantique d'images, de la recherche d'images par le contenu ou encore
de l'analyse vidéo. Ces problèmes sont par ailleurs abordés à l'aide des méthodes sta­
tistiques avec des résultats spectaculaires pour la détection de visages, d'animaux ou
la reconnaissance d'émotions par exemple. Elles fonctionnent sur la base d'une défini­
tion extensionnelle de la classe, par comparaison avec des images exemples apprises.
Mais ces méthodes statistiques restent insuffisantes dans le cas de scènes complexes
ou pour des problèmes autres que la détection. Ici, les méthodes et les techniques de
l'intelligence artificielle sont d'un apport indéniable. Elles permettent de s'attaquer à
des applications plus variées et surtout elles prennent mieux en compte les besoins des
utilisateurs. Dans cet environnement, les méthodes statistiques sont intégrées comme
des codes pilotables, permettant ainsi de bénéficier de leur efficacité dans les cas ciblés.
Cependant, la conception de systèmes couvrant un large spectre d'applications avec
une grande efficacité reste encore un challenge. Dans cette perspective, une partie des
recherches actuelles s'orientent vers le développement de solutions fondées sur l'in­
teraction Homme-Machine, qui mettent en avant la collaboration pour converger en
commun vers la construction d'une chaîne de traitement idoine, chacun apportant ses
compétences, l'utilisateur sa connaissance du problème et le système sa connaissance
du traitement d'images.

7.4 L'apprentissage pour la robotique


La plupart des robots industriels du siècle dernier étaient utilisés dans des envi­
ronnements extrêmement structurés et maîtrisés tels que des chaînes de montage. Ils y
réalisaient à longueur de journée des tâches hautement répétitives et spécialisées sans
la moindre place pour l'incertitude et à l'écart des ouvriers humains, souvent pour des
questions de sécurité.
Au début du 21e siècle, une nouvelle génération de robots est en train d'émerger,
dont le contexte d'emploi est fondamentalement différent ( voir aussi le chapitre IIl.8 ) .
Ces robots dits « personnels », qu'il s'agisse de robots ménagers, ludiques, d'assistance
aux patients ou de compagnie, vont avoir à réaliser des tâches extrêmement variées
dans des environnements non connus a priori, changeants, où l'incertitude est omni­
présente, et au contact direct de leurs utilisateurs, qui ne seront pas des experts en
robotique. Dans un tel contexte, spécifier à l'avance le comportement des robots pour
toute situation possible dans le contexte de réalisation de toute tâche possible n'est
plus envisageable. La seule alternative raisonnable est de doter ces robots polyvalents
de capacités d'apprentissage et d'adaptation à leur environnement.
Bien que les méthodes d'apprentissage aient connu des développements considé-
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 85
-

rables dans les deux dernières décennies, le cadre robotique confronte ces méthodes
à des containtes spécifiques telles que la durée limitée des expériences, le coÎlt sou­
vent prohibitif des échecs, la nécessité de fonctionner en temps réel ou le nombre de
dimensions très élevé des problèmes qu'il faut résoudre.
Par conséquent, aucun cadre théorique fédérateur ne s'est encore imposé pour for­
maliser les problèmes d'apprentissage en robotique de façon définitive et il existe de
nombreuses tentatives de natures très variées pour doter les robots de capacités d'ap­
prentissage.
Une partie des travaux s'appuie sur les différents cadres théoriques de l'apprentis­
sage artificiel (voir les chapitres 1.9 et 11. 10) : apprentissage statistique, apprentissage
par renforcement, apprentissage inductif, etc. pour construire des outils spécifiquement
adaptés aux contraintes inhérentes au cadre robotique.
Une autre partie, en intersection importante avec la première, part plutôt de la com­
préhension des phénomènes d'apprentissage dans les systèmes biologiques pour mettre
au point des méthodes inspirées par les connaissances tirées des sciences du vivant.
C'est le cas de l'apprentissage par imitation, de la robotique développementale ou de
la robotique évolutionniste, ou de diverses approches neuro-mimétiques de l'apprentis­
sage, par exemple. L'intersection provient de ce que ces méthodes vont éventuellement
chercher leurs outils dans le cadre de la première approche.

7.4. 1 Méthodes d'apprentissage artificiel et robotique


Parmi toutes les approches citées ci-dessus, celle qui fournit l'alternative la plus évi­
dente pour remplacer la programmation directe des comportements est l'apprentissage
par imitation, qu'on appelle aussi apprentissage par démonstration. Cette approche est
relativement bien développée et elle a produit de nombreux résultats significatifs ces
dernières années, au travers de démarches méthodologiques assez différentes les unes
des autres. Certains chercheurs utilisent des outils de capture de mouvement pour en­
registrer le mouvement des humains en train de réaliser une tâche dans un contexte
particulier, puis font en sorte de faire réaliser au robot un mouvement identique à celui
de l'humain dans le même contexte. Ce dernier point impose de résoudre un problème
connu sous le nom de « problème de correspondance » lorsque la géométrie, la ciné­
matique ou la dynamique de l'humain et celle du robot diffèrent significativement, ce
qui est généralement le cas, sauf pour quelques rares robots humanoïdes. Pour éviter
d'avoir à résoudre ce problème de correspondance, une autre approche consiste à diriger
le robot par un système de télé-opération pour lui faire réaliser une fois le mouvement
qu'on veut lui faire apprendre, puis à s'appuyer sur cet enregistrement pour exécuter
le même mouvement par la suite. Que ce soit avec l'une ou l'autre des approches, se
pose aussi un problème de généralisation : les circonstances n'étant jamais exactement
les mêmes, le mouvement enregistré n'est jamais parfaitement adéquat et il faut savoir
l'adapter à ces variations. Une autre approche qui prend directement en considération
cette nécessité de généraliser consiste à résoudre un problème dit « d'apprentissage
par renforcement (ou de commande optimale) inverse » . L'idée est de considérer un
ensemble de trajectoires réalisées par des experts comme optimales et d'en extraire la
fonction de coÎlt que les experts semblent avoir suivi. Une fois que l'on a la fonction de
coîit, on emploie un algorithme d'optimisation pour engendrer avec le robot de nou-
1 1 86 - Panorama de l'intelligence artificielle. Volume 3

veaux mouvements qui optimisent la même fonction de coût [Abbeel, 2008 ; Coates
et al. , 2008 ; Ratliff et al. , 2009] . Pour différentes synthèses ou travaux particulière­
ment remarquables dans le cadre de l'apprentissage par imitation, nous encourageons
le lecteur à consulter [Atkeson et al. , 1997 ; Schaal, 1999 ; Ijspeert et al. , 2002 ; Abbeel,
2008 ; Calinon, 2009 ; Coates et al. , 2008 ; Ratliff et al. , 2009] .
L'apprentissage par imitation ne suffit pas à résoudre tous les problèmes posés par
la nécessité d'avoir des robots qui s'adaptent à leur environnement. En effet, dans le
cadre général d'utilisation que nous avons décrit plus haut, il n'est pas envisageable
de montrer au robot quel devrait être son comportement dans toutes les situations
qu'il serait susceptible de rencontrer. Pour aller plus loin, il faut que le robot soit
capable d'adapter son comportement à des situations non prévues par le concepteur.
Pour cela, il faut tout de même doter le robot d'une capacité à évaluer la qualité de
son comportement dans une situation donnée, ce qui peut se faire au travers d'une
fonction de coût. Apprendre à améliorer son comportement en cherchant à minimiser
une fonction de coût ( ou maximiser une fonction de performance) est un problème
qui se formalise dans le cadre de l'apprentissage par renforcement [Sutton et Barto,
1998] . La difficulté que l'on rencontre en robotique pour mettre en œuvre les méthodes
d'apprentissage par renforcement provient de ce que ces méthodes ont été initialement
mises au point dans le cadre de la résolution de problèmes où les situations et les actions
sont en nombre fini et limité, alors qu'en robotique les problèmes sont souvent continus
ou de très grande taille. Cependant, de nombreux progrès récents sur les algorithmes
permettent d'obtenir des résultats de plus en plus significatifs dans ce domaine [Peters
et al. , 2003 ; Peters et Schaal, 2008] .
Par ailleurs, la commande utilisée pour des robots complexes fait souvent appel à
des modèles de la géométrie, la cinématique ou la dynamique de ces robots, essentielle­
ment pour planifier en déterminant la réponse immédiate du robot à telle ou telle com­
mande. L'identification est l'activité qui consiste à déterminer ces modèles au moyen
d'un ensemble d'expériences élémentaires qui permettent d'extraire toutes les gran­
deurs pertinentes. Les méthodes d'apprentissage supervisé qui permettent d'approcher
des fonctions à partir de données élémentaires fournissent une alternative intéressante
à l'identification paramétrique classique, dans la mesure où le modèle qu'il s'agit de
construire est une fonction qui relie des informations qui sont toutes accessibles par des
capteurs des robots. D'une part, ces méthodes n'ont besoin d'aucune hypothèse a priori
sur la forme des modèles. D'autre part, l'apprentissage des modèles peut se faire en
cours d'utilisation du robot, ce qui évite une phase préalable fastidieuse et, surtout, ce
qui permet d'adapter immédiatement le modèle en cas d'altération du fonctionnement
du robot ou de variation des conditions mécaniques de son utilisation. Si ces méthodes
d'apprentissage supervisé sont encore largement cantonnées à l'apprentissage de modè­
les de robots dans un cadre d'utilisation standard [D'Souza et al. , 2001 ; Salaün et al.,
2009] , elles commencent à aborder des questions plus originales relatives à l'interaction
avec des objets inconnus a priori [Vijayakumar et al. , 2005] , ce qui entre bien dans le
contexte d'utilisation plus ambitieux que nous avons décrit en introduction de cette
section.
L'apprentissage pour la robotique trouve son contexte d'application le plus convain­
cant dans l'interaction entre un robot et un humain. En effet, ce contexte requiert plus
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 87
-

que les autres des propriétés d'adaptation rapide à un contexte changeant de la part du
rob ot et fournit le cadre dans lequel l'imitation s'inscrit le plus naturellement. L'imi­
tation est d'ailleurs un type d'interaction homme-robot parmi d'autres, ce qui permet
de considérer ce dernier domaine comme plus général que les précédents. On y trouve
par ailleurs des travaux qui ne rentrent pas dans les cadres précédents, tels que des re­
cherches sur l'acceptabilité sociale des comportements des robots [Kruse et al. , 2010] ou
l'interaction verbale entre l'homme et le robot dans un cadre de coopération [Dominey,
2007] .
L'interaction homme-robot peut être physique, quand l'un ou l'autre des protago­
nistes exerce une force sur l'autre. C'est le cas par exemple dans le cadre de la robo­
tique d'assistance et de rééducation, lorsqu'il s'agit d'aider des patients qui souffrent de
troubles moteurs [Saint-Bauzel et al. , 2009] . La mise en œuvre de techniques d'appren­
tissage dans ce cadre est une toute nouvelle tendance [Pasqui et al. , 2010] . L'interaction
peut aussi être simplement communicative, que ce soit au travers du langage parlé ou
bien au travers d'autres modalités non verbales [Dominey et Warneken, 2009] . L'inter­
action peut enfin être totalement implicite, lorsque l'homme et le robot adaptent leur
comportement l'un à l'autre sans aucune communication, juste par ajustement de leur
comportement au comportement observé chez l'autre.

7.4.2 Apprentissage inspiré du vivant et robotique


Une seconde approche de l'apprentissage en robotique consiste à s'efforcer de re­
produire les mécanismes d'apprentissage que l'on trouve chez les êtres vivants pour
doter les robots de propriétés d'adaptation proches de celles dont sont dotés l'animal
ou l'homme, ce qui est loin d'être le cas aujourd'hui. Une telle démarche est susceptible
d'apporter des progrès dans la mise au point des mécanismes adaptatifs pour les robots,
ceux des êtres vivants étant les meilleurs exemples à notre disposition. Par ailleurs, et
réciproquement, cette démarche est susceptible de participer au progrès sur la compré­
hension des mécanismes du vivant, au travers de leur validation ou invalidation par
des expériences en robotique [Guillot et Meyer, 2008] .
Ces approches inspirées du vivant peuvent prendre des formes très différentes en
fonction du niveau d'intégration auquel se trouvent les mécanismes d'adaptation ou
d'apprentissage auxquels elles s'intéressent. En effet, les systèmes vivants se caracté­
risent par une très grande complexité, leur fonctionnement est régi par une hiérarchie
complexe de processus physiologiques et psychologiques à différentes échelles, et on
trouve des mécanismes adaptatifs dans la plupart de ces niveaux d'intégration, sinon
dans tous. De façon très simplificatrice, on distingue en particulier deux grands cou­
rants :
- le premier trouve ses sources d'inspiration dans les travaux de psychologie du dé­
veloppement de l'enfant. On nomme ce courant « robotique développementale »,
et on y trouve des travaux modélisant les capacités d'apprentissage cognitif chez
le bébé et le jeune enfant [Lungarella et al. , 2003 ; Oudeyer et al. , 2007 ; Quinton
et al. , 2008] ;
- le second s'inspire plutôt des travaux en neurosciences et propose des approches
dites « neuro-mimétiques ». Au sein des approches neuro-mimétiques, on dis­
tingue encore deux familles d'approches. Les premières s'intéressent au décou-
1 1 88 Panorama de l'intelligence artificielle. Volume 3
-

page du cerveau en aires fonctionnelles distinctes et proposent des modèles dont


les composants reproduisent les fonctions de ces différentes aires. Par exemple,
on modélise les capacités d'apprentissage par renforcement en construisant un
modèle neuro-mimétique des ganglions de la base, qui sont des noyaux profonds
du cerveau dont on suppose qu'ils jouent un rôle dans l'évaluation de notre com­
portement (Doya, 2000] . Les secondes se concentrent plutôt sur les propriétés
de l'unité de calcul élémentaire qu'est le neurone, encore une fois à différents
niveaux, selon que l'on s'intéresse à l'activité moyenne du neurone au cours du
temps ou bien à sa propension à émettre des impulsions élémentaires selon une
dynamique précise.
La difficulté centrale à laquelle se heurte cette démarche générale consistant à s'inpi­
rer des mécanismes du vivant est précisément due à l'empilement complexe de niveaux
d'intégration. Pour un phénomène adaptatif donné, il est parfois difficile de détermi­
ner s'il existe un niveau d'intégration dont la modélisation suffit à rendre compte du
phénomène, ou bien s'il ne faut pas au contraire combiner systématiquement des mé­
canismes issus de ces différents niveaux. Du coup, le robot, en tant qu'instrument de
validation, s'avère un outil extrêmement précieux pour faire progresser la connaissance
sur le vivant en offrant un cadre expérimental exigeant dans lequel différentes théories
peuvent être analysées ou comparées.

7.4.3 Enjeux actuels


La volonté de doter des robots de capacités d'apprentissage n'est sans doute pas
nouvelle, mais les recherches correspondantes ont connu un essor très conséquent ces
dernières années, avec l'apparition de nombreux ateliers dédiés à ce thème dans les
plus grandes conférences de robotique ainsi que la publication de nombreux numéros
spéciaux de journaux, ou encore la tenue d'un nombre croissant d'écoles d'été à ce sujet.
Il résulte de cet essor rapide un développement foisonnant dans lequel de nombreuses
approches se développent en parallèle dans des directions parfois très différentes, en
attaquant souvent des problèmes très différents. Il semble que, dans un avenir plus ou
moins proche, l'ensemble de ces recherches devrait gagner à se structurer et qu'il est
nécessaire qu'émergent des nouveaux modèles combinant les différents mécanismes qui
sont issus de ce foisonnement.

7. 5 Conclusion
Loin d'être exhaustif, ce chapitre a illustré quelques points de convergence entre in­
telligence artificielle, vision par ordinateur, reconnaissance des formes, apprentissage,
et robotique. Ces convergences se retrouvent également dans d'autres domaines, par
exemple pour la parole et le traitement automatique des langues, pour ne citer qu'un
exemple. L'association de théories et de méthodes de ces divers domaines connaît ac­
tuellement un fort développement et suscite des recherches originales. En interprétation
d'images, des approches de haut niveau s'appuient de plus en plus sur des méthodes
de représentation des connaissances et des outils de raisonnement (raisonnements non
monotones, fusion multiagent raisonnement sous incertitude, etc.) . Par exemple des
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 89

méthodes d'abduction et de révision, intégrant aussi apprentissage et modélisation


de l'incertitude, peuvent être utilisées pour l'interprétation d'images ou de séquences
d'images (Atif et al. , 2013] ( voir aussi les chapitres I.2, I.5, I. 1 1 , I.13, I.14). L'interac­
tion homme-machine peut également servir de support au développement de nouvelles
solutions, comme cela a été mentionné pour la supervision de codes, mais dans d'autres
domaines également, tels que la robotique. Enfin, la multiplication des méthodes et des
modèles incite à en combiner les avantages.

Références
ABBEEL, P. (2008) . Apprenticeship Learning and Reinforcement Learning with Ap­
plication to Robotic Control. Thèse de doctorat, Stanford University, Computer
Science.
AGARWAL, S., AWAN, A. et ROTH, D. (2004) . Learning to detect objects in images
via a sparse, part-based representation. IEEE Transactions on Pattern Analysis and
Machine Intelligence, 26(11) : 1475-1490.
ATIF, J., HUDELOT, C. et BLOCH, I. (2013) . Explanatory reasoning for image unders­
tanding using formal concept analysis and description logics. IEEE Transactions on
Systems, Man and Cybernetics.
ATKESON, C. G., MOORE, A. W. et SCHAAL, S. (1997) . Locally weighted learning.
Artificial Intelligence Review, 1 1 (1) : 1 1-73.
BENGOETXEA, E. , LARRANAGA, P. , BLOCH, I. , PERCHANT, A. et BOERES, C. (2002) .
Inexact Graph Matching by Means of Estimation of Distribution Algorithms. Pattern
Recognition, 35(12) :2867-2880.
BENZ, U., HOFMANN, P. , WILLHAUCK, G . , LINGENFELDER, l. et HEYNEN, M. (2004) .
Multi-resolution, object-oriented fuzzy analysis of remote sensing data for GIS-ready
information. ISPRS Journal of Photogrammetry and Remote Sensing, 58(3-4) :239-
258.
BERK, T., BROWNSTON, L. et KAUFMAN, A. (1982) . A New Color-Naming System for
Graphies Languages. IEEE Computer Graphies and Applications, 2(3) :37-44.
BLOCH, I. (2003) . Traitement d'images. In BOUCHON-MEUNIER, B. et MARSALA, c.,
éditeurs : Traitement de données complexes et commande en logique floue, chapitre 3,
pages 95-152. Hermes, Paris, France.
BLOCH, I. (2005). Fuzzy Spatial Relationships for Image Processing and Interpretation :
A Review. Image and Vision Computing, 23(2) :89-1 10.
BLOCH, I. (2006) . Spatial Reasoning under Imprecision using Fuzzy Set Theory, For­
mal Logics and Mathematical Morphology. International Journal of Approximate
Reasoning, 41 :77-95.
BLOCH, I. (2008) . Information Fusion in Signal and Image Processing. ISTE-Wiley,
London, UK.
BLOCH, I., GÉRAUD, T. et MAÎTRE, H. (2003) . Representation and Fusion of Hetero­
geneous Fuzzy Information in the 3D Space for Model-Based Structural Recognition
- Application to 3D Brain Imaging. Artificial Intelligence, 148(1-2) : 141-175.
1 1 90 Panorama de l'intelligence artificielle. Volume 3
-

BLOEHDORN, S . , PETRIDIS, K . , SAATHOFF, C . , SIMOU, N. , TZOUVARAS, V. , AVRITHIS,


Y. , HANDSCHUH, S., KOMPATSIARIS, Y.and Staab, S. et STRINTZIS, M. (2005) . Se­
mantic Annotation of Images and Videos for Multimedia Analysis. In Second Euro­
pean Semantic Web Conference (ESWC}, pages 592-607, Crete, Greece.
BODINGTON, R. (1995) . A Software Environment for the Automatic Configuration of
Inspection Systems. In International Workshop on Knowledge Based Systems for the
re Use of Program Libraries (KB UP}, pages 100-108, Sophia Antipolis, France.
BOUCHER, A. (1999) . Une approche décentralisée et adaptative de la gestion d 'infor­
mations en vision ; Application à l 'interprétation d 'images de cellules en mouvement.
Thèse de doctorat, Joseph Fourier University, Grenoble, France.
BOVEMKAMP, E., DIJKSTRA, J . , B OSCH, J. et REIBER, J. (2004) . Multi-agent segmen­
tation of IVUS images. Pattern Recognition, 37 :647-63.
CALINON, S. (2009) . Robot Programming by Demonstration : A Probabilistic Approach.
EPFL/CRC Press.
CÂMARA, G . , ENGENHOFER, M., FONSECA, F. et MONTEIRO, A. (2001) . What's In
An Image ? In !nt. Conf. on Spatial Information Theory : Foundations of Geographic
Information Science, volume 2205, pages 4 74-488, Morro Bay, CA.
CESAR, R. , BENGOETXEA, E., BLOCH, 1. et LARRANAGA, P. (2005) . Inexact Graph
Matching for Model-Based Recognition : Evaluation and Comparison of Optimiza­
tion Algorithms. Pattern Recognition, 38(11) :2099-2113.
CHARLEBOIS, D . (1997) . A planning system based on plan re-use and its application to
geographical information systems and remote sensing. Thèse de doctorat, University
of Ottawa, Canada.
CHARROUX, B . , PHILIPP, S. et COQUEREZ, J.-P. (1996) . Un système de vision mettant
en œuvre une coopération d'opérateurs de segmentation guidée par l'interprétation.
In Congrès Reconnaissance des Formes et Intelligence Artificielle (RFIA}, pages
527-537, Rennes, France.
CHEIN, M. et MUGNIER, M. (2008) . Graph-based knowledge representation : computa­
tional foundations of conceptual graphs. Springer-Verlag New York Inc.
CHIEN, S. et MORTENSEN, H. (1996) . Automating Image Processing for Scientific Data
Analysis of a Large Image Database. IEEE Trans. Pattern Analysis and Machine
Intelligence, 18(8) :854-859.
CLÉMENT, V. et THONNAT, M. (1993) . A Knowledge-Based Approach to lntegration
of Image Procedures Processing. CVGIP : Image Understanding, 57(2) :166-184.
CLOUARD, R. , PORQUET, C . , ELMOATAZ, A. et REVENU, M. (1999) . Borg : A
Knowledge-Based System for Automatic Generation of Image Processing Programs.
IEEE Transactions on Pattern Analysis and Machine Intelligence, 21 (2) : 128-144.
CLOUARD, R. , RENOUF, A. et REVENU, M. (2010) . An ontology-based model for re­
presenting image processing objectives. International Journal of Pattern Recognition
and Artificial Intelligence, 24(8) : 1 181-1208.
COATES, A . , ABBEEL, P. et NG . , A. Y. (2008) . Learning for control from multiple
demonstrations. In 25th International Conference on Machine Learning, pages 144-
151.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 9 1
-

C OLLIOT, 0 . , CAMARA, 0 . et BLOCH, 1. (2006) . Integration of F\1zzy Spatial Re­


lations in Deformable Models - Application to Brain MRI Segmentation. Pattern
Recognition, 39 : 1401-1414.
CoRADESCHI, S. et SAFFIOTTI, A. (1999) . Anchoring Symbols to Vision Data by F\izzy
Logic. ln HUNTER, A. et PARSONS, S., éditeurs : ECSQARU'99, volume 1638 de
LNCS, pages 104-1 15, London. Springer.
CREVIER, D. et LEPAGE, R. (1997) . Knowledge-based image understanding systems :
A survey. Computer Vision and Image Understanding, 67(2) : 161 - 185.
DALLE, P. et DEJEAN, P. (1998) . Planification en traitement d'image : approche basée
sur les données. In 11 e congrès Reconnaissance des Formes et Intelligence Artificielle
(RFIA), pages 75-84.
DENŒUX, T. (2008) . Conjunctive and disjunctive combination of belief fonctions in­
duced by nondistinct bodies of evidence. Artificial Intelligence, 172(2-3) :234-264.
DERUYVER, A. et HoDÉ, Y. (1997) . Constraint satisfaction problem with bilevel
constraint : application to interpretation of over-segmented images. Artificial In­
telligence, 93(1-2) :321-335.
DERUYVER, A. et HoDÉ, Y. (2009) . Qualitative spatial relationships for image inter­
pretation by using a conceptual graph. Image and Vision Computing, 27(7) :876-886.
DESACHY, J. (1990) . ICARE : an expert system for automatic mapping from satellite
imagery. In PAU, L. F., éditeur : Mapping and spatial modelling for navigation,
volume F65 de NATO-AS!, Springer.
DOMINEY, P. F. (2007) . Sharing intentional plans for imitation and cooperation :
Integrating clues from child developments and neurophysiology into robotics. In
Proceedings of the AISE 2007 Workshop on Imitation.
DoMINEY, P. F. et WARNEKEN, F. (2009) . The basis of shared intentions in human
and robot cognition. New ideas in psychology.
DoYA, K. (2000) . Complementary roles of basal ganglia and cerebellum in learning
and motor control. Current Opinion in Neurobiology, 10 :732-739.
DRAPER, B., BINS, J. et BAEK, K. (1999) . ADORE : Adaptive Object Recognition.
In International Conference on Vision Systems {ICVS}, pages 522-537, Las Palmas
de Gran Canaria, Spain.
D 'SouzA, A., VIJAYAKUMAR, S. et SCHAAL, S. (2001). Learning inverse kinematics.
In IEEE/RSJ International Conference on Intelligent Robots and Systems {IROS},
volume 1, pages 298-303.
DUBOIS, D. et PRADE, H. (1980) . Fuzzy Sets and Systems : Theory and Applications.
Academic Press, New-York.
DUBOIS, D. et PRADE, H. (1988) . Possibility Theory. Plenum Press, New-York.
DUBOIS, D. et PRADE, H. (2001). La problématique scientifique du traitement de
l'information. Information-Interaction-Intelligence, 1 (2) .
FICET- CAUCHARD, V. , PORQUET, C. et REVENU, M. (1999) . CBR for the manage­
ment and reuse of image-processing expertise : a conversational system. Engineering
Applications of Artificial Intelligence, 12(6) :733-747.
FOUQUIER, G., ATIF, J. et BLOCH, 1. (2008) . Sequential Spatial Reasoning in Images
1 1 92 Panorama de l'intelligence artificielle. Volume 3
-

based on Pre-Attention Mechanisms and Fuzzy Attribute Graphs. In European


Conference on Artificial Intelligence, ECAI, volume 178, pages 61 1-615, Patras,
Greece.
FOUQUIER, G . , ATIF, J. et BLOCH, I. (2012) . Sequential model-based segmentation
and recognition of image structures driven by visual features and spatial relations.
Computer Vision and Image Understanding, 1 16(1) : 146-165.
FRUCCI, M. , PERNER, P. et Sanniti di BAJA, G. (2008) . Case-Based-Reasoning for
Image Segmentation. International Journal of Pattern Recognition and Artificial
Intelligence, 22(5) :829-842.
GARBAY, C. (2001) . Architectures logicielles et contrôle dans les systèmes de vision. In
JOLION, J. M., éditeur : Les systèmes de Vision, chapitre 7, pages 197-252. Hermès.
GRUBER, T. R. (1993) . Towards Principles for the Design of Ontologies Used for Know­
ledge Sharing. In GUARINO, N. et POLI, R. , éditeurs : Formal Ontology in Conceptual
Analysis and Knowledge Representation, Deventer, The Netherlands. Kluwer Acade­
mic Publishers.
GUILLOT, A. et MEYER, J.-A. (2008) . La Bionique : quand la science s 'inspire de la
nature. Dunod, collection UniverSciences.
GUREVICH, I. B . , SALVETTI, 0. et TRUSOVA, Y. 0. (2009) . Fundamental Concepts
and Elements of Image Analysis Ontology. Pattern Recognition and Image Analysis,
19(4) :603-611.
HANSON, A. e t RIESEMAN, E. (1978) . Visions : a computer system for interpreting
scenes, pages 303-333. A.R. Hanson and E.M. Rieseman, Academic Press.
HARNAD, S. (1990) . The symbol grounding problem. Physica, 42 :335-346.
HASBOUN, D. (2005) . Neuranat. http : //www.chups.jussieu.fr/ ext / neuranat /index.html.
HUDELOT, C. (2005) . Towards a Cognitive Vision Platform for Semantic Image Inter-
pretation ; Application to the Recognition of Biological Organisms. Phd in computer
science, Université de Nice Sophia Antipolis.
HUDELOT, C . , ATIF, J. et BLOCH, I. (2008). Fuzzy Spatial Relation Ontology for Image
Interpretation. Fuzzy Sets and Systems, 159( 15) : 1929-1951.
HUDELOT, C . , ATIF, J. e t BLOCH, I. (2010) . Integrating bipolar fuzzy mathematical
morphology in description logics for spatial reasoning. In ECAI 2010, pages 497-502,
Lisbon, Portugal.
HUNTER, J. (2001). Adding Multimedia to the Semantic Web - Building an MPEG-
7 Ontology. In !nt. Semantic Web Working Symposium (SWWS}, pages 261-281 ,
Stanford, CA.
IJSPEERT, J. A., NAKANISHI, J. et ScHAAL, S. (2002) . Movement imitation with nonli­
near dynamical systems in humanoid robots. In International Conference on Robotics
and Automation {!CRA).
KRUSE, T., KIRSCH, A., SISBOT, E. A. et ALAMI, R. (2010) . Exploiting human coope­
ration in human-centered robot navigation. In International Symposium in Robot
and Human interactive Communication (IEEE ROMAN}, pages 212-217.
KUIPERS, B. J. et LEVITT, T. S. (1988) . Navigation and Mapping in Large-Scale Space.
AI Magazine, 9(2) :25-43.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 93
-

LANSKY, A., FRIEDMAN, M., GETOOR, L., ScHMIDLER, S. et SHORT JR. , N. (1995) .
The Collage/Khoros links : Planning for image processing tasks. In AAAI Spring
Symposium : Integrated Planning Applications, pages 67-76, Menlo Park, CA.
LE BER, F. et NAPOLI, A. (2002) . The design of an object-based system for representing
and classifying spatial structures and relations. Journal of Universal Computer
Science, 8(8) :751-773.
LEIBE, B., ETTLIN, A. et SCHIELE, B. (2008) . Learning semantic object parts for object
categorization. Image Vision Computing, 26(1) : 1 5-26.
LIEDTKE, C. et BLÔMER, A. ( 1992) . Architecture of the Knowledge Based Configu­
ration System for Image Analysis "Conny". In IEEE International Conference on
Pattern Recognition {ICPR}, pages 375-378, The Hague, Netherlands.
LIGOZAT, G. (1998) . Reasoning about Cardinal Directions. Journal of Visual Languages
and Computing, 9 :23-44.
LUNGARELLA, M., METTA, G., PFEIFER, R. et SANDINI, G. (2003) . Developmental
robotics : a survey. Connection Science, 15 :151-190.
MAILLOT, N. et THONNAT, M. (2008) . Ontology-Based Complex Object Recognition.
Image and Vision Computing, 26(1) : 102-1 13.
MARGRET ANOUNCIA, S. et SARAVANAN, R. (2007) . Üntology-Based Process Plan
Generation for Image Processing. International Jouurnal of Metadata, Semantics
and Ontologies, 2(3) :21 1-222.
MARTIN, V. , MAILLOT, N. et THONNAT, M. (2006) . A Learning Approach for Adaptive
Image Segmentation. In 4th IEEE International Conference on Computer Vision
Systems {ICVS}, pages 40-47, New York.
MATSUYAMA, T. ( 1986) . Knowledge-based aerial image understanding systems and
expert systems for image processing. International Geoscience and Remote Sensing
Symposium {Zurich}, pages 1026-1038.
MATSUYAMA, T. ( 1989) . Expert Systems for Image Processing : Knowledge-Based
Composition of Image Analysis Processes. Computer Vision, Graphies and Image
Processing, 48(1) :22-49.
MATSUYAMA, T. et HWANG, V. S.-S. (1990) . SIGMA : a knowledge-based aerial image
understanding system. Plenum press.
McKEOWN, D. M., HARVEY, W. A. et McDERMOTT, J. (1985) . Rule-based inter­
pretation of aerial imagery. IEEE Transactions on Pattern Analysis and Machine
Intelligence, PAMI-7(5) :570-585.
MEZARIS, V. , KOMPATSIARIS, I. et STRINTZIS, M. G. (2004) . Region-based image
retrieval using an object ontology and relevance feedback. Eurasip Journal on Applied
Signal Processing, 2004(6) :886-901 .
MINSKY, M . (1974) . A framework fo r representing knowledge. In WINSTON, P. , édi­
teur : The Psychology of Computer Vision. McGraw Hill.
NAZIF, A. et LEVINE, M. (1984) . Low level image segmentation : an expert system.
IEEE Transactions on Pattern Analysis and Machine Intellligence, 6(5) :555-577.
NEMPONT, O., ATIF, J., ANGELINI, E. D. et BLOCH, I. (2010) . Propagation de
contraintes pour la segmentation et la reconnaissance de structures anatomiques
1 1 94 Panorama de l'intelligence artificielle. Volume 3
-

à partir d'un modèle structurel. Information - Interaction - Intelligence (13}, 10(1) .


NEMPONT, O . , ATIF, J. et B LOCH, 1. (2013) . A constraint propagation approach to
structural model based image segmentation and recognition. Information Sciences,
246 : 1-27.
NEUMANN, B. et MÜLLER, R. (2008) . On Scene Interpretation with Description Logics.
Image and Vision Computing, 26(1) :82-110.
ÜUDEYER, P.-Y. , KAPLAN, F. et HAFNER, V. (2007) . Intrinsic motivation systems for
autonomous mental development. IEEE Transactions on Evolutionary Computation,
1 1 (2) :265-286.
PASQUI, V., SAINT-BAUZEL, L. et SIGAUD, O. (2010) . Characterization of a least effort
user-centered trajectory for sit-to-stand assistance user-centered trajectory for sit­
to-stand assistance. In IUTAM Symposium on Dynamics Modeling and Interaction
Control in Virtual and Real Environments.
PERCHANT, A. et BLOCH, 1. (2002) . Fuzzy Morphisms between Graphs. Fuzzy Sets
and Systems, 128(2) : 149-168.
PERNER, P. , HOLT, A. et RICHTER, M. (2005) . Image Processing in Case-Based Rea­
soning. The Knowledge Engineering Review, 20(3) :31 1-314.
PETERS, J., NAKANISHI, J. et IJSPEERT, A. J. (2003) . Learning movement primitives.
In International Sysmposium on Robotics Research (ISRR).
PETERS, J. et SCHAAL, S. (2008) . Natural actor-critic. Neurocomputing, 71(7-9) : 1 180-
1 190.
PROTIÈRE, A. et SAPIRO, G. (2007) . Interactive Image Segmentation via Adaptive
Weighted Distances. IEEE Transactions on Image Processing, 16(4) : 1046-1057.
QUILLIAN, M. ( 1967) . Word concepts : A theory and simulation of some basic semantic
capabilities. Behavioral Science, 12(5) :410-430.
QUINTON, J.-C. , BUISSON, J.-C. et PEROTTO, F. (2008) . Anticipative coordinated
cognitive processes for interactivist and Piagetian theories. In 1st Conference on
Artificial General Intelligence (P. Wang, B. Goertzel, S. Franklin, Eds.), F'rontiers
in Artificial Intelligence and Applications 1 71, !OS Press, pages 287-298, Memphis,
USA.
RAO, A. et LOHSE, G. (1993) . Towards a Texture Naming System : Identifying Relevant
Dimensions of Texture. In 4th IEEE Conference of Visualization, pages 220-227, San
Jose, CA.
RATLIFF, N., SILVER, D. et BAGNELL, J. (2009) . Learning to search : Functional
gradient techniques for imitation learning. Autonomous Robots, 27(1) :25-53.
RENOUF, A., CLOUARD, R. et REVENU, M. (2007) . How to formulate image processing
applications ? In International Conference on Computer Vision Systems (ICVS},
pages 1-10, Bielefeld, Germany.
RosT, U. et MÜNKEL, H. (1998) . Knowledge-Based Configuration of Image Proces­
sing Algorithms. In International Conference on Computational Intelligence and
Multimedia Applications (ICCIMA}, pages 9-1 1 , Monash, Australia.
SAATHOFF, C. et STAAB, S. (2008) . Exploiting spatial context in image region labelling
using fuzzy constraint reasoning. In Ninth International Workshop on Image Analysis
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 95
-

for Multimedia Interactive Services WIAMIS'OB, pages 16-19.


SAINT-BAUZEL, L. , PASQUI, V. et I . , M. (2009) . A reactive robotized interface for
lower limb rehabilitation : clinical results. IEEE Transactions on Robotics, Special
Issue on Rehabilitation Robotics, 25 :583-592.
S ALAÜN, C., PADOIS, V. et SIGAUD, 0. (2009) . Control of redundant robots using
learned models : an operational space control approach. In IEEE/RSJ International
Conference on Intelligent Robots and Systems (IROS}, pages 878-885.
SCHAAL, S. (1999) . Is imitation learning the route to humanoid robots ? Trends in
Cognitive Sciences, 6 :233-242.
SHAFER, G. (1976) . A Mathematical Theory of Evidence. Princeton University Press.
SMEULDERS, A., WORRING, M., SANTIN!, S., GUPTA, A. et JAIN, R. (2000) . Content­
based image retrieval at the end of the early years. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 22(12) : 1349-1380.
SowA, J. (1984) . Conceptual graphs : Information processing in mind and machine.
Reading, Addison Wesley, 234.
SUTTON, R. S. et BARTO, A. G. (1998) . Reinforcement Learning : An Introduction.
MIT Press.
THONNAT, M. et MOISAN, S. (2000) . What can program supervision do for program
reuse ? IEEE Proceedings Software, 147(5) :179-185.
TOWN, C. (2006) . Ontological inference for image and video analysis. Machine Vision
and Applications, 17(2) :94-1 15.
VIEU, L. (1997) . Spatial Representation and Reasoning in Artificial Intelligence. In
STOCK, O., éditeur : Spatial and Temporal Reasoning, pages 5-41. Kluwer.
VIJAYAKUMAR, S., D 'SouzA, A. et SCHAAL, S. (2005) . Incremental online learning in
high dimensions. Neural Computation, 12 :2602-2634.
WAXMAN, S. (2000) . Correlative Neuroanatomy. McGraw-Hill, New York, NY, USA,
24 édition.
ZADEH, L. A. (1965) . Fuzzy Sets. Information and Control, 8 :338-353.
8. Intelligence artificielle et robotique - 1 1 97

Chapitre 8

Intelligence artificielle et
robotique

Ce chapitre porte sur la jonction entre la robotique et l'IA, un champ scientifique


fertile et particulièrement stimulant pour les deux domaines. On y propose une synthèse
de l'état de l'art sur une partie des problèmes que recouvre cette jonction. On abordera
successivement les questions
• d'action délibérée : planification et exécution de mouvement et de tâches, interaction

avec d'autres acteurs, humains ou robots (sections 3 à 5) ;


• d'apprentissage des modèles nécessaires à l'action et à l'interaction (section 6) ; et

• d'architecture et d'organisation des fonctions sensori-motrices et délibératives (sec-

tion 7) .
Chacune de ces sections détaille de façon plus didactique quelques techniques de base
et fournit les références principales pour plus d'approfondissement. Pour une bonne
compréhension des problèmes soulevés ici, le chapitre commence par une vision d'en­
semble de la robotique, au-delà de sa seule jonction avec l'IA (section 2) . Il se conclut
par une courte prospective du domaine.

8. 1 Introduction
La robotique est un domaine essentiellement pluridisciplinaire. Ses réalisations
conjuguent naturellement l'automatique, l'informatique, la mécanique et l'électronique,
y compris dans leurs déclinaisons micro et nano. Ses liens plus récents avec les sciences
de la vie, les sciences de la matière, ou les sciences cognitives ont donné lieu à des
expérimentations très originales et ouvert de nouvelles perspectives. L'interdisciplina­
rité applicative de la robotique concerne en particulier la médecine ou les sciences de
l'environnement et de l'espace, par exemple en océanographie, ou en planétologie.
La robotique est également un domaine fortement expérimental. La recherche y
nécessite des plates-formes et des validations empiriques. Elle donne lieu à des « re-
Auteurs : MALIK GHALLAB et FÉLIX INGRAND.
1 1 98 Panorama de l'intelligence artificielle. Volume 3
-

cherches intégratives », en ce sens où la robotique soulève des problèmes fructueux à


la jonction de divers domaines. Ainsi, la vision par ordinateur est une spécialité en soi
du traitement du signal et de l'informatique, la vision en mouvement et l'asservisse­
ment visuel sont des problématiques issues de la robotique. On illustrera ici d'autres
exemples autour de la planification et de l'exécution d'actions.
Il faut souligner que la démarche pluridisciplinaire et intégrative est scientifiquement
très fructueuse en robotique. Elle conduit par ailleurs à une problématique particulière
de l'organisation de l'ensemble des fonctions d'un robot. Les problèmes d'architecture
sont d'abord opérationnels : comment organiser les fonctions d'acquisition et de traite­
ment de l'information pour la réalisation robuste des tâches à partir de spécifications
économes, en prenant en compte les dépendances mutuelles de ces fonctions, et les
dynamiques très variables des contres-réactions qu'elles gèrent. Ces problèmes d'ar­
chitectures sont également méthodologiques, pour permettre à une large communauté
l'échange de développements matériels et logiciels et la capitalisation des travaux de
recherche.
La robotique est très présente en IA. C'est une référence naturelle, en particulier
pour les travaux en intelligence située et pour l'expérimentation. Les difficultés de
réalisation des fonctions sensorielles et motrices ont freiné pendant longtemps ce dernier
aspect. Les débuts de l'IA sont néanmoins riches en projets précurseurs de robots
autonomes, tels que Shakey au SRI (Rosen et Nilsson, 1966] ou le Stanford Cart à la
fin des années 60, et quelques années plus tard, Hilare au LAAS (Giralt et al. , 1979]
ou le Rover de CMU (Moravec, 1983] . Tous ces projets, et de nombreux autres depuis,
se situent clairement à l'intersection de l'IA et de la robotique, en termes d'autonomie
de perception, de décision et d'action.
L'IA est vraisemblablement moins présente en robotique. Ceci est dû au champ
très large de la robotique. C'est également dû au fait que les verrous qui ont mobilisé
l'essentiel de la communauté robotique ont relevé davantage des fonctions sensorielles
et motrices que des fonctions cognitives.
L'intersection !A-robotique reste néanmoins importante pour les deux domaines.
Pour la robotique, elle est au camr de la boucle perception-décision-action à tous ses
niveaux, et en particulier pour les problèmes suivants :
• interprétation de l'environnement et sémantique des données sensorielles ;

• action délibérée : planification et exécution de mouvements et de tâches ;

• apprentissage à tous les niveaux ;

• organisation des fonctions sensori-motrices et délibératives.

Le premier item est traité dans un autre chapitre de cet ouvrage (cf. chapitre III.7) .
Aussi nous ne mentionnerons que brièvement quelques aspects de la perception spéci­
fiques à la robotique. Nous focaliserons ce chapitre principalement sur les trois derniers
items, que nous traiterons successivement en
• trois sections (8.3, 8.4 et 8.5) sur la planification et l'exécution de mouvements, de

tâches, et d'interactions avec d'autres acteurs, humains ou robots ;


• une section (8.6) sur l'apprentissage, en complément des points couverts dans les

chapitres I.9 et II. 10 ;


• et une section (8.7) sur les questions d'architectures.
8. Intelligence artificielle et robotique - 1 1 99

Concernant le traitement de l'action délibérée, il est intéressant de noter que la frontière


entre la réalisation de mouvements et de tâches est loin d'être étanche. Nous avons
cependant choisi de traiter séparément ces deux types d'activités, en précisant par
ailleurs leurs recouvrements ( cf. 8.4.4) , car le mouvement se prête à des représentations
spécifiques efficaces, alors que la variabilité des tâches appelle à des représentations
générales.
Pour une bonne compréhension des problèmes traités ici, nous commencerons cette
synthèse par un état de l'art en robotique, au-delà de sa seule intersection avec l'IA,
et nous conclurons avec une courte prospective du domaine. Dans chacune des sections
nous avons choisi de détailler de façon plus didactique quelques techniques de base, et
de renvoyer le lecteur aux publications pertinentes pour le reste.
Sur ce dernier point nous privilégierons autant que possible des documents de syn­
thèse. On peut trouver une large couverture de la recherche en robotique dans (Siciliano
et Khatib, 2008) , ainsi, bien entendu, que dans les meilleures revues du domaine ( dont
l' International Journal of Robotics Research, Robotics and Autonomous Systems, Au­
tonomous Robots, IEEE Transactions on Robotics) , et dans les actes des principales
conférences de robotique et d'IA.

(a) Robot manipulateur dans l'agro­ (b) Aspirateur Roomba (i­


alimentaire (Staübli) Robot)

FIGURE 1 - Robots mono-environnement ou mono-tâche.

8.2 Problématique et état de l'art


Un robot est une machine capable d'accomplir un ensemble de tâches dans une
classe d 'environnements avec un certain degré d'autonomie et de robustesse face aux
variabilités des tâches et de l'environnement. C'est une machine composée d'organes -
actionneurs, capteurs, calculateurs, radio-transmetteurs - qui lui assurent en particulier
les capacités suivantes :
1 200 Panorama de l'intelligence artificielle. Volume 3
-

• déplacement, par roues, pattes, ailes, hélices, chenilles, nageoires ;


• préhension, par bras mécaniques, pinces, main, ventouses, outils spécialisés ;
• perception, par capteurs proprioceptifs, qui estiment l'état interne de la machine :
odomètre et codeurs angulaires, inclinomètre, magnétomètre, accéléromètre, cen­
trale inertielle, GPS, et par capteurs extéroceptifs, qui informent sur l'environne­
ment extérieur : caméra, laser, radar, spectromètre, télémètre à infrarouge ou à
ultrason ;
• communication, et
• prise de décision.
On distingue plusieurs catégories d'environnements et de tâches qui soulèvent, selon
le niveau d'autonomie souhaitée, des problèmes spécifiques, par exemple :
• la robotique manufacturière : des robots à postes fixes pour des tâches de peinture,

soudure, assemblage, chargement et déchargement d'une presse ou d'une machine


outils [Hagele et al., 2008] ;
• la robotique d 'exploration : des robots mobiles en environnements d'extérieur ou des

drones [Feron et Johnson, 2008] pour la cartographie, l'analyse du sol ou du sous­


sol, l'extraction minière [Corke et al., 2008] , l'intervention dans un site contaminé
ou le déploiement d'instruments divers au fond de l'océan [Antonelli et al. , 2008] ,
en Antarctique ou sur Mars [Yoshida et Wilcox, 2008] ;
• la robotique de service : des robots mobiles en environnement d'intérieur pour le

nettoyage, la surveillance, le transport d'objets dans un magasin, un atelier, une


salle blanche ou un hôpital [Gini et al., 2010] ;
• la robotique personnelle : des robots mobiles pour l'assistance de personnes dans

des environnements professionnels, de bureaux ou à domicile [Prassler et Kosuge,


2008] ;
• la robotique médicale : des robots spécialisés pour l'assistance du chirurgien, parti­

culièrement en chirurgie « non invasive » [Taylor et al. , 2008] ,


• la robotique portée par l 'homme : des exoskellettes permettant l'extension des capa-

cités sensori-motrices de leur utilisateur [Kazerooni, 2008] .


Cette liste est bien entendu loin d'être exhaustive. D'autres classes d'environnements
{ robotique aérienne, sous-marine, spatiale) ou d'applications { robotique agricole, mili­
taire, de chantier, de déminage, etc. ) donnent lieu à des recherches actives.

Une difficulté essentielle en robotique est la variabilité des environnements et des


tâches auxquels un robot doit être confronté. En l'absence de variabilité - un seul
environnement bien modélisé et instrumenté, ou bien une seule tâche bien spécifiée - on
trouve des technologies relativement matures. Ainsi, en robotique manufacturière, plus
d'un million de robots-manipulateurs sont en opération dans l'industrie { figure 8. l { a)) .
En robotique de service, de nombreux chariots filoguidés sont utilisés par l'industrie
électronique ou pharmaceutique. Dans ces deux cas, l'environnement unique du robot
fait l'objet d'un effort important d'ingénierie. Il en va de même des robots mono-tâche,
8. Intelligence artificielle et robotique - 1 20 1

(a) Rover martien Curiosity ( NASA/ JPL ) ( b ) D aVinci, robot d'assistance chirurgicale
( Intuitive Chirurgical)

FIGURE 2 - Robots télé-opérés à divers niveaux.

par exemple aspirateur (diffusé à plus de 5 millions d'exemplaires, figure 8. l (b)) ou


tondeuse à gazon, qui remportent également un large succès commercial 1 .
Lorsque l'environnement ou les tâches sont très variables, le degré d'autonomie du
robot devient un facteur important. On peut, en simplifiant, distinguer trois niveaux :
(i) aucune autonomie, le robot reçoit les commandes à appliquer aux actionneurs ou
exécute celles pré-enregistrées ;
(ii) autonomie d'exécution des tâches, spécifiées régulièrement par l'opérateur ;
(iii) autonomie de réalisation des missions assignées.
En l'absence d'autonomie, on réduit la difficulté des problèmes d'interprétation et
de décision, et on retrouve également des technologies matures. Les robots télé-opérés
donnent lieu en effet à des réalisations spectaculaires, telles que les robots martiens
Spirit et Opportunity, et à de véritables succès technologiques, tels que les robots d'as­
sistance chirurgicale (déployés à plus de 2000 exemplaires, malgré le coût considérable et
la complexité de leur mise en œuvre, figure 8.2(b) ) . Bien entendu, la télé-manipulation
soulève d'autres problèmes : comment fournir les bons retours sensoriels à l'opérateur
pour lui permettre d'interpréter correctement l'état de l'environnement et de la tâche,
ou comment traduire de façon sûre ses commandes aux actionneurs ( e.g. , filtrer le si­
gnal issu des mouvements du chirurgien en une trajectoire du bistouri précise asservie
à l'organe opéré) .
Dans tous les cas, l'absence totale d'autonomie contraint considérablement la tâche.
Ainsi, la précédente génération de robots martiens, précédemment cités, fonctionnait
initialement en intégrant l'opérateur dans les boucles de commande à un bas niveau.
Les temps de boucle très long (jusqu'à 40 minutes selon la configuration Mars-Terre)
limitaient leurs parcours télé-opérés à une dizaine de mètres par jour seulement ; l'intro-
1. Sur un registre plus anecdotique, un robot mono-tâche peut manipuler un Rubik's Cube pour
résoudre le puzzle correspondant en moins de 15s : http : //wwr.1 . philly . com/philly/video/ 1 17547639 .
html
1 202 Panorama de l'intelligence artificielle. Volume 3
-

duction à une phase ultérieure de capacités de navigation autonome a permis d'étendre


les parcours jusqu'à 140 mètres par jour. Même lorsque l'autonomie n'est pas souhai­
tée, on voudra télé-opérer un robot au niveau de la tâche, e.g. , lui indiquer de réaliser
une ligne précise de sutures chirurgicales, ou de fermer telle vanne sous-marine, en lui
laissant le soin de traduire de façon autonome cette action en les bonnes commandes
et asservissements, sous la supervision de l'opérateur. Ici également, l'état de l'art
commence à atteindre une certaine maturité, illustrée par exemple par les robots d'in­
tervention en site nucléaire ( figure 3 ) ou par la dernière génération de robot martien
Guriosity ( figure 8.2 ( a)) , prévu pour parcourir une centaine de mètres par heure. Une
autre illustration de l'autonomie au niveau tâche peut être donnée par les robots de
télé-présence, plates-formes mobiles portant à distance l'image et la voix de l'opéra­
teur, lui donnant un retour visuel et sonore, capables de réaliser des tâches simples
( aller demander à une personne distante un objet et le ramener à l'opérateur, figure 4 ) .
Bien entendu, on peut tenter d'utiliser les mêmes plates-formes que nous venons de ci­
ter pour faire réaliser des missions autonomes en robotique d'exploration ou de service.
L'état de l'art se heurte ici à des problèmes ouverts, en particulier pour l'interprétation
de l'environnement, bouclée dynamiquement avec la planification et la réalisation de la
mission avec des modèles incomplets et incertains et des données sensorielles bruitées.

( a) Robot d'extérieur (b) Robot d'intérieur

FIGURE 3 - Robots d'intervention en site nucléaire ( Groupe INTRA / EDF-CEA­


AREVA ) .

Cependant, l'autonomie au niveau mission donne lieu également à quelques succès


expérimentaux quand les tâches restent bien structurées et contraintes, même lorsque
l'environnement est très variable. On peut mentionner ici les succès remportés en
conduite automobile autonome, sur piste (" DARPA Grand Challenge" : 320km en totale
autonomie dans le désert Mojave en moins de 7 heures en 2005, figure 8.5 (a) [Thrun,
2006]) , en environnements urbains ou péri-urbains ("DARPA Urban Challenge" en
2006, suivi par de nombreuses expériences dont celle en 201 1 de plus de 220.000 km
en conduite autonome dans les routes et autoroutes de la baie de San Francisco, figure
8.5 ( b)) . On sait également lancer en totale autonomie un robot sous-marin pour une
mission de 24 heures de cartographie, de mesure océanographique et biologique et de
prélèvement d'échantillons d'eau ; en cas de problème le robot fait surface et indique
sa position ( figure 8.5 ( c) [McGann et al. , 2008]) .
8. Intelligence artificielle et robotique - 1 203

(a) Robot QB (b) Robot Texai (Willow Garage)


(Anybots)

FIGURE 4 - Robots de téléprésence.

(a) Stanley, Darpa challenge (b) Conduite autonome (c) Dorado, robot sous-marin
2005 (U. Stanford) (Google) (MBARI)

FIGURE 5 - Véhicules autonomes.


1 204 Panorama de l'intelligence artificielle. Volume 3
-

La nature fortement expérimentale de la recherche en robotique conditionne les


progrès de l'état de l'art à la disponibilité de plates-formes ayant de bonnes capaci­
tés fonctionnelles et largement accessibles, en coût et en complexité d'utilisation. Sur
ce plan également la robotique parvient à une certaine maturité. On constate en ef­
fet une accélération importante du domaine du fait de la présence sur le marché de
plates-formes de recherche stables, de qualité industrielle, avec des environnements
de programmation relativement matures. Une bonne illustration en est fournie par
les robots humanoïdes : de nombreuses équipes de recherche disposent aujourd'hui de
plates-formes de robots bipèdes, de taille humaine (figure 8.6{a)) ou de petite taille
{figure 8.6{b) ) . Ces robots illustrent un savoir-faire et de réelles prouesses en mécatro­
nique. Ils ont des capacités motrices et de préhension remarquables. Les plates-formes
sur roues à deux bras, parfois avec un tronc articulé, illustrent également une grande
richesse sensori- motrice (suffisante pour attraper au vol deux balles simultanément,
figure 8.7(a) , pour plier du linge ou jouer au billard, figure 8.7{b) ) .
Signalons enfin le rôle joué par de nombreuses compétitions pour la stimulation
d'un domaine aussi fortement expérimental. Il s'agit en particulier des compétitions
sur routes déjà citées, des compétitions de drônes, des compétitions en robotique d'as­
semblage, et les populaires compétitions de robots footballeurs "robocup". On peut être
critique relativement à des simplifications abusives parfois introduites dans des compé­
titions (problèmes des « micro-mondes » rencontrés ailleurs en IA) . Cependant, l'effet
en termes de mobilisation et de visibilité, en particulier auprès des étudiants, reste
largement dynamisant.

(a) HRP 4 (Kawada lndus­ (b) NAO (Aldebaran)


try)

FIGURE 6 - Robots humanoïdes.


8. Intelligence artificielle et robotique - 1 205

(a) Justin (DLR) (b) PR2 (Willow Garage)

FIGURE 7 - Robots mobiles à deux bras.

8.3 Planification et exécution de mouvements


La maîtrise de la mobilité est une fonction essentielle pour un robot autonome (cf.
les ouvrages (Latombe, 1991 ; Choset et al. , 2005 ; LaValle, 2006] ) . Si l'environnement
est bien connu, alors les mouvements du robot pourront y être planifiés et exécutés
de façon robuste. Sinon, le robot devra explorer l'environnement pour apprendre les
modèles nécessaires à ses déplacements. Examinons successivement ces deux problèmes.

8.3 . 1 Planification de mouvements par cartes probabilistes


On suppose ici que l'environnement est décrit par un modèle géométrique (comme en
CAO) , qui précise la géométrie des obstacles et de l'espace libre. Le robot est modélisé
par sa cinématique, i. e. , l'ensemble des degrés de liberté et leurs contraintes, ainsi que
par sa dynamique, i. e., les masses et moments d'inerties de ses composantes, et les
forces et couples de ses actionneurs.
La planification de mouvements consiste à trouver une trajectoire faisable, dans l'es­
pace et le temps, permettant de relier une position initiale à une position but. Il s'agit
d'obtenir à la fois : {i} un chemin faisable, qui vérifie les contraintes cinématiques du
robot et les contraintes géométriques de l'environnement, et {ii} une loi de commande
le long de ce chemin, qui vérifie les contraintes dynamiques du mobile. Dans les cas
1 206 Panorama de l'intelligence artificielle. Volume 3
-

simples (environnement statique, pas de contrainte dynamique, on ne cherche pas une


trajectoire optimale) , on peut décomposer le problème de planification de mouvements
en la résolution successive des problèmes (i} puis (ii) . Il est en effet possible dans ces
cas d'associer une loi de commande à un chemin faisable pour obtenir une trajectoire
faisable. La planification de mouvements en robotique se ramène alors à la planification
de chemins.
Un objet rigide, libre dans l'espace euclidien sans contrainte cinématique, est ca­
ractérisé par six paramètres de configuration (x, y, z, pour la position d'un point de
référence et trois angles pour l'orientation du solide dans l'espace) . Mais un robot a
des contraintes cinématiques qui restreignent ses déplacements. Par exemple, un cha­
riot dans le plan a trois paramètres de configuration (x, y et l'orientation 0) , lesquels
en général ne sont pas indépendants (une voiture ne peut pas avancer latéralement).
Le robot PR-2 (figure 8.7(b) ) a 20 paramètres de configurations (3 pour la base, 1 pour
le tronc, 2 pour la tête, et 7 par bras) . Le robot humanoïde HRP-4 (figure 8.6(a)) a
32 paramètres de configuration, auxquels se rajoutent les paramètres des mains à cinq
doigts.
Pour un robot à n paramètres de configuration dans un environnement donné, on
définit :
n
• q E � , la configuration du robot, un vecteur de n valeurs réelles qui spécifie les n

paramètres caractérisant la position du robot dans un repère donné ;


• C, l'espace de configuration du robot, qui décrit l'ensemble des valeurs possibles de

q dans �n compte tenu des contraintes cinématiques, par exemple les contraintes
de débattement de chaque articulation (ou positions angulaires extrêmes que l'ar­
ticulation peut prendre) et de dépendances entre les paramètres de configuration ;
• Ci Ç C, l'espace de configuration libre qui donne l'ensemble des valeurs possibles

de q E C compte tenu des contraintes de l'environnement, i. e., les configurations q


pour lesquelles le robot n'est pas en collision avec des obstacles.
Ces notions sont illustrées en figure 8 pour un robot à deux degrés de liberté 2 •

La planification d'un chemin entre une configuration origine q0 et une configura­


tion but qb , toutes deux dans Ci , consiste à trouver un chemin entre q0 et qb dans cet
espace continu à n dimensions. La difficulté majeure, ici comme pratiquement pour
tout autre problème de planification, est que l'espace de recherche Ci n'est pas connu
explicitement. La définition explicite de Ci à partir du modèle géométrique de l'en­
vironnement et des contraintes cinématiques du robot est un problème extrêmement
complexe, difficile à résoudre même pour des robots et des environnements très simples.
De nombreux travaux de géométrie algorithmique ont été consacrés à cette difficulté, cf.
par exemple [Schwartz et al. , 1987] . Ils ont ouvert la voie à des approches qui ont permis
de la contourner, en s'appuyant en particulier sur la méthode des cartes probabilistes
[Kavraki et al., 1996] .
Cette méthode repose sur les deux opérations suivantes, facilement calculables :

2. Figure adaptée de http : //www . c s . cmu . edu/motionplann ing/


8. Intelligence artificielle et robotique - 1 207

A 360" �---..,----�--�

a 1so·

( a) (b)

FIGURE 8 (a) Un robot plan à deux articulations angulaires, a et /3, avec un obstacle
-

circulaire. (b) L'espace de configuration associé : la projection de l'obstacle dans C


montre que les deux positions A et B ne sont pas connexes.

• Le guidage cinématique : consiste à trouver un chemin cinématique direct .C (q, q')


entre deux configurations q et q' dans C sans se préoccuper de l'environnement, i. e. ,
.C (q, q') vérifie les contraintes cinématiques mais pas nécessairement celles de non
collision avec les obstacles. On utilise ici des techniques spécifiques aux types de
contraintes cinématiques du robot ( e.g. , par composition de segments de droites et
de courbes particulières) ;
• Le test de collision : consiste à vérifier si une configuration q est sans collision avec

les obstacles, i. e., si q E Ci , ou bien à vérifier si un chemin .C(q, q') entre deux
configurations est sans collision, i. e., s'il passe entièrement dans Ci . On s'appuie ici
sur les techniques de base de l'algorithmique géométrique.
Une carte g pour Ci est un graphe dont les sommets sont des configurations dans
C1 ; deux sommets q et q' sont adjacents dans g ssi il existe un chemin sans collision
C(q, q') dans C1 .
Si on connaît une carte g pour Ci alors la planification de chemin entre une confi­
guration origine q0 et une configuration but Qb peut être résolue par les trois étapes
suivantes :
• trouver un sommet q dans g, q accessible à partir de q0, i. e., tel que .C (q0, q) E Ci ;

• trouver un sommet q' dans g, Qb accessible à partir q', i. e., tel que .C (q', qb) E Ci ;

• trouver une séquence de sommets adjacents dans g entre q et q' .

On se ramène ainsi à un simple problème de recherche de chemin dans un graphe.


Si un tel chemin est trouvé, des techniques algorithmiques efficaces permettent alors
d'optimiser localement et de lisser cette séquence de configurations dans g en un chemin
cinématique. Il reste donc à trouver une carte g qui couvre Ci , i. e. , s'il existe un chemin
1 208 - Panorama de l'intelligence artificielle. Volume 3

dans Ci alors il existe aussi un chemin dans la carte Ç par les trois étapes qui précèdent.
L'algorithme en figure 9 [Siméon et al. , 2000] fournit un graphe Ç qui vérifie cette
propriété de couverture en probabilité. Cet algorithme élabore Ç incrémentalement à
partir d'une carte vide. Il rajoute à la carte en cours de construction une configurat ion
q tirée aléatoirement, si elle appartient à l'espace libre, dans les deux cas suivants :
• si q étend la couverture de Ç, en permettant d'atteindre des parties de Ci non encore

couvertes {ligne i ci-dessous) , ou bien


• si q étend la connexité de Ç, en permettant de relier deux composantes non encore

connexes de la carte {ligne ii ci-dessous) .

Carte-Probabiliste (Ç)
Itérer jusqu'à (condition d'arrêt)
Tirer aléatoirement une configuration q E C
Si q E Ci alors faire
Si \;;/q' E Ç : C(q, q') <!. Ci
alors ajouter q à Ç ; {i}
Sinon si 3qi , Q2 dans Ç telles que q1 et Q2 non connexes et
C(q, Q1 ) c Ci et C(q, q2 ) c Ci
alors ajouter q et les arêtes ( q, Q1 ) et (q, q2 ) à Ç ; {ii}
Fin itération
Retourner(Ç)

FIGURE 9 - Synthèse d'une carte probabiliste pour la planification de mouvements

La condition d'arrêt peut être liée au nombre consécutif de tirages aléatoires


de configurations libres infructueuses, qui ne rajoutent rien à la carte. Si kmax est
ce nombre, alors la probabilité que le graphe résultant couvre Ci est estimée par
{1 - l/kmax)· En pratique cet algorithme est très performant. Les techniques de
cartes probabilistes et leurs variantes incrémentales (dites RRT pour « Rapid Ran­
dom Trees » [LaValle, 2006]) sont aujourd'hui largement utilisées en robotique. Elles le
sont également dans d'autres domaines (conception mécanique, animation vidéo, voire
biologie computationnelle pour des problèmes d'amarrage moléculaire pour trouver si
un ligand peut se lier à une protéine) . Elles sont également étendues à la prise en
compte d'environnements dynamiques.
Comme on s'en doute, ces techniques ont fait avancer l'état de l'art mais ne ré­
solvent pas définitivement la planification de mouvements en robotique. De nombreux
problèmes ouverts demeurent, dont la prise en compte des contraintes dynamiques. En
pratique, on souhaitera synthétiser un plan robuste aux incertitudes des modèles et
aux incertitudes sensorielles lors de l'exécution du mouvement, par exemple trouver un
chemin qui permette de maintenir l'imprécision de localisation inférieure à un seuil ac­
ceptable. Par ailleurs, dans ce qui précède nous nous sommes intéressés à un problème
spécifié de façon complète, i. e., aller d'une configuration q0 à une configuration Qb· En
pratique, le problème se pose relativement à la tâche, e.g. , saisir un objet. La plani­
fication de tâches de manipulation est un problème encore très ouvert [Siméon et al.,
2004] ; chaque prise permet d'inférer la configuration de l'organe terminal du robot à
partir de la position de l'objet à saisir. Mais la configuration de l'organe terminal ne
8. Intelligence artificielle et robotique - 1 209

donne qu'une partie de qb . Il est souvent possible de décomposer le problème : planifier


le mouvement de la base du robot jusqu'à une configuration « proche » de l'objet, puis
planifier le mouvement du bras jusqu'à la position de saisie. Cependant, le déplace­
ment d'un objet peut nécessiter des poses intermédiaires et des reprises différentes de
l'objet, voire la manipulation d'autres objets gênants. Il faut alors modifier la struc­
ture de l'espace de recherche en fonction des prises et poses des objets manipulés. Par
ailleurs, la décomposition qui précède n'est pas toujours possible, par exemple pour
un robot humanoïde quand la prise nécessite un mouvement coordonné du tronc et de
l'ensemble des membres [Kanoun et al. , 201 1] (figure 10) . A cela se rajoute également la
prise en compte des contraintes sensorielles, par exemple planifier un mouvement qui
évite toute occultation entre la caméra, portée par la tête du robot, et la main, pour
permettre la saisie par asservissement visuel [Chaumette et Hutchinson, 2008] .

( a) (b) ( c)

FIGURE 10 - La prise de la balle nécessite la planification de mouvements coordonnés


des membres du robot : pas en arrière, flexion et mouvements opposés des bras pour
maintenir l'équilibre (LAAS)

8.3.2 Localisation et cartographie simultanées


L'exécution d'un mouvement comporte une part essentielle de commande des ac­
tionneurs pour la réalisation du chemin planifié avec évitement des obstacles imprévus.
La synthèse de cette commande se fait grâce aux modèles et méthodes de l'automatique.
La robotique soulève des problèmes très intéressants pour l'automatique, en particulier
pour la commande de systèmes non holonomes, mais ces problèmes dépassent le cadre
de ce chapitre (cf. par exemple l'ouvrage de [LaValle, 2006] ou la synthèse de [Minguez
et al., 2008] pour une bonne couverture des méthodes utilisées) .
L'exécution d'un mouvement comporte une part tout aussi importante d'estimation
de l'état du robot, tout au long de la réalisation de cette commande. En particulier,
le robot doit en permanence savoir où il se trouve dans l'environnement. Il est parfois
1 2 1 0 Panorama de l'intelligence artificielle. Volume 3
-

possible de s'appuyer sur un moyen de localisation absolue, tel qu'un GPS ou un


système de radio-positionnement si l'environnement est instrumenté en conséquence.
Mais pour un robot adaptable à une large classe d'environnements, la localisation devra
être faite en confrontant les éléments perçus par le robot au modèle de l'environnement.
Par ailleurs, ce modèle de l'environnement n'est en général que partiellement connu,
voire inconnu. On se retrouve alors confronté à un problème de localisation et de
cartographie simultanées ( SLAM pour « Simultaneous Localization And Mapping » ) ,
problème identifié très tôt [Chatila et Laumond, 1985 ; Smith et al. , 1986] et qui
correspond aujourd'hui à thème de recherche très présent en robotique 3 .
Considérons dans un premier temps les deux problèmes séparément :
• Localisation seule : le robot se localise dans un environnement totalement connu,

modélisé par k amers facilement reconnaissables et parfaitement positionnés dans


l'espace (2D ou 3D) . A l'instant t le robot est dans une position estimée par Xt ; il se
déplace sous l'action d'une commande Ut ( donnant vitesse et orientation entre t et
t + 1) ; ceci lui permet d'estimer sa nouvelle position x' ; il observe les k amers à peu
près là où il s'attend à les retrouver ( à partir de !'estimée x') ; il relève sa position
relativement à chacun des amers reconnus ; ces k positions entachées d'une erreur
sensorielle sont combinées en une nouvelle estimée de la position Xt +l · Le processus
se répète à chaque pas de temps, en se localisant à chaque fois complètement re­
lativement à l'environnement. L'estimée intermédiaire x' ne sert qu'à retrouver les
amers. L'erreur de localisation n'augmente pas avec le temps, l'erreur associée à la
commande Ut n'intervient pas dans la localisation.
• Cartographie seule : le robot cartographie l'environnement en connaissant parfaite­

ment ses positions successives. La position du fm e amer est estimée à l'instant t


par xit ; le robot se déplace entre t et t + 1 en une nouvelle position parfaitement
connue, à partir de laquelle il observe et situe de nouveau la position du fm e amer
en xj avec une erreur sensorielle ; xj et xit sont combinées en une nouvelle estimée
xit+i plus fiable. La qualité de la carte s'améliore avec le temps.
En pratique les deux problèmes se posent conjointement, avec une carte initiale qui est
rarement parfaite, et des moyens de localisation qui sont par définition bruités. Ainsi,
en cartographie, la position du robot entachée d'erreur induit un bruit systématique
dans la carte. Symétriquement, en localisation, la carte initiale comporte généralement
des erreurs, lesquelles induisent une erreur systématique sur la position du robot. En
conjuguant dans le SLAM ces deux problèmes d'estimation simultanée des positions
du robot et des amers, on va éviter ce biais et profiter du fait que les deux sources
d'erreur, d'observation et de commande, ne sont pas corrélées ( cf. figure 11).

L e filtrage de Kalman étendu constitue une des approches initialement explorée


pour la résolution du SLAM. Les détails techniques peuvent paraître compliqués mais
une présentation progressive montre que le principe reste simple. On suppose que l'envi­
ronnement est statique et que les capteurs du robot sont bien calibrés et n'introduisent
pas de biais systématique. L'erreur sensorielle est modélisée par une Gaussienne de
3. Voir par exemple l'entrepôt de logiciels http : //www . openslam . org/
8. Intelligence artificielle et robotique - 121 1

L
(a) (b) (c) (d)

FIGURE 11 - Illustration du SLAM dans le cas d'un robot évoluant dans un plan.
(a) Trois amers ( coins des obstacles ) sont détectés et positionnés avec une impréci­
sion due aux capteurs. ( b ) Le robot se déplace et estime son déplacement avec une
certaine erreur. ( c) Les amers sont de nouveau observés ; ils sont associés aux amers
préalablement perçus. ( d) La fusion de données permet de réduire les erreurs sur la po­
sition courante du robot et sur les positions des amers. Le processus est itéré à chaque
nouvelle perception de l'environnement et déplacement du robot.

moyenne nulle et d'écart type caractéristique du capteur. Soient deux capteurs, ca­
ractérisés respectivement par a 1 et a2 , qui mesurent la même quantité, la distance à
un amer, et retournent deux valeurs µ 1 et µ2 . On peut estimer la quantité mesurée en
pondérant µ 1 et µ2 de façon à accorder plus de confiance au capteur le plus précis, celui
qui a le plus petit ai : on pondère µi par 1/ai (à un coefficient près ) . Ainsi, l'estimation
µ associée à l'écart type a définis ci-dessous ( cf. 8 . 1) a de bonnes propriétés ( minimise
l'erreur quadratique moyenne) . L'erreur résultante de la combinaison des deux mesures
diminue relativement aux erreurs initiales (a < min {ai , a2 }).

µ = a(µif a 1 + µ2 /a2 ) , avec a = a 1 a2 /(a 1 + a2 )


(8. 1)
l/a = l/a 1 + l/a2
Ce processus s'applique incrémentalement : on peut combiner l'estimation courante
(µ', a') , à la mesure (µz , az) faite à l'instant t. L'estimée (µt , at ) tenant compte cette
nouvelle mesure est donné par les mêmes équations, réarrangées facilement en la for­
mulation suivante ( cf. 8.2) :

µt = µ' + K( µz - µ' )
at = a' - Ka ' (8.2)
K = a' /(az + a' )
Introduisons maintenant le mouvement. Le robot se trouvait à l'instant t - 1
dans une position telle que la distance à l'amer qui nous intéresse était estimée par
(µt-i . at- d· Entre t - 1 et t le robot se déplace sous l'action d'une commande, connue
également avec une incertitude modélisée de la même manière. Soit (Ut , au ) !'estimée
de ce déplacement dans la direction robot-amer ( fournie par la consigne de commande
1 2 1 2 Panorama de l'intelligence artificielle. Volume 3
-

envoyée aux actionneurs et/ou par les capteurs odométriques) . La distance relative à
l'amer, après déplacement, est estimée par (µ', a') , en notant que l'erreur augmente du
fait du déplacement :

µ' = µt- 1 + ut
( 8 .3)
a' = at- 1 + au
Nous avons maintenant les ingrédients nécessaires à l'approche SLAM basée sur le
filtrage de Kalman : l'estimée de la position relative robot-amer est mise à jour entre
t - 1 et t en deux étapes :
(i) mise à jour liée au déplacement (par 8 .3 ) : (µt-i . at-1 ) --+ ( µ', a')
(ii} mise à jour liée à la perception (par 8 . 2 ) : (µ', a') --+ (µt , at )
Au lieu d'une simple valeur scalaire, intéressons-nous maintenant au processus de
mise à jour de la position du robot et de la carte de l'environnement dans l'espace
Euclidien, 2D ou 3D. La position du robot n'inclut pas nécessairement l'ensemble de
ses paramètres de configuration, mais uniquement la partie de q nécessaire pour le
localiser et positionner ses capteurs. La carte est caractérisée par un grand nombre
d'amers positionnés dans l'espace. L'estimation mise à jour porte maintenant sur un
vecteur µt dont les composantes sont l'ensemble des paramètres de positionnement du
robot et des amers de l'environnement. L'erreur n'est plus un scalaire at mais une
matrice de covariance E dont l'élément ai est la covariance des composantes i et j du
j
vecteur µ . L'erreur sur la position du robot induit en effet un couplage entre les erreurs
des éléments de la carte, et réciproquement. Autre difficulté : l'approche ci-dessus ne
s'applique qu'à des relations linéaires. Or le lien entre mouvement et déplacement n'est
pas linéaire. On approxime une solution à ce problème en linéarisant autour de petits
déplacements. On obtient finalement la formulation suivante pour le SLAM par filtrage
de Kalman étendue :
µ' = Aµt-1 + But
E' = E t-1 + E u
µt = µ' + Kt (µz - Cµ' ) (8.4)
E t = E' - Kt CE'
Kt = E' CT (CE'CT + Ez) -1
On reconnaît comme précédemment les deux étapes de mise à jour :
(i} (µt-1 , Et-1 ) --+ (µ', E') : vecteur Ut , matrices A et B pour le déplacement,
(ii} (µ', E') --+ (µt , E t ) : vecteur µz , matrice C pour les nouvelles mesures.
On prend également en compte les covariances liées à la commande et à la mesure ( Eu
et Ez) . Il faut souligner que la première étape tient compte du déplacement pour mettre
à jour aussi bien la position du robot que celles des amers. De même, la deuxième étape
intègre les nouvelles mesures à la fois pour la localisation et la cartographie.
Cette approche a été fréquemment implémentée avec succès car elle présente de
nombreux avantages [Thrun, 2002] . En particulier, elle permet de maintenir les estimées
a posteriori des positions et des erreurs, ces dernières étant très importantes pour
la navigation. Elle converge asymptotiquement sur la vraie carte, modulo une erreur
8. Intelligence artificielle et robotique - 1213

résiduelle due aux erreurs initiales. Enfin, elle est implémentable de façon incrémentale.
En pratique, le nombre d'amers augmente dynamiquement. On maintient une liste
d'amers candidats qui ne sont intégrés dans la carte (et le vecteur µ) qu'après un
nombre suffisant d'observations. Si n est la dimension du vecteur µ (i. e., du même
ordre que le nombre d'amers) , la complexité de la mise à jour par les équations 8.4 est
en O(n2 ) . On sait maintenir ce traitement en ligne et embarqué pour n de l'ordre de
10 3 , ce qui signifie une carte peu dense.
Les approches particulaires apportent un gain important sur ce point. Au lieu d'es­
timer les paramètres (µ, E) d'une Gaussienne, on traite les distributions de probabilité
correspondantes par des tirages aléatoires. Ainsi, P(Xt l zi:t , Ui: t) = N(µt , Et), où Xt est
le vecteur des paramètres de position du robot et des amers à l'instant t, Zi: t et u1: t les
séquences des mesures et des commandes de 1 à t. De même P(zt lXt- 1 ) = N(µz , Ez) .
Décomposons le vecteur d'état Xt en deux composantes relatives au robot et aux
amers : Xt = (rt , <pi , ... , 'Pn ) T , où Tt est le vecteur de position du robot à l'instant t, et
cp = ( <p1 , .. ., 'Pn V le vecteur de position des amers, lequel ne dépend pas du temps car
l'environnement est supposé statique 4 • Les règles habituelles des probabilités conjointes
donnent :

P(Xt lzi:t, Ui: t) = P(rt lZi: t , Ui: t)P( cp1 , . . . , 'Pn lZi: t , Ui: t , Tt)
= P(rt lz 1: t , U 1: t) Il P( cpi lzi: t , rt)
(8.5)
i =l,n
La deuxième ligne résulte du fait que, sachant la position rt du robot, les positions des
amers ne dépendent pas de u et surtout sont conditionnellement indépendantes. On
ne connaît pas Tt précisément mais on va admettre que Tt E Rt = {rF> , . . . , d m ) } , un
ensemble de m hypothèses (ou particules) de positionnement. Chaque hypothèse r�j )
est associée à une pondération w�j ) . On détermine Rt et les pondérations à chaque
transition de t 1 à t par les trois étapes suivantes :
-

'
• Propagation : pour m positions dans Rt -1 tirées aléatoirement selon les pondéra­

tions w��1 , on calcule r�j ) la position à l'instant t résultant de la commande Ut,


avec m' > m ,
• Pondération : on détermine le poids w�j ) d e l'hypothèse r�j ) e n prenant e n compte
l'observation Zt par le produit P(zt l 'P, r�j ) )P( cp lzi:t -i . r��1 ) .
• Échantillonnage : on ne garde dans Rt que les m hypothèses les plus probables

compte tenu des nouvelles pondérations w�j ) .


Pour chacune des m hypothèses retenues, on détermine les P( cpi lz 1: t , rt) par un filtrage
de Kalman réduit aux 2 ou 3 paramètres nécessaires pour la position de 'Pi· Avec les
bonnes structures de données pour la carte, cette approche, dite FastSLAM [Monte­
merlo et al. , 2002] , ramène la complexité de chaque mise à jour à O(nlogm) , au lieu
de O(n2 ) précédemment. En pratique, on obtient une bonne précision pour m � 10 2
particules, ce qui permet de maintenir en ligne une carte comportant n � 105 amers.

4. Noter que dans µt l'estimation de cp évolue avec t, mais pas la position des amers.
1 2 1 4 Panorama de l'intelligence artificielle. Volume 3
-

La limitation principale de ces approches réside en un problème classique et difficile


d'association de données : avant d'intégrer des nouvelles mesures dans tout processus
de mise à jour, il faut s'assurer que ces mesures portent sur les mêmes amers. Une
erreur d'association peut conduire à des erreurs plus graves qu'une imprécision de po­
sitionnement. Cet argument, au moins autant que celui de la complexité des calculs en
ligne, milite pour une carte avec des amers discriminants et facilement reconnaissables.
On peut imaginer que sur un petit déplacement entre t 1 et t on reconnaîtra sans
-

erreur d'association les amers dans le champ sensoriel du robot. Mais après un long
parcours, si le robot revient sur ses pas, on ne saura mettre en œuvre cette appro che
qu'avec un traitement robuste du problème d'association 5 . Dans l'approche particu­
laire, la distribution de probabilité des hypothèses de Rt est très différente lorsque le
robot découvre un lieu nouveau (les hypothèses sont équiprobables) du cas où il re­
tourne sur ses pas. Ceci donne lieu à des heuristiques qui robustifient l'approche et
conduisent à une méthode active de cartographie, laquelle privilégie le retour fréquent
du robot sur ses pas [Stachniss et Burgard, 2004] .

FIGURE 12 - Formulation du SLAM en un réseau bayésien dynamique : les arcs in­


diquent les dépendances conditionnelles entre les variables aléatoires : cp, qui donne les
positions des amers (indépendantes du temps) , Ut , Tt et Zt , qui désignent respectivement
les commandes, les positions du robot et les mesures à l'instant t.

Dans le cas général, il y a besoin d'une étape explicite de mise en association des
données, étape intermédiaire entre les deux étapes (i) et (ii) qui précèdent. Cette étape
conduit à maintenir plusieurs hypothèses d'association. Les approches SLAM multi­
hypothèses par réseaux bayésiens dynamiques (DBN) donnent de bons résultats. La
formulation DBN du SLAM est en effet très naturelle. Elle se traduit par le graphe (en
figure 12) et l'équation récursive suivante :

P(Xt lz1:t , Ui:t ) = aP(zt lXt )J P(Xt lUt , Xt-1 )P(Xt-1 lz1:t- i . Ui:t-1 ) dXt- 1 (8.6)
= aP(zt lXt) j P(rt l Ut , Tt-d P(Xt-1 lz1:t-i . U 1:t-1 ) drt- 1
5. Ceci est parfois désigné comme étant le problème de la boucle du SLAM.
8. Intelligence artificielle et robotique - 1 2 1 5

Ici, a est un simple coefficient de normalisation. Le vecteur d'état se décompose comme


précédemment Xt = (rt , 'P i . .. . , 'Pn ) T ; la deuxième ligne résulte du fait que l'environ­
nement est statique et que la carte et les mouvements du robot sont indépendants.
Le terme P(zt lXt) fournit le modèle sensoriel du robot, et le terme P(rt lUt , rt -1 )
donne son modèle de déplacement. On résout cette formulation par les techniques
classiques des DBN, en particulier par l'algorithme Expectation-Maximization {EM,
cf. par exemple (Ghahramani, 1997] ) qui apporte une solution correcte au problème
d'association des données. Par contre il est difficile de mettre en œuvre EM de façon
incrémentale et en ligne. Mentionnons également une autre version du FastSLAM qui
prend en compte ce problème par une étape explicite d'optimisation sur toutes les
associations possibles (Montemerlo et al. , 2003] .
Les approches récentes du SLAM privilégient cette formulation par DBN, en po­
sant un problème global d'estimation de l'ensemble des paramètres de position des
amers et du robot, problème que l'on résout par des méthodes robuste d'optimisation.
La formulation générale est celle dite d'ajustement des faisceaux, technique issue des
communautés vision et photogrammétrie [Triggs et al. , 2000] . Le SLAM par vision
a également apporté l'utilisation d'attributs de traitement d'images d'une grande ri­
chesse (Mei et Rives, 2007 ; Newcombe et Davison, 2010 ; Martfnez-Carranza et Calway,
2010] .
Terminons cette section en évoquant quelques représentations possibles de la carte.
Les amers peuvent être a priori n'importe quel ensemble d'attributs sensoriels que l'on
sait reconnaître et positionner facilement dans l'espace. Cela peut être une simple col­
lection de points. Cela peut être également des attributs composés, du type segments,
plans, surfaces ou objets plus complexes. On exploite en général les attributs spéci­
fiques aux capteurs utilisés. La carte globale peut être représentée en une simple grille
d'occupation en 2D, utiliser des représentations 3D restreintes, telles que l' "Indoor
Manhattan Representation" (combinant des plans verticaux des murs entre deux plans
horizontaux, le sol et le plafond, (Flint et al. , 201 1] ) , ou mettre en œuvre des cartes
hiérarchisées intégrant des informations sémantiques et topologiques, point que nous
évoquons en section suivante.

8.3.3 Navigation et planification des déplacements


Les approches qui précèdent sont uniquement métriques : elles ne prennent en
compte que des informations de distance et de positionnement dans un repère ab­
solu global. Quand l'environnement est très vaste, il devient pertinent de représenter
explicitement la topologie, associée éventuellement à une sémantique des lieux. La carte
dans ce cas s'appuie sur une représentation hiérarchisée hybride, comportant des sous­
cartes métriques dans des repères locaux, ainsi que des relations et des contraintes
de connexité entre les sous-cartes. Le robot se re-localise précisément à l'arrivée dans
chaque sous-carte.
La navigation dans ce cas est également hybride. Elle se fait au sein d'une sous­
carte, avec les techniques métriques de suivi d'une trajectoire planifiée, et entre les
sous-cartes avec des techniques moins précises de suivi d'un cap, de suivi d'un couloir
ou d'une voie naturelle perceptible jusqu'à la reconnaissance de la sous-carte suivante.
Les aspects sensoriels et de reconnaissance de lieux jouent un rôle important dans ces
1 2 1 6 Panorama de l'intelligence artificielle. Volume 3
-

approches du type hiérarchie sémantique spatiale [Kuipers et Byun, 1991] .


La construction et la mise à jour de la carte peuvent se faire de façon aussi souple
que dans le cas du SLAM, avec rajout et évolution des sous-cartes locales [Kuipers et al. ,
2004 ; Estrada et al. , 2005] . La planification s'appuie sur tout algorithme de recherche de
chemin dans un graphe (Dijsktra, A* , voir aussi le chapitre II. 1 , associé à la planification
de mouvements dans les sous-cartes. Les deux types de planification peuvent d'ailleurs
être conjugués de façon incrémentale : la planification topologique donne un itinéraire
dont quelques nœuds seulement seront visités. Le suivi de cet itinéraire utilise une
procédure de planification numérique incrémentale qui lisse l'itinéraire et optimise le
déplacement en fonction des réalités de l'exécution [Konolige et al. , 201 1] .
Mentionnons également que la planification au niveau topologique ou dans une
grille peut prendre en compte une connaissance partielle de l'environnement. Ainsi,
des extensions de A* (D* (Stentz, 1994] , D* Lite, Focused D* ) font une recherche de
plus courts chemins dans le graphe, mais utilisent la perception du robot au fur et à
mesure de ses déplacements pour mettre à jour dynamiquement les coûts des arcs et
les plus courts chemins.
Enfin, un problème classique dans toute approche hybride est celui de la sépara­
tion ou granularité des niveaux. Des étiquettes de lieux (portes, pièces, couloirs) et
la topologie peuvent émerger naturellement de la perception et/ou par modélisation
uniforme de l'espace en cellules de base (grilles, polygones ou triangles de Delaunay) .
Des techniques de décomposition par quadtrees (une cellule partiellement occupée est
décomposée récursivement) réduisent ce problème, mais peuvent être pénalisantes en
complexité. L'analyse du graphe en niveaux de connexité fournit des solutions élé­
gantes et de faible complexité lorsque le graphe reste planaire [Hopcroft et Tarjan,
1973 ; Laumond, 1990] .

8.4 Planification et exécution de tâches


La planification de tâches est traitée dans le chapitre II.9 de cet ouvrage et fait
l'objet de nombreuses synthèses, voir par exemple l'ouvrage [Ghallab et al. , 2004] .
Nous nous intéressons ici principalement au couplage entre planification et exécution.
La robotique fut en effet un des premiers domaines d'application de la planification ;
elle conduit naturellement à se poser la question du couplage planification - exécution :
le planificateur STRIPS [Fikes et Nilsson, 1971] sur le robot Shakey, associé à Planexl
[Fikes, 1971] pour le contrôle d'exécution, fut un précurseur dans ce domaine.
Un robot autonome au niveau mission doit être capable de produire un plan d'ac­
tions pour réaliser la mission assignée, mais il doit surtout être en mesure d'en suivre le
déroulement, et de prendre des actions correctrices en cas de besoin, y compris repla­
nifier. En effet, un planificateur est par définition un système de prédiction : il choisit,
parmi diverses simulations de futurs possibles, celles susceptibles de mener au but. Pour
cela, les modèles de planification se situent à un niveau d'abstraction qui permet des
prédictions aisées mais qui reste souvent réducteur. Les plans produits sont davantage
des guides pour agir que des programmes à exécuter en boucle ouverte : ils se déroulent
rarement « à la lettre », selon un scénario nominal.
Le contrôleur d'exécution (contrôleur pour faire court) ne fait pas de la prédiction.
8. Intelligence artificielle et robotique - 1217

Il doit disposer d'autres types d e modèles qui permettent l a supervision et, éventuel­
lement, le diagnostic. Il doit savoir quelles actions, en particulier sensorielles, sont né­
cessaires au lancement d'une action planifiée et/ou à l'observation de ses effets, directs
ou indirects. Il doit être en mesure de mettre à jour l'état du monde nécessaire au suivi
du plan. Il doit connaître les conditions qui permettent de remettre en cause l'action
en cours, exprimant l'échec ou l'absence de réponse à temps, et celles qui invalident le
plan en cours. Par ailleurs, le contrôleur doit être en mesure de gérer les incertitudes
et le non-déterminisme à divers niveaux, depuis l'imprécision des données sensorielles
et l'incertitude sur leurs interprétations et sur les durées des actions mises en œuvre,
jusqu'au non-déterminisme inhérent aux exécutions. En effet, le lancement des actions
est maîtrisé par le contrôleur, mais leurs effets et leur déroulement précis dépendent de
conditions et d'événements contingents, partiellement modélisés. Enfin, le contrôleur
fonctionne par définition en ligne : il doit être réactif aux événements imprévus dans
le plan, et assurer les conditions de sûreté principales.
Le couplage planification-exécution est donc une question de compromis entre les
contraintes et les modèles nécessaires à la prédiction pour le premier et ceux nécessaires
à la supervision en ligne pour le second.
Une description du couplage planificateur-contrôleur et de la façon de réaliser ce
compromis pourrait être faite sur la base d'un système hiérarchisé de transition d'états
E = (S, A, E, 1) , où S, A et E sont des ensembles énumérables d' états, d'activités et
d' événements, et 'Y est une fonction qui décrit la dynamique du système : 'Y = S x A x
E --+ 2 8 . Les activités sont décidées et déclenchées par robot, alors que les événements
échappent à son contrôle ; ils donnent lieu à des changements dans l'environnement qui
sont observés, directement ou indirectement. E est décrit à deux niveaux d'abstraction :

• le planificateur dispose d'un modèle abstrait de E : ses macro-états sont des sous­
ensembles de S, ses actions sont des sous-ensembles d'activités ; il prend en compte
rarement E ;
• le contrôleur dispose d'un modèle fin de E : il est en mesure d'affiner chaque action
planifiée en les activités correspondantes, lesquelles sont sous son contrôle ; il sait
lancer les activités et en suivre le déroulement ; il sait mettre en place des activités
(surveillances, alarmes) pour observer la dynamique de S, et d'autres pour réagir
aux événements.

Une formalisation complète d'un tel système dépend de nombreuses conditions, en


particulier du type de planification utilisé, déterministe ou non déterministe, et de la
dynamique du système, e.g. , commente prendre en compte la concurrence entre acti­
vités et événements au sein de la fonction 'Y· Généralement, le couplage planificateur­
contrôleur n'est pas développé formellement, les deux systèmes réalisent les fonctions
que nous venons de décrire, mais utilisent des représentations distinctes, ce qui peut
poser des difficultés si par exemple on souhaite prouver des propriétés du couplage
planificateur-contrôleur. Passons en revue les principales approches, en privilégiant les
représentations relationnelles et logiques pour les approches déterministes et tempo­
relles et les représentations Markoviennes pour les approches non déterministes.
1 2 1 8 - Panorama de l'intelligence artificielle. Volume 3

8.4. 1 Approches déterministes


Les approches utilisant un planificateur classique (à la STRIPS) se sont souvent
contentées de produire des plans II associés à des structures de données qui aident le
contrôleur à suivre le bon déroulement du plan ( e.g. , tables triangulaires) . L'objet de
ces structures de données est de fournir les conditions d'utilisation des actions pour que
le contrôleur puisse en vérifier applicabilité et le bon déroulement, sinon être en mesure
de relancer cette action (ou une autre) , et en dernier lieu décider si le planificateur doit
être rappelé pour produire un nouveau plan.
Rapidement, on a vu le développement de divers formalismes et langages de défi­
nition de activités associées aux actions planifiées pour faciliter l'exécution des plans.
On peut les classer en deux grandes familles.
Langages impératifs (à états implicites) : on trouve dans cette famille des systèmes
comme RAP (Firby, 1987] , PRS [Ingrand et al. , 1996] , ou TDL (Simmons et Ap­
felbaum, 1998] . Ils offrent un langage impératif de scripts qui permet d'exprimer
des procédures à exécuter pour satisfaire des objectifs ( e.g. , réaliser une action) .
Ces langages offrent les structures classiques de contrôle de programmation (test,
boucle, récursion, parallélisme, etc) , et s'appuient souvent sur des concepts em­
pruntés à la programmation logique (à la Prolog) .
Systèmes de transition d'états : on retrouve là des systèmes comme Procosa (Bar­
bier et al. , 2006] qui utilise les réseaux de Petri, et plus récemment SMACH, le
contrôleur de système ROS [Bohren et Cousins, 2010] . L'utilisateur fournit un
ensemble de machines à états finis hiérarchisées. Chaque état correspond à un
état d'exécution d'un ou plusieurs composants du robot. Suivant les valeurs re­
tournées par les exécutions, le contrôleur réalise la transition appropriée. L'état
global du système correspond à l'union de tous les états des automates actifs.
Ces systèmes, à base d'automates ou de procédures, s'avèrent très utiles et né­
cessaires dans la mise en œuvre de robots complets où on doit coordonner de nom­
breux composants logiciels sous-jacents. Toutefois, les modèles qui permettent d'affiner
une action en activités doivent être directement programmés par les développeurs des
procédures ou des automates, et non inférés à partir de spécifications. Ceci pose des
problèmes de validation et de vérification.
La planification par réseau hiérarchique de tâches ( Hierachical Task Network,
HTN) (Tate et al. , 1994 ; Erol et al. , 1994] intègre naturellement un processus d'affi­
nement d'actions abstraites, dites tâches, en actions élémentaires. Elles permettent de
représenter sous la forme d'arbres ET/OU les tâches à effectuer et les méthodes de dé­
composition en actions élémentaires. L'expression des connaissances dans ces approches
s'avère naturelle pour le programmeur. Paradoxalement, ces approches prévoient rare­
ment des extensions de la planification vers l'exécution, alors que l'on pourrait envisager
de prolonger l'arbre de décomposition jusqu'aux activités du contrôleur, et de le répa­
rer en ligne lors d'un échec de l'exécution. Toutefois, plusieurs systèmes du type HTN
sont utilisés en robotique, avec des variantes qui étendent le formalisme de diverses
façons. Par exemple SIPE (Wilkins, 1988] permet de produire des plans dont la du­
rée des actions est prise en compte. TCA/TDL (Simmons et Apfelbaum, 1998] intègre
l'exécution et la décomposition lors de l'exécution de tâches en plans. XFRM [Beetz
8. Intelligence artificielle et robotique - 1219

et Mcdermott, 1997] permet de produire des plans suivant une approche HTN, mais
autorise aussi la modification/ réparation de ces plans lors de l'exécution ( planification
par transformation) .

8.4.2 Approches temporelles


Le contrôleur d'un robot autonome doit prendre en compte explicitement le temps.
Une approche par transition d'états n'est pas suffisante. En effet, les activités des
composants du robot ne sont pas instantanées ( déplacements, prises d'images, etc) .
Souvent, elles doivent être parallélisées, synchronisées, et être bornées avec des dates au
plus tôt ou au plus tard. Ceci milite pour la prise en compte des contraintes temporelles
dès la planification : le plan produit sera plus robuste à l'exécution.
Plusieurs approches, reposant sur des formalismes de logique d'intervalles temporels
ou d'instants (Allen, 1984 ; Ghallab et Alaoui, 1989] (voir aussi le chapitre 1.4) , ont
donné lieu à des systèmes de planification ( e.g.,IxTeT [Ghallab et Laruelle, 1994] ,
HSTS [Muscettola, 1994] , Europa [Frank et J6nsson, 2003] , APSI [Fratini et al. , 201 1])
et à des extensions qui prennent en compte l'exécution. Elles produisent des plans
sous la forme d'un treillis d'instants ( les débuts et fins des actions ) ou suivant des
lignes de temps (timelines) . Chaque ligne représente l'évolution d'une variable d'état
(e.g. , la position du robot ) ; elle est composée de « tokens » ou intervalles sur lesquels
soit la variable garde une valeur ( e.g. , le robot ne bouge pas) , soit elle change de
valeur ( le robot se déplace ) . La recherche d'un plan solution se fait dans l'espace des
plans partiels ( où chaque état est une collection d'actions partiellement instanciées et
ordonnées ) , avec une heuristique de moindre engagement.
Ces approches présentent de nombreux avantages pour la planification et l'exé­
cution en robotique. Elles gèrent le parallélisme de l'exécution des actions. De plus,
elles produisent généralement des plans qui sont temporellement flexibles, ce qui laisse
à l'exécution toute latitude dans les dates exactes d'occurrence ( contrôlables ou non
contrôlables mais observables ) . En contre-partie, le contrôleur d'exécution doit conti­
nuellement propager les contraintes temporelles en fonction des durées effectivement
observées, afin de vérifier que le plan en cours reste réalisable, ou réparable en cas
d'incohérence.
De fait, des approches récentes ( e.g. , IDEA et T-ReX) proposent un paradigme
où le planificateur et l'exécuteur sont couplés au sein d'un ensemble de « réacteurs »,
chacun avec son propre horizon de planification et d'exécution.
Même si les représentations diffèrent ( instants ou intervalles ) , ces approches utilisent
toutes un STN (Simple Temporal Network) pour modéliser les contraintes temporelles
entre les différents instants considérés. Un STN est un réseau de contraintes dont les
variables sont des instants, et les contraintes entre deux instants ti et t3 sont de la
forme : minij :::; t3 - ti :::; maxij
La transformation des treize relations d'Allen (before, meets, overlaps, starts, du­
ring, finishes, leur symétrique, et l'égalité ) en un STN équivalent est immédiate. Il suffit
de définir les précédences ( ou égalités ) sur les débuts et fins de chacun des intervalles.
1 220 Panorama de l'intelligence artificielle. Volume 3
-

ri:\_ r 1 [20.30]
.-V [O,oo] 3
0 1 mage
[5, 1 0]
Corn
4. [O,ooJ
....

0
�Ie' r t
[60 eo
à
[O,oo]
\
[O,ooJ
Aller [60,eo1
à

"""" � [70, 7 0]

[80, 80]
----- [30,30]
Visibilité �
- �
(a) Graphe de contraintes temporelles (STN)

� :�: � �
·
·
.

-1Sf-·· I\ /\ 'O �

....,�
, ·
·
�� ·
- · 70 � 0

30 -70

1
7

.30

(b) Graphe de distance

( c ) Après propagation Floyd-Warshall


( alg. 8 . 14 ( a))

(d) Après exécution du premier déplacement

(e) Après propagation incrémentale (alg. 8. 14(b))

FIGURE 13 Phases successives de production et d'exécution d'un plan temporel d'un


-

robot martien d'exploration.


8. Intelligence artificielle et robotique - 122 1

Le plan produit est un STN décrit par le graphe de contraintes correspondant. La


figure 8. 13(a) présente le plan STN d'un robot martien qui doit aller à un point donné,
prendre une image, communiquer le résultat à un satellite en orbite durant une fenêtre
de visibilité, puis revenir à la base.
Ce STN peut être transformé en un graphe de distance (voir figure 8. 13(b) où les
arcs correspondent aux inégalités ti - ti S maxij et ti - ti S - minij ) . On trouve le
graphe minimal par un algorithme de type Floyd-Warshall, en 8. 14(a) . Ici dist(i, j) est
la distance minimale de i à j, initialisée avec une valeur infinie quand i et j ne sont
pas adjacents. On obtient alors le graphe de la figure 8. 13(c) .
Lorsque ce STN est donné à l'exécution, on doit propager incrémentalement les
nouvelles valeurs en utilisant l'algorithme 8. 14(b) (qui est de complexité moindre :
O(n+ n2 ) au lieu de O (n3 )). Dans l'exemple donné plus haut, si le premier déplacement
prend exactement 70 secondes, on obtient le STN 8. 13(d) et après propagation 8. 13(e) .

Incrémentale{ dist(] , n, io, Jo)


Floyd-Warshall{ dist() , n )
Pour i de 1 à n
Pour k de 1 à n dist[i, jo) +- min(dist[i, jo] ,
Pour i de 1 à n dist[i, io) + dist[io, jo))
Pour j de 1 à n Fin pour
dist[i, j] +-min(dist[i , j] , Pour i de 1 à n
dist[i, k] + dist[k, j]) Pour j de 1 à n
Fin pour
dist[i, j) +- min( dist[i, Jo) ,
Fin pour
dist(j0 , j) + dist[i , j])
Fin pour Fin pour
Fin pour
(a) Propagation initiale Algorithme Floyd- .�
Warshall ( b�
)-P-
ro_p_a-
ga cr_é_
· n-
-t-io_n_1_ nt_a_
m_e- le- -p-r-
: a ès_ o-
m_ ca-t-
1. fi-
d- io�
n
de la contrainte entre deux instants io et jo

FIGURE 14 - Algorithmes de propagation de contraintes temporelles.

Ces approches ont été déployées avec succès dans de nombreuses expérimenta­
tions robotiques ( e.g. , MBARI (Py et al. , 2010) , Willow Garage (McGann et al. , 2009) ,
NASA (Finzi et al. , 2004) et LAAS (Lemai-Chenevier et lngrand, 2004) ) , toutefois leur
développement est freiné par les difficultés suivantes :
• l'écriture des opérateurs formels de planification et leur « debugging » est difficile,

en particulier lorsque l'on veut prendre en compte les situations d'exécution non
nominales ( i. e., les échecs et la reprise d'erreur) .
• la recherche de solutions dans l'espace des plans partiels doit être guidée par des

heuristiques adaptées,
• la contrôlabilité temporelle du STN doit être prise en compte. En effet, ces STN

comportent des variables dites contrôlables et d'autres contingentes. Les valeurs des
premières sont choisies par le robot, alors que les valeurs des variables contingentes
sont fixées par l'environnement, dans leurs domaines admissibles 6• Un STN est
6. Par exemple, dans le graphe figure 8.13(c) , pour le déplacement entre ta et t i , l'instant de
1 222 Panorama de l'intelligence artificielle. Volwne 3
-

contrôlable s'il existe un choix des instants contrôlables en fonction des valeurs
possibles des instants contingents. La contrôlabilité forte garantit qu'il existe une
affectation de valeurs aux instants contrôlables pour toutes les valeurs possibles
des instants contingents. La contrôlabilité faible garantit qu'il existe une affectation
des dates des instants contrôlables pour toutes les dates des instants contingents
si ces derniers sont connus par avance (peu réaliste) . La contrôlabilité dynamique
garantit qu'il existe une affectation des dates des instants contrôlables pour les
valeurs des instants contingents passés. Cette dernière propriété permet de conserver
la flexibilité tout en gardant l'assurance qu'une solution existe.
Il existe également des approches ( e.g. , Aspen/Casper [Chien et al. , 2000] ) qui
reposent sur un modèle temporel mais qui produisent des plans complets et sans flexi­
bilité. Si un échec temporel (ou logique) apparaît lors de l'exécution du plan, le plani­
ficateur le répare alors avec des techniques de recherches locales.

8.4.3 Approches non déterministes


La planification dans l'incertain est abordée ailleurs dans cet ouvrage au chapitre
II.9. La formulation généralement adoptée est celle des processus décisionnels de Mar­
kov. Nous discutons ici les aspects contrôle d'exécution, en posant les notations dont
nous aurons besoin en section 8.6 sur l'apprentissage et en illustrant un algorithme de
planification.
Soit S un ensemble fini d'états, et A un ensemble fini d'actions. Si l'action a est
applicable en s, elle peut conduire de façon non déterministe à l'un quelconque des
états F(s, a) Ç S. On note P(s' ls, a ) la probabilité de parvenir à s ' en appliquant a
en s ; r(s, a) � 0 est la récompense associée à a en s. Soit 7r : S --+ A une application
qui associe à chaque état s l'action à exécuter en s ; 7r est un plan, appelé politique, qui
comporte possiblement des boucles. La valeur V1T (s) d'un état s pour la politique 7r est
l'espérance mathématique de la somme des récompenses de ce plan, pondérées (pour
assurer la convergence) par un coefficient dégressif :
CXl

V1T (s) = E[ L '°'l r(st , 7r(st ))] , avec 'Y < 1


t=O
(8.7)
= r(s, 7r(s)) + 'Y P(s ' ls, 7r(s))V1T (s' )
s'EF ( s,?T ( s ))

La valeur optimale d'un état V* (s) est celle fournie par la politique optimale.

V* (s) = max7T V1T (s)


= maxa {Q* (s, a ) } , avec
(8.8)
Q* (s, a) = r(s, a) + 'Y L P(s' ls, a)V* (s ' )
s' EF ( s, a)

départ to est contrôlable, mais pas l'instant d'arrivée ti . La durée du déplacement a été réduite par
propagation de 90 à 85 {figure 8 . 1 3 {c )) , mais seule l'observation après exécution donnera de la valeur
exacte.
8. Intelligence artificielle et robotique - 1 223

La programmation dynamique conduit à la formulation récursive de V* ci-dessus et


donne lieu à des algorithmes facilement implémentables, dont Value-Iteration (cf. fi­
gure 15).

Value-iteration(S, A, P, r)
Itérer jusqu'à un point fixe
Itérer pour tout B E S
Pour tout a applicable en B faire :
Q(B, a) +-- r(B, a) + y l: s' P(B' j B, a)V(B') ; {i)
V(B) +-- maxa{Q(B, a) }
Fin itération
Fin itération
Pour tout B E S faire : 7r( B) +-- Argmaxa { Q( B, a) }

FIGURE 15 - Algorithme Value Iteration.

L'algorithme Value-Iteration [Bertsekas, 1995] termine en fournissant la politique


optimale. On initialise V(B) arbitrairement. En pratique il n'est pas nécessaire d'at­
tendre un point fixe ; il suffit de s'assurer que toutes les mises à jour de V(B) lors d'une
itération sur S sont restées inférieures à un seuil f (la solution retournée s'écarte alors
de l'optimum d'au plus 2E"f/(1 - "( )) .
Il est relativement immédiat de reprendre la formulation qui précède en se donnant
un état initial Bo , un ensemble d'états terminaux ou buts ST C S, et en cherchant
une politique optimale qui mène de Bo à l'un des états de ST (on peut aussi intégrer
une distribution de coût sur les actions et des récompenses variable en fonction de
l'état atteint) . Dans une telle formulation, on ne cherche pas une politique définie pour
tout état, mais une politique partielle, définie uniquement pour les états atteignables à
partir de B o par cette politique. Si le problème admet une politique dite propre, i.e. , une
politique 7r qui permet d'atteindre avec une probabilité non nulle un état terminal à
partir de tout état atteignable de Bo par 71", alors on saura la trouver. Les expressions qui
précèdent s'appliquent, avec 'Y = 1 . L'algorithme Value Iteration s'applique également
à ce cas, en l'absence d'impasse (ou avec des extensions pour prendre en compte les
impasses [Bonet et Geffner, 2006] ) , pour trouver la politique optimale qui maximise
V(Bo ).
Value-Iteration admet d'autres variantes intéressantes [Bertsekas, 1995 ; Barto
et al. , 1995] . Par exemple il n'est pas nécessaire d'itérer systématiquement sur tout
S. On peut, en particulier avec la donnée d'un état initial et d'états terminaux, n'ité­
rer que le long des états atteignables par la politique en cours [Bonet et Geffner,
2006] . On peut également restreindre la mise à jour effectuée en {i} de Q(B, a) par
échantillonnage [Jaakkola et al. , 1994] . L'expression {i) est remplacée par : Q(B, a) +­
Q(B, a) + a[r(B, a) + "(maxa' { Q(B', a') } - Q(B, a)] , où B1 est pris dans F(B, a) par échan­
tillonnage selon la distribution P(B' IB, a) . Cette propriété est très utile en apprentissage
par renforcement.
L'algorithme Value-Iteration a une complexité polynomiale en ISI et I A I . Malheu­
reusement, il est rare en planification que l'espace d'état S puisse être entièrement
explicité. S est généralement de taille exponentielle en les variables d'état du système.
1224 - Panorama de l'intelligence artificielle. Volume 3

La planification non déterministe par des approches hiérarchiques ( e.g., (Barry et al. ,
201 1]) et/ou génératives ( e.g. , [Teichteil-Kônigsbuch et al. , 2010]) évite d'expliciter S,
mais elle soulève encore de nombreux problèmes ouverts (cf. chapitre Il.9) .
Le contrôleur pour un MDP est extrêmement simple. Il suffit d'itérer sur deux
étapes :
• observer l'état s ,

• exécuter l'action 7r ( s ) ,

et cela jusqu'à l'obtention d'un état but ou d'une autre condition d'arrêt.
En théorie l'approche MDP présente plusieurs avantages du point de vue de l'exécu­
tion. Elle gère explicitement le non-déterminisme et l'incertitude. Elle peut être étendue
à la prise en compte d'états partiellement observables (Buffet et Sigaud, 2008) . Enfin,
si la modélisation des actions n'est pas aisée, la mise en œuvre de techniques d'appren­
tissage la simplifie considérablement (cf. 8.6) . Ceci explique le succès de ces approches
dans de nombreuses applications en robotique sur lesquelles nous reviendrons plus
loin, mais qui restent généralement proches des actionneurs et plutôt du niveau de la
commande.
Dans le cas de la planification et de l'exécution de missions plus complexes, ces
techniques soulèvent de nombreuses difficultés, dues en particulier à la représentation
homogène qui est mise en œuvre, sans prise en compte explicite du temps, et à leur
complexité computationnelle. Plusieurs approches reposant sur les MDP hiérarchisés
tentent de pallier en partie ces difficultés (cf. par exemple (Pineau et al. , 2003 ; Pineau
et Gordon, 2005 ; Teichteil-Kônigsbuch et Fabiani, 2005 ; Barry et al. , 201 1]) .

8.4.4 Intégration planification de mouvements / planification


de tâches
La planification de tâches et la planification de mouvements sont des problèmes de
nature assez différente qui mettent en œuvre des représentations distinctes. Le premier
a plutôt été étudié par la communauté IA, et le second par la communauté robotique et
géométrie algorithmique. Dans les cas simples on peut découpler ces deux problèmes :
la planification de tâches produit un plan d'action de haut niveau dont on peut affiner
les actions nécessitant un déplacement par un planificateur de mouvements. Dès que la
tâche est complexe ou que l'environnement est contraint cette décomposition n'est plus
possible : les contraintes du mouvement doivent être prises en compte très tôt dans la
planification globale. Illustrons ici quelques approches à ce problème.
Le planificateur Asymov (Cambon et al. , 2009) combine une approche classique de
planification de tâches (en utilisant le planificateur FF (Hoffmann, 2001]) avec une re­
cherche dans l'espace des configurations. Il définit des « places » qui sont à la fois un état
dans l'espace de planification de tâches, et recouvrent un ensemble de configurations
libres dans C1 . Ces places forment des passerelles entre les deux espaces de recherche.
Bien entendu, ces deux espaces ne sont pas explicitement construits, mais pour chaque
état d'un plan trouvé, le système vérifie qu'il y a au moins une configuration de C1
atteignable. Cette approche a également été étendue à des problèmes de planification
multirobot avec des manipulations jointes, par exemple deux robots transportant une
table dans un environnement encombré.
8. Intelligence artificielle et robotique - 1 225

Une autre technique intéressante utilise un planificateur hiérarchique selon une


approche dite « angélique » [Wolfe et al. , 2010] . Une action de haut niveau peut se dé­
composer de diverses façons en activités élémentaires. Un plan de haut niveau s'appuie
sur des actions de haut niveau ; il peut se décomposer en le produit de toutes les décom­
positions possibles de ses actions, dont certaines ne sont pas compatibles entre elles. Il
n'est pas nécessaire de s'assurer que toutes les décompositions sont réalisables. Un plan
est acceptable s'il admet au moins une décomposition faisable. En effet, la décomposi­
tion n'est pas faite aléatoirement. Le robot décomposera ses actions de haut niveau en
choisissant nécessairement la décomposition faisable, s'il en existe une ( d'où le terme,
emprunté à la sémantique angélique du non-déterminisme ) . La technique consiste à
estimer ( par des majorants et minorants) l'ensemble des états atteignables par toutes
les décompositions possibles d'une action de haut-niveau. Ces approximations sont as­
sociées à des coûts, lesquels sont obtenus par des simulations des activités élémentaires,
y compris les déplacements, pour des valeurs aléatoires des variables d'état. Le plani­
ficateur peut ensuite faire une recherche dans l'espace de haut niveau en utilisant ces
coûts pour déterminer le plan optimal.
L'approche de [Kaelbling et Lozano-Perez, 201 1] fournit également un bon exemple
d'un planificateur symbolique hiérarchique couplé à des « conseillers géométriques »
rapides lorsque la recherche dans l'arbre symbolique requiert une information géomé­
trique. Ces conseillers ne résolvent pas complètement le problème géométrique qui leur
est soumis, mais fournissent une information qui permet à la recherche de se pour­
suivre jusqu'aux feuilles de l'arbre de recherche du plan global. Ce système alterne les
phases de planification symbolique avec l'exécution réelle des actions géométriques dans
l'environnement. Le plan est donc produit et exécuté en même temps, ce qui permet
d'appeler le planificateur géométrique ( et non le conseiller ) dans un état parfaitement
connu. Cette approche repose sur deux hypothèses fortes : les préconditions géomé­
triques des actions symboliques peuvent être calculées rapidement et efficacement ( par
les conseillers ) ; les sous-buts résultant d'une décomposition d'action sont exécutables
en séquence. Les auteurs reconnaissent que leur système n'est pas complet, et que l'hy­
pothèse de séquencement des sous-buts requiert que les actions soient « réversibles »
à coût raisonnable. Toutefois, pour les problèmes ou ces hypothèses sont satisfaites, le
système produit très rapidement des plans corrects.

8.5 Planification et interaction


Les techniques qui précédent font l'hypothèse d'un seul acteur dans l'environne­
ment : le robot qui doit réaliser la tâche. Mais les missions complexes se font souvent
avec l'intervention ou la participation de l'homme, ou parfois dans un contexte mul­
tirobot. Quelques travaux combinent ces deux aspects. Ainsi, [Simmons et al. , 2007]
proposent l'architecture Syndicate, une extension de 3T [Bonasso et al. , 1997] , qui per­
met la coopération de plusieurs robots en collaboration avec un humain pour des tâches
d'assemblages de grandes structures ; [Fong et al. , 2006] proposent une infrastructure
pour définir les modèles d'interaction ( tâches, équipes, ressources, humains ) nécessaires
à la coopération au sein d'une équipe d'astronautes et de robots d'exploration extra­
planétaire. Nous examinons dans les deux prochaines sections ces interactions de plus
1226 Panorama de l'intelligence artificielle. Volume 3
-

en plus courantes et leur planification.

8.5.1 Interaction multirobot


Il est parfois nécessaire de déployer plusieurs robots pour réaliser une mission. De
nombreux travaux s'intéressent à la problématique de la planification de missions et leur
exécution dans un cadre multirobot. On peut distinguer plusieurs types de problèmes :
• selon que la planification est centralisée ou distribuée,

• selon que l'exécution des plans est indépendante ou coordonnée,

• selon que la planification est préalable, ou faite au fur et à mesure,

• selon que les échecs à l'exécution sont réparés, et à quel niveau,

• selon les possibilités et mécanismes de communication entre robots pour la coordi­

nation et la planification.
De nombreux travaux portent sur la planification multirobot de mouvements, avec
les représentations géométriques et cinématiques présentées en section 8.3, et des tech­
niques de décomposition assez génériques qui se prêtent à des implémentations distri­
buées [Erdmann et Lozano-Pérez, 1987] . Les résultats récents, par exemple [Bhatta­
charya et al. , 2010] , permettent de prendre en compte efficacement des contraintes de
positionnement relatifs entre robots et des missions comportant plusieurs sites à visiter.
Le projet Martha illustre une approche pour la gestion d'une flotte de robots
dans des tâches plus générales de manutention de containers dans des ports ou aé­
roports [Alami et al. , 1998] . L'allocation des missions aux robots est centralisée, mais
sur un horizon limité. La planification, l'exécution, l'affinement et la coordination né­
cessaire à la navigation des robots et au partage des ressources dans le même environ­
nement sont distribuées. Les robots négocient entre eux la navigation dans l'environ­
nement, découpé en cellules ( e.g., traversée des carrefours, suivi en convoi, les dépasse­
ments) , et négocient aussi leur trajectoire à l'intérieur des cellules. On fait l'hypothèse
d'une communication locale fiable. Un blocage entre plusieurs robots à l'exécution est
correctement détecté par l'algorithme de coordination, et l'un des robots prend la main
pour produire un plan qu'il redistribue aux autres robots avec qui il est en conflit.
D'autres travaux proposent une allocation des missions par un mécanisme d'en­
chères [Dias et al. , 2006] pour l'affectation des tâches (des cellules à traverser/observer).
Dans [Tovey et al. , 2005] , les auteurs proposent un mécanisme de génération de règles
d'enchères adaptées à un objectif particulier d'un groupe de robots d'exploration (mini­
misation de la somme des trajets, minimisation du trajet maximum de tous les robots,
minimisation du trajet moyen par cible, etc) . Dans [Zlot et Stentz, 2006 ; Cao et al.,
2010] , les auteurs appliquent une technique similaire à des tâches et sous-tâches d'un
plan HTN lors de son élaboration. Chaque robot peut remporter les enchères sur une
tâche, la décomposer en sous-tâches suivant une méthode HTN, et remettre aux en­
chères tout ou partie de ces dernières. Après cette distribution de tâches initiales, les
robots conservent, durant l'exécution, la possibilité de remettre aux enchères les tâches
échouées ou qu'ils ne parviennent pas à réaliser. La communication dans ces systèmes
n'est pas permanente et totale, ainsi les phases de replanification/redistribution doivent
être elles-mêmes planifiées par avance.
8. Intelligence artificielle et robotique - 1227

8.5 .2 Interaction homme-robot


Avec le développement de la robotique de Service, l'interaction homme-robot de­
vient un problème majeur [Goodrich et Schultz, 2007] . Nous nous focaliserons ici sur les
approches qui s'intéressent plus particulièrement à la planification et sur les modèles
ut ilisés.
La planification interactive (ou mixed initiative planning) intégrant l'homme « dans
la boucle » est utilisée dans divers domaines. L'opérateur intervient dans l'algorithme
de planification pour faire des choix et aider à résoudre le problème.
La planification pour l'interaction Homme-robot soulève un problème différent : le
plan est produit automatiquement par le robot, mais il doit prendre en compte expli­
citement l'interaction avec l'Homme en cours d'exécution, voire l'exécution partagée.
A cette fin, le planificateur dispose de modèles (appris ou programmés) des comporte­
ments de l'homme [Beetz et al. , 2010] . Ces modèles précisent comment l'homme peut
se comporter vis-à-vis du robot, quels comportements du robot sont acceptables par
des humains et lesquels ne le sont pas, et il précisent aussi comment ces actions se
traduisent en actions de bas niveau pour le robot [Stulp et Beetz, 2008] .
Divers planificateurs ont été adaptés pour prendre en compte le rôle de l'humain
dans les plans produits. Généralement, ce sont des planificateurs de type multiagent
qui sont modifiés pour considérer l'humain comme l'un des agents à prendre en compte.
Dans [Burgard et al. , 1998] , les auteurs proposent des extensions à GOLOG/GOLEX
pour planifier la mission d'un robot de musée qui interagit avec les visiteurs. L'approche
mise en œuvre par [Brenner et al. , 2007] repose sur MAPL, un planificateur multiagent
basé sur PDDL, pour représenter les croyances des différents acteurs, les actions et les
opérateurs de perception. Un compilateur traduit ensuite ces modèles en PDDL. La
planification elle-même est ensuite assurée par le planificateur FF [Hoffmann, 2001] .

Le planificateur HATP [Alami et al. , 2006] s'intéresse à la planification dans un


contexte d'interactions homme-robot ( e.g. , pour la robotique de service) . Ce plani­
ficateur étend le formalisme des HTNs afin de créer un plan contenant, deux « fils
d'exécution », celui du robot et celui de l'humain avec lequel le robot interagit. La
figure 16 montre un plan produit par HATP. On distingue le fil d'exécution du robot
(cercle gris foncé, fil de gauche) et celui de l'utilisateur (cercle gris clair, fil de droite) .
HATP diffère de la planification HTN classique sur plusieurs points. Les modèles de
tâches et les méthodes d'affinement impliquent l'homme et le robot. De plus, lors de
l'affinement du plan, le système considère des règles sociales qui lui permettent de pro­
duire des plans considérés comme plus acceptables et compréhensibles par l'humain.
Par exemple, le robot préférera une action où il donne un objet directement à l'homme
plutôt que de le poser devant lui. De même, le robot se positionnera pour toute in­
teraction face à l'homme et fera des mouvements plus lents quand il se rapproche de
lui. Lors de l'exécution, le robot doit interpréter les actions de l'humain afin de réa­
liser correctement son plan. Par exemple, si lors d'une tâche le robot tend un outil
à l'homme, et que ce dernier s'en désintéresse temporairement, le robot ne doit pas
insister, et attendre que l'attention de l'humain revienne vers lui. Ces recettes de bons
1 228 Panorama de l'intelligence artificielle. Volume 3
-

e Task ta decompose
Q B o b aclion
Q Robot action
0 Common action

......... Causal link

.... Hierarchical link

i
I
/
I
I
/
I
/ / /
/ !
I
/ ./
!

FIGURE 16 Plan produit par HATP avec interaction homme-robot : les tâches (en
-

noir) sont décomposées en les actions primitives du robot (cercle gris foncé, fil de
gauche) , celles de l'opérateur humain (cercle gris clair, fil de droite) , et action commune
(ovale gris foncé) qui impose une synchronisation (Alami et al. , 2006) .
8. Intelligence artificielle et robotique - 1 229

comportements ne sont pas uniquement cosmétiques, elles permettent une interaction


plus naturelle entre l'homme et le robot.

8.6 Apprentissage
L'apprentissage automatique connaît beaucoup de succès dans tous les domaines,
et en particulier en robotique. Pratiquement toutes les techniques d'apprentissage nu­
mérique y sont mises en œuvre et développées à divers niveaux, depuis celui de la
commande des actionneurs jusqu'à l'acquisition de modèles de tâches, de comporte­
ment ou de l'environnement, en prenant en compte les spécificités de la robotique. On
trouvera dans [Sigaud et Peters, 2010] une bonne couverture des techniques récentes
d'apprentissage en robotique. On ne reviendra pas sur les questions de cartographie
(cf. 8.3.2) , ni sur les techniques de base, présentées ailleurs dans cet ouvrage (cf. cha­
pitres I.9 et II. 10) . On présente ci-dessous deux approches, relativement spécifiques à
la robotique : l'apprentissage par renforcement, basé sur les processus décisionnels de
Markov, et l'apprentissage par démonstration.

8.6.1 Apprentissage par renforcement


L'apprentissage par renforcement (cf. par exemple [Kaelbling et al. , 1996 ; Sutton et
Barto, 1998]) fait référence à toute méthode conduisant à améliorer le comportement
d'un robot par interaction directe avec le monde. Il s'agit pour le robot d'apprendre à
agir en maximisant à long terme le bénéfice perçu de ses actions. Le robot n'a pas de
superviseur pour lui fournir des exemples de bonnes actions dans certaines situations,
ni des explications sur comment les choisir. Le seul retour fourni au robot à chaque
étape est un scalaire : la récompense associée à l'action qu'il vient d'exécuter. Tant
que le robot n'aura pas essayé d'autres actions réalisables dans toutes les situations
rencontrées, il ne sera pas sûr que celle qu'il met en œuvre est la meilleure. Ainsi,
l'apprentissage par renforcement s'appuie sur une démarche d'essai et d'erreur. Il doit
résoudre le compromis exploration - exploitation : le robot doit exploiter au mieux ce
qu'il sait déjà pour maximiser le bénéfice de son comportement ; pour découvrir les
meilleures actions, il doit explorer les options qu'il ne connaît pas assez.
Pour introduire l'approche, examinons le cas très simple où chaque action résout
complètement la tâche en cours et n'a pas d'impact sur la tâche suivante. Supposons
l'environnement stationnaire et les récompenses positives ou nulles. Soit ri ( a) la ré­
compense reçue après avoir exécuté l'action a à la i em e fois. A un moment donné, on
peut estimer la qualité de l'action a qui aurait été exécutée ka fois par la moyenne des
récompenses :
Qo si ka = 0,
Q( a) = .l " � a (8 .9)
r
ka L... i = l i
{ · ( a ) sinon.

Cette estimée est maintenue à jour incrémentalement :

1
Q(a) t-- Q( a) + a frka + 1 ( a) - Q( a)] , avec a = ( 8 . 10)
ka + 1
1230 Panorama de l'intelligence artificielle. Volume 3
-

Le choix de l'action Argmaxa { Q( a)} maximise la somme des récompenses à recevoir


si Va, ka -+ oo. Cependant, le robot devra recourir régulièrement à d'autres choix,
selon diverses règles heuristiques, tant que son exploration n'aura pas été suffisante.
Par exemple, on pourrait définir une fonction Choixa { Q( a ) } par une des méthodes
suivantes :
• choisir avec une probabilité (1 - E ) l'action Argmaxa { Q( a )} , et avec une probabilité

E une autre action =I Argmax a { Q( a )} tirée aléatoirement, E étant dégressif avec

l'expérience, ou
• choisir aléatoirement une action selon une loi d'échantillonnage, par exemple selon

une distribution de probabilité pondérée par eQ ( a) / r ( échantillonage de Boltzman) ,


r diminuant avec l'expérience.

L'environnement étant supposé stationnaire, la mise à jour effectuée dans l'équa­


tion 8.10 après l'exécution d'une action a devient de plus en plus faible avec ka grand.
Si l'environnement n'est pas stationnaire, on gardera a < 1 constant. A noter éga­
lement que la valeur d'initialisation qo encouragera l'exploration si qo est significatif
relativement aux récompenses. Par exemple, si qo = rmax , la récompense maximale,
toute nouvelle action sera privilégiée relativement à celles déjà essayées.
Avec ces notions de base, examinons maintenant le cas réellement intéressant où
une tâche est réalisée par la combinaison de nombreuses actions, chacune ayant une
influence sur les actions qui la suivent, sur la réussite globale de la tâche et sur la
somme des récompenses espérées. Le cadre généralement adopté est celui des processus
décisionnels de Markov, introduit précédemment ( cf. section 8.4.3) . Ici également, on
cherche à apprendre une politique optimale qui maximise la valeur V(s) pour tout s.
Cette valeur est estimée à partir des récompenses associées aux actions choisies, avec
une difficulté majeure dans ce cas : comment répartir les récompenses entre toutes les
actions de la tâche. En effet, la récompense ne donne qu'un retour immédiat, à court
terme, alors que la qualité de réalisation de la tâche que l'on souhaite maximiser est
décrite par la somme des récompenses en moyenne.
Une première approche consiste à apprendre le modèle du processus décisionnel
de Markov, puis à appliquer les techniques de planification pour obtenir la politique
optimale. Apprendre le modèle signifie recueillir suffisamment de statistiques par une
démarche exploratoire pour estimer les distributions de probabilité P(s' ls, a) et les
récompenses r(s, a ) . Mentionnons une application intéressante de cette approche directe
qui conjugue les techniques qui précèdent avec un algorithme de planification à horizon
glissant (Morisset et Ghallab, 2008] . Sa mise en œuvre a été illustrée pour des tâches de
navigation. Elle est applicable à toute tâche pour laquelle le robot dispose de plusieurs
méthodes ( au sens HTN) alternatives dont les performances varient en fonction du
contexte et de l'environnement. Cette fonction de performance est difficile à modéliser.
Elle est apprise en tant que politique optimale d'un MDP dont l'espace d'état est un
espace synthétique de contrôle, qui porte sur les caractéristiques de l'environnement et
du contexte ( y compris la méthode en cours d'utilisation) ; les actions correspondent aux
méthodes de réalisation de la tâche. L'espace d'état est de faible dimension ( quelques
103 ) ce qui permet la mise en œuvre de la planification à horizon glissant à chaque
transition d'état.
Généralement, cette approche directe impose une phase exploratoire préliminaire
8. Intelligence artificielle et robotique - 1 23 1

coûteuse. Il est souvent préférable de commencer à réaliser les tâches au mieux, compte
tenu de ce que l'on sait, tout en continuant à apprendre, i. e. , de combiner exploitation
et exploration tout au long du comportement. Les algorithmes du type Q-learning
répondent à cet objectif en évitant d'avoir à expliciter le modèle du MDP.
Reprenons les notions qui précèdent sur la moyenne des qualités dans le cas MDP.
Soit r(s, a) la récompense observée après avoir exécuté l'action a en l'état s à l'instant
courant, et Q(s, a) la qualité estimée de a en s à cet instant. L'équation 8.8 donne
Q* (s, a) , la qualité de a en s pour une politique optimale. Ne connaissant pas Q* (ni
la politique optimale) , nous allons estimer sa valeur pour la politique courante par
l'expression :

Q(s, a) = r(s, a) + 'Y L P(s ' l s, a) maxa' {Q(s ', a') }


s' EF ( s , a)

L'idée de base de l'algorithme Q-learning est d'effectuer une mise à jour incrémentale de
Q(s, a) , similaire à celle de l'équation 8. 10. Cette mise à jour n'utilise pas les probabilités
(inconnues) du modèle, mais plutôt les échantillons d'états successeurs s', observés
expérimentalement et donc tirés selon la distribution P(s' ls, a) . Cette mise à jour est
donnée par l'expression {i} dans l'algorithme ci-dessous.

Q-learning
Itérer sur tout état s rencontré
a +-- Choixa {Q(s, a) }
exécuter a, observer r(s, a) et l'état résultant s'
Q(s, a) +-- Q(s, a) + a[r(s, a) + maxa' { Q(s', a')} - Q(s, a)]
s +-- s'
Fin itération

FIGURE 17 - Algorithme Q-learning.

Les valeurs Q(s, a) sont initialisées arbitrairement. La fonction Choixa { Q(s, a) }


privilégie Argmaxa { Q(s, a) } tout en permettant une exploration dégressive avec l'ex­
périence. Le paramètre a E [O, 1] est réglé empiriquement : proche de 1 , Q suivra la
dernière valeur observée en prenant peu en compte la distribution des résultats pas­
sés de a en s ; proche de zéro, Q évoluera très peu ; a sera dégressif avec le nombre
d'instances (s, a) rencontrées.
Une variante de cet algorithme (dite SARSA pour « State, Action, Reward, State,
Action ») prend en compte une succession (s, a, s', a') de deux états et actions avant
d'effectuer la mise à jour de la qualité estimée de a en s par : Q(s, a) +-- Q(s, a) +
o:[r(s, a) + 'YQ(s', a') - Q(s, a)] . On peut prouver la convergence asymptotique de ces
deux algorithmes vers la politique optimale.
D'autres algorithmes d'apprentissage par renforcement sans modèle procèdent plu­
tôt par mise à jour des fonctions de valeurs V ( s) que des fonctions Q( s, a) . La mise à
jour pour un triplet (s, a, s') observé est similaire : V(s) +-- V(s) + a[r(s, a) + 'YV(s') -
V(s)] . Cet algorithme, dit TD(O) , est à combiner avec une règle de choix de l'action qui
permette l'exploration. Il fait partie de la famille d'algorithmes TD(.>.. ) qui effectuent
1 232 - Panorama de l'intelligence artificielle. Volume 3

la mise à jour précédente à chaque pas pour tous les états, avec une pondération en
fonction de la fréquence de rencontre de chaque état.
Enfin signalons l'algorithme DYNA et ses variantes qui combinent apprentis­
sage et planification : on maintient et met à jour une estimation des probabili­
tés P { s' l s, a) et des récompenses r(s, a) ; à chaque étape on effectue deux mises
à jour, une du type Q-learning de Q(s, a) pour le couple observé par Q(s, a) +­
r(s, a) + 'Y :E s' P(s' l s, a)maxa' { Q(s' , a' ) } , et une du type Value-Iteration pour d'autres
couples (état, action) , choisies aléatoirement ou selon certaines règles de priorité, en
prenant en compte les nouvelles valeurs estimées. Ainsi, l'expérience permet d'estimer
le modèle et la politique courante (via Q) , et le modèle estimé permet à son tour d'amé­
liorer la politique. Chaque étape est plus coûteuse que Q-Learning en temps de calcul,
mais la convergence se produit bien plus rapidement en nombre d'étapes expérimen­
tales.
L'apprentissage par renforcement est largement utilisé en robotique, mais il est ra­
rement mis en œuvre sous la forme d'un espace d'état explicite et de tables de valeurs
V(s) ou Q(s, a) explicites. L'espace d'état est généralement continu {il intègre l'espace
des configurations du robot et son environnement) . Même si on parvient à le discrétiser
de façon pertinente (par exemple, dans les approches du type grille pour l'environne­
ment) , la dimension de S est telle qu'une représentation explicite serait impraticable.
Par ailleurs, les algorithmes qui précèdent permettent d'apprendre un bon comporte­
ment pour les états rencontrés en cours d'apprentissage, mais ils ne disent rien sur
des états non rencontrés : ils ne permettent pas de généraliser. Si on dispose d'un
espace d'état continu ou muni d'une métrique, on peut faire l'hypothèse raisonnable
que des états proches seront généralement associés à des estimations de valeurs V ( s )
ou Q(s, a) proches, et donc à des politiques similaires. C'est ce que font les approches
paramétriques.
Ici les espaces S et A sont décrits par deux vecteurs de variables d'états et de com­
mandes. Soit un vecteur de paramètres. On fait l'hypothèse que Q(s, a) est approximé
par fonction paramétrique en () = {Oi , . . . , On) · On se donne a priori la fonction Qe (s, a) ,
par exemple une fonction linéaire des variables d'état et de commande. L'apprentis­
sage consiste à estimer les paramètres O. L'algorithme Q-Learning est le même que
précédemment, sauf que la mise à jour en {i} ne va pas porter sur une table de valeur,
mais sur les paramètres de Q e (s, a) . La démarche consiste généralement à minimiser
l'erreur quadratique moyenne de Q relativement à Q* ; ce dernier est estimé à chaque
itération par la dernière mise à jour observée. L'algorithme de gradient donne lien à la
formulation suivante :

() +- () - �aV7e [r (s , a) + maxa' { Qe (s' , a' ) } - Qe (s, a)] 2


() + a[r{s, a) + maxa' { Qe (s' , a' ) } - Qe (s, a)] â �� '
(8. 11)
Q a)
() +-

Cette dernière expression remplace la ligne {i) dans l'algorithme précédent pour chacun
des paramètres ()i · Une formulation similaire peut être obtenue pour l'estimation de
Ve .
L'apprentissage par renforcement avec une approche paramétrique a eu et continue
d'avoir des succès en robotique {dont certains sont illustrés dans ·[Sigaud et Peters,
8. Intelligence artificielle et robotique - 1233

2010] ) . Il a été mis en œuvre dans des applications simples, par exemple pour la sta­
bilisation d'un pendule inversé articulé, ou pour des jeux de fléchettes ou de balles, et
d'autres plus complexes telles que la commande de manœuvres acrobatiques pour un
hélicoptère [Abbeel et al. , 2006 ; Coates et al. , 2009] . Une des principales difficultés de
mise en œuvre de ces approches est la définition des récompenses.
En effet, l'algorithme précédent indique abusivement : « observer r(s, a) ». Mais la
récompense se prête rarement à une observation directe par les capteurs du robot. Il faut
fournir au robot un moyen d'estimer cette récompense en fonction de ce qu'il perçoit.
Parfois, cette fonction r (s, a) est facile à spécifier, par exemple par l'écart à l'équilibre
pour une tâche de stabilisation, ou l'écart à la cible pour une tâche de poursuite. Mais
souvent elle ne l'est pas. Comment par exemple spécifier la récompense pour une tâche
de conduite automobile, ou pour des tâches encore plus complexes ?
Cette difficulté conduit au problème dit de l'apprentissage par renforcement in­
verse [Abbeel et Ng, 2010] : ayant le comportement optimal, fournit par un tuteur,
il s'agit de trouver la fonction de récompense qui permettrait de le générer. Dans le
cas d'un MDP fini explicite, on se ramène à la formulation suivante (issue directe­
ment de l'équation 8.8) : on connaît Vs : 11'* (s) , on sait exprimer récursivement Q(s, a)
en fonction des valeurs inconnues de r(s, a) , et on veut que Q(s, a) soit maximal pour
a = 11'* ( s) . On étend cette formulation sous-spécifiée (admet une infinité de solutions qui
ne sont pas intéressantes) avec un critère à optimiser, par exemple maximiser l'expres­
sion : L s [Q(s, 11'* (s)) - maxa 'i .,.. * ( s ) Q(s, a)] . Le problème se résout par programmation
linéaire.
Le cas plus intéressant en pratique est celui des approches paramétriques. Ici éga­
lement on définit la récompense re comme une fonction (généralement linéaire) des
variables d'état et de commande dont on cherche à déterminer les paramètres. La for­
mulation précédente n'est pas directement applicable, car on ne dispose de 11'* que
pour un petit nombre d'échantillons d'états. Cependant la contrainte principale que
la distribution des états engendrés par re doit être la même que celle fournie par le
tuteur conduit à une formulation que l'on sait résoudre itérativement ; chaque itéra­
tion conjugue deux étapes, une de programmation quadratique pour l'optimisation du
critère et une de programmation dynamique du type Value-Iteration.
Les techniques d'apprentissage par renforcement inverse relèvent des méthodes gé­
nérales d'estimation et de résolution des problèmes inverses, largement utilisées par
ailleurs, y compris en robotique, par exemple [Mombaur et al. , 2010] . On peut égale­
ment faire le lien à une démarche plus générale : l'apprentissage par démonstration,
que nous examinons en section suivante.

8.6.2 Apprentissage par démonstration


Comme on vient de le souligner, la formulation de la fonction récompense, néces­
saire à l'apprentissage par renforcement, est loin d'être évidente. Par ailleurs, il est rare
que l'on puisse avoir un espace d'état markovien observable : on sait se ramener à des
espaces markoviens, mais ceci nécessite beaucoup d'ingénierie et rajoute généralement
des composantes non observables. La complexité des techniques qui précédent dans le
cas partiellement observable est rédhibitoire. De plus, la complexité expérimentale (en
nombre d'essais et erreurs) est généralement bien plus coûteuse en robotique que la
1234 - Panorama de l'intelligence artificielle. Volume 3

complexité calculatoire. Or, les techniques par renforcement nécessitent un très grand
nombre d'expériences pour converger. Enfin, il est fréquent que la tâche à apprendre
ne puisse pas être traitée sous forme d'une simple suite de couples (état, action}, mais
nécessite un plan ou une structure de contrôle, par exemple répéter telles séquences
d'actions jusqu'à certaine condition. Pour toutes ces raisons, l'apprentissage par dé­
monstration se présente comme une bonne alternative lorsque le robot peut bénéficier
des démonstrations d'un tuteur.
Dans l'apprentissage par démonstration ( cf. synthèse de [Argall et al. , 2009] ) , un
tuteur indique au robot les actions adéquates dans certains états bien choisis. Ceci
permet au tuteur de contrôler le processus d'apprentissage et de le focaliser progressi­
vement sur les difficultés. Le robot généralise à partir des démonstrations du tuteur et
apprend le comportement requis, par exemple sous forme d'une politique au sens MDP
dans les cas simples, ou sous forme d'une correspondance états sensoriels - plans dans le
cas général. L'apprentissage par démonstration est un cas particulier de l'apprentissage
supervisé : certaines des techniques développées au chapitre II. 10 seront pertinentes ici
également. Cependant les techniques d'apprentissage supervisé portent principalement
sur les cas où les retours du tuteur sont des labels de classification. L'apprentissage
par démonstration soulève d'autres problèmes liés à la perception - dans quels états se
déroule la démonstration - et à l'action - quelles actions sont mises en œuvre par le
tuteur.
Dans le cas le plus simple, l'apprentissage par démonstration se réduit à une télé­
opération où le tuteur agit directement dans l'espace des actionneurs et des capteurs
proprioceptifs du robot. Ce dernier apprend les actions directement au niveau de ses
propres commandes. Ces approches ont donné lieu à de nombreux succès, dont plusieurs
sont illustrés dans [Sigaud et Peters, 2010] ou [Peters et Ng, 2009] .
Dans le cas général, le tuteur agit sur ses propres actionneurs plutôt que sur ceux
du robot pour illustrer les mouvements et manipulations qu'il souhaite faire apprendre.
Le robot observe le tuteur de l'extérieur. Avant d'apprendre, il doit alors établir une
double correspondance :
• une correspondance sensorielle, pour interpréter les états et actions observés, et

• une correspondance motrice, pour transposer au niveau de ses propres actionneurs

les actions démontrées.


Cette double correspondance, très difficile, limite souvent l'apprentissage par démons­
tration et exige du tuteur une pédagogie particulière : bien comprendre à un niveau
bas quelles correspondances le robot sera en mesure de faire à partir des actions du
tuteur. Chacune de ces correspondances peut elle-même donner lieu à un processus
d'apprentissage spécifique.
Par ailleurs, l'apprentissage par démonstration peut être mis en œuvre avec ou sans
acquisition de modèle. Dans le premier cas on rejoint généralement les techniques d'ap­
prentissage par renforcement inverse. Dans le dernier cas, l'apprentissage peut donner
lieu à l'acquisition d'une correspondance états sensoriels -actions. Ici, on s'appuie sur
les techniques bien maîtrisées de l'apprentissage supervisé, par classification ou régres­
sion. Enfin, l'apprentissage sans modèle peut également donner lieu à acquisition d'une
correspondance états sensoriels - plans. Ces derniers peuvent être obtenus par des tech­
niques de reconnaissance de plans. Ils peuvent également être synthétisés à partir des
8. Intelligence artificielle et robotique - 1 23 5

indications du tuteur sous forme d'opérateurs et de buts (finaux ou intermédiaires)


associés aux états sensoriels observés.
Ces dernières approches, encore peu explorées [Nicolescu et Mataric, 2003 ; Rybski
et al. , 2007) , sont plus générales du fait de la classe des comportements qui peuvent être
démontrés par le tuteur et acquises par le robot (incluant des actions itératives et des
structures de contrôles) . Elles ont également une capacité de généralisation plus grande
du fait des possibilités de planification du robot. Elles sont finalement plus naturelles
et faciles pour le tuteur, car ses propres actions sont interprétées au niveau de leurs
effets sur l'environnement plutôt que de leurs commandes.

8.7 Intégration et architecture logicielle


Au delà de l'intégration matérielle de systèmes mécaniques, électriques, électro­
niques, etc., un robot est un système complexe d'acquisition et de traitement de l'in­
formation. Il met en œuvre des traitements en lignes, depuis des boucles de contrôle en
temps réel, avec une hiérarchie de temps de réponse, jusqu'aux fonctions décisionnelles
qui confèrent l'autonomie et la robustesse nécessaires face à la variabilité des tâches et
des environnements. L'intégration de ces traitements doit s'appuyer sur une architec­
ture qui définit comment s'articulent tous les composants, comment communiquent-ils
et partagent-ils les données et les ressources de calcul. Ces architectures peuvent reposer
sur des approches très différentes. Dans tous les cas, elles doivent offrir des méthodolo­
gies de développement pour permettre de programmer, intégrer et tester les différents
modules. Elles doivent offrir des outils et des bibliothèques qui faciliteront les dévelop­
pements et le déploiement des différents composants sur le robot, en particulier ceux
qui nous intéressent ici : la planification et le contrôle d'exécution.

8.7. 1 Architectures réactives


Les architectures réactives, popularisées par l'architecture dite « subsump­
tion » [Brooks, 1986) , sont conceptuellement simples. Elles se composent de modules qui
rebouclent les capteurs sur les effecteurs avec une machine à états internes. Ces modules
sont organisés hiérarchiquement avec les sorties des uns qui peuvent inhiber ou pon­
dérer les sorties et les compositions des autres. Ces architectures ont été relativement
populaires car elles sont a priori aisées à mettre en œuvre. Elles ne nécessitent pas de
modèle du monde ( « Le monde est son propre modèle » ) , et sont adaptées à des tâches
réactives simples, sans planification. Un robot comme le Roomba qui a sans doute été
développé en suivant ce concept réalise sa tâche de nettoyage sans plan d'actions. Mais
il n'y a aucun objectif de qualité ou d'efficacité qui est poursuivi formellement. In fine,
ces architectures gardent encore un bon crédit et restent utilisées dans des applications
mono tâche, ou en complément de systèmes complexes [Beaudry et al. , 2008) , mais
aussi dans des systèmes multiagents [Arkin, 1992) . Mais pour des applications associées
à une variabilité des tâches et des environnements, la programmation et le réglage des
inhibiteurs/pondérateurs restent complexes à mettre en œuvre.
1236 Panorama de l'intelligence artificielle. Volume 3
-

8.7.2 Architectures hiérarchiques


Les architectures hiérarchiques ou en couches sont les plus utilisées en robotique.
Elles proposent d'organiser l'ensemble des logiciels du robot en deux ou trois couches,
du niveau décisionnel jusqu'au niveau fonctionnel. Ce dernier regroupe les fonctions
sensori-motrices, de commande des capteurs, des effecteurs, et les traitements qui leur
sont associés. Dans certains cas, un niveau intermédiaire est utilisé pour des fonctions
de contrôle d'exécution : décomposition des tâches, séquencement des actions, vérifica­
tion de conditions de sûreté. Des outils sont généralement associés à ces architectures
et permettent une intégration aisée des différents composants. Ainsi, l'architecture
LAAS [Ingrand et al., 2007] s'appuie sur GenoM pour le développement les modules
fonctionnels (voir Figure 18) , et sur divers outils (R2C, OpenPRS, Transgen, IxTeT)
pour l'exécutif, la supervision et la planification de tâches. L'architecture CLARATy
offre des classes c++ de base qui facilitent le développement de la couche fonctionnelle,
puis TDL et ASPEN/Casper pour respectivement l'exécutif et le planificateur.

8.7.3 Architectures « teleo-reactives »

Plus récemment, on a vu apparaître des architectures telles que IDEA [Finzi et al.,
2004] et T-ReX [Py et al. , 2010] qui proposent une décomposition en agents plutôt
qu'en couches. Chaque agent 7 se compose d'un tandem planificateur/contrôleur. Il
produit des plans en établissant des séquences de « tokens » sur des « timelines » re­
présentant l'évolution de quelques variables d'état du système, et en assure l'exécution.
La planification est assurée par un planificateur temporel ( e.g. , Europa) à base d'in­
tervalles. Ces agents sont organisés en fonction des variables d'état considérées et ont
des latences, périodes et horizons de planification adaptés. Ils communiquent entre eux
en partageant certaines « timelines » (avec des règles de priorité pour les modifications
des timelines partagées) avec un dispatcher chargé d'intégrer les nouvelles valeurs de
« token » en fonction de l'exécution.
Ces architectures présentent deux avantages certains. Elles ont un modèle d'agent
unifié sur toute l'architecture (même les modules fonctionnels sont censés être déve­
loppés en suivant ce paradigme) . Elles utilisent le même langage de modélisation sur
l'ensemble de l'architecture, ce qui confère une cohérence d'ensemble au modèle. On
peut citer deux expérimentations utilisant ces architectures : [McGann et al. , 2008] sur
un robot d'exploration sous-marine autonome, et [McGann et al. , 2009] sur le robot
PR2 de Willow Garage.
Toutefois, le déploiement de ces approches est freiné par deux problèmes. Le premier
est celui des performances. Peu d'agents parviennent à descendre en dessous de la
seconde comme période de planification, ce qui les exclut des modules fonctionnels très
réactifs. Le second est celui du développement très difficile du modèle de compatibilités
et des contraintes, en particulier lorsqu'on commence à s'intéresser au cas non nominal.
Signalons enfin dans cette catégorie, les architectures réactives hybrides qui ra­
joutent un ou plusieurs planificateurs aux modules réactifs. Le rôle des planificateurs
est de proposer des plans permettant de configurer, via un système de coordination,
7. Les agents sont appelés « réacteurs » dans la terminologie T-ReX.
8. Intelligence artificielle et robotique - 1 237

l'activité des modules réactifs. La difficulté est dans la réalisation de ce module de coor­
dination. L'approche de [Beaudry et al. , 2008] illustre une proposition dans ce sens qui
conjugue un planificateur de mouvement et un planificateur HTN gérant explicitement
le temps ; cette approche semble prometteuse pour des applications non critiques.

8.7.4 Robustesse, validation et vérification


La robustesse et la sûreté de l'ensemble des logiciels embarqués sur un robot posent
un problème majeur. Une première étape consiste à robustifier les principaux compo­
sants afin de pallier les aléas de l'environnement, le bruit sensoriel, et la grande variabi­
lité des contextes d'utilisation. On exige d'un module fonctionnel qui gère une fonction
sensori-motrice qu'il connaisse son domaine d'utilisation, qu'il sache reconnaître les
situations où ses données ne sont pas exploitables afin de permettre des actions correc­
trices. Par exemple, un composant qui fait de la stéréo vision devra reconnaître quand
ses caméras sont non calibrées ; un module qui gère la locomotion détectera les glisse­
ments ou blocages de roues excessifs. Dans un même souci, les composants décisionnels
embarqués utilisent des approches formelles ( à base de contraintes ou de propositions
logiques ) qui permettent par exemple de garantir que les plans produits ne conduiront
pas à des états indésirables.
Toutefois, la composition de tous ces composants, aussi robustes soient-ils indivi­
duellement, ne donne pas lieu directement à des propriétés de sûreté de fonctionnement
global du robot. Par exemple le composant de prise d'images et le composant de lo­
comotion d'un robot peuvent être correcte, mais toutes les exécutions possibles de
ces deux composants ne sont pas acceptables, e.g. , les paramètres de prise d'image à
haute résolution en cours de déplacement sont contraints. Aussi, des recherches sur la
sûreté du système global et de son architecture sont conduites depuis de nombreuses
années. De façon générale, on retrouve là les problèmes de sûreté des systèmes temps
réel embarqués (Henzinger et Sifakis, 2006] , associés dans le cas de la robotique à une
exigence d'autonomie décisionnelle. On peut utiliser des langages de modélisation, tels
qu'UML [Jacobson et al. , 1999] et AADL [Feiler et al. , 2006] , qui fournissent des outils
et des méthodes de spécification. Mais on souhaite aller plus loin avec des approches
formelles qui permettent de faire de la validation et de la vérification.
En robotique, les travaux sur d'Orccad (Simon et al. , 1997] et MAESTRO [Coste­
Maniere et Turro, 1997] s'appuient sur le paradigme des langages synchrones ( Esterel )
pour mettre en œuvre un contrôleur d'exécution. Dans [Simmons et al. , 2000] , les au­
teurs proposent une approche de type « model checking » utilisant un système de preuve
pour vérifier formellement le contrôleur du robot décrit dans un langage logique (Sim­
mons et Apfelbaum, 1998] . Les travaux sur l'architecture LAAS [Py et lngrand, 2004]
utilisent un modèle logique représentant l'ensemble des contraintes que l'on veut ga­
rantir et permettent aussi de vérifier formellement que les commandes envoyées par
le niveau décisionnel sont compatibles avec le modèle. D'autres travaux s'intéressent
aussi à la vérification du code exécuté par les modules fonctionnels d'un robot afin de
le faire formellement certifier [Frese et al. , 2009] .
Plus récemment, les travaux autour de GenoM visent à produire un modèle formel
de l'ensemble de la couche fonctionnelle en composant les modèles de tous les modules
fonctionnels [Bensalem et al. , 2009b] . La modélisation s'appuie sur le formalisme BIP
1238 - Panorama de l'intelligence artificielle. Volume 3

( Behavior, Interaction, Priority IBasu et al. , 2006)) et exploite le fait que chaque mo dule
GenoM est une instance du module générique ( voir figure 18) .

1 •
Requests Reports

Control Task

Control &
Functional
IDS

FIGURE 18 - L'organisation interne d'un module GenoM. Le flux de contrôle s'organise


comme suit : la tâche de contrôle reçoit les requêtes et lance l'exécution des services
correspondants dans les tâches d'exécution. Lorsque l'exécution est terminée, la tâche
de contrôle renvoie un rapport d'exécution à l'appelant. L'écriture ou la lecture de
posters constituent le flux de données du module.
Le formalisme BIP [Basu et al. , 2006] offre une méthodologie pour construire des
composants à partir : {i) de composants atomiques ; (ii) de connecteurs qui définissent
les interactions possibles entre les ports des composants atomiques ; et {iii} une relation
de priorité, pour sélectionner parmi les interactions possibles celle qui sera tirée. Un
composant atomique est défini par : {i) un ensemble de ports P {p 1 , . . . , pn } qui sont
=

utilisés pour la synchronisation avec les autres composants ; {ii} un ensemble d'états
S = {si , . . . , s k } qui représentent les états où le composant attend les synchronisations ;
{iii} un ensemble de variables locales V ; et {iv) un ensemble de transitions. Une tran­
sition est un tuple de la forme ( s, p, gp, fp, s') , représentant un pas de l'état de contrôle
s à s'. Son exécution modifie les variables locales suivant la fonction fp : V � V. Une
transition est possible ssi la garde gp (condition booléenne sur V) est vraie et l'inter­
action sur p est possible. Par exemple, la transition de empty vers full en figure 19 est
possible si 0 < x, et si une interaction sur in est possible. La variable y prend alors
la valeur f (x ) . La transition de full vers empty n'a pas de garde mais requiert une
interaction sur le port out.

Dans cette approche, tous les composants génériques d'un module GenoM sont
modélisés en BIP. L'ensemble des modules de la couche fonctionnelle est obtenu par
8. Intelligence artificielle et robotique - 1 239

in, 0 < x, y t-- f (x)

'""'�� out, ,

FIGURE 19 - Un exemple simple de composant atomique BIP comportant deux états


et deux transitions. La transition de empty vers full est associée à une interaction sur
le port in, une condition booléenne x > 0 et change la valeur de y. La transition dans
l'autre sens nécessite uniquement une interaction sur le port out.

recomposition de ces modèles de base en BIP. Il faut noter, que les codes exécutables as­
sociés au traitement des modules sont maintenant sur les fonctions f (x) des transitions
du modèle BIP. Cette approche, étendue à l'ensemble de la couche fonctionnelle d'un
robot, permet d'avoir un modèle extrêmement fin du système considéré ( e.g. , l'état dans
lequel se trouve chaque composant, les interactions possibles à tout moment, etc) . Le
modèle global résultant est utilisé par le BIP Engine (un joueur d'automates qui vérifie
en ligne les gardes et interactions pour l'ensemble du modèle, et exécute celles qui sont
valides) pour contrôler l'exécution réelle sur le robot. Ce modèle est au préalable vérifié
et validé avec des outils formels comme D-Finder [Bensalem et al. , 2009a] . La vérifi­
cation formelle compose les invariants des composants 'Pi, qui définissent pour chaque
composant une propriété logique qu'il satisfait, et les invariants des interactions \JI qui
définissent logiquement les interactions possibles entre les composants considérés. La
recherche et le calcul de ces invariants sont automatiques. Ainsi, la règle d'inférence :

(/\i 'Pi) /\ \JI => <P


1 1 -r {Bi}i < <P >
spécifie que si tous les composants Bi satisfont leur invariant de composant 'Pi i si la
composition de tous les composants Bi avec leur interactions -y satisfait les invariants
des interactions '11 , et si de plus la conjonction des invariants (/\ i <Pi) /\ \JI implique une
formule <P sur le système global, alors le système global 11 -r {Bi}i satisfait aussi <P.
Cette méthode permet, entre autres, de vérifier qu'il n'y a pas de « blocage mortel »
dans le système ou de vérifier des propriétés de sûreté. Il faut noter que cette technique
de calcul d'invariants sur les composants et sur leurs interactions permet de prendre en
compte des espaces d'états bien plus grands que ne le peuvent les techniques de type
« model checking ».

8.8 Conclusion
Nous avons présenté dans ce chapitre quelques modèles et techniques utilisés en
robotique pour traiter les problèmes de planification et de contrôle d'exécution de
mouvements et de tâches, les problèmes d'interaction, les problèmes d'apprentissage,
1 240 Panorama de l'intelligence artificielle. Volume 3
-

ainsi que les problèmes liés aux architectures nécessaires pour développer les fonc­
tions décisionnelles et les intégrer aux fonctions sensorielles et motrices d'un robot. La
plupart de ces techniques ont été évoquées très synthétiquement. Quelques unes ont
été détaillées de manière plus didactique pour fournir au lecteur des illustrations de
représentations et d'algorithmes fréquemment mentionnés en robotique.
Il n'est pas nécessaire de revenir ici sur les perspectives de recherche et les nom­
breux problèmes ouverts évoqués tout au long des sections qui précèdent, mais il peut
être intéressant de soulever brièvement les perspectives plus globales du couplage IA­
robotique.
Comme nous l'avons souligné en introduction, la robotique est un domaine essentiel­
lement pluridisciplinaire. Des progrès importants en robotique peuvent être attendus
d'avancées majeures dans ses disciplines de base, et les motivations robotiques peuvent
être des catalyseurs de telles avancées. Par exemple un système mécanique de pré­
hension, léger, rapide et de grande dextérité, un capteur proximètrique 3D, précis et
à faible coût, ou un algorithme de traitement d'images capable de reconnaître avec
de bonnes performances les objets ordinaires que l'on peut trouver dans un apparte­
ment ou un supermarché, enrichiraient substantiellement les capacités fonctionnelles
des plates-formes actuelles.
Mais la recherche en robotique, comme nous l'avons également souligné, est avant
tout intégrative. On peut certes progresser au niveau des briques de base pour le
traitement de telle tâche, plus difficile, ou dans tel environnement, plus complexe. Mais
l'autonomie de la machine, face à la variabilité et à la diversité des environnements et
des tâches, nécessite de progresser dans la maîtrise intégrée de la boucle perception­
décision-action.
Cette boucle est au cœur de la recherche en robotique. Elle nécessite des modèles
explicites des objets, à divers niveaux (de leur apparence physique à leurs fonctions) ,
ainsi que des modèles des activités, des événements et des processus qui constituent
l'environnement et ses acteurs, y compris le robot. Elle nécessite des représentations
des connaissances adéquates pour exprimer ces modèles, lesquelles seront mathémati­
quement hétérogènes 8 (en robotique, « représentations des connaissances » se décline
nécessairement au pluriel) . Elle nécessite également des processus d'acquisition de ces
connaissances selon diverses modalités d'apprentissage. Tel est l'agenda de recherche
dont nous avons illustré quelques avancées au cours de ces deux ou trois dernières dé­
cennies et sur lequel beaucoup reste à faire. Cet agenda est pertinent aussi bien pour
des robots « monolithiques », intégrant tous leurs organes sur une seule plate-forme,
que sur des robots distribués. La distribution constitue d'ailleurs un item important
de cet agenda, aussi bien au sens de la distribution des fonctions cognitives au niveau
des organes et fonctions d'un robot que la distribution du robot sur des systèmes de
systèmes, des réseaux de capteurs, d'actionneurs et de ressources de traitement à vaste
échelle.
Du point de vue de la recherche en IA, on peut prédire sans crainte que la robotique
continuera d'être une source d'inspiration fertile et un champ d'expérimentation et de
validation de nombreux travaux de la discipline. Les illustrations dans le domaine des

8. continues / discrètes, symboliques / numériques, géométriques / topologiques, déterministes /


stochastiques, etc.
8. Intelligence artificielle et robotique - 1 24 1

systèmes multiagents sont nombreuses (cf. par exemple le numéro spécial [Sonenberg
et al. , 2012)). Sont également illustratifs de la richesse des synergies !A-robotique les
travaux sur les systèmes cognitifs ou sur les systèmes sociaux et développementaux, en
particulier en robotique cognitive ou en robotique développementale voir par exemple
[Oudeyer, 2010, 201 1] .
Cependant, au-delà de la source d'inspiration et d'expérimentation, on peut ar­
gumenter que la boucle perception-décision-action est aussi au cœur de la recherche
en IA. Certes, on continue à faire des progrès dans tous les champs de l'IA, avec ou
sans focalision particulière sur l'intelligence incorporée à des processus sensori-moteurs.
Ainsi, les techniques statistiques et hybrides ont donné lieu à des avancées spectacu­
laires en apprentissage automatique ou en traitement automatique du langage naturel,
illustrées par exemple par la victoire du système WATSON de Questions/Réponses au
jeu « Jeopardy » [Ferrucci et al. , 2010] . Ainsi, les représentations couplant logique du
premier ordre et gestion de l'incertitude, telles que les logiques probabilistes du premier
ordre [Milch et Russell, 2007] , ouvrent des perspectives remarquables pour la représen­
tation hybride de connaissances, en particulier pour les problèmes de planification et
d'apprentissage dont nous avons déjà parlé. De nombreux exemples de ces avancés de
la discipline sont illustrés tout au long des précédents volumes cet ouvrage.
Mais la quête de la discipline, à savoir comprendre, modéliser et implémenter l 'in­
telligence, passe pour beaucoup de chercheurs via ce lien perception-décision-action.
Les problèmes fondamentaux d'association entre un symbole et des données sensorielles
relatifs au même objet physique [Coradeschi et Saffiotti, 2003] et ceux plus généraux
d' « ancrage des symboles » [Harnad, 1990] - ou comment associer au symbole, dans
son contexte, un contenu signifié, objet, concept ou propriété générique - nécessitent
de coupler tout mécanisme cognitif à un système sensori-moteur en mesure d'interagir
de façon autonome avec le monde auxquels les symboles réfèrent (le niveau T3 du test
de Turing selon [Harnad, 2001) ) .
L e couplage !A-robotique est certainement un champ fertile pour les deux domaines.

Remerciements : Ce chapitre a bénéficié des retours très utiles et pertinents de


plusieurs collègues du LAAS-CNRS dont, en particulier, Jean-Paul Laumond, Simon
Lacroix, Thierry Siméon et Christopher Mei. Un grand merci à eux.

Références
ABBEEL, P. , COATES, A., QUIGLEY, M. et NG, A. Y. (2006) . An application of rein­
forcement learning to aerobatic helicopter flight. In Neural Information Processing
Systems {NIPS}, pages 1-8.
ABBEEL, P. et NG, A. Y. (2010) . Inverse reinforcement learning. In SAMMUT, C. et
WEBB, G. 1., éditeurs : Encyclopedia of Machine Learning, pages 554-558. Springer.
ALAMI, R. , CLODIC, A., MONTREUIL, V. , SISBOT, E. et CHATILA, R. (2006) . Toward
human-aware robot task planning. In AAAI Spring Symposium : To boldly go where
no human-robot team has gone before, pages 39-46.
1 242 Panorama de l'intelligence artificielle. Volume 3
-

ALAMI, R. , FLEURY, S . , HERRB, M. , INGRAND, F. et ROBERT, F. ( 1998 ) . Multi­


robot cooperation in the martha project. IEEE Robotics and Automation Magazine,
5 ( 1 ) :36 -47.
ALLEN, J. F. ( 1984 ) . Towards a general theory of action and time. Artificial Intelligen ce,
23 ( 2 ) : 123 - 154.
ANTONELLI, G., FOSSEN, T. 1. et YOERGER, D . R. ( 2008 ) . Underwater robotics. ln
[Siciliano et Khatib, 2008] , pages 987-1008.
ARGALL, B . , CHERNOVA, S . , VELOSO, M. M. et BROWNING, B. ( 2009 ) . A survey of
robot learning from demonstration. Robotics and Autonomous Systems, 57 ( 5 ) :469-
483.
ARKIN, R. ( 1992 ) . Cooperation without communication : Multiagent schema-based
robot navigation. Journal of Robotic Systems, 9 ( 3 ) :351-364.
BARBIER, M., GABARD, J., LLAREUS, J., TESSIER, C . , CARON, J . , FORTRYE, H., GA­
DEAU, L. et PEILLER, G. ( 2006 ) . Implementation and flight testing of an onboard
architecture for mission supervision. In International Unmanned Air Vehicle Systems
{IUA VS).
BARRY, J. L . , KAELBLING, L. P. et LOZANO-PÉREZ, T. ( 201 1 ) . Deth* : Approxi­
mate hierarchical solution of large markov decision processes. In International Joint
Conference on Artificial intelligence {IJCAI), pages 1928-1935.
BARTO, A. G . , B RADTKE, S. J. et SINGH, S. P. ( 1995 ) . Learning to act using real-time
dynamic programming. Artificial Intelligence, 72 ( 1-2 ) :81-138.
BASU, A., B oZGA, M. et SIFAKIS, J. ( 2006 ) . Modeling heterogeneous real-time com­
ponents in BIP. In International Conference on Software Engineering and Format
Methods {SEFM), pages 3-12.
BEAUDRY, E., LÉTOURNEAU, D . , KABANZA, F. et MICHAUD, F. ( 2008 ) . Reactive
planning as a motivational source in a behavior-based architecture. In IEEE/RSJ
International Conference on Intelligent Robots and Systems {!ROS), pages 1848-
1853.
BEETZ, M., JAIN, D., MÔSENLECHNER, L. et TENORTH, M. ( 2010 ) . Towards Per­
forming Everyday Manipulation Activities. Robotics and Autonomous Systems,
58 ( 9 ) : 1085-1095.
BEETZ, M. et MCDERMOTT, D. ( 1997) . Expressing transformations of structured reac­
tive plans. In European Conference on Planning {ECP}, pages 64-76. Springer
Publishers.
BENSALEM, S . , B OZGA, M., NGUYEN, T.-H. et SIFAKIS, J. ( 2009a) . D-Finder : A tool for
compositional deadlock detection and verification. In Computer Aided Verification
{CA V), pages 614-619.
BENSALEM, S., G ALLIEN, M., INGRAND, F., KAHLOUL, 1. et NGUYEN, T.-H. ( 2009b) .
Designing autonomous robots. IEEE Robotics and Automation Magazine, 16 ( 1 ) :66-
77.
BERTSEKAS, D. P. ( 1995 ) . Dynamic Programming and Optimal Control. Athena Scien­
tific, Vol. 1 and 2.
BHATTACHARYA, S . , LIKHACHEV, M. et KUMAR, V. ( 2010 ) . Multi-agent path planning
8. Intelligence artificielle et robotique - 1 243

with multiple tasks and distance constraints. In IEEE International Conference on


Robotics and Automation (!CRA}, pages 953-959.
BOHREN, J. et COUSINS, S. (2010) . The smach high-level executive [ros news] . IEEE
Robotics and Automation Magazine, 17(4) : 18 -20.
BONASSO, R. , FIRBY, R. , GAT, E., KORTENKAMP, D . , MILLER, D. et SLACK, M.
(1997) . Experiences with an Architecture for Intelligent, Reactive Agents. Journal
of Experimental and Theoretical Artificial Intelligence, 9(2/3) :237-256.
BONET, B. et GEFFNER, H. (2006). Learning depth-first search : A unified approach to
heuristic search in deterministic and non-deterministic settings, and its application to
mdps. In International Conference on Automated Planning and Scheduling (!CAPS},
pages 142-151.
BRENNER, M. , HAWES, N., KELLEHER, J. et WYATT, J. (2007) . Mediating between
qualitative and quantitative representations for task-orientated human-robot interac­
tion. In International Joint Conference on Artificial intelligence (IJCAI}, volume 7.
BROOKS, R. (1986) . A robust layered control system for a mobile robot. IEEE Journal
of Robotics and Automation, 2 : 14-23.
BUFFET, O. et SIGAUD, O . , éditeurs (2008) . Processus décisionnels de Markov en
intelligence artificielle. Traité IC 2 , vol. 1 et 2. Hermes - Lavoisier.
BuRGARD, W. , CREMERS, A., Fox, D . , HÂHNEL, D . , LAKEMEYER, G., ScHuLz, D . ,
STEINER, W . et THRUN, S. (1998) . The interactive museum tour-guide robot. In
National Conference on Artificial Intelligence (AAAI}, pages 1 1-18.
CAMBON, S., ALAMI, R. et GRAVOT, F. (2009) . A hybrid approach to intricate motion,
manipulation and task planning. International Journal of Robotics Research, 28(1) :
104-126.
CAO, H. , LACROIX, S., INGRAND, F. et ALAMI, R. (2010) . Complex tasks allocation
for multi robot teams under communication constraints. In 5th National Conference
on Control Architectures of Robots, Douai, France.
CHATILA, R. et LAUMOND, J.-P. (1985) . Position referencing and consistent world
modeling for mobile robots. In IEEE International Conference on Robotics and
Automation {!CRA}, pages 138-145.
CHAUMETTE, F. et HUTCHINSON, S. (2008) . Visual servoing and visual tracking. In
[Siciliano et Khatib, 2008] , pages 563-583.
CHIEN, S., KNIGHT, R. , STECHERT, A., SHERWOOD, R. et RABIDEAU, G. (2000) . Using
iterative repair to improve the responsiveness of planning and scheduling. In AI
Planning and Scheduling (AIPS).
CHOSET, H. , LYNCH, K., HUTCHINSON, S., KANTOR, G., BURGARD, W., KAVRAKI,
L. et THRUN, S. (2005). Principles of Robot Motion : Theory, Algorithms, and
lmplementations. MIT Press.
COATES, A., ABBEEL, P. et NG, A. Y. (2009) . Apprenticeship learning for helicopter
control. Communication ACM, 52(7) :97-105.
CORADESCHI, S. et SAFFIOTTI, A. (2003) . An introduction to the anchoring problem.
Robotics and Autonomous Systems, 43(2-3) :85-96.
CORKE, P. 1., ROBERTS, J. M., CUNNINGHAM, J. et HAINSWORTH, D . (2008) . Mining
1 244 Panorama de l'intelligence artificielle. Volume 3
-

robotics. In [Siciliano et Khatib, 2008] , pages 1127-1 150.


COSTE-MANIERE, E. et TURRO, N. (1997) . The maestro language and its environment :
specification, validation and control of robotic missions. In IEEE/RSJ International
Conference on Intelligent Robots and Systems (!ROS}, volume 2, pages 836 -84 1
vol.2.
DIAS, M., ZLOT, R. , KALRA, N. et STENTZ, A. (2006) . Market-based multirobot
coordination : A survey and analysis. Proceedings of the IEEE, 94(7) : 1 257 -1270.
ERDMANN, M. et LOZANO-PÉREZ, T. (1987) . On multiple moving objects. Algorith­
mica, 2 :477-521.
EROL, K., HENDLER, J. et NAU, D. S. (1994) . Umcp : a sound and complete procedure
for hierarchical task-network planning. In AI Planning and Scheduling (AIPS}, pages
249-254.
ESTRADA, C., NEIRA, J. et TARD6s, J. D. (2005) . Hierarchical slam : Real-time accu­
rate mapping of large environments. IEEE Transactions on Robotics and Automation,
21 (4) :588-596.
FEILER, P. H., LEWIS, B. A. et VESTAL, S. (2006). The SAE architecture analysis &
design language (AADL) a standard for engineering performance critical systems. In
IEEE International Symposium on Computer-Aided Control Systems Design, pages
1206-1 2 1 1 .
FERON, E. e t J OHNSON, E. N. (2008) . Aerial robotics. ln [Siciliano e t Khatib, 2008) ,
pages 1009-1029.
FERRUCCI, D . , B ROWN, E., CHU-CARROLL, J., FAN, J . , GONDEK, D . , KALYANPUR,
A. A., LALLY, A., MURDOCK, J. W., NYBERG, E., PRAGER, J., SCHLAEFER, N.
et WELTY, C. (2010) . Building watson : An overview of the deepqa project. AI
Magazine, Fall :59-79.
FIKES, R. ( 1971 ) . Monitored execution of robot plans produced by strips. In IFIP
Congress.
FIKES, R. et NILSSON, N. (1971 ) . Strips : A new approach to the application of theorem
proving to problem solving. Artificial intelligence, 2(3-4) : 189-208.
FINZI, A., INGRAND, F. et MUSCETTOLA, N. (2004) . Model-based executive control
through reactive planning for autonomous rovers. In IEEE/RSJ International Confe­
rence on Intelligent Robots and Systems (!ROS}, volume 1 , pages 879-884.
FIRBY, R. J. (1987) . An investigation into reactive planning in complex domains. In
National Conference on Artificial Intelligence (AAAI}, pages 202-206. AAAI Press.
FLINT, A., MURRAY, D. et REID, 1. (201 1). Manhattan scene understanding using
monocular, stereo, and 3d features. In Proc. International Conference on Computer
Vision.
FONG, T., KUNZ, c., HIATT, L. et BUGAJSKA, M. (2006). The human-robot inter­
action operating system. In ACM SIGCHI/SIGART Conference on Human-robot
interaction, pages 41-48.
FRANK, J. et J6NSSON, A. (2003) . Constraint-based attribute and interval planning.
Constraints, 8(4) :339-364.
FRATINI, S . , CESTA, A . , DE BENEDICTIS, R. , ÜRLANDINI, A. et RASCONI, R. (2011) .
8. Intelligence artificielle et robotique - 1 245

Apsi-based deliberation in goal oriented autonomous controllers. In 11th Symposium


on Advanced Space Technologies in Robotics and Automation (ASTRA}.
FRESE, U., HAUSMANN, D., LUTH, C . , TAUBIG, H. et WALTER, D. (2009) . The impor­
tance of being formal. Electronic Notes in Theoretical Computer Science, 238( 4) :57-
70.
GHAHRAMANI, Z. (1997) . Learning dynamic bayesian networks. Lecture Notes In
Computer Science, 1387 : 168-197.
GHALLAB, M. et ALAOUI, A. M. (1989) . Managing efficiently temporal relations
through indexed spanning trees. In International Joint Conference on Artificial
intelligence {IJCAI}, pages 1297-1303, San Francisco, CA, USA.
GHALLAB, M. et LARUELLE, H. ( 1994) . Representation and control in ixtet, a temporal
planner. In AI Planning and Scheduling {AIPS}, pages 61-67.
GHALLAB, M., NAU, D. S. et TRAVERSO, P. (2004) . Automated planning - theory and
practice. Elsevier.
GINI, M. L., ÜHNISHI, K. et PAGELLO, E. (2010) . Advances in autonomous robots for
service and entertainment. Robotics and Autonomous Systems, 58(7) :829-832.
GIRALT, G., SOBEK, R. et CHATILA, R. (1979) . A multi-level planning and naviga­
tion system for a mobile robot : a first approach to hilare. In International Joint
Conference on Artificial intelligence (IJCAI}, pages 335-337.
GOODRICH, M. et SCHULTZ, A. (2007) . Human-robot interaction : A survey. Founda­
tions and Trends in Human- Computer Interaction, 1 (3) :203-275.
HAGELE, M., NILSSON, K. et PIRES, J. N. (2008) . Industrial robotics. ln [Siciliano et
Khatib, 2008] , pages 963-986.
HARNAD, S. (1990) . The symbol grounding problem. Physica D, pages 335-346.
HARNAD, S. (2001). Minds, machines and turing : The indistinguishability of indis­
tinguishables. Journal of Logic, Language, and Information (special issue on "Alan
Turing and Artificial Intelligence ".
HENZINGER, T. et SIFAKIS, J. (2006) . The embedded systems design challenge. ln FM :
Formal Methods, Lecture Notes in Computer Science 4085, pages 1-15. Springer.
HOFFMANN, J. (2001). Ff : The fast-forward planning system. AI magazine, 22(3) :57.
HOPCROFT, J. et TARJAN, R. (1973) . Efficient algorithms for graph manipulation.
Communications of the ACM, 16 :372-378.
INGRAND, F., CHATILA, R. , ALAMI, R. et ROBERT, F. (1996) . Prs : a high level super­
vision and control language for autonomous mobile robots. In IEEE International
Conference on Robotics and Automation {!CRA}, volume 1 , pages 43 -49 vol. l .
INGRAND, F., LACROIX, S . , LEMAI-CHENEVIER, S. e t PY, F. (2007) . Decisional auto­
nomy of planetary rovers. Journal of Field Robotics, 24(7) :559-580.
JAAKKOLA, T. , JORDAN, M. I. et SINGH, S. P. (1994) . On the convergence of stochastic
iterative dynamic programming algorithms. Neural Computation, 6(6) : 1 185-1201.
JACOBSON, I., BoocH, G. e t RuMBAUGH, J. (1999) . The unified software development
process. Addison-Wesley Longman Publishing Co. , Inc., Boston, MA, USA.
KAELBLING, L. P. , LITTMAN, M. L. et MOORE, A. W. (1996) . Reinforcement learning :
1 246 Panorama de l'intelligence artificielle. Volume 3
-

A survey. Journal of Artificial Intelligence Research {JAIR), 4.


KAELBLING, L. P. et LOZANO-PEREZ, T. (201 1). Hierarchical task and motion planning
in the now. In IEEE International Conference on Robotics and Automation {!CRA),
pages 1470-1477.
KANOUN, 0 . , LAUMOND, J.-P. et YOSHIDA, E. (2011). Planning foot placements for a
humanoid robot : A problem of inverse kinematics. International Journal of Robotics
Research, 30(4) :476-485.
KAVRAKI, L. E., SVESTKA, P. , LATOMBE, J.-C. et ÜVERMARS, M. H. (1996) . Proba­
bilistic roadmaps for path planning in high-dimensional configuration spaces. IEEE
Transactions on Robotics and Automation, 12(4) :556-580.
KAZEROONI, H. (2008) . Exoskeletons for human performance augmentation. In [Sici­
liano et Khatib, 2008] , pages 773-793.
KONOLIGE, K., MARDER-EPPSTEIN, E. et MARTHI, B. (201 1). Navigation in hybrid
metric-topological maps. In IEEE International Conference on Robotics and Auto­
mation (!CRA).
KUIPERS, B. et BYUN, Y.-T. (1991) . A robot exploration and mapping strategy ba­
sed on a semantic hierarchy of spatial representations. Robotics and Autonomous
Systems, 8(1-2) :47-63.
KUIPERS, B . , MODAYIL, J . , BEESON, P. , MACMAHON, M. et SAVELLI, F. (2004) . Local
metrical and global topological maps in the hybrid spatial semantic hierarchy. In
IEEE International Conference on Robotics and Automation {!CRA), pages 4845-
4851.
LATOMBE, J.-C., éditeur (1991). Robot Motion Planning. Kluwer, Boston, MA.
LAUMOND, J.-P. (1990) . Connectivity of plane triangulation. Information Processing
Letters, 34(2) :87-96.
LA VALLE, S., éditeur (2006) . Planning Algorithms. Cambridge University Press.
LEMAI-CHENEVIER, S. et INGRAND, F. (2004) . lnterleaving Temporal Planning and
Execution in Robotics Domains. In National Conference on Artificial Intelligence
(AAAI).
MARTINEZ-CARRANZA, J. et CALWAY, A. (2010) . Unifying planar and point mapping
in monocular slam. In British Machine Vision Conference {BMVC), pages 1-1 1.
McGANN, C . , BERGER, E., BoREN, J . , CHITTA, S., GERKEY, B., GLASER, S . ,
MARDER-EPPSTEIN, E., MARTHI, B . , MEEUSSEN, W., PRATKANIS, T . et al. (2009) .
Model-based, hierarchical control of a mobile manipulation platform. In 4th Work­
shop on Planning and Plan Execution for Real World Systems at !CAPS.
McGANN, C . , PY, F., RAJAN, K., THOMAS, H. , HENTHORN, R. et McEwEN, R. (2008) .
A deliberative architecture for auv control. In IEEE International Conference on
Robotics and Automation {!CRA), pages 1049-1054.
MEi, C. et RIVES, P. (2007) . Cartographie et localisation simultanée avec un capteur
de vision. In Journées Nationales de la Recherche en Robotique.
MILCH, B. et RUSSELL, S. J. (2007) . First-order probabilistic languages : Into the unk­
nown. In Inductive Logic Progmmming, volume 4455 de Lecture Notes in Computer
Science, pages 10-24. Springer.
8. Intelligence artificielle et robotique - 1247

MINGUEZ, J., LAMIRAUX, F. et LAUMOND, J.-P. (2008) . Motion planning and obstacle
avoidance. In [Siciliano et Khatib, 2008] , pages 827-852.
MOMBAUR, K., TRUONG, A. et LAUMOND, J. (2010) . From human to humanoid loco­
motion : an inverse optimal control approach. Autonomous Robots, 28(3) .
MONTEMERLO, M., THRUN, S . , KOLLER, D. et WEGBREIT, B. (2002). Fastslam : A
factored solution to the simultaneous localization and mapping problem. In National
Conference on Artificial Intelligence (AAAI}, pages 593-598.
MONTEMERLO, M. , THRUN, S . , KOLLER, D. et WEGBREIT, B. (2003) . Fastslam 2.0 :
An improved particle filtering algorithm for simultaneous localization and mapping
that provably converges. In International Joint Conference on Artificial intelligence
(IJCAI}, pages 1151-1156.
MORAVEC, H. P. (1983) . The Stanford Cart and the CMU Rover. Rapport technique,
CMU.
MORISSET, B. et GHALLAB, M. (2008) . Learning how to combine sensory-motor fonc­
tions into a robust behavior. Artificial Intelligence, 172(4-5) :392-412.
MuSCETTOLA, N. (1994) . Hsts : Integrating planning and scheduling. In ZWEBEN, M.
et Fox, M., éditeurs : Intelligent scheduling. Morgan Kaufmann.
NEWCOMBE, R. A. et DAVISON, A. J. (2010) . Live dense reconstruction with a single
moving camera. In Computer Vision and Pattern Recognition {CVPR}, pages 1498-
1505.
NICOLESCU, M. N. et MATARIC, M. J. (2003) . Natural methods for robot task learning :
instructive demonstrations, generalization and practice. In Autonomous Agents and
Multi-Agent Systems (AAMAS}, pages 241-248.
ÜUDEYER, P.-Y. (2010) . On the impact of robotics in behavioral and cognitive sciences :
From insect navigation to human cognitive development. IEEE T. Autonomous
Mental Development, 2(1) :2-16.
ÜUDEYER, P.-Y. (201 1). Developmental robotics. In SEEL, N., éditeur : Encyclopedia
of the Sciences of Learning. Springer.
PETERS, J. et NG, A. Y. , éditeurs (2009) . Autonomous Robots, Special issue on robot
learning, volume 27(1-2) . Springer.
PINEAU, J. et GORDON, G. J. (2005) . POMDP planning for robust robot control. In
International Symposium on Robotics Research {ISRR}, pages 69-82.
PINEAU, J . , GORDON, G. J. et THRUN, S. (2003) . Policy-contingent abstraction for
robust robot control. In Uncertainty in Artificial Intelligence, pages 477-484.
PRASSLER, E. et KOSUGE, K. (2008) . Domestic robotics. In [Siciliano et Khatib, 2008] ,
pages 1253-1281.
PY, F. et INGRAND, F. (2004) . Dependable execution control fo r autonomous robots.
In IEEE/RSJ International Conference on Intelligent Robots and Systems {!ROS},
volume 2, pages 1136-1 141.
PY, F., RAJAN, K. et McGANN, C. (2010) . A systematic agent framework for situated
autonomous systems. In Autonomous Agents and Multi-Agent Systems {AAMAS},
pages 583-590.
ROSEN, C. A. et NILSSON, N. J. (1966) . Application of intelligent automata to recon-
1 248 Panorama de l'intelligence artificielle. Volume 3
-

naissance. Rapport technique, SRI.


RYBSKI, P. E., YOON, K., STOLARZ, J. et VELOSO, M. M. ( 2007) . Interactive robot
task training through dialog and demonstration. In Conference on Human-Robot
Interaction, pages 49-56.
SCHWARTZ, J., SHARIR, M. et HOPCROFT, J., éditeurs ( 1987) . Planning, Geometry and
Complexity of Robot Motion. Ablex Series in Artificial Intelligence. Ablex Publishing .
SICILIANO, B. et KHATIB, O . , éditeurs ( 2008 ) . The Handbook of Robotics. Springer.
SIGAUD, O . et PETERS, J . , éditeurs ( 2010 ) . Prom Motor Learning to Interaction Lear­
ning in Robots, volume 264 de Studies in Computational Intelligence. Springer.
SIMÉON, T . , LAUMOND, J.-P. , CORTÉS, J. et SAHBANI, A. ( 2004 ) . Manipulation plan­
ning with probabilistic roadmaps. International Journal of Robotics Research, 23 ( 7-
8 ) :729-746.
SIMÉON, T. , LAUMOND, J.-P. et NISSOUX, c . ( 2000 ) . Visibility based probabilistic
roadmaps for motion planning. Advanced Robotics Journal, 14 ( 6 ) .
SIMMONS, R. et APFELBAUM, D. ( 1998 ) . A task description language for robot control.
In IEEE/RSJ International Conference on Intelligent Robots and Systems (!ROS),
volume 3, pages 1931 -1937 vol.3.
SIMMONS, R. , PECHEUR, C. et SRINIVASAN, G. ( 2000 ) . Towards automatic verification
of autonomous systems. In IEEE/RSJ International Conference on Intelligent Robots
and Systems (!ROS}, volume 2, pages 1410 -1415 vol.2.
SIMMONS, R. , SINGH, S., REGER, F., HIATT, L., KOTERBA, S., MELCHIOR, N. et SELL­
NER, B. ( 2007) . Human-robot teams for large-scale assembly. In Proceedings of the
NASA Science Technology Conference. Citeseer.
SIMON, D . , EsPIAU, B . , KAPELLOS, K. et PISSARD-GIBOLLET, R. ( 1997) . Orccad :
software engineering for real-time robotics. a technical insight. Robotica, 15 : 1 1 1-
1 15.
SMITH, R. , SELF, M. et CHEESEMAN, P. ( 1986 ) . Estimating uncertain spatial relation­
ships in robotics. In Proc. Uncertainty in Artificial Intelligence, pages 435-461 .
SONENBERG , L . , STONE, P. , TUMER, K. e t YOLUM, P. ( 2012 ) . Ten years o f AAMAS :
introduction to the special issue. AI Magazine, 33 ( 3 ) .
STACHNISS, C. et BURGARD, W. ( 2004 ) . Exploration with active loop-closing for fasts­
lam. In IEEE/RSJ International Conference on Intelligent Robots and Systems
{!ROS).
STENTZ, A. ( 1994 ) . Optimal and efficient path planning for partially-known environ­
ments. In IEEE International Conference on Robotics and Automation {!CRA},
pages 3310 -3317 vol.4.
STULP, F. et BEETZ, M. ( 2008 ) . Combining declarative, procedural and predictive
knowledge to generate and execute robot plans efficiently and robustly. Robotics and
Autonomous Systems {Special Issue on Semantic Knowledge).
SUTTON, R. S. et BARTO, A. G. ( 1998 ) . Reinforcement Learning : An Introduction.
MIT Press.
TATE, A., D RABBLE, B. et KIRBY, R. ( 1994 ) . O-Plan2 : An Architecture for Command,
Planning and Control. Morgan-Kaufmann.
8. Intelligence artificielle et robotique - 1 249

TAYLOR, R. H., MENCIASSI, A., FICHTINGER, G. et DARIO, P. (2008) . Medical robotics


and computer-integrated surgery. In [Siciliano et Khatib, 2008) , pages 1199-1222.
TEICHTEIL-KONIGSBUCH, F. et FABIANI, P. (2005) . Symbolic heuristic policy iteration
algorithms for structured decision-theoretic exploration problems. In Workshop on
Planning Under Uncertainty for Autonomous Systems at !CAPS, pages 66-74.
TEICHTEIL-KONIGSBUCH, F., KUTER, U. et INFANTES, G. (2010) . Incremental plan
aggregation for generating policies in mdps. In Autonomous Agents and Multi-Agent
Systems (AAMAS), pages 1231-1238.
THRUN, S. (2002) . Robotic mapping : A survey. In LAKEMEYER, G. et NEBEL, B.,
éditeurs : Exploring Artificial Intelligence in the New Millenium. Morgan Kaufmann.
THRUN, S. (2006) . Stanley : The robot that won the darpa grand challenge. Journal
of Field Robotics, 23(9) :661-692.
TovEY, C., LAGOUDAKIS, M., JAIN, S. et KOENIG, S. (2005) . The generation of
bidding rules for auction-based robot coordination. In PARKER, L., SCHNEIDER,
F. et SCHULTZ, A. , éditeurs : Multi-Robot Systems. Prom Swarms to Intelligent
Automata Volume III, pages 3-14. Springer Netherlands.
TRIGGS, B., McLAUCHLAN, P. , HARTLEY, R. et FITZGIBBON, A. (2000) . Bundle ad­
justment - a modern synthesis. ln TRIGGS, B . , ZISSERMAN, A. et SZELISKI, R. ,
éditeurs : Vision Algorithms : Theory and Practice, volume 1883 de Lecture Notes
in Computer Science, pages 298-372. Springer-Verlag.
WILKINS, D. (1988) . Practical Planning : Extending the classical AI planning paradigm.
Morgan Kaufmann.
WOLFE, J., MARTHI, B. et RUSSELL, S. (2010) . Combined task and motion planning
for mobile manipulation. In International Conference on Automated Planning and
Scheduling {!CAPS), volume 5, page 2010, Toronto, Canada.
YOSHIDA, K. et WILCOX, B. (2008) . Space robots and systems. In [Siciliano et Khatib,
2008) , pages 1031-1063.
ZLOT, R. et STENTZ, A. (2006) . Market-based multirobot coordination using task
abstraction. In YUTA, S . , ASAMA, H., PRASSLER, E., TSUBOUCHI, T. et THRUN,
S., éditeurs : Field and Service Robotics, volume 24 de Springer Tracts in Advanced
Robotics, pages 167-177. Springer Berlin / Heidelberg.
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 25 1

Chapitre 9

Perspectives philosophiques et
épistémologiques ouvertes par
l'intelligence artificielle

Les travaux en intelligence artificielle (IA) ont conduit tout aussi bien à réviser les
défis du programme initial de l'IA qu'à nous rendre attentifs à des particularités et
limitations de la cognition humaine. Les deux sont liés, comme le montre une relec­
ture attentive du test de Turing, de l'apologue de la chambre chinoise de Searle et des
suggestions de Dreyfus, et dans les deux cas, on a dû passer de l'idéal à l'opératoire.
Pour répondre à ces défis plus pragmatiques l'IA n'hésite pas à articuler entre elles des
opérations de niveaux et des fonctionnalités différentes, plus spécifiques ou plus géné­
riques. Les défis ne sont pas relevés par un système formel opératoire qui posséderait
d'emblée toutes les capacités d'apprentissage, mais - par exemple dans les simulations­
par la dynamique d'une succession de solutions ouvertes à des réajustements comme à
des reprises réflexives.

9.1 Introduction
La construction des premiers ordinateurs, dans la décennie 1940, a soudainement
donné une nouvelle actualité à des questions fondamentales ; celles-ci ont été abordées
de front par les pionniers de l'informatique : « les machines peuvent-elles penser ? »
est la première phrase d'un célèbre article d'Alan Turing (1950] . Sont évoquées vers la
même époque les possibilités de créativité (l'ordinateur peut-il découvrir des théorèmes
mathématiques ?) , de décision (peut-il trouver de meilleures solutions que les humains
aux problèmes de gouvernement ? (cf. chapitre 1.15) , d'apprentissage (peut-il améliorer
ses propres performances, acquérir par lui-même des connaissances sur son environne­
ment ?) , etc. Le terme d'intelligence artificielle (IA) apparaît en 1956 pour regrouper
ces questions (cf. chapitre 1.1). Il est, volontairement, provocateur et provoque en effet
Auteurs : PIERRE LIVET et FRANCK VARENNE.
1 252 Panorama de l'intelligence artificielle. Volume 3
-

d'ardents débats notamment sur le monopole du biologique, et plus spécialement de


l'humain, sur les facultés concernées.
Ce débat couve sous la cendre ; il est réactivé de temps à autre, mais les principaux
arguments ayant été échangés depuis longtemps, et les progrès de l'IA n'ayant pas
jusqu'ici décisivement réfuté les tenants de l'impossibilité de toute intelligence non
biologique, il n'est plus guère d'actualité. Cette mise en veilleuse ne doit pas empêcher
de mettre en évidence le fait que d'autres questions philosophiques, moins passionnelles,
ont été soulevées par l'IA. S'il est hasardeux de parler de progrès sur ces questions,
l'IA aide à les formuler différemment, ce qui est souvent une façon d'avancer vers une
résolution. Ces questions sont nombreuses, elles dépendent les unes des autres, c'est
pourquoi les exposer une par une est très délicat. Commençons cependant par prendre
une vue une peu décalée sur les débats plus anciens.

9.2 Trois débats classiques : le test de Turing, la


chambre chinoise de Searle, les arguments phé­
noménologiques de Dreyfus
9.2.1 Le test de Turing
Turing (1950] présente son test d'une manière qui peut sembler contournée, mais
qui est très significative. Un humain H1 doit dialoguer avec deux entités, dont l'une est
un humain H2 (dans le jeu initial, c'était une femme) et l'autre est une machine qui
tente d'imiter l'humain. Si notre humain H1 n'arrive pas à discerner entre la machine
et l'autre humain, l'IA sera parvenue à ses fins. Pourquoi ne pas directement comparer
l'humain H1 qui dialogue et la machine ? Parce que ce que l'on veut tester, ce ne sont
pas les propriétés intrinsèques de la machine et de l'humain H1 (il est évident qu'elles
sont différentes) , mais seulement la manière dont la machine, dans son comportement
langagier observable, est suffisamment similaire au comportement langagier observable
d'un humain H2 , du moins selon le degré de précision que l'humain H1 ne peut pas
dépasser. Il semble que pour des conversations ordinaires sur des sujets d'un domaine
précis - sans recourir à des métaphores et associations trop libres - les programmes
actuels d'IA soient capables de passer le test, et ceci en partie en raison des limitations
des capacités de discrimination de l'observateur humain dans une interaction ordinaire.
Le dispositif de Turing permet inversement d'éviter que, dans la version plus simple
du test, où une machine dialoguerait avec un humain, l'humain H1 croie avoir affaire
à un humain parce qu'il sur-interprète les phrases du programme. Il en a été ainsi
avec le programme ELIZA (Weizenbaum, 1966] , qui tenait une conversation de style
psychanalytique en posant des questions tirées de phrases précédentes de son interlo­
cuteur humain, lequel fournissait donc le contenu de la conversation. Si H1 avait eu à
comparer les propos d'ELIZA avec ceux d'un vrai psychanalyste, on peut espérer qu'il
y aurait tout de même eu quelques différences.
On peut faire l'hypothèse qu'il y aura toujours des associations créatrices de nou­
velles pertinences qu'un humain pourra inventer, faire comprendre par ses semblables,
et qu'une machine même excellente ne pourra pas produire. Mais on ne peut démon-
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 253

trer cette hypothèse : par définition, nous, humains, ne connaissons pas les limites de
la créativité humaine, si bien que nous sommes dans l'incapacité de démontrer qu'au­
cune machine possible ne peut les atteindre. En revanche, si l'on considère les machines
que l'homme peut construire, on peut à la fois faire l'hypothèse qu'il pourra toujours
construire des machines qui pallieront les manques des précédentes, et envisager tou­
jours hypothétiquement d'en conclure par récurrence que sa créativité sera supérieure
- ou simplement non comparable, les critères pouvant varier - à celle de la meilleure
machine qu'il vient de construire. Le test de Turing a l'avantage de ne pas exiger de
telles démonstrations impossibles, mais son résultat est forcément vague, puisqu'il est
lié aux approximations de notre cognition humaine.

9.2.2 La chambre chinoise de Searle


Selon Searle [1980] , son apologue de la chambre chinoise démontre que le test de
Turing sous sa version forte et simple (similarité des propriétés intrinsèques d'une
machine et d'un humain) est un échec pour l'IA. Mais nous avons vu que cette version
forte ne correspond pas au test de Turing. Est ce que l'histoire de la chambre chinoise
montre que l'IA ne peut pas passer le « vrai » test de Turing (VTT) ? Searle est dans
une chambre, on lui passe par un trou des combinaisons d'idéogrammes chinois, il ne
connaît pas le chinois mais dispose d'un manuel - une version lisible d'un programme -
qui lui donne, pour toute combinaison d'idéogrammes, une autre combinaison ; il écrit
cette combinaison et la renvoie, et il se trouve que pour les chinois, c'est significatif par
rapport aux messages qu'ils avaient fait passer. Mais Searle ne sait toujours pas ce que
veulent dire les messages et ce qu'il a écrit.
Revenons sur l'interprétation que Searle donne de son test. Selon lui, la différence
entre un programme et un humain, c'est que le programme fonctionne seulement de
manière syntaxique et que l'humain recourt à une sémantique. Appliquons alors le VTT.
Les capacités de discrimination d'un humain lui permettent-elles de faire la différence
entre deux comportements, l'un produit seulement par du syntaxique, et l'autre par du
syntaxique plus du sémantique ? Dans l'histoire de la chambre chinoise, comme Searle
ne sait pas le chinois, il suppose que les signes sont pour lui seulement syntaxiques, et
qu'ils ne sont sémantiques que pour les chinois en dehors de la chambre. En fait, même
pour lui, ils ont une sémantique, celle des opérations de transcriptions que produit
l'habitant de la chambre, opérations qui ne sont pas elles-mêmes de purs symboles. Mais
cela ne correspond qu'à un type d'activité très limité par rapport à celles qu'il a dans
le monde extérieur. L'humain est donc capable de distinguer entre deux sémantiques,
celle limitée aux opérations d'écriture de signes en suivant le manuel, et celle qui lui
parle d'un monde moins restreint. Searle semble penser, par ailleurs, que cette manière
limitée de fonctionner correspond aux propriétés intrinsèques d'une machine produit
de l'IA. Mais c'est dévier vers le Test fort, qui exigerait de comparer à ces propriétés
intrinsèques celles de Searle, prises de manière interne. Et Searle n'aurait alors - selon
lui - que des connexions entre neurones à présenter. Pour faire la comparaison selon
le VTT il faut au contraire comparer non pas des propriétés intrinsèques mais des
comportements qui se déroulent dans des conditions similaires - on l'a vu, il s'agit de
dialogues. Les dialogues impliquent des interactions, et les interactions ne se réduisent
pas ici à la syntaxe des symboles. Si nous mettons le programme dans une situation qui
1254 - Panorama de l'intelligence artificielle. Volume 3

serait un équivalent symétrique de la chambre chinoise, ses entrées syntaxiques vont


l'amener à effectuer des opérations, et la relation entre les spécifications syntaxiques
et la chronique de ces opérations sera la sémantique du programme. Elle sera tout à
fait similaire aux opérations de Searle dans la chambre chinoise. Paradoxalement, cette
chambre chinoise symétrisée nous assure un succès parfait dans le VTT.
Pourquoi la conclusion de Searle est-elle opposée ? Parce qu'il surcharge la notion
de sémantique, en exigeant qu'elle implique tous les rapports au monde qu'un humain
peut avoir. Si on dispose du côté chinois de la totalité disponible des rapports au monde
et si Searle dans sa chambre doit se limiter comme rapport au monde aux opérations de
transcription, Searle est en droit de se plaindre, et d'exiger qu'on le replonge dans un
monde moins limité. Si l'on s'en tient aux conditions du VTT, la machine de l'IA est
elle aussi plongée dans ce monde d'interactions, puisque d'une part elle imite l'humain
H2 et que d'autre part elle dialogue avec l'humain H1 . Ses opérations syntaxiques sont
plongées dans ces interactions qui lui fournissent sa sémantique. Si Searle n'avait pas
bénéficié, avant d'être enfermé dans la chambre, d'interactions avec le monde extérieur,
il serait satisfait de la sémantique appauvrie de la chambre chinoise. On pourrait alors
soutenir que la sémantique de la machine, réduite à ses opérations internes, résulte
d'un appauvrissement similaire ( pratiqué par les humains ! ) , ce qui lui permettrait de
passer le VTT ! Une autre question est de savoir si, à supposer que nous replongions
Searle et la machine dans le monde externe, les deux sémantiques, celle de l'humain
et celles de la machine, pourraient donner lieu à des interactions avec l'environnement
entre lesquelles on aurait du mal à détecter des différences importantes.
Comme la sémantique humaine comporte des relations avec le monde extérieur, elle
n'est sûrement pas réductible à des opérations syntaxiques internes sur des symboles
sans relation avec ce monde. Le problème pour l'IA est alors de savoir si une machine
qui est en interaction avec le monde des humains peut par là même disposer d'une
sémantique admissible par les humains. On est alors renvoyé au problème précédent :
nous, les humains, ne connaissons pas les limites de notre sémantique. Les machines
que nous construirons pourront présenter des limites parce que la syntaxe dont nous
les aurons dotées ne permettra pas forcément avec les humains des interactions qui
préserveront la sémantique humaine dans toutes les conditions observées. Aurons-nous
les capacités syntaxiques de remédier à ces défauts sémantiques de nos machines ? On
pourrait interpréter le théorème de Godel comme montrant que ce n'est pas toujours
possible. Mais il n'est valable que dans le domaine logique où la discrimination est
maximale. On ne peut pas dire d'avance ce qu'il en est dans les domaines usuels, où
elle est plus limitée, et où ses limites sont vagues.

9.2.3 L'IA et l'approche phénoménologique


Hubert et Stuart Dreyfus (1988] ont aussi pensé montrer que l'IA qui procédait par
computation de symboles à partir de règles ne pouvait pas approcher l'intelligence hu­
maine. Ils partaient d'une description de ce qu'est pour un humain qui parle en première
personne l'expérience de changer de niveau de compétence, passant du statut de novice
à celui de débutant avancé, puis à celui de bon amateur, puis de bon professionnel et
enfin d'expert. Le sujet novice tente d'appliquer des règles, puis il progresse de stade en
stade en accumulant les expériences dans des contextes différents pour continuer par
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1255

savoir sélectionner les éléments pertinents dans chaque contexte. Finalement il n'a plus
à chercher la bonne décision, ce qu'il faut faire lui apparaît avec évidence - mais il n'est
pas capable alors de vraiment expliquer comment il s'y prend. Pour en arriver là, il ne
faut pas suivre une programmation externe, il faut être celui dans lequel s'incorpore
peu à peu, à la suite d'une multitude d'expériences, une sensibilité à des indices qui
ne prennent sens qu'en situation. Cette incorporation a fait croire que Hubert Dreyfus
pensait que, sans corps, on ne pouvait approcher l'intelligence humaine. Sa thèse était
plutôt que sans une histoire d'expériences progressivement intégrées dans un système
capable d'évoluer de manière autonome en interaction avec son environnement, aucun
dispositif ne pouvait passer le test de Turing, réduit à sa version en termes de duel.
A vrai dire, on ne voit pas comment on pourrait reconnaître qu'une machine suppo­
sée intelligente aurait bien des expériences similaires à celles que nous avons en première
personne. La perspective phénoménologique rend donc d'emblée le test « duel » im­
possible. Qu'en serait il du VTT ? Il faut mettre à la place de H1 des humains qui
disent avoir atteint différents stades (des novices, bons amateurs, experts, etc.) et faire
de même pour la place de H2 . Pour passer le test la machine devrait présenter par
exemple avec un humain novice les mêmes différences que présente avec le novice un
humain bon amateur, et ainsi de suite, en variant les stades d'un côté et de l'autre.
Il semble que les machines de l'IA actuelles passent paradoxalement le VTT quand
elles se comportent en novices, si H2 est un novice et que H1 est aux stades de bon
professionnel et d'expert. Elles vont alors révéler à ces acteurs compétents les limites
de leurs règles et ces limites sont similaires à celles du novice. Il se peut inversement
qu'un H1 novice comprenne aussi peu de choses à ces machines qu'à un H2 expert.
Elles passent aussi - chacune dans leur domaine - le VTT quand H2 et H1 sont des
novices, voire quand H2 et H1 sont des débutants avancés. Elles ne le passent pas (sauf
aux échecs et dans des jeux formels) quand H2 et H1 sont des experts, voire de bons
professionnels. Quand H1 est un bon amateur, il peut être bluffé par une machine qui
tient compte de statistiques très importantes et de nombreuses heuristiques, et qu'il
peut prendre pour un bon amateur. La question est ouverte de savoir s'il peut prendre
une machine qui dispose de très nombreuses heuristiques (cf. chapitre 11. 1) et possi­
bilités d'évaluations pour un expert, et ceci parce qu'il ne s'attend pas à comprendre
l'expert H2 .
Les limitations de l'IA - si l'on prend pour pierre de touche le VTT - tiendraient
alors à deux facteurs :
1. Nous ne connaissons pas les processus par lesquels un humain qui devient un
expert intègre les nombreuses expériences qu'il a pu faire tout en en retirant
des capacités d'évaluation ou même de choix d'une méthode de traitement des
problèmes, qui soient pertinentes à chaque fois pour des situations variées.
2. Si nous connaissions ces processus, il serait probablement difficile de les accélérer ;
de surcroît nous ne fabriquons pas des machines pour qu'elles soient aussi lentes
à éduquer que les humains et aussi peu fiables (des auteurs ont noté que les
jugements des experts sont fort dépendants des limites de leur contexte culturel
d'éducation) .
Les limitations de l'IA tiendraient donc à nos propres limitations cognitives et au
fait que nous ne créons des machines qu'en complément de ces capacités. Mais ces
1256 Panorama de l'intelligence artificielle. Volume 3
-

conclusions ne nous avancent guère pour savoir comment dépasser ces limitations, ni,
inversement, pour savoir si elles sont indépassables.
Il est plus réaliste d'une part de comparer les résultats de l'IA avec les défis qu'elle
s'était elle-même adressés ; d'autre part de repérer comment les évolutions de l'IA ont
amené à des déplacements conceptuels, et à formuler autrement ses programmes de
recherche.

9.3 Rappel des défis au programme de l'IA


L'IA dans sa version initiale s'était proposé un programme ambitieux, avec un
certain nombre de défis. On peut qualifier cette IA de computo-représentationnelle ou
internaliste. On y supposait que tous les problèmes devaient y être traités de manière
interne à un système de représentation géré de manière computationnelle, et homogène
dans ses principes, qui ne varient pas de manière dépendante de l'environnement et de
la situation. Ces défis étaient les suivants {si on les redéfinit à la lumière de l'évolution
de l'IA) :
1 . traiter des problèmes complexes et sans procédure connue de démonstration, de
manière approximativement satisfaisante - en sens inverse, on souhaitait que les
opérations de traitement en question soient validables logiquement. C'était un
défi computationnel {cf. chapitre II.3) . Il est partiellement au moins relevé.
2. rendre un système computationnel capable d'apprentissage de telle manière que
son programme puisse opérer des généralisations des instructions qu'on lui a don­
nées, donc des extensions à d'autres domaines que les exemples d'apprentissage
{cf. chapitres I.9, II.3, II.8 et II.9) . Ce défi d'un apprentissage non dirigé est par­
tiellement relevé, les limites tenant à ce que les capacités de généralisation ne
doivent pas assimiler sans précaution des contextes différents.
3. parvenir à simuler une créativité dans le domaine formel (démonstration de nou­
veaux théorèmes, trouver de nouvelles solutions) . Ce problème se ramène en fait
en partie à une combinaison du premier défi et du deuxième. La difficulté tient
à ce que les combinaisons qui produisent des nouveautés doivent ensuite être
sélectionnées selon leur pertinence.
4. rendre compte des raisonnements usuels humains. Cela pose d'autres problèmes
que de simplement construire des systèmes d'inférence, parce que la pertinence
des raisonnements change en fonction du contexte, et que la définition du contexte
n'est pas réductible à des représentations prédéterminées - elle. peut elle-même
être modifiée par les extensions des inférences {cf. chapitres I.8, I. 10 et II.8) .
5. comprendre le langage humain et interagir de manière appropriée. Les problèmes
ne sont pas que linguistiques, ils sont pragmatiques et contextuels (cf. chapitre
III.5) .
6. avoir des actions pertinentes. Ce défi a d'abord été posé dans les termes du
problème du cadre (quand une action est lancée, ne tenir compte que des change­
ments pertinents pour la tâche) , du problème de la qualification (quand on doit
déterminer les qualités de la situation dans laquelle on va agir, ne retenir que les
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 257

qualifications pertinentes pour la tâche) , du problème de la ramification (quand


on envisage l'arbre des possibles, ne pas explorer ceux qui ne sont pas pertinents
pour l'action (cf. chapitres I.12 et Il.9) ) . Là aussi on est renvoyé à des problèmes
autres que simplement syntaxico-sémantiques (pertinence, renvoi à des référents
extérieurs au système de représentation) .
Ces problèmes se compliquent encore lorsque l'on doit implémenter ces actions dans
des robots : aux difficultés de planification s'ajoutent les contraintes physiques (cf.
chapitres III. 7 et III.8) .
Dans le programme computationnaliste des sciences cognitives inspiré de l'IA, on
a pu rencontrer un ensemble de défis plus ambitieux encore mais moins spécifiés, ce
qu'on peut appeler les défis philosophiques : rendre compte de l'intentionnalité, des
qualia et de la conscience. Mais là encore on est renvoyé à des problèmes de pertinence
et à des interactions avec un contexte et un environnement.
Il ne semble donc pas possible de maintenir la perspective « internaliste » du
computationalisme. Des déplacements de problématique ont été nécessaires.

9.4 Comment l'évolution de l'IA a déplacé les pers­


pectives épistémologiques sur l'intelligence
L'image qu'on se faisait au départ du comportement intelligent comportait, à grands
traits, les étapes suivantes : percevoir une situation, en filtrer les caractéristiques essen­
tielles, retrouver en mémoire des connaissances aptes à répondre à ces caractéristiques
et les combiner judicieusement jusqu'à trouver une combinaison répondant à certaines
spécifications fixées au départ (cf. chapitres III.7 et III.8) . Le développement ultérieur
de l'IA a montré que cette image omettait des éléments essentiels : ainsi, la percep­
tion ne peut pas se limiter à un recueil neutre d'une masse d'informations provenant
du monde extérieur à partir duquel un processus déductif se met en route ; elle doit
être conceptualisée comme une constante interaction avec l'environnement, interaction
orientée vers un but. Ce but peut se modifier aussi bien sous l'influence de l'évolution
du monde extérieur qu'en considération des premiers résultats acquis. De même, com­
biner les connaissances qui doivent être mises en œuvre ne va pas de soi, car d'une part
elles ne sont pas toutes de même nature, et d'autre part elles doivent pouvoir receler
localement des contradictions sans que cela doive pour autant paralyser le système (cf.
chapitre I.10) . Enfin, même dans le cas d'un seul organisme et a fortiori quand il s'agit
de comportements collectifs, il faut pouvoir utiliser des informations qu'on ne maîtrise
pas totalement, ou qui portent sur les actions ou des traitements encore en cours. On a
donc besoin de savoir intégrer des résultats partiels, incertains et imprécis (cf. chapitres
I.2, I.3 et I.8) et cette composante essentielle de l'intelligence n'était pas centrale pour
les pionniers du domaine.
De nouvelles questions naissent alors. Cette hétérogénéité des ingrédients nécessaires
au comportement intelligent est-elle irréductible ? Est-il impossible de concevoir un
langage capable d'exprimer tous ces ingrédients des connaissances intelligentes ? Quelle
relation peut exister entre ce langage et les langues naturelles ? Est-ce que les modes de
combinaison de certains groupes d'ingrédients exigent pour chaque groupe une logique
1258 Panorama de l'intelligence artificielle. Volume 3
-

spécifique, ou existe-t-il une logique universelle qui préside à toutes ces combinaisons ?
Comment traiter les informations vagues ?
Sur la question de l'expression des connaissances, l'IA a semble-t-il apporté une
contribution passée relativement inaperçue malgré ses implications philosophiques (cf.
chapitres 1.19 et 1.20) . L'intelligence (humaine) ne consiste pas à tout exprimer pour
pouvoir tout calculer. Elle a une dimension pragmatique, puisqu'il faut aussi décider
à temps. Si un feu se déclare, il faut décider immédiatement si on a les moyens de
l'éteindre, ou s'il vaut mieux évacuer les lieux. Elle a décrit de façon fine le compromis
expressivité - efficacité des systèmes de représentation : si le langage de description
est « trop » expressif, le système de décision sera « trop » lent. L'IA a eu comme
premier effet de mettre en évidence tous ces compromis faits par l'intelligence humaine.
Ce problème est lié aux différentes variantes du problème du « cadre » : comment
déterminer ce qu'on se permettra de négliger ? La finesse de la description dépend donc
des différents rythmes imposés par les tâches, elle doit être à grain variable, chaque
niveau de granularité (cf. chapitre 1.3) - donc de langage de description - correspondant
à une rapidité d'obtention des inférences, donc à une capacité de décision. Quand le
système change de buts, de nouveaux éléments doivent être exprimés plus finement
et certains détails précédents peuvent être négligés. On doit aussi, quand on construit
des ontologies, se donner les moyens de pouvoir raccorder chaque ontologie régionale
à d'autres ontologies qui exigeraient des structurations quelque peu différentes (cf.
chapitre 1.5) .
Ces observations appellent à mettre en avant la dimension méta-cognitive [Proust,
2013] du comportement intelligent, dimension qui ne se réduit pas à la « réflexion » mais
qui consiste à savoir combiner différentes informations sur les capacités des traitements
en cours et l'accessibilité en mémoire. En effet, en vue d'obtenir une décision judicieuse,
il important de savoir combien de temps prendrait un raisonnement plus approfondi,
ou encore d'avoir une idée de la proportion des connaissances qu'on a mobilisées par
rapport à celles dont on disposerait avec plus de temps ou d'effort de mémoire. De plus il
faut savoir adapter sans cesse les computations en cours en fonction des informations qui
continuent à venir de l'environnement, ou avec celles dont les inférences déjà effectuées
révèlent la nécessité, ce qui exige d'avoir des connaissances sur la dynamique même
de la computation. Les développements de l'IA ont montré le rôle crucial de la méta­
cognition dans le domaine de la résolution de problèmes. Il s'est avéré indispensable
de disposer d'une mesure de la proximité entre l'état d'un raisonnement et la solution
cherchée : si cette mesure décroît ou si elle stagne durablement, il faut interrompre
au moins momentanément le raisonnement en cours et effectuer un raisonnement de
nature différente sur la stratégie employée.
Avec la prise en compte de la granularité dans le comportement intelligent, l'acti­
vité de raisonnement ne se réduit plus à sa version logique classique. Le raisonnement
logique est contraint par la préservation de la vérité : appliqué à des prémisses vraies,
il doit fournir des conclusions vraies. Or si les prémisses sont des descriptions à gra­
nularité variable, leur caractère de vérité n'est pas absolu et ce qui importe n'est plus
d'obtenir des conclusions vraies, mais des conclusions pertinentes au même degré de
granularité. Ceci conduit ou bien à concevoir d'autres logiques, et l'IA n'a pas été avare
en production de logiques non classiques, ou bien à s'intéresser à la gestion de l'impré-
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 259

cis et de l'incertain en reléguant au second plan les préoccupations logiques. Le rôle


normatif de la logique dans l'épistémologie des sciences pourrait s'en trouver contesté,
si la logique ne servait pas d'un autre côté à certifier que les programmes font bien ce
qu'on souhaite qu'ils fassent (cf. chapitres II.3, 11.4 et 111. 1).
Les liens entre rationalité et validité logique se trouvent distendus quand on doit
intégrer le facteur du temps de calcul : le théorème de Cook [1971] nous rappelle la
NP-complétude de la satisfiabilité en logique des propositions. Au lieu de conserver la
vérité logique, on peut vouloir maintenir une combinaison entre cohérence et fonction­
nalité : on ne souciera pas de conserver la cohérence pour des informations dont les
conséquences ne modifient pas l'efficience de la tâche en cours, mais si la tâche l'exige,
les incohérences qui la perturberaient devront être corrigées. La validité propre à telle
tâche et telle mise en cohérence peut rester relative à cette tâche. Généraliser ce genre
de validité dans un contexte plus large peut amener sa redéfinition, et ainsi de suite.
Différents niveaux de validité sont relatifs à des contextes de contextes qui peuvent
être organisés entre eux selon une architecture spécifique. Si l'on veut généraliser, on
va devoir prendre plus de risques, et passer de la vérité, via la validité, à la simple
normalité.
Cette prise en compte de la dépendance par rapport au contexte d'une tâche, comme
de l'incertitude des données dont on dispose, et la volonté de disposer de critères de
ce qui est souhaitable pour cette tâche conduisent à s'intéresser à l'usage d'inférences
« normales ». Si on change de contexte, elles peuvent être défaites (cf. chapitre I. 1 1 ) .
C e sont alors les notions de norme (cf. chapitre I. 7 ) et de normalité ( (cf. chapitres I . 2 et
I.3) qui, davantage que celle de vérité, guident le comportement intelligent (cf. chapitre
llI. 10) . Or normes et normalités sont des notions relatives à des critères qui permettent
de hiérarchiser les états attendus, ce que fait d'ordinaire une subjectivité ou une culture,
alors qu'on avait tendance à penser que l'intelligence est une faculté moins dépendante
des facteurs subjectifs ou culturels. Cependant les inférences que nous jugeons fondées
consistent bien à anticiper sur un déroulement « normal » : pour décider d'une action,
on compare ce qui s'ensuivra normalement si on l'accomplit avec ce qui se produira
normalement si on ne l'accomplit pas. Nous distinguons d'ordinaire le normal attendu
(auquel on peut s'attendre dans la plupart des cas) et le normal normatif (lié à ce
que nous souhaitons préférentiellement) . Inversement, parmi les informations que nous
procure notre environnement, nous avons tendance à être d'abord sensibles à ce qui nous
semble anormal par rapport à ce que nous souhaitons, puis à rechercher à expliquer
cette déception de nos attentes par une anomalie de l'environnement. Et lorsqu'une
anomalie est perçue, nous tentons d'inférer, par abduction, quel déroulement plausible
a pu la produire. L'IA a contribué, en particulier par le développement des logiques non
monotones, à donner un contenu opérationnel à la notion de norme, et corrélativement,
d'exception, en jouant souvent sur le double sens du « normal ». Il est d'ailleurs possible
de voir dans le normal normatif une sorte de spécialisation du normal - le normal qui
n'est pas encore le plus fréquent mais qui va le devenir si tout se passe correctement.
On est assez proche de la conception que Hume [1978] nous a donné des causes : des
relations régulières (normales) entre antécédent et conséquent. Si l'IA se garde bien de
se prononcer sur la question métaphysique de l'existence de causes, elle a été amenée à
donner un contenu opérationnel à la causalité : pour ne prendre que deux exemples, un
1 260 Panorama de l'intelligence artificielle. Volume 3
-

système intelligent doit savoir diagnostiquer les pannes, et donc se demander ce qui a pu
les causer ; un robot doit planifier ses actions, donc savoir quels effets ces actions vont
causer. Dans ces exemples aussi une liaison entre cause et norme semble se faire jour
(cf. chapitre III. 10) . En effet la perspective de l'IA amène à privilégier la conception
dite « interventionniste » (l'un des premiers à l'avoir proposée sous le nom de théorie
de la manipulation est Von Wright [1971] , et une de ses expressions formelles, ce sont
les réseaux bayésiens (cf. chapitre II.8)) : A est considéré comme cause de B dans le
contexte C, si A est une intervention exogène, et si dans le contexte C, B est perçu
comme une conséquence normale de cette intervention, alors qu'en l'absence de A, B
ne serait pas considéré comme une conséquence normale. Cette conception paraissait
initialement trop anthropomorphique aux philosophes, mais son utilisation par IA a
relativisé cette objection.
Un autre sujet de réflexion philosophique, celui du statut du langage et des signifi­
cations, reçoit en IA un éclairage nouveau (cf. chapitre III.5) . La trichotomie syntaxe -
sémantique - pragmatique, qui a été fidèlement suivie au cours des premières décennies
de l'IA, n'a pas permis d'aller beaucoup plus loin que le traitement de phrases extraites
de leur contexte, ou au mieux de contextes limités. Les tentatives de la linguistique
formelle pour donner un contenu opérationnel à l'analyse syntaxique des langues natu­
relles butent sur un problème analogue à celui de la granularité : au-delà d'un certain
niveau de finesse, ce qui fonde l'acceptabilité d'une phrase devient difficilement sépa­
rable d'un contexte, et repose la plupart du temps sur des considérations sémantiques
ou pragmatiques. Les travaux plus récents des informaticiens sur la langue, travaux qui
s'appuient sur de grands corpus, n'ont qu'un rapport lointain avec une conception sim­
plement syntaxique, ou avec une sémantique ancrée sur les modèles qui rendent vraie
une formule. Ils mettent plutôt en évidence les dépendances contextuelles, voire la sen­
sibilité des significations à l'évolution du réseau des termes utilisés et de leurs usages.
Ils ont tendance à passer directement de régularités dans les occurrences de symboles
à des usages qui varient en fonction du réseau des usagers. L'outillage développé par
l'IA pour traiter de la normalité, et dans une certaine mesure de l'analogie, a déjà
influencé de nombreux travaux sur la langue. Ce ne sont pas seulement les concep­
tions des rapports entre syntaxe et sémantique qui peuvent en être modifiées, mais
aussi les catégorisations pragmatiques d'abord développées dans l'analyse du langage
dit « ordinaire ».
On peut d'ailleurs réfléchir selon les perspectives de l'IA sur les conditions pragma­
tiques de l'IA elle-même. Elle met en jeu des interactions entre des programmes et des
utilisateurs (humains ou non) de ces programmes (cf. chapitre I. 17) . Elle a donc besoin
d'analyser les conditions de ces interactions, et elle peut tenter de les formaliser ou
de les encadrer. Cela exige de penser la dynamique de ces interactions. On peut citer
la manière dont Sallantin [1999] propose de concevoir une preuve non plus seulement
comme une déduction formelle, mais comme donnant à celui qui la considère de nou­
velles capacités de faire des inférences, et de surmonter des obstacles cognitifs, ce qui
implique de s'intéresser à la dynamique de la preuve et à ses capacités d'interaction
voire de transaction avec son public potentiel. Dans un tout autre esprit, on peut rester
au cœur de la logique, celle qui peut servir de référence de validité à des programmes, et
cependant concevoir les preuves comme interactions - cette fois avec des contre-preuves
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1261

possibles (cf. la géométrie de l'interaction de Jean-Yves Girard (2001] ) .


Ces décalages épistémologiques ont conduit l'IA à se poser de nouveaux problèmes
et se fixer de nouveaux défis : trouver des formats de représentations et des modes de
manipulation de ces formats qui permettent de changer de mode opératoire selon les
contextes et les problèmes à traiter, en disposant d'une gamme de normalités suffisam­
ment riche ; être aussi capable de mettre en place si nécessaire de nouvelles normali­
tés pour de nouveaux contextes. On souhaite alors pouvoir reprendre des dispositions
opératoires liées aux normalités précédentes, mais en les révisant et les réajustant.
Les dispositions choisies doivent donc être partiellement auto-révisables ou ajustables.
Nommons cela le problème de l'adaptabilité dynamique d'une capacité, ou plus briè­
vement, d'une capacité dynamique : disposer d'opérations qui peuvent en fonction de
changements apportés à d'autres éléments jusque-là non pris en compte modifier leurs
fonctionnalités.
Ce problème d'une capacité dynamique a de multiples facettes : comment concevoir
des modalités d'apprentissage qui se réforment elles-mêmes quand de nouve�ux types
de problèmes se posent (cf. chapitres 1.8 et 1.9) ; comment non seulement mettre à
jour des croyances en fonction de nouvelles informations, mais aussi changer de règles
d'inférences locales entre croyances, donc réviser les liens entre croyances, ou encore
fusionner des croyances avec d'autres croyances organisées différemment (cf. chapitre
1.11) ; comment arriver à modifier la planification d'une action quand en cours d'action
l'environnement se modifie (cf. chapitres 1.12 et 11.9) ; comment modifier de manière dy­
namique un ordonnancement (cf. chapitre 11.6) ; et même comment prendre en compte
les émotions, qui sont des réactions à des ruptures d'anticipation (cf. chapitre 1. 16) .
Résoudre le problème de la capacité dynamique permettrait de résoudre aussi les
problèmes classiques que nous avons liés à l'action. Le problème du cadre, le problème
de la qualification, le problème des ramifications seraient résolus si on avait des moyens
de re-catégoriser les déviations qui apparaissent par rapport aux anticipations initiales
des pistes pertinentes pour l'action. Ces déviations constituent les éléments dont on
avait cru pouvoir ne pas tenir compte (pour ne pas avoir à tout calculer) , mais qui se
sont révélés pertinents, et qu'il faut savoir réintégrer - faute de pouvoir en tenir compte
d'avance. Ce sont ces éléments qui font difficulté dans les trois formes du problème.
On aura constaté que les défis philosophiques (par lesquels nous avons terminé notre
liste initiale) ne soulèvent plus un grand intérêt chez les praticiens de l'IA. On pourrait
penser que c'est parce que l'IA a revu son programme à la baisse. Mais la raison peut en
être plus subtile, et tenir davantage à une révision des rapports entre ce qu'on pourrait
appeler l'horizon propre à ces défis philosophiques et les nouveaux horizons de l'IA,
redéfinis en fonction des nouveaux défis que nous venons d'indiquer.

9.5 La juste place des défis philosophiques


Les problèmes philosophiques de l'IA semblaient être parmi les défis les plus difficiles
à relever. C'était peut-être une illusion. Elle pourrait avoir tenu à ce que les exigences
philosophiques qui concernent l'intentionnalité, les qualia, la conscience, sont quelque
peu idéalisées et posées de manière spéculative, et non pas de manière opératoire. Les
philosophes indiquent des propriétés à satisfaire en les définissant par leur limite su-
1 262 Panorama de l'intelligence artificielle. Volume 3
-

périeure ou en les sélectionnant pour leur normativité, et cela en fait ce qu'on peut
appeler des propriétés-horizons. Ils n'indiquent pas comment trouver des processus
opératoires qui les satisfassent. Tentons alors de raisonner dans l'esprit du VTT. Il
nous faudrait alors comparer aux propriétés-horizons des philosophes des propriétés­
horizon correspondantes dans l'IA : les propriétés que les réalisations actuelles de l'IA
seraient censées pouvoir satisfaire si nous leur donnions un développement idéalisé. Ce
serait une sorte d'horizon de l'opératoire. Ainsi la machine de Turing universelle peut
être considérée comme un développement idéalisé ( idéalement mais pas réellement ef­
fectuable) d'une machine de Turing effectivement programmée. Nous pourrions aussi
tenter de trouver des versions opératoires des propriétés horizons philosophiques, mais
pour cela il faudrait sans doute que la philosophie de l'esprit et sa collaboration avec
la psychologie cognitive et les neurosciences soient plus avancées. On peut alors mon­
trer que si nous supposons l'IA capable de résoudre partiellement le problème de la
capacité dynamique, qui est une propriété-horizon pour l'IA, elle peut répondre aux
défis philosophiques. Une réponse à ce problème exige qu'une structure de représenta­
tion initialement construite puisse subir des changements (c'est la dynamique) , et que
ces changements tiennent à des variations dont la possibilité ( c'est la capacité) est au
moins partiellement inscrite dans les opérations associées à cette structure ( partielle­
ment, parce que les modifications des capacités de ces opérations doivent pouvoir venir
aussi de leur interaction avec un nouveau contexte) .
L'exercice d'une capacité opératoire dynamique impliquerait donc :
1 . un fonctionnement computo-représentationnel avec ses régularités ;
2. l'insertion de ses opérations dans un environnement nouveau, ce qui le soumet à
des variations ;
3. la capacité du computo-représentationnel, en se reformant, de re-catégoriser les
modifications introduites par ce fonctionnement interactif- si nous nommons
re-catégorisation ce qui recalibre les opérations sur les normalités du nouveau
contexte.
L'intentionnalité au sens philosophique ( la capacité de renvoyer à des référents externes
ou internes en tant qu'ils sont visés sous un certain aspect et pas sous un autre) exige
ces trois étapes, mais ces trois étapes suffisent à la satisfaire. En effet, l'insertion dans
un environnement permet d'avoir des référents, qui donnent lieu à des représentations
sous un certain format - l'ersatz d'un aspect - par le computo-représentationnel ( cf. par
exemple la notion de « trace » , cf. chapitre I.19 ) . Ces représentations ne fournissent pas
elles-mêmes, évidemment, leurs référents exogènes, mais elles pourraient être capables
de se modifier en fonction du changement de référent. Si donc l'on ne raisonne pas sur
un état statique, mais sur une évolution dynamique ( cf. chapitres I. 1 1 , I.8, I. 10 et I. 16 ) ,
référent et mode de présentation seront alors indissolublement liés, ce qui est le critère
philosophique d'une véritable intentionnalité.
Les mêmes trois étapes aboutissent à la production de qualia ( d'expériences quali­
tatives, « ce que cela fait » de percevoir comme un humain, etc. ) . Il faut pour cela que
le fonctionnement effectif d'une opérativité interactive produise dans chaque environ­
nement particulier des particularisations des catégories canoniques de représentation.
En IA cela peut aller des contraintes propres à l'implémentation physique des opéra­
tions, en passant par les spécificités propres à tel mode de saisie des données, tel mode
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 263

de programmation, une paramétrisation particulière, des effets propres à un dispositif


de coordination entre programmes différents, etc. Si cette particularisation est capable
aussi de déclencher des évolutions des opérations de catégorisation et a une incidence
sur les formats de représentations, on a bien là (toujours en dynamique et non pas sur
un seul état) des qualia au sens philosophique : des contenus phénoménaux qui modi­
fient en les particularisant, en fait en leur donnant un contenu singulier, les catégories
de contenus initiales.
La conscience suppose et les qualia, et la capacité de re-catégorisation qu'ils mettent
en branle : être conscient, c'est être capable d'intégrer des informations non catégori­
sées et particularisantes de pair avec des informations catégorisées et plus génériques.
Il suffit pour nous en convaincre d'examiner la phénoménologie de nos états conscients,
qui nous fournissent toujours à la fois des catégorisations de notre situation, et des
éléments connexes, non encore clairement catégorisés, qui peuvent servir de réservoir
pour des changements de catégorie. Cette intégration doit d'une part conserver la par­
ticularité des informations dans leur phénoménalité, d'autre part conserver la capacité
de généralisation ou de systématicité des informations catégorisées.
Le paradoxe de la chambre chinoise est dépassé quand on satisfait les trois conditions
précitées. Un programme qui pourrait re-catégoriser la plupart des variantes qu'un ob­
servateur critique s'amuserait à introduire dans des expressions des questions chinoises,
et qui le ferait de manière à pouvoir donner une réponse à ces questions, serait sûre­
ment considéré comme « comprenant » le chinois. Cela n'assurerait pas que pour toute
variation de contexte et d'environnement, le programme pourrait donner une réponse
pertinente. Mais les humains eux-mêmes, quand on bouleverse trop leur environnement,
donnent des réponses qui peuvent ne pas être optimalement pertinentes.
Si donc les chercheurs en IA imitaient les philosophes et leur attachement à des
propriétés horizons idéalisées, en élevant le degré d'idéalisation des capacités opéra­
toires de l'IA au niveau de cette propriété-horizon que nous avons nommée la capacité
opératoire dynamique, il serait difficile aux philosophes de distinguer la version définie
par l'IA de cette propriété-horizon et la version de la propriété-horizon correspondante
qu'ils devraient proposer s'ils envisageaient son opérationalisation.

9.6 Les tentatives pour relever les nouveaux défis


Nous venons de supposer que l'IA pourrait bien relever le défi de la capacité dy­
namique (pertinence, flexibilité par rapport aux changements de contexte, capacité à
définir de nouvelles normalités) , mais il faudrait encore montrer que cela est plausible.
On est évidemment tenté de lier capacité dynamique et évolution. On comprend
sans peine que des approches plus interactionnistes et évolutionnistes que proprement
déductives et statiques (comme déjà le connexionnisme mais aussi les approches par
révision de règles ou encore par algorithmes génétiques) aient semblé plus prometteuses.
Considérons cependant les algorithmes génétiques ( évolutionnaires) (cf. chapitre
II. 11) comme une façon de d'envisager le problème : on dispose de structures (codages)
qui ont une certaine capacité fonctionnelle, on les soumet à des variations (évolution
simulée) et on sélectionne les résultats de ces variations structurelles en fonction de
nouvelles capacités fonctionnelles souhaitées. Il semble qu'on dispose d'une capacité
1 264 - Panorama de l'intelligence artificielle. Volume 3

dynamique. Mais pour ce faire on a dû découpler les éléments du rapport opérations


computationnelles / normalités fonctionnelles propre aux codages initiaux, et rien ne
dit qu'on va pouvoir trouver des relations claires entre le rapport initial et les norma­
lités fonctionnelles assurées par le nouveau codage. Le simple fait que des approches
soient évolutionnistes ou fondées sur des interactions dont la séquence est non expli­
citement programmée nous assure-t-il d'ailleurs vraiment que ces approches prennent
davantage en compte le contexte ? Ou, à tout le moins, qu'elles simulent correctement
l'effet de re-constitution d'une capacité que peut effectivement avoir le contexte sur
une intelligence humaine ? En quoi les interactions qu'elles mettent en œuvre sont-elles
réellement comparables à celles qui nous semblent constitutives de l'intelligence ?
On fait en réalité souvent l'hypothèse un peu rapide qu'il suffit qu'un système com­
putationnel soit évolutif et fasse preuve d'interactivité (y compris, via des robots, avec
le monde physique réel) pour que cette évolutivité et cette interactivité simulent correc­
tement celles mêmes que l'on prête à l'intelligence humaine. Or, la question ne semble
pas tranchée : toute interaction ne simule pas pertinemment une autre interaction, qui
peut être d'une autre nature.
L'IA semble avoir accepté cette situation. On y admet que la solution au problème
de la capacité dynamique exige un minimum de découplage entre des formes de repré­
sentations et de fonctionnalité différentes, que ce soit dans leur succession où dans leur
coexistence temporaire - qu'on veut pacifique. Le dispositif classique de l'informatique
peut s'appliquer ici : faire fonctionner de manière articulée des niveaux de fonction­
nalité qui ont des structures différentes (niveau électronique, niveaux de compilation,
niveau computationnel, niveau sémantique, niveau des normalités) .
Une simulation sur ordinateur tend en effet à remplacer une déduction, ou un pro­
cessus de décision, par une phase de computation opérant sur un substrat d'éléments
qui assurent le fonctionnement d'opérations sur des signes, suivie d'une phase d'ob­
servation ou de mesure du résultat émergent. Un changement de niveaux d'opérations
sur des signes, un aller-retour entre les niveaux, relatifs les uns aux autres, est donc
toujours à l'œuvre. Les éléments interagissant dans une phase donnée peuvent être
traités comme des symboles (des éléments qui peuvent tous se composer entre eux et
se décomposer selon des règles) relativement à un niveau précédent dont ils résulte­
raient. Ils peuvent aussi être traités comme sous-symboliques (comme non strictement
décomposables, ou comme ne se composant pas tous entre eux, mais permettant des
compositions dont certaines pourront être traitées comme symboles) relativement au
fonctionnement symbolique résultant et observé dans une phase ultérieure. Par là se
relativise et se généralise en même temps la notion de sous-symbolicité. On observe
que les programmes enchevêtrant des modèles dont pour certains la formalisation n'est
que partielle, ou qui recourent à des formalisations différentes, procèdent par sous­
symbolisations préalables, et cela aussi bien pour les systèmes de multimodélisation
standardisés, comme DEYS [Zeigler, 1976] , dont les tenants cherchent aujourd'hui à
simuler un modélisateur universel, que pour les modèles computationnels complexes de
certaines sciences empiriques. Ce qui est particulier aux formes produites par un mode
effectif et spécifique de fonctionnement (et que Varenne dénomme « iconique » ) est
laissé tel quel dans sa spécificité et inversement ce qui est d'emblée symbolique (et donc
multiréalisable) est numérisé pour regagner un aspect fonctionnel iconique spécifique
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 265

et se voir par là dans la capacité d'interagir avec les aspects iconiques des premiers
éléments.
Comme la simulation implique, on l'a dit, la possibilité d'un aller-retour entre le
niveau du fonctionnement spécifique et celui du résultat doté d'une généricité symbo­
lique, on peut envisager une simulation de la simulation : elle implique un dispositif
d'auto-observation des simulations intérieures au système, donc de ces allers-retours
qui donnent à des fonctionnements pris dans leur spécificité iconique des capacités
génériques, et qui, inversement, peuvent recharger en particularités spécifiques les ca­
pacités symboliques. La sensibilité au contexte se manifestera alors d'abord par une
panne de généricité, qui conduira à une recherche en particularité, laquelle redonnera,
si tout se passe bien, une généricité réajustée, et donc une adaptation à de nouvelles
normalités. La possibilité de modifier le fonctionnement de base en fonction des pro­
blèmes rencontrés au niveau générique doit être évidemment prévue par le programme
de manière à y exercer les heuristiques ou les modèles de cognition symbolique que l'on
se proposera. On peut penser ainsi que la simulation sur ordinateur des pratiques hu­
maines de simulation (qui mettent en œuvre une capacité reconnue chez l'homme tant
pour la cognition pratique que théorique) pourrait d'abord jouer le rôle d'une recharge
en particularité, qui ensuite alterne ou s'enchevêtre pas à pas avec des procédures de
re-symbolisation par reconnaissance de formes, re-catégorisation, heuristiques frugales
ou autres.
Sous contrainte d'assurer un minimum de compatibilité et de co-fonctionnalité
(comme dans DEYS) mais aussi sous réserve de vérifier que la mise en œuvre de chaque
niveau sous-symbolique maintient l'iconicité qui rend la forme de ses résultats recon­
naissable par les suivants et finalement par une reconnaissance externe, faute de quoi
une simulation ne reste qu'un « truc » computationnel permettant de résoudre un
calcul, on peut faire feu de tout bois pour simuler le rôle du contexte (recharge en par­
ticularité, puis en généralité) . On peut utiliser des fonctionnements sub-symboliques
et des opérations sur des symboles iconiques. On peut s'assurer que des différences
syntaxiques fines (des différences d'implémentation) déclenchent des opérations qui re­
viennent à modifier les catégories tout en conservant certains de leurs fonctionnements) .
Et cela au moins par accumulation au-delà d'un certain seuil, voire par émergence (une
émergence faible : c'est-à-dire qui vient uniquement du caractère computationnel de
la trajectoire) . On peut mettre au point des procédures de révision des catégories par
merging entre des hiérarchies de catégories différentes. On peut imaginer aussi que
s'automatisent et se modularisent les procédés d'alignement entre les ontologies (cf.
chapitre I. 15) [Livet et al. , 2009] que l'on peut extraire ex post des re-catégorisations.
Pour l'heure, il semble en tout cas que les conditions nécessaires pour traiter notre pro­
blème comportent celle se donner les moyens computationnels de jouer sur au moins
deux niveaux (par exemple les réalisations particulières sub-symboliques et leur capa­
cité à déclencher de nouvelles compositions symboliques) et sur au moins trois phases :

1. fonctionnement,
2. perturbation,
3. réajustement ou révision.
1 266 Panorama de l'intelligence artificielle. Volume 3
-

9.6.1 La simulation multiagent comme laboratoire


On peut retrouver cette utilisation du multiniveau et de la pluralité des phases
dans les développements de la simulation multiagent (cf. chapitre I. 17) [Livet, 2007] .
O n part d'agents qui sont des automates bien définis, on les fait interagir, ce qui
produit des formes collectives qui n'étaient pas définies d'emblée, et qui constituent un
environnement dont l'évolution peut donner lieu à la fois à l'apparition de structures
et à des perturbations de ces structures. On ajuste ensuite les règles et paramètres des
interactions des agents de manière à soit produire un type de structure similaire à celui
qu'on étudie, soit produire des transitions d'une structure dans une autre, similaires à
une évolution qu'on étudie. Jacques Ferber a proposé de relier cette dynamique avec
différents cadres de détermination des fonctions dans un système multiagent et de
relier le tout aux rapports entre individuel et collectif. On doit pour déterminer un tel
système dans tous ses aspects
1. définir les fonctions internes propres à chaque agent (quadrant Individuel In­
terne) ,
2. définir ses interactions avec l'environnement, ce qui exige de traduire les effets des
fonctions de l'agent dans des obser�ables externes (quadrant Individuel Externe) ,
3. déterminer les effets observables de l'agrégation des comportements des agents
individuels (quadrant Collectif-Externe) ,
4. et enfin - si les agents sont cognitifs - définir la manière dont ils peuvent tirer
de l'observation de ces comportements collectifs des modifications de leur propre
fonctionnement interne (quadrant Collectif-Individuel) .
On peut évidemment appliquer aussi ce cadre aux relations entre des fonctionnements
computationnels locaux et leurs effets agrégés selon un format commun.
Le processus qui va de 1 en 2 puis en 3 , puis en 4, pour revenir à 1 , est symétrique de
celui que nous avons d'abord envisagé : au lieu que ce soit une recharge en particularité
qui induise une re-catégorisation générique, on a là une mise en commun qui induit
une re-catégorisation locale. Dans les deux perspectives, on ne cherche pas à résoudre
le problème de la pertinence contextuelle en définissant des contextes comme sous­
catégories à l'intérieur d'un cadre général de formalisation (vision globalisante et que
nous disons statique parce qu'on n'y change pas de catégories) , mais on le résout en
dynamique : à aucune étape les catégories utilisées ne sont censées résoudre le problème,
mais leur succession et les transformations qu'elle implique en donnent des solutions
temporaires - toujours ouvertes à des révisions.
D'autres propositions ont été avancées pour répondre à notre problème. L'idée d'une
IA « incarnée » (embodied) , ancrée sur le réel d'un environnement perçu et contrainte
par les conditions d'actions en situation réelle - avec les problèmes de compromis
entre temps d'exploration de la situation et temps de réaction que cela soulève - peut
aussi être considérée comme une tentative de réponse. Dans ce cas, on combine une
recharge en particularités et des interactions avec l'environnement, mais le problème est
toujours d'avoir une réponse pertinente au contexte formé à la fois par la tâche visée et
l'environnement, en tenant compte des changements de l'environnement, y compris ceux
induits par l'activité, comme aussi des changements induits dans l'agenda du système.
Les contraintes imposées par la réalisation de la tâche en temps et environnement réels
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 267

peuvent conduire à des simplifications du problème, dont il reste à voir en quoi elles
peuvent donner lieu à généralisations ou au contraire sont locales. Là encore, il semble
que l'IA doive abandonner une perspective générique statique pour une perspective
qui combine de manière dynamique particularité et généricité - la notion de normalité
révisable exprime aussi une telle perspective dynamique.

9. 7 Conclusion
Le programme de l'IA s'est donc modifié, mais aussi la conception de l'intelligence
humaine à laquelle elle peut se confronter. Nous étions tentés de prêter à l'intelligence
humaine des vertus dont elle était censée disposer de manière simultanée, en statique
en quelque sorte. Mais les développements de l'IA nous suggèrent que l'intelligence
humaine elle-même ne dispose pas de toutes ces vertus à la fois, qu'elle doit parfois
abandonner les unes pour disposer des autres, et réciproquement, ce qui garde sens
seulement dans une dynamique. Certes elle utilise la stratégie du bootstrapping uti­ -

liser ce qu'on sait déjà faire pour s'améliorer. Mais elle se révèle aussi devoir compter
sur ce qui lui résiste et lui pose problème, sur ce qui lui permet de repérer en quoi
elle était défaillante, pour construire des modes de réactions à ce que ses représenta­
tions précédentes ne contrôlaient pas, en utilisant à la fois ses capacités initiales et
les variations que lui proposent par leur nouveauté les situations rencontrées. Ce sont
maintenant ces opérations de l'intelligence, plus limitées dans leurs ambitions mais
aussi plus évolutives, que l'IA se propose d'étudier en les simulant.

Remerciements. Nous remerçions Daniel Kayser pour sa participation aux pre­


mières esquisses de ce travail, où il a rappelé, entre autres, l'importance pour l'IA des
problèmes de complexité et de croissance du temps de calcul.

Références
COLLINS, H. M. {1996) . Embedded or embodied ? a review of hubert dreyfus' what
computers still can't do. Artif. Intell. , pages 99-1 17.
CooK, S. A. {1971). The complexity of theorem-proving procedures. In Proceedings of
the third annual ACM symposium on Theory of computing, pages 151-158.
DREYFUS, H. L. {1992). What computers still can't do - a critique of artificial reason.
MIT Press.
DREYFUS, H. L. et DREYFUS, S. E. {1988) . Mind over machine - the power of human
intuition and expertise in the era of the computer. Free Press.
GANASCIA, J. {1990) . L 'âme-machine : les enjeux de l 'intelligence artificielle. Science
ouverte. Éditions du Seuil.
GARBAY, C. et KAYSER, D. {2011). Informatique et sciences cognitives : Influences ou
confluence ?
GIRARD, J.-Y. {2001). Locus solum : From the rules of logic to the logic of rules.
Mathematical Structures in Computer Science, 1 1 {3) :301-506.
1 268 Panorama de l'intelligence artificielle. Volume 3
-

HUME, D . ( 1978). A Treatise of Human Nature. Oxford Clarendon Press. Book I, Part
III, section XIV, an edition with analytical index by Selby-Bigge, second edition with
text revised by Nidditch.
KAYSER, D . , MAGDA, F. A. et STEFAN-GHEORGHE, P. (2004) . Intelligence artificiel le
et agents intelligents. Printech.
LIVET, P. Emotions et rationalité morale. Presses Universitaires de France.
LIVET, P. Révision des Croyances. Hermès.
LIVET, P. (2007) . Towards an Epistemology of Multi-agent Simulation in Social Scien­
ces. The Bardwell Press.
LIVET, P. , MÜLLER, J.-P. , PHAN, D. et SANDERS, L. (2009) . Ontology, a mediator
for agent-based modeling in social science. Journal of Artificial Societies and Social
Simulation.
PENROSE, R. (1989) . The Emperor 's New Mind : Concerning Computers, Minds, and
The Laws of Physics. Oxford University Press, Oxford.
PITRAT, J. ( 1995) . De la machine à l 'intelligence. Hermès.
PROUST, J. (2013) . The philosophy of Meta- Cognition, Mental agency and self­
awareness. Oxford University Press, Oxford.
SALLANTIN, J. et SzCZECINIARZ, J. ( 1999) . Le concept de preuve à la lumière de
l 'intelligence artificielle. Nouvelle Encyclopédie Diderot. Presses Universitaires de
France.
SALLANTIN, J. et SZCZECINIARZ, J. J. (2007) . Il concetto di prova alla luce dell'intel­
ligencia artificiale ( postface ) .
SAYGIN, A. P. , CICEKLI, I. et AKMAN, V. (2000) . Turing test : 50 years later. Minds
Mach. , 10(4) :463-518.
SEARLE, J. R. ( 1980) . Minds, brains and programs.
SELINGER, E. M. et CREASE, R. P. (2002). Dreyfus on expertise : The limits of phe­
nomenological analysis. Continental Philosophy Review, 35(3) :245-279-279.
TURING, A. M. (1950) . Computing machinery and intelligence. Mind, 49 :433-460.
VARENNE, F. (2007) . Du Modele a La Simulation Informatique. Mathésis ( Paris) . J.
Vrin.
VARENNE, F. {2009) . Qu 'est-ce que l 'informatique ? Chemins Philosophiques. J. Vrin.
WEIZENBAUM, J. (1983) . Eliza - a computer program for the study of natural language
communication between man and machine ( reprint ) . Communications of the ACM,
26(1) :23-28.
WEIZENBAUM, J. ( January 1966) . Eliza - a computer program for the study of natural
language communication between man and machine. Communications of the ACM,
9(1) :36-45.
WRIGHT, G. (1971). Explanation and Understanding. Cornell Classics in Philosophy.
Cornell University Press.
ZEIGLER, B. (1976) . Theory of Modeling and Simulation (first ed.). Wiley Interscience.
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1269

Chapitre 1 0

Intelligence artificielle et
psychologie du raisonnement
et de la décision

L'intelligence artificielle (IA) est une inspiration forte en psychologie du raisonne­


ment et de la décision, et l'on observe en parallèle un regain d'intérêt de l'IA pour les
données et modèles de la psychologie. Au « nouveau logicisme » qui traverse la psycho­
logie, correspond un « nouveau psychologisme » en IA. Après de brèves considérations
introductives, nous examinerons ces nouveaux modes d'interaction entre les deux dis­
ciplines, avant de les illustrer par une série d'exemples : le raisonnement plausible,
l'incertitude, la révision des croyances, l'argumentation, et le jugement causal. Nous
donnerons pour chaque exemple de brèves indications quant aux principaux résultats
obtenus jusqu'ici dans le cadre de l'interaction entre les deux disciplines.

10. 1 Introduction
L'intelligence est une caractéristique des organismes vivants supérieurs, et tout
spécialement humains, dont l'étude est en principe du ressort de la psychologie. La
constitution de l'intelligence artificielle comme discipline autonome par rapport à la
psychologie pouvait susciter l'espoir d'une interfécondité. Dans le domaine du raison­
nement et de la décision, cet espoir a longtemps été déçu. En effet, même si certains
concepts importants, apparus en psychologie entre 1930 et 1960, ont pu être exploités
par les spécialistes de l'IA 1 , les théories fournies par les psychologues du raisonne­
ment et de la décision sont longtemps demeurées trop peu élaborées pour guider les
investigations des chercheurs en IA.
Auteurs : JEAN-FRANÇOIS BONNEFON et Guy POLITZER.
1. Ainsi, le concept de traitement limité de l'information ( Miller, 1956] , la notion de stratégie de
résolution (Bruner et al. , 1956] , ou des notions plus anciennes telles que celle de schéma pour le
fonctionnement de la mémoire, ou bien ce qu'on appellera ultérieurement l'approche top-down dans
l'étude de la perception et de la résolution de problème, présente chez les théoriciens de la Gestalt.
1 270 Panorama de l'intelligence artificielle. Volume 3
-

Nous n'essaierons pas ici d'identifier les raisons de ce rendez-vous longtemps man­
qué. Nous retiendrons plutôt que, ne trouvant dans les travaux psychologiques ce dont
ils avaient besoin, certains spécialistes de l'IA en sont parfois venus à effectuer leurs
recherches psychologiques eux-mêmes, à l'instar de Newell et Simon [Newell et Simon,
1972] observant le comportement humain en vue d'élaborer leur programme de réso­
lution de problèmes. De fait, le caractère unidirectionnel de l'influence entre les deux
disciplines a perduré jusqu'à nos jours. En exploitant le sens commun, en usant d'in­
trospection, et en sachant tirer profit de leurs échecs, ce sont les chercheurs en IA qui
ont repéré les faits ou phénomènes qu'il est indispensable de prendre en compte (par
exemple, l'étendue des bases de connaissances) , identifié des objets d'étude essentiels
(comme le raisonnement avec des données imparfaites, l'abduction) ou en ont renouvelé
l'approche (par exemple, la causalité) .
C'est sans doute durant le premier quart de siècle de son existence (du milieu des
années 1950 à la fin des années 1970) que l'IA a produit les réalisations les plus décisives
pour orienter la recherche psychologique. Nous nous limitons à mentionner celles qui
ont été les plus spectaculaires :
- Vient en premier, à la fois chronologiquement et peut-être par sa pertinence,
le Logic Theorist [Newell et al. , 1958] , un programme capable d'administrer
la preuve de théorèmes issus des Principia Mathematica. En utilisant quatre
règles d'inférence et une variété d'heuristiques, il réussit à démontrer 38 des 52
théorèmes qui lui furent soumis.
- Plus ambitieux:, le General Problem Solver [Newell et Simon, 1961, 1972]
fut conçu pour résoudre une assez grande variété de problèmes logico­
mathématiques classiques (preuve de théorèmes, jeu d'échecs) , et de tâches de
laboratoire (tour de Hanoï, cryptarithmétique) . Il utilise donc des heuristiques
indépendantes des tâches. Pour cela, dans un but avoué de simulation, le pro­
gramme applique les notions fondamentales d'analyse moyens-fins, de calcul
d'écart au but et de sa réduction, et l'identification de sous-buts.
- Quillian élabore le premier modèle de mémoire sémantique en réseau [Quillian,
1968] .
- Le premier système expert, DENDRAL [Feigenbaum et al. , 1971] , fut conçu pour
l'aide à l'analyse en chimie organique. Il contient un ensemble de règles simples
destinées à réduire le parcours de l'arbre. Dans MYCIN [Shortliffe, 1976] , conçu
pour le diagnostic médical, apparaît la séparation entre base de connaissance et
moteur d'inférence.
- La conversation en langage naturel fut réalisée par le programme SHRDLU [Wi­
nograd, 1972] en référence à un micro-monde de blocs qu'il manipule virtuelle­
ment pour constituer des configurations sur demande. Il répond aux questions
qu'on lui pose, en particulier pour justifier ses actions, et formule des questions
pour désambiguïser les instructions.
- Schank et Abelson modélisent la compréhension du langage naturel pour le
monde réel à partir de la théorie de la dépendance conceptuelle fondée sur
l'hypothèse de primitives conceptuelles, complétée par l'hypothèse de l'existence
de scripts [Schank et Abelson, 1977] . Le programmme forme une représentation
interne et peut, suite à des questions testant sa compréhension, donner des
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 127 1

réponses exigeant des inférences.


Les recherches en IA continuent à l'heure actuelle à inspirer les travaux des psycho­
logues du raisonnement et de la décision, mais la nature de cette influence a quelque
peu changé. En parallèle, la psychologie du raisonnement et de la décision a conquis
une influence nouvelle sur la recherche en IA. Ces nouveaux modes d'interaction sont
abordés dans la section suivante.

10.2 Modes d'interaction


La palette des interactions entre IA et psychologie du raisonnement et de la décision
s'est progressivement enrichie, au fur et à mesure des évolutions respectives des deux
disciplines. Avant d'esquisser brièvement certaines des formes notables que peut prendre
cette interaction, nous noterons un remarquable mouvement symétrique, qui consiste
pour chacune des deux disciplines à chercher une inspiration normative dans les travaux
de l'autre.
La question de la norme est longtemps restée fondamentale en psychologie du rai­
sonnement et de la décision, c'est-à-dire la question de savoir si les gens raisonnent et
décident « bien ». Pour répondre à cette question, il est nécessaire de se doter d'une
définition de ce qu'est un bon raisonnement ou une bonne décision. Dans le domaine
du raisonnement, la logique propositionnelle classique a longtemps fourni aux psy­
chologues l'étalon du bon raisonnement. Un effort de recherche soutenu a donc été
consacré à cataloguer les erreurs des raisonneurs, comprises en ce sens ; c'est-à-dire
leurs déviations par rapport aux prescriptions de la logique classique. Ces déviations
sont nombreuses, et si elles sont comprises comme des erreurs, force est de conclure
que l'espèce humaine n'a pas la capacité à raisonner rationnellement 2 . Il va sans dire
qu'une telle conclusion ne pouvait rencontrer un assentiment unanime. Parmi les nom­
breuses critiques qu'elle a suscitées [Stanovich et West, 2000] , une des plus solides est
celle de la mauvaise norme : avant de conclure à l'irrationalité des raisonneurs sous
prétexte qu'ils ne se conforment pas aux prescriptions de la logique classique, il faut
s'assurer que la logique classique constitue une norme appropriée, et non point trop
étroite. La question se pose alors toutefois de savoir vers quelle norme se tourner. Une
solution pour les psychologues en quête d'une norme alternative consiste à s'inspirer
des modèles formels développés en IA. On peut parler d'un « nouveau logicisme » en
psychologie à propos de ce mouvement qui consiste à chercher dans les logiques non
classiques une norme de remplacement à la logique classique.
Dans le même temps, s'est développé en IA un mouvement parallèle, que l'on pour­
rait qualifier de « nouveau psychologisme » [van Benthem, 2008] . Au cœur de ce mou­
vement, on trouve l'idée que les spécialistes de l'IA ne peuvent touj ours se satisfaire
de leur intuition pour j uger du « bon » comportement d'un modèle formel, et que les
théories formelles de l'IA doivent être contraintes par les faits empiriques établis par la
psychologie du raisonnement et de la décision [Pelletier et Elio, 2005 ; Pietarinen, 2003] .
En d'autres termes, il est proposé de faire de l'adéquation aux données psychologiques

2. L'argument est le même pour le jugement probabiliste et la prise de décision, en remplaçant la


logique classique par la théorie des probabilités et la théorie du choix rationnel, respectivement.
1 272 Panorama de l'intelligence artificielle. Volume 3
-

un critère d'évaluation des théories formelles développées en IA ; en un mot, de donner


une confirmation descriptive aux théories normatives développées en IA.
Le nouveau logicisme, tout comme le nouveau psychologisme, sont des évolutions
prometteuses, ou à tout le moins intéressantes, dans leurs disciplines respectives. Tou­
tefois, un paradoxe naît de leur juxtaposition. Imaginons qu'une certaine théorie for­
melle du raisonnement soit développée en IA, alors qu'en parallèle sont obtenus un
certain nombre de résultats expérimentaux, cohérents avec cette théorie. Les tenants
du nouveau psychologisme pourront alors porter au crédit de la théorie ces résultats
expérimentaux, et lui conférer un statut de « bonne » théorie. Les tenants du nouveau
logicisme seront alors en mesure de conférer un statut normatif à cette théorie issue
de l'IA, et à conclure que les raisonneurs humains se comportent de façon rationnelle,
puisque conforme à ce qui est prédit par une théorie respectée en IA. La théorie formelle
et les résultats expérimentaux se procurent une garantie mutuelle de normativité, et le
comportement humain peut se voir qualifié de rationnel par pure circularité.
La question de la normativité n'est pas, bien sûr, la seule qui guide les interac­
tions entre IA et psychologie du raisonnement et de la décision. Les psychologues du
raisonnement et de la décision s'inspirent des travaux en IA pour ouvrir de nouveaux
domaines de recherche expérimentale, ou pour aborder des domaines classiques selon
une nouvelle perspective ; et les spécialistes en IA s'appuient parfois de leur côté sur
la psychologie pour spécifier les problèmes qu'ils tentent de résoudre, ou pour valider
certains de leurs postulats intuitifs. Ces divers modes d'interaction entre les deux dis­
ciplines vont être illustrés dans la section suivante à travers une série de domaines de
recherche.

10.3 Illustrations
10.3. 1 Raisonnement plausible
Le raisonnement plausible consiste à tirer des conclusions à partir de généralisa­
tions abusives du type « Les oiseaux volent » ou « Les linguistes parlent plus de trois
langues ». La question se pose des règles permettant de manipuler correctement ce type
de généralisations afin de produire de nouvelles connaissances fiables. Dans un article
fondateur, Pelletier et Elio [Pelletier et Elio, 1997] ont argumenté avec force pour une
approche psychologiste de ce problème : la manipulation correcte de ces généralisations
ne peut être définie uniquement par l'intuition des chercheurs en IA, mais doit corres­
pondre à la manipulation que les raisonneurs humains en font. En d'autres termes, le
comportement formel du modèle développé en IA se doit de refléter le comportement
humain tel qu'il peut être établi par des protocoles expérimentaux. Les données com­
portementales obtenues par les psychologues sont le phénomène même que les modèles
formels se doivent de capturer.
Pour autant faut-il, bien entendu, que ces données comportementales soient dis­
ponibles, ce qui était loin d'être le cas au moment de l'appel de Pelletier et Elio, en
dehors de résultats préliminaires obtenus par ces mêmes auteurs [Elio et Pelletier, 1993] .
Depuis lors, toutefois, un nombre respectable d e travaux empiriques ont été spécifique­
ment consacrés à obtenir des résultats directement pertinents pour la modélisation du
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 273

raisonnement plausible (Benferhat et al. , 2005 ; Da Silva Neves et al. , 2002 ; Ford, 2004 ;
Ford et Billington, 2000 ; Pfeifer et Kleiter, 2005, 2009] . 3 Parmi les résultats issus de cet
ensemble de travaux, on pourra retenir la bonne performance descriptive de l'approche
du raisonnement plausible par le « Système P ». Le Système P (Kraus et al. , 1990] est un
ensemble d'axiomes régissant la combinaison de règles plausibles, formalisées au moyen
d'une relation de conséquence non monotone. Cet ensemble d'axiomes semble offrir une
bonne description de l'organisation des règles plausibles dans les bases de connaissances
des sujets humains, et, selon les travaux, une bonne description de la manipulation que
font les sujets humains de ces règles plausibles dans leurs raisonnements (cf. chapitre
1.2 et chapitre 1.3) .

10.3.2 Incertitude
La notion d'incertitude (cf. chapitre 1.3) joue un rôle primordial dans les activités
de raisonnement, de jugement, et de prise de décision, aussi bien dans leur approche
psychologique que dans le traitement qui en est fait en IA. Les deux discipines donnent
un rôle privilégié à la théorie et au calcul probabiliste pour ce qui est de représenter
l'incertitude et de la manipuler (en IA) , ou pour ce qui est de théoriser sur la façon dont
l'esprit humain représente et manipule l'incertitude (en psychologie) . Pour autant, de
nombreux formalismes alternatifs sont disponibles en IA, bien plus nombreux que les
modèles alternatifs disponibles en psychologie.
Dans la psychologie du jugement et de la décision en particulier, le rôle dominant
joué par le programme des biais et heuristiques (Kahneman et al. , 1982] et par la
Prospect Theory (Kahneman et Tversky, 1979] a centré l'attention des chercheurs sur
les ajustements à apporter à la théorie probabiliste, plutôt que sur le recours à un
formalisme alternatif de l'incertitude. De ce fait, l'influence de l'IA dans ce domaine
se fait davantage sentir par l'adoption par certains psychologues de cadres formels à
fondement probabiliste, comme les modèles psychologiques du jugement d'incertitude
fondés sur les réseaux causaux bayésiens (Krynski et Tenenbaum, 2007] .
Les approches bayésiennes ont également un impact important dans la psychologie
du raisonnement sous incertitude, dont elles fournissent le modèle « computationnel »
le plus connu (Oaksford et Chater, 2007) . Ce modèle est dit computationnel car son ob­
jectif n'est pas de décrire les processus mentaux mis en œuvre lors d'un raisonnement
sous incertitude, mais de spécifier la solution optimale dont ils pourraient être l'ap­
proximation. L'approche computationnelle fait l'hypothèse que tout se passe comme si
le système cognitif humain adoptait effectivement cette solution, en mettant en œuvre
des processus non spécifiés qui en constitueraient une approximation.
Le choix du calcul probabiliste (bayésien ou non) comme modèle computationnel
du raisonnement humain ne fait toutefois pas l'unanimité en psychologie (Politzer et
Bonnefon, 2009) . Certains psychologues prennent soin d'exprimer leur agnosticisme
quant à la question du choix du cadre probabiliste ou d'un autre cadre formel issu de
l'IA (Baratgin et Politzer, 2007 ; George, 1999 ; Politzer et Bourmeau, 2002] , d'autres
donnent à un formalisme alternatif le rôle de modèle computationnel (Da Silva Neves
3. D'autres travaux en psychologie [Stenning et van Lambalgen, 2005, 2008) ont été consacrés à
réinterpréter des résultats empiriques existants à la lumière des théories formelles disponibles en IA,
dans une perspective néologiciste donc plutôt que néopsychologiste.
1 274 Panorama de l'intelligence artificielle. Volume 3
-

et al. , 2002 ; Ford, 2004] , d'autres enfin adoptent des modèles non (strictement) proba­
bilistes qui se veulent descriptifs plutôt que computationnels [Pfeifer et Kleiter, 2005 ,
2009 ; Raufaste et al. , 2003 ; Stenning et van Lambalgen, 2008] .

10.3.3 Révision des croyances


Un individu qui reçoit une information nouvelle, fiable, et incohérente avec ses
croyances préalables, se trouve devant la nécessité de réviser la base de ces croyances. Le
problème de la révision des croyances a fait l'objet d'une étude poussée et de nombreux
développements en IA (cf. chapitre I. 1 1 ) . Son traitement en psychologie est plus récent
et moins systématique. Certains travaux en psychologie s'inspirent directement des
propositions de l'IA [Elio et Pelletier, 1997] ; d'autres s'en inspirent indirectement,
en se situant dans le prolongement des précédents [Markovits et Schmeltzer, 2007] ;
d'autres enfin proposent des modèles psychologiques de la révision des croyances, sans
envisager leur rapport aux modèles de l'IA [Johnson-Laird et al. , 2004] . Les travaux
directement inspirés de l'IA se sont construits en référence aux notions de changement
minimal et d 'enmcinement épistémique [Gardenfors, 1988] . Un objectif de ces travaux
a été de mettre à jour les facteurs qui conduisaient les raisonneurs humains à réviser
telle ou telle autre de leurs croyances, et en particulier de mesurer l'importance des
rapports formels entre les propositions décrivant ces croyances.
À la lumière de ces travaux, ce rôle est faible [Dieussaert et al. , 2000 ; Elio et
Pelletier, 1997 ; Markovits et Schmeltzer, 2007 ; Politzer et Carles, 2001] . Ce que révèlent
les travaux expérimentaux est que le choix de la croyance à réviser n'est que peu ou
pas fonction des relations formelles entre les croyances révisables, mais bien plutôt
de la force initiale de ces différentes croyances. Si les raisonneurs humains suivent un
principe de changement minimal, c'est celui d'éviter de réviser les croyances qu'ils
trouvent initialement les plus crédibles. Ainsi, une expérience [Politzer et Carles, 2001]
montre que de deux croyances, la plus faiblement crédible est révisée 90% du temps,
alors que la plus fortement crédible est révisée moins d'une fois sur deux. Par ailleurs,
certains travaux [Dieussaert et al. , 2000 ; Politzer et Carles, 2001] laissent penser que la
révision des croyances chez les raisonneurs humains est une affaire de modification dans
la force d'une croyance, plutôt que de rétractation pure et simple de cette croyance :
lorsqu'ils en ont la possibilité, la majorité des raisonneurs indiquent que leur croyance
en une certaine proposition se trouve atténuée du fait du processus de révision, plutôt
que d'indiquer qu'ils ont abandonné cette croyance.

10.3.4 Argumentation
Les approches argumentatives du raisonnement et de la décision ont connu un essor
important en IA ces dernières années (cf. chapitre I. 10 ) , et ont fait l'objet de divers
ouvrages de synthèse et numéros spéciaux de revues scientifiques. L'idée principale des
approches argumentatives est de considérer les arguments qui soutiennent ou attaquent
une conclusion ou une décision, et de conclure ou de décider en fonction de l'agrégation
de ces arguments.
Cette approche argumentative n'a pas de réel équivalent en psychologie du raison­
nement et de la décision. On en trouve un écho en psychologie de la décision, dans
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 275

les travaux de Shafir et collègues sur le reason-based choice [Shafir, 1993 ; Shafir et al. ,
1993] , sans que ces travaux aient directement inspiré semble-t-il la communauté IA. La
psychologie du raisonnement, de son côté, n'a pas donné une place centrale aux phé­
nomènes ou modèles argumentatifs. Peu de travaux [Rips, 1998] se sont penchés sur
l'argumentation en tant que telle, et l'approche argumentative du raisonnement semble
très limitée, en dehors de la thèse selon laquelle le raisonnement dérive d'un module
mental dédié à l'argumentation, façonné par l'évolution [Mercier et Sperber, 2009] . De
façon générale, les phénomènes argumentatifs ont davantage intéressé des disciplines
moins expérimentales que la psychologie, liées au domaine de la communication, que
l'on désigne parfois sous le nom de critical thinking, voire informal logic.
Certains travaux dans le champ de l'IA elle-même ont proposé des expériences com­
portementales directement inspirées des approches argumentatives formelles [Amgoud
et al. , 2005 ; Bonnefon et al. , 2008b ; Madakkatel et al. , 2009] . Du côté du raisonne­
ment, Madakkatel et collègues [Madakkatel et al. , 2009] ont présenté des données préli­
minaires validant comportementalement le concept de réinstanciation : les raisonneurs
perdent leur confiance en une conclusion x lorsqu'elle est attaquée par un argument
y, mais la retrouvent lorsque l'argument y est lui-même attaqué par un argument z ,
sans toutefois retrouver leur niveau de confiance initial [Mercier et Sperber, 2009] . Du
côté de la décision, Bonnefon et collègues ont testé la validité comportementale de sept
règles de décision argumentative [Bonnefon et al. , 2008b] , ayant par ailleurs fait l'objet
d'une axiomatisation [Dubois et al. , 2008] . Ces règles permettent d'agréger un ensemble
d'arguments pour ou contre une certaine action, qui varient en importance selon une
échelle qualitative. Leur capacité à prédire un ensemble d'environ 2000 décisions hu­
maines recueillies en laboratoire varie du médiocre (moins de 15% des décisions) à
l'excellent (presque 80% des décisions) .

10.3.5 Causalité
De tous les domaines recensés dans ce chapitre, le jugement causal est celui pour
lequel l'influence de l'IA (cf. chapitres I.3 et I.8) sur la psychologie est la plus évidente.
Cette influence se traduit principalement par le recours aux réseaux causaux bayésiens
dans la théorisation psychologique, et par l'étude empirique de la notion d'intervention
[Pearl, 2000] .
Une littérature empirique récente et fournie [Hagmayer et al. , 2007 ; Sloman, 2005]
suggère que le raisonnement causal humain reflète le comportement d'un réseau causal
bayésien supportant un opérateur d'intervention. En d'autres termes, une large part
des inférences causales humaines se laisse capturer en supposant que les raisonneurs
(a) construisent un modèle de la situation, représentable sous forme d'un graphe d'in­
fluence, (b) incorporent éventuellement à ce modèle des paramètres probabilistes, et
(c) altèrent ce graphe de façon appropriée lorsque la valeur d'une variable est fixée par
une intervention, plutôt que simplement observée. Un faisceau de résultats indique en
particulier que les adultes [Sloman et Lagnado, 2005 ; Waldmann et Hagmayer, 2005]
comme les jeunes enfants [Kushnir et Gopnik, 2005 ; Schultz et al. , 2007] comprennent
et utilisent la notion d'intervention dans leurs jugements causaux. Par ailleurs, d'autres
expériences dans le domaine de la décision pointent également vers un rôle particulier
de la notion d'intervention [Hagmayer et Sloman, 2009] : les décisions prises dans ces
1 276 Panorama de l'intelligence artificielle. Volume 3
-

expériences suggèrent que les participants se sont représenté la situation sous forme
d'un modèle causal, en considérant leurs choix possibles comme des interventions sur
ce modèle.
L'importance accordée en psychologie à l'approche par les réseaux causaux bayé­
siens laisse peu de place aux approches formelles complémentaires ou alternatives déve­
loppées en IA. Des collaborations existent pourtant dans ce domaine entre psychologues
et spécialistes de l'IA, qui examinent empiriquement la validité cognitive de modèles
logiques, non probabilistes du jugement causal ; mais ces collaborations sont davantage
diffusées dans la communauté IA que dans la communauté des psychologues. De fait,
les résultats des expériences comportementales sont souvent présentés à la suite même
du modèle formel [Bonnefon et al. , 2008a ; Kayser et Nouioua, 2009] , plutôt que dans
des publications centrées sur la contribution expérimentale. Ces résultats soulignent
l'intérêt psychologique de modèles logiques qualitatifs du jugement causal, mais aussi
leur intérêt applicatif, dans la mesure où ils permettent de calculer des jugements cau­
saux cognitivement plausibles dans des situations où l'information disponible est trop
imparfaite pour faire l'objet d'une représentation probabiliste.

10.4 Conclusion
La psychologie du raisonnement et de la décision se donne comme objet d'étude
privilégié les processus mentaux qui permettent le comportement intelligent, dans le
même temps que l'IA s'efforce de formaliser et d'automatiser le trait�ment intelligent
des problèmes. Comment ces deux disciplines pourraient-elles rester étanches l'une à
l'autre ? Leur rendez-vous, pourtant, a longtemps été manqué, et le dialogue entre les
deux disciplines, pourrait-on penser, en est encore à ses balbutiements. Le panorama
que nous avons esquissé laisse toutefois augurer d'une évolution positive : la palette
des interactions entre les disciplines s'enrichit du point de vue méthodologique comme
thématique.
Les psychologues s'emparent plus facilement qu'auparavant de questions de re­
cherches définies à l'origine par les spécialistes de l'IA (par exemple, le raisonnement
plausible, la révision des croyances) , et commencent à emprunter à l'IA ses outils théo­
riques pour leurs besoins de modélisation (par exemple, dans le domaine de l'incerti­
tude, ou de la causalité) . Dans le même temps, les spécialistes de l'IA s'ouvrent aux
pratiques expérimentales des psychologues afin de valider leurs postulats intuitifs, ou le
comportement de leurs modèles. Ces nouvelles pratiques restent pour autant menées de
façon essentiellement disjointe : Les expériences menées dans le cadre d'une recherche
en IA n'informent pas les débats en psychologie, et les travaux en psychologie inspirés
de l'IA n'y trouvent ensuite que peu d'écho. L'avenir dira si un réel dialogue entre les
deux disciplines pourra se substituer à ce simple processus d'influence mutuelle.

Références
AMGOUD, L . , BONNEFON, J. F. et PRADE, H. (2005) . An argumentation-based ap­
proach for multiple criteria decision. Lecture Notes in Computer Science, 3571 :269-
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 277

280.
BARATGIN, J. et POLITZER, G. (2007) . Is the mind Bayesian ? The case for agnosticism.
Mind and Society, 5 : 1-38.
BENFERHAT, S . , BONNEFON, J. F. et DA SILVA NEVES, R. M. (2005) . An overview
of possibilistic handling of default reasoning, with experimental studies. Synthese,
146 :53-70.
BONNEFON, J. F., DA SILVA NEVES, R. M., DUBOIS, D. et PRADE, H. (2008a) . Pre­
dicting causality ascriptions from background knowledge : Model and experimental
validation. International Journal of Approximate Reasoning, 48 :752-765.
BONNEFON, J. F., DUBOIS, D . , FARGIER, H. et LEBLOIS, S. (2008b) . Qualitative
heuristics for balancing the pros and cons. Theory and Decision, 65 :71-95.
BRUNER, J., GOODNOW, J. et AUSTIN, A. ( 1956) . A study of thinking. Wiley, New
York.
DA SILVA NEVES, R. M., BONNEFON, J. F. et RAUFASTE, E. (2002) . An empirical
test for patterns of nonmonotonic inference. Annals of Mathematics and Artificial
Intelligence, 34 : 107-130.
DIEUSSAERT, K., SCHAEKEN, W., DE NEYS, W. et D'YDEWALLE, G. (2000) . Initial
belief state as a predictor of belief revision. Cahiers de Psychologie Cognitive, 19 :277-
288.
DUBOIS, D . , FARGIER, H. et BONNEFON, J. F. (2008) . On the qualitative comparison
of decisions having positive and negative features. Journal of Artificial Intelligence
Research, 32 :385-417.
ELIO, R. et PELLETIER, F. J. (1993) . Human benchmarks on AI's benchmark problems.
In Proceedings of the Fijteenth Annual Conference of the Cognitive Science Society,
pages 406-411. Lawrence Erlbaum.
ELIO, R. et PELLETIER, F. J. (1997) . Belief change as propositional update. Cognitive
Science, 21 :419-460.
FEIGENBAUM, E. A., BUCHANAN, B. G. et LEDERBERG, J. (1971 ) . On generality and ·
problem solving : A case study using the DENDRAL program. In MELTZER, D.
et MICHIE, D., éditeurs : Machine intelligence, volume 6, Edinburgh. Edinburgh
University Press.
FORD, M. (2004) . System LS : A three tiered nonmonotonic reasoning system. Com­
putational Intelligence, 20 :89-108.
FORD, M. et BILLINGTON, D. (2000) . Strategies in human nonmonotonic reasoning.
Computational Intelligence, 16 :446-468.
GARDENFORS, P. (1988) . Knowledge in flux. Cambridge University Press.
GEORGE, C. (1999) . Evaluation of the plausibility of a conclusion derivable from several
arguments with uncertain premises. Thinking and Reasoning, 5 :245-281 .
HAGMAYER, Y . e t SLOMAN, S. A. (2009) . Decision makers conceive o f their choices as
interventions. Journal of Experimental Psychology : General, 138 :22-38.
HAGMAYER, Y., SLOMAN, S. A., LAGNADO, D. A. et WALDMANN, M. R. (2007) . Causal
reasoning through intervention. In G OPNICK, A. et SCHULTZ, L. E., éditeurs : Causal
learning : Psychology, philosophy, and computation, pages 86-100, Oxford University
1 278 Panorama de l'intelligence artificielle. Volume 3
-

Press. New York.


JOHNSON-LAIRD, P. N., GIROTTO, V. et LEGRENZI, P. (2004) . Reasoning from incon­
sistency to consistency. Psychological Review, 1 1 1 :640-661.
KAHNEMAN, D . , SLOVIC, P. e t TVERSKY, A. (1982) . Judgment under Uncertainty :
Heuristics and Biases. Cambridge University Press, Cambridge.
KAHNEMAN, D. et TVERSKY, A. (1979) . Prospect theory : An analysis of decision
under risk. Econometrica, 47 :263-292.
KAYSER, D. et NOUIOUA, F. (2009) . From the textual description of an accident to its
causes. Artificial Intelligence, 12-13 : 1 154-1 193.
KRAUS, S . , LEHMANN, D. et MAGIDOR, M. (1990) . Nonmonotonic reasoning, prefe­
rential models and cumulative logics. Artificial Intelligence, 44 : 167-207.
KRYNSKI, T. R. et TENENBAUM, J. B. (2007) . The role of causality in judgment under
uncertainty. Journal of Experimental Psychology : General, 136 :430-450.
KuSHNIR, T. et GOPNIK, A. (2005) . Young children infer causal strength from proba­
bilities and interventions. Psychological SCience, 16 :678-683.
MADAKKATEL, M. 1 . , RAHWAN, 1., BONNEFON, J. F., AwAN, R. N. et ABDALLAH, S.
(2009) . Formal argumentation and human reasoning : The case of reinstatement. In
Proceedings of the AAAI Fall Symposium on The Uses of Computational Argumen­
tation, Washington DC.
MARKOVITS, H. et SCHMELTZER, c. (2007) . What makes people revise their beliefs
following contradictory anecdotal evidence ? The influence of systemic variability and
direct experience. Cognitive Science, 31 :535-547.
MERCIER, H. et SPERBER, D. (2009) . Intuitive and reflective inferences. In EVANS,
J. S. B. T. et FRANKISH, K., éditeurs : In two minds : Dual processes and beyond,
Oxford. Oxford University Press.
MILLER, G. A. ( 1956) . The magical number seven, plus or minus two : Sorne limits on
our capacity for processing information. Psychological Review, 63 :81-97.
NEWELL, A., SHAW, J. C. et SIMON, H. A. (1958) . Elements of a theory of human
problem solving. Psychological Review, 65 : 151-166.
NEWELL, A. et SIMON, H. A. (1961) . GPS : A program that simulates human thought.
In BILLING, H., éditeur : Lernende Automaten, pages 109-124, R. Oldenbourg. Mu­
nich, Germany.
NEWELL, A. et SIMON, H. A. (1972) . Human problem solving. Prentice Hall, Englewood
Cliffs, NJ.
OAKSFORD, M. et CHATER, N. (2007) . Bayesian rationality : The probabilistic approach
to human reasoning. Oxford University Press, Oxford.
PEARL, J. (2000) . Causality : Models, Reasoning, and Inference. Cambridge University
Press, Cambridge.
PELLETIER, F. J. et ELIO, R. (1997) . What should default reasoning be, by default ?
Computational Intelligence, 13 : 165-187.
PELLETIER, F. J. et ELIO, R. (2005). The case for psychologism in default and inheri­
tance reasoning. Synthese, 146 :7-35.
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 279

PFEIFER, N. et KLEITER, G. D. (2005). Coherence and nonmonotonicity in human


nonmonotonic reasoning. Synthese, 146 :93-109.
PFEIFER, N. et KLEITER, G. D. (2009) . Framing human inference by coherence based
probability logic. Journal of Applied Logic, 7 :206-217.
PIETARINEN, A.-V. (2003) . What do epistemic logic and cognitive science have to do
with each other ? Cognitive Systems Research, 4 : 169-190.
POLITZER, G. et BONNEFON, J. F. (2009) . Let us not put the probabilistic cart before
the uncertainty bull. Behavioral and Brain Sciences, 32 : 100-101.
POLITZER, G. et BoURMEAU, G. (2002) . Deductive reasoning from uncertain condi­
tionals. British Journal of Psychology, 93 :345-381.
POLITZER, G. et CARLES, L. (2001). Belief revision and uncertain reasoning. Thinking
and Reasoning, 7 :217-234.
QUILLIAN, M. R. (1968) . Semantic memory. In MINSKY, M., éditeur : Semantic
information processing, Cambridge, MS. MIT Press.
RAUFASTE, E. , DA SILVA NEVES, R. M. et MARINÉ, C. (2003). Testing the descriptive
validity of possibility theory in human judgments of uncertainty. Artificial Intelli­
gence, 148 : 197-218.
RIPS, L. J. (1998) . Reasoning and conversation. Psychological Review, 105 :41 1-441.
SCHANK, R . C. et ABELSON, R . P. (1977) . Scripts, plans, goals and understanding.
Lawrence Erlbaum, Hillsdale, NJ.
SCHULTZ, L. E., KusHNIR, T. et GOPNICK, A. (2007) . Learning from doing : Interven­
tion and causal inference in children. In GOPNICK, A. et SCHULTZ, L. E., éditeurs :
Causal learning : Psychology, philosophy, and computation, Oxford University Press.
New York.
SHAFIR, E. (1993) . Choosing versus rejecting : Why some options are both better and
worse than others. Memory and Cognition, 21 :546-556.
SHAFIR, E., SIMONSON, 1. et TVERSKY, A. (1993) . Reason-based choice. Cognition,
49 : 1 1-36.
SHORTLIFFE, E. H. (1976) . MYCIN : Computer-based medical consultations. Elsevier,
New York.
SLOMAN, S. A. (2005) . Causal models : How people think about the world and its
alternatives. Oxford University Press, Oxford.
SLOMAN, S. A. et LAGNADO, D. A. (2005). Do we "do" ? Cognitive Science, 29 :5-39.
STANOVICH, K. E. et WEST, R. F. (2000) . Individual differences in reasoning : Impli­
cations for the rationality debate ? Behavioral and Brain Sciences, 23 :645-665.
STENNING, K. et VAN LAMBALGEN, M. (2005) . Semantic interpretation as computation
in nonmonotonic logic : the real meaning of the suppression task. Cognitive Science,
29 :919-960.
STENNING, K. et VAN LAMBALGEN, M. (2008) . Human reasoning and cognitive science.
MIT Press, Cambridge, MA.
VAN BENTHEM, J. (2008) . Logic and reasoning : do the facts matter ? Studia Logica,
88 :67-84.
1 280 Panorama de l'intelligence artificielle. Volume 3
-

WALDMANN, M. R. et HAGMAYER, Y. (2005) . Seeing versus doing : Two modes of


accessing causal knowledge. Journal of Experimental Psychology : Learning, Memory,
and Cognition, 31 :216-227.
WINOGRAD, T. (1972) . Understanding natural language. Academic Press, New York.
1 1 . Fertilisation croisée entre interaction personne-système et IA - 128 1

Chapitre 1 1

Fertilisation croisée entre


interaction personne-système
et intelligence artificielle

L'interaction personne-système et l'intelligence artificielle sont deux disciplines qui


ont suivi des trajectoires parallèles au cours du temps tout en se rejoignant et se
complétant naturellement sur différents domaines aux problématiques riches depuis
une quarantainè d'années. Sans souci d'exhaustivité mais plutôt de représentativité,
après avoir dressé un historique des interfaces entre interaction personne-système et
intelligence artificielle, particulièrement focalisé sur la genèse, ce chapitre passe en re­
vue quatre domaines sources de fertilisation croisée. Les interfaces utilisateur dites
intelligentes sont un premier domaine typique à ce sujet. Parmi les nombreuses ap­
proches possibles d'interaction intelligente, les agents conversationnels animés affectifs
constituent un domaine à part. La capitalisation, la formalisation et l'exploitation de
connaissances ergonomiques pour la conception et l'évaluation des systèmes interactifs
débouchent sur des travaux combinant nécessairement méthodes et modèles de l'inter­
action personne-système et de l'intelligence artificielle. La synergie entre visualisation
et fouille de données est également mise en avant dans ce chapitre.

11.1 Introduction
Ce chapitre a pour objectif d'étudier les interfaces entre interaction personne­
système 1 et intelligence artificielle (IA) , mais peut aussi être vu comme un plaidoyer

Auteurs : CHRISTOPHE KOLSKI, GUY BOY, GUY MELANÇON, MAGALIE ÜCHS et JEAN VANDER­
DONCKT.
1. Même si le terme communément employé dans la communauté francophone est encore plu­
tôt « interaction homme-machine » (cf. http : //www . afihm . org/ , le site de l'Association Francophone
d'interaction Homme-Machine) , voire « interaction humain-machine », nous avons choisi d'utiliser
« interaction personne-système » dans ce chapitre.
1 282 Panorama de l'intelligence artificielle. Volume 3
-

d'association de ces deux domaines. L'objet principal de l'IA est de créer et dévelop­
per des systèmes intelligents, c'est-à-dire capables de percevoir, de raisonner, d'agir et
d'apprendre par eux-mêmes. Cet objectif fondamental a permis de développer des mé­
thodes, techniques et outils permettant, de manière limitée mais effective, de percevoir,
de raisonner, d'agir et d'apprendre. Cependant, l'objet initial de l'IA et l'ambition de
ce champ de recherche ont de facto inscrits ses travaux sur un calendrier à long terme.
Ainsi, la robotique a fait des progrès considérables ; le plus récent est certainement le
robot « Curiosity » actuellement en activité sur la planète Mars. L'interaction personne­
système, de son côté, s'est centrée sur la facilité d'utilisation des nouvelles technologies
en promouvant la créativité et l'innovation. L'interaction personne-système a toujours
eu des objectifs à beaucoup plus court terme. Encore faut-il noter que les télé-opérations
avec Curiosity depuis la Terre ne peuvent pas se faire sans interfaces utilisateur basées
sur de solides notions d'interaction personne-système, en particulier en ce qui concerne
la planification de ses activités. En d'autres termes, les ingénieurs téléopérateurs de
la NASA doivent avoir la meilleure conscience de la situation possible sur comment
les instruments de Curiosity peuvent être utilisés et quelles sont les ressources que ses
diverses activités vont consommer 2 •
Il est utile de constater que l'IA et l'interaction personne-système ont en commun
la prise en compte de l'humain comme modèle. D'un côté, l'IA tente de mimer l'hu­
main et rationnaliser ses comportements pour construire différents types de systèmes
intelligents, incluant des robots. D'un autre côté, l'interaction personne-système tente
de comprendre l'humain pour mieux adapter les machines pour une utilisation plus
facile, sûre, efficace et confortable. L'IA s'intéresse aux mécanismes internes d'une
intelligence rationnelle, alors que l'interaction personne-système se focalise sur les phé­
nomènes fondamentaux de l'interaction entre les humains et les outils qu'ils ont créés
et qu'ils utilisent.
Force est de constater que, de nos jours, les spécialistes de l'interaction personne­
système utilisent de plus en plus de techniques de l'IA pour améliorer l'interaction.
Ils utilisent des techniques d'apprentissage automatique pour la contextualisation des
recherches sur le Web par exemple. Les spécialistes de l'IA ont besoin d'interfaces
utilisateur adaptées afin de pouvoir utiliser les systèmes intelligents développés. L'in­
teraction humain-robot est un excellent exemple de cette fusion des deux disciplines.
L'écrivain Isaac Asimov avait en 1941 très bien décrit les lois principales de l'interaction
humain-robot : « ( Loi 1) un robot ne peut blesser un être humain ni, restant passif,
laisser cet être humain être exposé au danger ; { Loi 2) un robot doit obéir aux ordres
donnés par les êtres humains, sauf si ces ordres sont en contradiction avec la Loi 1 ; et
(Loi 3) un robot doit protéger sa propre existence dans la mesure où cette protection
n'entre pas en conflit avec les Loi 1 et 2. » (Asimov, 2008] . Nous retrouvons ici des
notions de sécurité, efficacité et confort propres à l'interaction personne-système.
Cette association de l'interaction personne-système et de l'IA émerge progressive­
ment autour des exigences sans cesse accrues de sens, de connaissances, de compétences,
d'expérience ... et finalement de bon sens. Le succès d'une nouvelle technologie vient du
fait qu'elle est le produit d'une intégration intelligente et pertinente de diverses mé­
thodes, techniques et systèmes. L'IA offre des outils pour automatiser de façon externe
2. http : //hci . arc . nasa . gov/msl i c e . html
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 283

des comportements humains, ainsi que de créer de nouvelles prothèses cognitives [Ford
et al. , 1997] . L'interaction personne-système offre des outils pour une interaction hu­
maine plus sûre, plus efficace et plus confortable avec les technologies résultantes. Il
est certainement plus intéressant de se tourner vers une approche plus globale de la
conception de systèmes qui intègre à la fois l'intelligence et l'interaction, en considérant
de concert l'utilisation de l'informatique et des sciences humaines et sociales pour aller
vers une conception anthropocentrée (Boy, 2012] .
Dans la seconde partie du chapitre, un historique des interfaces entre interaction
personne-système et intelligence artificielle est dressé, en nous focalisant sur la genèse.
Les interfaces utilisateur intelligentes sont étudiées dans la troisième partie. Parmi les
avancées récentes du domaine on retrouve les agents conversationnels animés affec­
tifs, faisant l'objet de la quatrième partie. Des travaux de capitalisation, formalisation
et exploitation de connaissances ergonomiques pour la conception et l'évaluation des
systèmes interactifs sont décrits en cinquième partie. La sixième est consacrée à la
visualisation et à la fouille de données (data-mining) . La dernière conclut ce chapitre
consacré à la fertilisation croisée entre interaction personne-système et intelligence ar­
tificielle.

11.2 Historique des interfaces entre interaction


personne-système et IA : la genèse
L'intelligence artificielle (IA) et l'interaction homme-machine (IHM) sont deux
branches de l'informatique. Ces deux disciplines à la fois se conjuguent entre elles et
sont différentes par leurs objectifs et leurs natures. L'IA étudie les agents intelligents,
c'est-à-dire toute entité capable de percevoir, inférer et agir sur son environnement en
utilisant ses propres connaissances. C'est John McCarthy qui, en 1955, a nommé et
défini l'IA comme la discipline scientifique et technique qui permet de construire des
machines intelligentes. Alors que l'IHM étudie les dispositifs à mettre en œuvre pour
contrôler et communiquer avec une machine, ou avec d'autres personnes par l'intermé­
diaire d'une machine. ACM-SIGCHI 3 donne à ce sujet la définition suivante : « L'inter­
action humain-ordinateur est une discipline qui s'intéresse à la conception, l'évaluation
et la mise en œuvre de systèmes informatiques interactifs utilisés par des êtres hu­
mains et à l'étude des phénomènes majeurs qui l'entourent 4 • » [Hewett et al. , 1992] .
Le terme Interaction Homme-Machine, encore communément utilisé, est d'ailleurs mal
choisi parce qu'il s'agit désormais toujours de dispositifs fortement informatisés (la ter­
minologie anglo-saxonne, Human-Computer Interaction, est d'ailleurs plus précise sur
le sujet : la machine est en réalité un ordinateur) . L'IHM a pour objet l'interaction
entre agents, et non l'intelligence des agents eux-mêmes, même si celle-ci doit toujours
être prise en compte au moment de la conception comme tout au long du cycle de vie du
produit. De plus, si nous utilisons la définition d' ACM-SIGCHI, la notion de « système
3. A CM (Association for Computing Machinery)-SIG CHI (Special Interest Group on Computer­
Human Interaction).
4. « Human-computer interaction is a discipline concerned with the design, evaluation and imple­
mentation of interactive computing systems for human use and with the study of major phenomena
surrounding them. »
1 284 Panorama de l'intelligence artificielle. Volume 3
-

informatique interactif », et plus simplement de « système », est certainement de plus


en plus adaptée. Nous pouvons donc parler d'interaction personne-système ( terme que
nous avons choisi d'utiliser dans ce chapitre) , et même d'intégration personne-système.
Il est certainement intéressant de commencer par parler d'automatique avant de
parler d'intelligence artificielle. Bien que ces deux disciplines n'appartiennent pas aux
mêmes champs scientifiques, elles sont en continuité dans le champ de leur mise en
œuvre, c'est-à-dire dans l'industrie. Nous avons automatisé les avions de transport de­
puis les années trente. Ce type d'automatisation a mis en œuvre des techniques analo­
giques et ensuite numériques, pour passer à des techniques et outils symboliques. L'au­
tomatisation est progressivement devenue une question de génie logiciel. Par exemple,
on a vu évoluer les cockpits d'avion d'équipements électroniques à des équipements
informatiques. Dans les années quatre-vingt, le système de gestion du vol (Flight Ma­
nagement System ou FMS) a été introduit sous la forme d'un système de gestion de
base de données à bord des avions de transport commerciaux. Il a permis de libérer
l'équipage de tâches de planification du vol et de navigation parce que ce système
incluait l'intelligence nécessaire pour donner des résultats que les pilotes avaient l'ha­
bitude de générer eux-mêmes. Les méthodes sous-jacentes étaient des systèmes à base
de règles et des optimisations de trajectoires. Le problème a été qu'il était souvent plus
difficile de manipuler et gérer le FMS que de se servir de cartes, documents papiers, et
surtout de sa tête. L'intelligence était passée dans la machine sans que nous ne nous
soyons préoccupés des questions d'interaction avec ce nouveau type de système. L'in­
terface était compliquée. Elle introduisait des possibilités d'erreurs d'interaction. Son
utilisation était difficile à apprendre et retenir. Bref, si l'automatisation était bonne,
l'interaction entre elle et le pilote demandait beaucoup plus de travail. Il a fallu at­
tendre pour avoir une technologie suffisamment mature pour avoir le type d'interface
utilisateur que nous connaissons aujourd'hui dans le cockpit de l'A380 par exemple. Il
est intéressant de noter que ce type de cockpit s'appelle aujourd'hui « cockpit interac­
tif » non pas à cause de l'interaction avec les systèmes les parties mécaniques de l'avion
mais de l'interaction avec l'interface utilisateur de bord, c'est-à-dire une interaction de
type pointage sur les écrans.
Dans l'interaction personne-système, il y a « personne ». L'entité humaine est dif­
ficile à cerner, définir et modéliser. Depuis longtemps, la communauté des facteurs
humains et de l'ergonomie ( FHE) s'est penchée sur cette question (Woodson et Cono­
ver, 1964] . On peut caractériser l'humain selon diverses propriétés. Tout d'abord, il a
un corps physique et physiologique ; une question que les spécialistes FHE se sont po­
sée depuis la fin de la deuxième guerre mondiale avec le développement de mannequins
numériques. Les aspects biomécaniques, la fatigue, l'âge et d'autres facteurs humains
ont été et sont toujours largement et profondément pris en compte. Cette ergonomie
physique était celle que nous avons connue au début des années quatre-vingt lorsque
nous avons dû certifier des cockpits d'avion de transport conçu en pilotage à deux.
Nous nous sommes très rapidement aperçus que l'ergonomie physique et physiologique
ne suffi.sait pas et était très limitée au regard de l'évaluation des nouveaux systèmes
de bord. Il fallait passer à une ergonomie cognitive capable de servir de support à
une analyse du traitement de l'information [Norman, 1986] . De plus, les techniques
d'automatisation classiques ne suffisaient pas et les techniques d'interaction avec ces
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1285

systèmes hautement automatisés devenaient « un autre centre du problème » . L'inter­


action personne-système faisait son entrée dans le cockpit, tout comme elle a fait son
entrée dans divers domaines des systèmes critiques dans les années qui ont suivi. A
l'époque, nous nous focalisions sur le traitement de l'information et c'est pour cela
que les sciences cognitives ont pris une ampleur considérable dans le milieu des ingé­
nieurs. L'ergonomie cognitive, et l'ingénierie cognitive, sont devenues des disciplines
incontournables pour analyser, mieux comprendre, concevoir et évaluer les systèmes
humain(s)-machine(s) modernes. La cognition était devenue un passage obligé, central
(Card et al. , 1983 ; Hutchins, 1995 ; Boy, 1998] .
L'approche cognitive a ensuite donné naissance à un autre point de vue, organisa­
tionnel celui-là, avec l'introduction des collecticiels et du travail coopératif (le CSCW :
Computer-Supported Cooperative Work) (Grudin, 1994] . Pour les spécialistes de l'inter­
action personne-système, l'humain devenait un travailleur au sein d'une organisation.
L'informatique devenait du coup un support à la gestion administrative et aux affaires.
Dans le background, Internet devenait de plus en plus persistant, depuis les travaux de
Douglas Engelbart dans les années soixante jusqu'à l'avènement de la Toile (c'est-à-dire
du World Wide Web ou Web) en 1992 par Tim Burners Lee et son équipe au CERN à
Genève. Le Web a réellement établi un changement des pratiques au sein de nos socié­
tés modernes. L'humain est progressivement devenu « informavore » (terme introduit
par George Miller en 1983) . Les sciences de l'information et de la communication se
sont bien sûr saisies de ce nouvel objet et ce nouveau sujet. Il s'agissait alors de mieux
gérer les recherches d'informations en utilisant le Web. L'interaction personne-système
a coopéré avec l'IA pour générer des logiciels d'optimisation de recherche d'informa­
tions et d'apprentissage des habitudes des utilisateurs (Bellot, 201 1] (Boy, 1991a] . Le
Web est devenu le Web sémantique (Berners-Lee et al. , 2001 ; Shadbolt et al. , 2006] ,
en ajoutant l'intelligence d'un bibliothécaire universel.
La progression de l'interaction personne-système nous a alors conduits vers une
nouvelle étape, celle des réseaux sociaux. L'humain devenait un être social pour les
informaticiens de ce domaine. L'introduction de systèmes comme ceux de Google,
Facebook, Linkedln et Twitter a vu émerger de nouvelles pratiques. Plus besoin de
structure, les connaissances pouvaient être complètement réparties, nous pouvions les
trouver n'importe où et n'importe quand. Les chercheurs et praticiens en sociologie et
anthropologie entraient en scène pour étudier ce nouveau type d'environnements.
Les interactions personne-système sont aujourd'hui intrinsèquement sociales mais
aussi émotionnelles, l'humain ressentant de nombreuses émotions tant positives que
négatives face à un système interactif. L'intelligence artificielle d'un système réside
alors aussi dans sa capacité à gérer ces dimensions affectives de l'interaction à travers
des interfaces capables de s'adapter au contexte social et aux émotions de l'utilisateur.
Cette problématique de recherche a fait naître un courant de recherche de l'informa­
tique se situant à la frontière entre interaction personne-système et IA : l'informatique
affective (Picard, 1997] .
Où en sommes-nous aujourd'hui ? Le développement des technologies de l'informa­
tion nous a apporté beaucoup de techniques et d'outils. Certainement trop pour que
nous puissions raisonnablement les intégrer facilement en fonction du propos de nos
problèmes à résoudre. Il est temps de se poser la question de la signification (meaning) .
1 286 Panorama de l'intelligence artificielle. Volume 3
-

Qu'est-ce qui a du sens ? Nous sommes en train de passer de la problématique du savoir­


faire à la problématique du savoir-être. C'est pour cela que le design (au sens intégré de
la conception et de l'esthétique) devient progressivement une nécessité dans les sciences
de l'ingénieur, et l'informatique en particulier. L'approche design de la résolution de
problèmes fait appel à la créativité et non plus à des procédures figées, bloquantes et
finalement stériles. Ce qui caractérise notre société du XXIème siècle c'est certainement
la complexité. Sur ce point, l'IA et l'interaction personne-système doivent se rejoindre
pour résoudre des problèmes dont la complexité est au centre. Nous devons ensemble
converger vers une approche ontologique de la position et résolution de problèmes. En
effet, avant de résoudre un problème, il faut savoir bien le poser ! C'est tout l'art de
l'abduction, de savoir imaginer des hypothèses et des buts, chercher des opportunités
et en définitive chercher le sens [Boy, 2012) .

1 1 .3 Interfaces utilisateur intelligentes


Les interfaces utilisateur intelligentes constituent un domaine vaste, riche, résolu­
ment à l'intersection de !'Interaction personne-système et de l'intelligence artificielle,
mais aussi des sciences cognitives. La recherche sur de telles interfaces utilisateur est
apparue dès le début des années 80 (voir par exemple [Edmonds, 1981) ) , les premiers
concepts datant même de la fin des années 70 sous l'angle des approches dites adapta­
tives. De nombreuses définitions ont été proposées dans la littérature. Ainsi [Hancock et
Chignell, 1989) les ont définies comme des interfaces visant à apporter des outils aidant
à la minimisation de la distance cognitive entre le modèle mental qu'a l'utilisateur de
la tâche et la manière dont la tâche est présentée à l'utilisateur via l'ordinateur, lors
de sa réalisation. Il nous semble même possible d'aller plus loin que cette définition,
car, en partant du modèle de la théorie de l'action de [Norman, 1986) , tout en se si­
tuant selon une approche d'adaptation (de nombreuses autres ayant été étudiées dans
la littérature, cf. ci-dessous) , il est possible de situer différentes étapes cognitives, par
rapport auxquelles une ou plusieurs adaptations prennent toute leur importance, figure
1.
Parmi les nombreuses autres définitions, on retrouve celle plus large de [Maybury,
1999) : « Intelligent User Interfaces (IUI) are human-machine interfaces that aim to
improve the efficiency, effectiveness, and naturalness of human-computer interaction by
representing, reasoning, and acting on models of the user, domain, task, discourse, and
media (e.g. , graphies, natural language, gesture). IUI are multifaceted, in purpose and
nature, and include capabilities for multimedia input analysis, multimedia presentation
generation, model-based interfaces, agent-based interfaces, and the use of user, discourse
and task models to personalize and enhance interaction. [... ] » .
Par conséquence, l e domaine des interfaces intelligentes couvre u n champ disci­
plinaire représentant l'intersection entre l'interaction personne-système, l'ergonomie
du logiciel, les sciences cognitives et l'intelligence artificielle, y compris leurs sous­
disciplines respectives, telles que la vision assistée par ordinateur, le traitement auto­
matique de la langue, la représentation des connaissances et le raisonnement, l'appren­
tissage machine, la découverte de connaissance, la planification, la modélisation des
agents machine et utilisateur, la modélisation du discours.
11. Fertilisation croisée entre interaction personne-système et IA - 1 287

Activhè
physiqu�
A pp 1 i<:;1t i Otl

FIGURE 1 - Adaptation(s) à la lumière de la théorie de l'Action (adapté de [Norman,


1986))

Il est communément admis que le domaine des interfaces intelligentes représente


plus simplement l'intersection entre l'interaction personne-système et l'intelligence ar­
tificielle, au même titre que l'ingénierie des systèmes interactifs (en anglais, Engineering
of Interactive Computing Systems - EICS) représente l'intersection entre l'interaction
personne-système et le génie logiciel.
La définition de Maybury est intéressante car elle met en avant que de telles in­
terfaces visent à apporter des solutions relativement à différents critères sous-jacents à
l'interaction personne-système, et qu'elles nécessitent de prendre en compte explicite­
ment plusieurs modèles pour couvrir un ensemble d'étapes en lien avec la perception,
la décision et l'action (si on se réfère au modèle PCA bien connu en intelligence ar­
tificielle) . On y retrouve des problématiques et verrous récurrents liés aussi bien à la
reconnaissance des intentions de l'utilisateur (ou groupe d'utilisateurs) , à la modélisa­
tion de connaissances et préférences, à la communication avec l'utilisateur, et aussi au
raisonnement et la prise de décision (quoi présenter, quand, où et à qui le présenter,
comment le présenter, et aussi ... pourquoi l'avoir présenté) .
Les interfaces utilisateur intelligentes constituent désormais un domaine à part en­
tière. Il est important de souligner qu'une conférence renommée de l' Association of
Computing Machinery (ACM} leur est consacrée. Celle-ci est intitulée ACM IUI {Intel­
ligent User Interfaces). D'un point de vue historique (voir aussi http : //www . iuiconf .
org/IUI/History) , l'idée a démarré d'un workshop organisé en mars 1988 intitulé
« Architectures for Intelligent Interfaces », débouchant en 1991 sur le livre « Intelligent
User Interfaces » édité par J.W. Sullivan and S.W. Tyler, organisateurs du workshop) .
Après un premier workshop sponsorisé par l'ACM en 1993, IUI est devenu une confé­
rence annuelle à partir de 1997. Dans l'appel de l'édition 2013, notons que les thèmes
mis en avant étaient les suivants : User input ; Generation of system input ; Ubiquitous
Computing ; Help ; Personalization ; AI Techniques ; Social Computing ; IUI Design ;
User studies ; Semantic Web. Outre la publication régulière de nombreux livres et ar­
ticles sur les interfaces utilisateur intelligentes dans différents journaux et conférences,
1 288 Panorama de l'intelligence artificielle. Volume 3
-

aussi bien en Interaction personne-système qu'en intelligence artificielle, on peut souli­


gner que deux journaux leur sont dédiés : User Modeling and User-Adapted Interaction
(Springer) ; ACM Transactions on Interactive Intelligent Systems.
Il est possible de trouver de nombreuses approches contribuant aux interfaces uti­
lisateur intelligentes dans la littérature. Il n'est pas possible ici de toutes les citer ici,
le lecteur intéressé pouvant trouver dans différents ouvrages ou articles de synthèse de
plus amples détails à ce sujet [Chignell et Hancock, 1988 ; Kolski et Le Strugeon, 1998 ;
Hôôk, 2000 ; Jameson, 2007] :
- Les approches dites adaptatives sont celles ayant débouché sur le plus de propo­
sitions (cf. [Kolski et al. , 1992 ; Schneider-Hufschmidt et al., 1993 ; Jameson et
Gajos, 2012] ) , l'adaptation se faisant le plus souvent relativement à différentes
caractéristiques utilisateur ou à la tâche.
- Dans le prolongement des travaux sur l'adaptation, on trouve ceux portant sur
une tendance actuelle qui est de fournir de plus en plus des services personnalisés
aux utilisateurs des systèmes d'information au sens large. Il s'agit dans ce cas
de s'adapter aux buts (besoins ou raisons ayant mené l'utilisateur à interroger le
système) , habitudes/préférences (ensemble des critères qui permettent de distin­
guer une solution d'une autre pour une même requête) , capacités de l'utilisateur
(englobant aussi bien les capacités matérielles et logicielles à la disposition de
l'utilisateur, que de ses propres capacités physiques ou cognitives, liées éven­
tuellement à des handicaps) . Il est important que le système apprenne au fur et
à mesure des interactions avec l'utilisateur (et d'utilisateurs au profil proche) ,
afin d'affiner la personnalisation, en exploitant par exemple des algorithmes de
filtrage collaboratif [Su et Khoshgoftaar, 2009] . Les travaux sont nombreux dans
ce domaine (Abed et al., 201 1 ; Brusilovsky et al. , 2007 ; Peintner et al. , 2008] .
- Les interfaces utilisateur intelligentes peuvent être aussi dites tolérantes aux
erreurs humaines (Rouse et Morris, 1987 ; Beka Be Nguema et al. , 2000] , l'adap­
tation exploitant une classification des erreurs humaines possibles et de leurs
conséquences pour corriger des erreurs humaines ou avertir l'utilisateur de pro­
blèmes à ce sujet.
- Une autre catégorie regroupe les assistants à l'utilisateur, au sens large. Ceux­
ci sont au service de l'utilisateur, à leur écoute, afin de les assister en cas de
problème (Lieberman, 1995] ; un exemple typique étant l'assistant intégré dans
différentes versions précédentes d'un environnement bureautique connu, l'assis­
tant étant mis à la disposition de l'utilisateur et le conseillant sur des procé­
dures adaptées (à la demande ou non de celui-ci, par exemple comment repa­
giner un document) . Une telle approche avait été proposée initialement dans
le domaine aéronautique, sous la dénomination d'opérateur assistant intelligent
jouant le rôle de co-pilote dans un cockpit et raisonnant en parallèle à l'utilisa­
teur considéré comme le décideur final [Boy, 1991a] . Afin d'améliorer les inter­
actions personne-système, de les rendre plus naturelles, les choix de conception
peuvent porter sur une physionomie humaine de l'assistant, voir à ce sujet la
partie « Agents conversationnels animés affectifs » de ce chapitre.
- De nombreuses recherches portent sur le contexte de manière général, les défi­
nitions de (Abowd et al. , 1999] et [Dey, 2001] à ce sujet étant les plus citées, et
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 289

les systèmes dits sensibles au contexte. On trouve en fait dans la littérature les
qualificatifs suivants : Context-aware et Context-sensitive, qui dénotent le fait
d'utiliser le contexte ou celui de s'adapter à celui-ci. Les travaux sont nombreux
dans ce domaine [Boy, 1991b, 1992 ; Winograd, 2001 ; Coutaz et Rey, 2002 ;
Limbourg et al. , 2004 ; van den Bergh, 2006 ; Brossard et al. , 201 1] .
- Dans l'approche des interfaces dites plastiques, il s'agit pour celles-ci s'adapter
à leur contexte d'usage dans le respect de leur utilisabilité [Thevenin et Coutaz,
1999] . Le contexte d'usage concerne aussi bien les caractéristiques de l'utilisa­
teur, de la plate-forme d'interaction que de l'environnement [Calvary et Coutaz,
2007 ; Coutaz et Calvary, 2007] .
- Une autre approche plus prospective consisterait à considérer l'interface uti­
lisateur intelligente et son environnement socio-technique comme un système
multiagent, selon une approche distribuée de l'interaction personne-système,
celle-ci faisant l'objet, de manière générale, de plus en plus de travaux actuel­
lement [Gallud et al. , 201 1 ] . Une telle interface, suggérée par [Mandiau et al. ,
1991 ; Kolski et Le Strugeon, 1998] , est composée d'agents, aussi bien réactifs
que cognitifs, travaillant en parallèle et/ou coopérant, dans le but de résoudre
différents problèmes relatifs aux tâches à effectuer. Le résultat de leurs traite­
ments est transmis aux utilisateurs, grâce à des actes de communication, mais on
peut imaginer tout un ensemble d'autres actions, sur le système par exemple. Ce
principe a été mis en œuvre récemment dans le cadre d'une simulation de trafic
routier sur table interactive munie de la technologie RFID, les agents virtuels
représentant des véhicules réagissant à l'activation d'objets tangibles manipulés
par les utilisateurs [Kubicki et al. , 2013] .
Les domaines d'application des interfaces utilisateur utilisateurs sont multiples,
puisque ces dernières peuvent être d'un apport dès lors qu'une aide automatique ou
semi-automatique peut être mise en œuvre par le système interactif, tout en prenant
en compte différents critères, caractéristiques et/ou préférences centrées utilisateur.
Les recherches et développements ont porté aussi bien sur des tâches très ciblées (bu­
reautique, recherche d'information, commerce électronique, etc.) que sur des tâches
complexes, voire critiques (transports, supervision, santé) .

1 1 .4 Agents conversationnels animés affectifs


L'essor des nouvelles technologies place aujourd'hui les systèmes informatiques, non
plus seulement comme simples outils, mais comme compagnons nous assistant dans
des tâches quotidiennes de lecture, d'écriture, de jeux, d'apprentissage ou encore de
communication avec autrui. Nos ordinateurs incarnent ainsi de plus en plus des rôles
typiquement attribués aux humains, tels que celui de professeur, de conseiller ou en­
core d'animateur. Lorsque ces systèmes interactifs sont dotés de caractéristiques de la
communication humaine, les utilisateurs tendent à interagir avec ces derniers comme
si ils étaient humains [Reeves et Nass, 1996] . Ce rapprochement de la communication
humaine dans les interfaces virtuelles peut être atteint en utilisant des artefacts huma­
noïdes capables de simuler la richesse de la conversation humaine. Les récents progrès
dans les technologies informatiques ont rendu possible la création de ces artefacts, ap-
1 290 Panorama de l'intelligence artificielle. Volume 3
-

FIGURE 2 - Exemple d'un agent conversationnel animé : l'agent Greta ( Pelachaud,


2009 ) . Expressions de joie, tristesse et colère ( de gauche à droite ) .

pelés agents conversationnels animés (ACAs) . Un agent conversationnel animé est un


personnage virtuel créé par l'ordinateur qui peut converser avec les utilisateurs d'une
façon naturelle, similaire à celle appliquée par les humains [Cassell, 2000] . Un exemple
d' ACAs est illustré sur la figure 2 .
Les ACAs ne sont pas d e simples représentations graphiques humanoïdes mais in­
carnent ( 1 ) des agents cognitifs capables de raisonner sur des représentations séman­
tiques internes complexes, ( 2 ) des agents interactifs capables d'interagir de manière
multimodale avec l'utilisateur, et (3) des agents expressifs capables de rendre percep­
tible, à travers leur comportement verbal et non verbal, un état cognitif et affectif
particulier. Ces trois dimensions - cognitive, interactive, et expressive - sont essen­
tielles pour concevoir un ACA permettant d'améliorer l'interaction tant au niveau de
la satisfaction de l'utilisateur qu'au niveau de la performance de l'utilisateur dans la
réalisation d'une tâche. Par exemple, un certain nombre de recherches montre qu'un
agent capable d'exprimer des émotions permet d'améliorer l'interaction [Beale et Creed,
2009] . Cependant, la capacité expressive de l'agent n'est pas suffisante : une même émo­
tion exprimée dans une situation inappropriée durant l'interaction peut avoir un effet
néfaste sur la perception de l'utilisateur [Ochs et al. , 2012b] . Ce sont les trois dimen­
sions, cognitive, interactive et expressive, qui vont permettre à l'agent d'adopter un
comportement affectif efficient durant une interaction avec l'utilisateur.
La dimension cognitive d'un ACA sous-entend une représentation des connaissances
et une capacité de raisonnement sur celles-ci 5 . Ces connaissances font référence à celles
liées au domaine d'application ou à la tâche ; mais aussi à celles liées à la dimension
sociale et émotionnelle de l'interaction. Un ACA doit en effet être capable de se repré­
senter et de raisonner sur ses propres émotions et celles de l'utilisateur étant donné un
5. Le lecteur peut se référer au volume 1 de cet ouvrage pour un panorama des méthodes en
intelligence artificielle de représentation des connaissances et de raisonnement.
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1291

contexte social déterminé. La représentation cognitive des émotions doit inclure une
représentation des conditions de déclenchement des émotions, i.e. ce qui peut amener
un individu à ressentir une émotion particulière dans une situation donnée. Ces in­
formations pourront être utilisées par l' ACA pour identifier à la fois à quel moment
durant l'interaction il peut exprimer quelle {s ) émotion (s ) , et à la fois quelle { s) émo­
tion {s) l'utilisateur peut potentiellement ressentir dans une situation d'interaction. Le
déclenchement d'une émotion étant étroitement liée à la réalisation ou l'échec d'un
but [Scherer, 2000] , une représentation de type BDI (Belief, Desire, Intention) des
émotions à travers une abréviation syntaxique d'une combinaison d'attitudes mentales
est particulièrement bien adaptée à cette problématique 6. Une telle formalisation a
par exemple permis de développer un ACA capable d'exprimer de l'empathie envers
l'utilisateur durant un dialogue [Ochs et al. , 2012b] ou encore un tuteur virtuel ca­
pable d'adapter sa stratégie pédagogique aux émotions inférées de l'utilisateur [Jaques
et Viccari, 2004] . D'autres méthodes ont été proposées pour représenter les émotions.
Pour traduire l'aspect dynamique ·et le caractère non déterministe des émotions, une
représentation à partir de réseaux - réseau bayésien [de Melo et al. , 2012] ou réseau
dynamique de croyance [deRosis et al., 2003] par exemple - a été développée.
De plus, les émotions d'un agent peuvent être utilisées pour déterminer le comporte­
ment approprié dans un environnement virtuel. Les émotions sont alors intégrées dans
le système de prise de décision pour la sélection d'actions [Canamero, 2003] . S'inspirant
de la théorie de coping selon laquelle les individus emploient des stratégies cognitives
pour faire face à leurs émotions [Lazarus, 1991 ] , l'impact des émotions sur le comporte­
ment d'un ACA peut être modélisé via une modification de son état mental, i.e. , de ses
croyances, désirs et intentions au sens BDI du terme [Gratch et Marsella, 2004] . Par
exemple, face à une émotion négative, l'ACA peut adopter une stratégie d'acceptation
où il reconnaît l'évènement négatif comme inéluctable et choisit alors d'abandonner
l'intention qui, par son échec, a déclenché l'émotion négative.
En perpétuelle interaction avec l'utilisateur, les connaissances émotionnelles de
l'agent doivent être enrichies par le déroulement de l'interaction. En effet, même si
une formalisation des émotions peut permettre d'inférer les émotions de l'utilisateur,
un système de reconnaissance en temps réel des émotions exprimées par l'utilisateur
permet de valider, réfuter ou encore affiner ces connaissances, en particulier sur l'ef­
fet des actions de l'agent sur les émotions de l'utilisateur. Durant une interaction,
l'utilisateur exprime ses émotions à travers son comportement non verbal (e.g. , les ex­
pressions faciales et la tonalité de la voix) , son comportement verbal ( e.g. , l'utilisation
de mots empreints d'émotions ) et à travers des signaux physiologiques ( e.g. le rythme
cardiaque ou la conductivité de la peau) . Les systèmes de reconnaissance automatique
des émotions reposent sur un apprentissage préalable des caractéristiques non verbales,
verbales ou physiologiques des états affectifs à partir de données réelles d'individus res­
sentant ou exprimant des émotions. Par exemple, des corpus audio-visuels peuvent être
collectés pour analyser les caractéristiques faciales, gestuelles et sonores des émotions
exprimées par des individus. Les corpus d'expressions d'émotions sont généralement
manuellement annotés avec des types d'émotions et éventuellement des valeurs d'in­
tensités. Une méthode pour extraire les connaissances de ces corpus consiste à utiliser

6. Un exemple d'une formalisation BDI des émotions est proposé au chapitre 1. 16.
1 292 Panorama de l'intelligence artificielle. Volume 3
-

des algorithmes d'apprentissage 7 supervisés pour corréler des caractéristiques expres­


sives, par exemple l'activation de muscles du visage ou des paramètres acoustiques, à
des émotions types et des intensités [Caplier, 2010 ; Clavel et Richard, 2010] .
Les méthodes d'apprentissage automatique sont aussi utilisées pour la synthèse des
comportements expressifs d'un ACA. L'analyse de données réelles d'interactions inter­
personnelles renseignent en effet à la fois sur la manière dont peut être exprimé un
état affectif ou cognitif particulier à travers l'expression faciale, les gestes ou encore la
posture ; mais renseigne aussi sur la manière dont des individus coordonnent leurs com­
portements non verbaux. Dans cette problématique d'apprentissage pour la synthèse
de comportement d' ACAs, deux approches peuvent être envisagées. Des algorithmes
d'apprentissage dits « boîtes noires » 8 peuvent être utilisés pour modéliser des compor­
tements non verbaux réflexes ou étroitement liés à une autre modalité. Par exemple,
un modèle de Markov caché est appris pour prédire des mouvements de tête [Lee et
Marsella, 2009] ou pour la synchronisation des mouvements de lèvres avec la parole
[Hofer et Richmond, 2010] . Des algorithmes d'apprentissage dits « boîtes blanches »
seront plus particulièrement utilisés pour extraire des connaissances qui seront ensuite
explicitement représentées dans l'ACA. Par exemple, une méthode de classification par
arbre de décision a été utilisée pour identifier les caractéristiques morphologiques et dy­
namiques de différents types de sourires d'ACA (amusé, poli et embarrassé) [Ochs et al.,
2012a] . Pour traduire la variabilité expressive des émotions, des modèles représentant
l'incertitude d'activer certains muscles du visage ou certains gestes, à partir de règles
de logique floue par exemple [Niewiadomski et Pelachaud, 2007] , ont été proposés.
En définitive, la conception d'un agent conversationnel animé affectif implique des
problématiques inhérentes à l'intelligence artificielle de représentation des connais­
sances, de prise de décision, de planification et d'apprentissage. Ces problématiques
appliquées au phénomène complexe qu'est l'émotion visent à intégrer dans les sys­
tèmes interactifs une intelligence dite émotionnelle [Salovey et al. , 2000] , essentielle
pour une optimisation des interactions personne-système.

11.5 Capitalisation, formalisation et exploitation de


connaissances ergonomiques pour la conception
et l'évaluation des systèmes interactifs
La conception et l'évaluation des systèmes interactifs sont des domaines très actifs
depuis plus d'une trentaine d'années en raison d'une motivation profonde : pouvoir
formaliser les connaissances d'ordre ergonomique afin de les intégrer dans un cadre de
référence computationnel qui soit capable de les exprimer à un haut niveau d'abstrac­
tion, de les mesurer, de les tester et de corriger toute enfreinte à ces connaissances. Ceci
afin de sortir de l'empirisme dans lequel ces connaissances seraient appliquées de ma­
nière opportuniste avec des niveaux de rigueur variables. Par exemple, [Ivory et Hearst,
2001] a observé que des logiciels d'évaluation automatique des règles d'accessibilité du
7. Les modèles d'apprentissage sont présentés en détail au chapitre I.9.
8. Les algorithmes d'apprentissage « boîte noire » désignent les algorithmes dont les sorties ne sont
pas interprétables, par exemple les réseaux de neurones ou les Systèmes Vecteurs Machine (SVM) .
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 293

W3C produisent des résultats variables en fonction des outils sur un même site web. Il
y a plusieurs raisons possibles : les connaissances ergonomiques ne sont pas formalisées,
si elles le sont, elles le sont de manière variable, surtout en fonction d'interprétation et
de méthodes différentes.
Rien que pour la spécification (au sens large) , [Jambon et al. , 2001) recensent et
classifient plusieurs dizaines de méthodes et techniques à ce sujet, selon : une vision
psycho-ergonomique, une vision de l'ingénierie des systèmes interactifs, une vision du
génie logiciel. [Vanderdonckt et Coyette, 2007) , de même que [Beaudouin-Lafon et Mac­
kay, 2003) , quant à eux, recensent de nombreuses techniques et outils contribuant au
maquettage et au prototypage des interfaces utilisateur (facilitant les évaluations pré­
coces) . Depuis les années 80, les recherches se sont orientées sur la proposition de
premières approches de développement à base de modèles, dans laquelle une grande
partie du travail du concepteur consiste à décrire différents modèles (du domaine, des
tâches, de l'utilisateur ... ) servant de base à la génération semi-automatique du logiciel
interactif ou, tout au moins, au guidage rigoureux de son développement ; la littérature
est abondante à ce sujet [Szekely, 1996 ; Vanderdonckt et Puerta, 1999 ; Paterno, 1999 ;
Kolski et Vanderdonckt, 2002) , ... Par la suite, les recherches se sont orientées vers des
méthodes intégrées interaction personne-système alliant le génie logiciel, particulière­
ment l'ingénierie dirigée par les modèles, (MDA - Model Driven Architecture) , dans la
lignée de travaux menés par l' Object Management Croup (www . omg . org) . La plupart
de ces travaux suivent une conception basée sur les modèles selon une approche descen­
dante. Ainsi les modèles sont raffinés par transformations jusqu'au code. Le cadre de
référence Cameleon [Calvary et al. , 2003] a récolté un consensus dans la mesure où il en
donne un bon éclairage en répertoriant quatre niveaux d'abstraction pour les modèles
(niveau concernant les tâches et les concepts, l'interface abstraite, l'interface concrète,
l'interface finale) . Le cadre de référence Cameleon (en anglais, Cameleon Reference Pra­
mework - CRF) est d'ailleurs devenu une recommandation du W3C en ce qui concerne
le développement d'interfaces web [Gonzalez Calleros et al. , 2010) . De nombreux docu­
ments illustrent ce domaine, voir par exemple [Jacob et al. , 2004 ; Calvary et al. , 2008 ;
Seffah et al. , 2009 ; Hussmann et al. , 201 1] , etc.
L'évaluation des systèmes interactifs, sous l'angle particulièrement de l'utilité et
de l'utilisabilité [Nielsen, 1993 ; Bastien et Scapin, 2001) , mais aussi de l'acceptabilité
[Stephanidis, 2009] , foisonne également de méthodes, techniques et outils, que l'utilisa­
teur et/ou le système interactif soient disponibles ou non, qu'il existe une expérience
d'utilisation ou non, que des approches automatiques ou semi-automatiques soient vi­
sés ou non ; dans le cas où l'utilisateur et/ou le système ne sont pas présents (pour
des raisons de disponibilité ou parce que le projet est dans une étape très précoce par
exemple) , le recours à des modèles s'impose. Là encore le lecteur intéressé trouvera
de nombreux documents disponibles (Nielsen, 1993 ; Baccino et al. , 2005 ; Huart et al. ,
2008 ; Ezzedine et al. , 2012 ; Jacko, 2012) , etc.) .
En lien avec ces travaux en conception e t évaluation, un problème récurrent, va­
lable pour tout domaine d'application, est celui de la mise à disposition des recomman­
dations ergonomiques disponibles auprès des équipes projet, et ceci sous différentes
formes, aussi bien sous format papier que logiciel. On s'intéresse dans ce chapitre au
courant de recherche « Tools for working with guidelines » visant l'opérationalisation de
1 294 Panorama de l'intelligence artificielle. Volume 3
-

la connaissance dans des outils logiciels d'aide à la conception, à l'évaluation, ou encore


à la formation de concepteurs et évaluations, aussi bien experts que novices [Vander­
donckt et Farenc, 2000] . Un concept central à ce courant est celui de règle, dite aussi
règle ergonomique (traduit par guideline ou ergonomie guideline) [Vanderdonckt, 199 9] .
Par exemple, selon [Bastien et Scapin, 1993] , en termes d'utilisabilité, des recommanda­
tions peuvent être associées à différents critères importants liés au guidage, au contrôle
du dialogue, à la gestion des erreurs, à la cohérence, la charge de travail, l'adaptabilité,
la compatibilité, la signifiance des codes et des dénominations. On considère que les
règles peuvent constituer une source importante pour détecter les problèmes actuels
ou potentiels de l'interface utilisateur d'un système interactif afin de l'améliorer, mais
aussi dans le but de le concevoir (la conception et l'évaluation étant étroitement liées)
[Tran, 2009] . Le terme « règle » englobe les recommandations abstraites ou concrètes
possibles qui sont utilisées pour la conception (par les concepteurs) et l'évaluation des
systèmes interactifs (par les experts en utilisabilité) afin de concevoir des interfaces uti­
lisateurs plus efficaces et conviviales [D. et al. , 2000] . D'après [Vanderdonckt, 1994] , une
règle ergonomique constitue un principe de conception et/ou d'évaluation à observer
en vue d'obtenir et/ou de garantir une interface utilisateur ergonomique.
Cinq types de recommandations sont souvent distingués : les standards de concep­
tion, les articles de recommandation, les guides de recommandation, les guides de style,
les algorithmes de conception ergonomique. Les règles peuvent correspondent à des re­
commandations générales et indépendantes des domaines comme dans [Scapin, 1986 ;
Smith et Mosier, 1986] , etc. Elles peuvent aussi être regroupées dans des guides de
style propres à un système, un environnement ou une organisation particulière. Actuel­
lement, il existe de nombreuses sources décrivant des règles ergonomiques [Stewart et
Travis, 2002] : normes internationales (ISO 9241, 180/IEC 9126) , nationales (HFES,
AFNOR, BSI ... ) , rapports et livres de synthèse entrant dans le détail de critères et re­
commandations ergonomiques, standards issus d'entreprises, etc. La figure 3 classe ces
cinq types de recommandations en fonction de leur niveau d'applicabilité : les standards
sont considérés comme les sources de connaissances ergonomiques les plus générales,
donc les plus largement applicables, mais aussi requérant le plus d'interprétation en
fonction du contexte d'utilisation afin d'être correctement appliquées. De l'autre côté
du continuum, les patrons de conception, les règles de conception ne nécessitent presque
plus d'interprétation, tant leur application est directe, ce qui les rend plus spécifiques
et donc moins applicables en général. Plus une connaissance ergonomique est large­
ment applicable, plus elle requiert un effort d'interprétation ; plus elle est applicable
de manière restreinte, moins elle requiert un effort d'interprétation.
La figure 4 répertorie les recommandations en fonction de deux axes : leur besoin
d'interprétation et le niveau de précision requis pour une implémentation directe : les
algorithmes ergonomiques ne nécessitent aucune interprétation puisque leurs résultats
sont totalement guidés par les spécifications de l'algorithme concerné, qui les rendent
directement implémentables. De l'autre côté du continuum, les principes demandent un
haut niveau d'interprétation (ce qui peut poser problème) , les rendant donc difficiles à
mettre en œuvre de manière directe.
De nombreux problèmes à résoudre, par rapport auxquels l'interaction personne­
système et l'intelligence artificielle sont nécessairement ou potentiellement liés, peuvent
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 295

Abs;11at'1 Gi!lll�'J :tl


i nil?'ll�l'c-tat i œ• gui •li»i!!l
Standards:

Çompil.atioru ofgui.deli.ne!I

Stylili guides

E.rg�ic�!l!���rrmu . --. -.
..,,..,....,,,...,.,,...,.

U!!e-.t' ]nterfai:>e Pauer�!I, .D l?&igt.'l rule!I


Cot1t'fét1!: S.:Jk!d:l'ie
k1ter1m>tat i on guidtili»e!l

FIGURE 3 Classement des cinq types de recommandations en fonction de leur niveau


-

d'applicabilité.

Medium

Law Mi:.'>dium

FIGURE 4 Types de recommandations répertoriés sous l'angle de leur besoin d'inter­


-

prétation et du niveau de précision requis pour leur implémentation directe.


1 296 Panorama de l'intelligence artificielle. Volume 3
-

être mis en évidence :


- La capitalisation des connaissances ergonomiques en conception et évaluation
des systèmes interactifs manque de systématisation et requiert des métho des
adaptées à l'évolution rapide des technologies, mais aussi à l'avènement d'ap­
proches à base de modèles ; elle pourrait tirer profit du domaine de l'ingénierie
des connaissances (voir à ce sujet le chapitre 1.20) .
- Beaucoup de connaissances ergonomiques sont par nature floues, incomplèt es,
redondantes, difficiles d'accès pour des non spécialistes, ne tiennent pas suffisam­
ment compte du contexte d'usage [Vanderdonckt, 1999] . Un énorme travail de
formalisation reste à accomplir dans ce domaine ; celui-ci pourrait s'appuyer sur
les travaux les plus récents en représentation des connaissances ( cf. le premier
volume de cet ouvrage) .
- Pour ce qui est de l'exploitation de ces règles ergonomiques dans des outils auto­
matiques ou semi-automatiques, nécessairement à base de connaissance, dédiés
à la conception et l'évaluation de la partie interactive des systèmes, la prise en
compte des nouvelles architectures et modèles de raisonnement provenant de
l'intelligence artificielle serait également à envisager.

1 1 .6 Visualisation et fouille de données


Le traitement et la fouille de données sont aujourd'hui une priorité non seulement
du monde de la recherche mais aussi des entreprises, petites ou grandes. Les entreprises
possèdent une mine de données sur leurs activités, sur leurs clients. Elles mettent en
place des processus de récolte d'information décrivant leurs processus d'affaires. Les
activités de veille exigent de collecter et de fouiller toutes les données accessibles leur
permettant de se positionner par rapport à leurs concurrents, ou par rapport aux
évolutions du contexte socio-économique dans lequel elles évoluent.
Ces données sont aujourd'hui massives - on parle bien de « big data ». Elles sont
complexes, tout autant que les phénomènes dont elles dérivent, mais aussi souvent
parce qu'elles sont non structurées. Parce qu'on ne peut savoir a priori l'information
qui s'y trouve et parce que le défi consiste à en tirer des connaissances.
La fouille de données fournit des algorithmes capables de faire émerger des données
des motifs structuraux - souvent exprimées sous forme de règles d'association. Clas­
siquement, un supermarché sera intéressé à fouiller le « panier de la ménagère » (via
les cartes de fidélité ) pour découvrir des profils d'acheteurs et décider de sa stratégie
marketing. Un opérateur téléphonique voudra comprendre ce qui distingue le marché
adolescent pour mieux le cibler. Si les données sont massives et complexes, les résultats
de la fouille le sont souvent tout autant. Il faudra encore trier et classer ces résultats
pour espérer arriver à une synthèse utile pour la prise de décision.
L'opération de fouille est une affaire de découverte de motifs structuraux. Le do­
maine de la visualisation d'information s'appuie au départ sur une observation fon­
damentale : 40% de nos activités cérébrales sont consacrées au traitement de signaux
visuels [Ware, 2000] . Le défi qui se pose est donc de proposer à l'utilisateur une carto­
graphie des données qui lui permettent, d'une part, de repérer visuellement les motifs
devenus « graphiques », et d'autre part de pouvoir agir sur la visualisation pour accéder
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1297

aux données sous-jacentes ou modifier la représentation afin de comprendre la struc­


ture qui est exposée. La littérature contient une mine de résultats décrivant différents
modes de représentations, souvent formulées pour un type de données particuliers :
données temporelles [Silva et Catarci, 2000] [Daassi et al. , 2006] , données géo-spatiales
[Andrienko et Andrienko, 2006] , réseaux [Herman et al. , 2000) [Landesberger et al. ,
201 1] ou données multidimensionnelles [Hoffman et Grinstein, 2002] .
La visualisation doit résoudre au départ un problème qui, s'il peut être formulé sim­
plement, s'avère souvent des plus complexes. Outre la nécessité de calculer la position
sur l'écran {les coordonnées dans un espace euclidien) des éléments de données, il faut
aussi déterminer les bons éléments graphiques (couleurs, formes, saliences, etc.) qui re­
fléteront les propriétés intrinsèques des attributs des données (distribution, corrélation,
distorsion des distances ou des similarités, etc.). Le calcul des positions relève le plus
souvent de l'optimisation combinatoire alors que l'encodage visuel engage la sémiotique
graphique [Bertin, 1998] [Ware, 2000] et sort du champ strictement calculatoire.
La visualisation s'inscrit dans un processus de traitement des données et de l'in­
formation. On représente traditionnellement ce processus comme un pipeline où s'en­
chaînent les étapes de traitement, depuis la prise en main des données et l'analyse
(statistique /combinatoire) jusqu'au calcul d'une représentation dans un espace eucli­
dien et à son rendu sur écran [Card et al. , 1999] [Chi, 2000) [dos Santos et Brodlie,
2004) . En réalité, ce processus se développe de manière non linéaire au travers de
boucles d'itérations où émerge la structure, et où se construisent des hypothèses : les
premières itérations amènent l'utilisateur à cibler les données qu'il faudra ensuite in­
vestiguer plus à fond, d'où émergeront des hypothèses que l'on pourra ensuite tester et
démontrer ; la visualisation apportera enfin son aide lorsqu'il s'agira de communiquer
les découvertes et motiver la prise de décision. C'est ce que Thomas et Cook ont appelé
la « Sense-Making Loop » (cf. Figure 5) dans leur ouvrage fondateur du domaine de
la visualisation analytique [Thomas et Cook, 2006) et qui fait écho à la mantra de
Sheiderman « Overview first, zoom and filter, then details on demand » [Shneiderman,
1996) .
La complexité des données, leur caractère incertain et changeant impose de placer
l'intelligence humaine au cœur du processus de fouille. Si la mantra de Shneiderman
l'énonce clairement, l'exposé de Thomas & Cook le pose en fondement d'un champ
de recherche qui s'affirme depuis une décennie : la visualisation analytique {Visual
Analytics) . Plus que l'analyse de données ou le repérage de motifs, il s'agit de faire
émerger de la connaissance.
Le pipeline de visualisation, comme le Sense-Making Loop, s'ouvre naturellement
sur un modèle plaçant l'utilisateur au centre d'un processus de découverte [van Wijk,
2005) . Si le pipeline correspond à une architecture applicative encapsulant le traitement
automatisé des données, c'est l'interaction qui permet à l'utilisateur d'associer l'intelli­
gence humaine au processus de fouille. Il devient dès lors critique de pouvoir cerner en
quoi une technique de visualisation, qu'il s'agisse d'un mode de représentation ou d'un
mode d'interaction et plus souvent de leur bonne conjugaison, est plus « efficace » -

plus à même d'aider l'utilisateur dans ses tâches de manipulations interactives des don­
nées et de formulation d'hypothèses. La conduite d'expériences contrôlées, familières
au monde de l'interaction personne-système, s'est imposée comme mode de validation
1 298 Panorama de l'intelligence artificielle. Volume 3
-

B. Scliém;Jlhli

FIGURE 5 - La Sense-Making Loop décrit le processus itératif au sein duquel s'inscrit


la visualisation analytique (Thomas & Cook 2006) .

[Purchase, 2012) [Sedlmair et al. , 2012) . Or, ce mode de validation convient pour tester
l'utilisabilité des techniques de visualisation en ce qu'elles permettent d'effectuer des
tâches de bas niveau (des manipulations à fine granularité sur les données) [Amar et al.,
2005) [Lee et al. , 2006) .
Mais le processus de découverte est un processus cognitif de haut niveau. Aucune
expérience contrôlée ne saurait démontrer qu'une technique de visualisation (plus sou­
vent un agencement de ces techniques) est plus à même de favoriser la découverte
de nouvelles connaissances. Une évaluation ici ne se formule pas en mesures psycho­
métriques (temps et précision d'exécution d'une tâche) mais plutôt en principes de
conception et en bonnes pratiques d'ingénierie. [Munzner, 2009] a proposé un modèle
imbriqué présentant le design d'une visualisation depuis les questions telles qu'elles sont
formulées par les experts du domaine (voir aussi [Meyer et al. , 2012]). C'est seulement
lorsque les motivations sont claires, et exprimées à l'aide de questions ancrées dans le
domaine où seront formulées les hypothèses, que l'on doit chercher à cerner les données
qui permettront d'y répondre, et le cas échéant les transformations à apporter à ce
matériau de l'analyse. Viennent ensuite le choix d'un encodage visuel pertinent et des
interactions en phase avec les manipulations envisagées sur les données. Les questions
algorithmiques interviennent aussi en dernier essor - et ont leur importance surtout
lorsqu'il s'agit de proposer des représentations graphiques qui doivent se plier aux exi­
gences d'une manipulation interactive. La validation d'une visualisation déclinée selon
ce modèle peut alors se faire à chacun des niveaux de ce modèle imbriqué. Les algo­
rithmes sont évalués en termes de complexité algorithmique ou jaugés selon des jeux
de données de référence (benchmarks) . Les choix de représentations et les modes d'in­
teraction peuvent se prêter aux expériences contrôlées. La visualisation (vue comme
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1299

système d'aide à la décision, par exemple) pourra faire l'objet d'une enquête de ter­
rain auprès d'utilisateurs ciblés de manière à rassembler des témoignages attestant de
son utilisabilité sur des cas réels. Enfin, l'adoption du système par une communauté
d'utilisateurs reste la preuve la plus tangible d'une bonne conception, à tous les étages.
La visualisation d'information agit comme révélateur des structures exhibées par les
techniques de fouille et d'analyse de données. Elle peut aussi être un lieu de synergie
avec l'intelligence artificielle précisément parce qu'elle engage par définition l'intelli­
gence humaine. Et parce qu'il s'agit d'aborder la complexité de phénomènes en taille
réelle, en explorant des données au caractère incertain et changeant.

11.7 Conclusion
C'est sans souci d'exhaustivité et en se focalisant sur plusieurs grands domaines
de recherche très représentatifs et actuels que ce chapitre a donné un aperçu de la
fertilisation croisée entre interaction personne-système et intelligence artificielle.
Les travaux à l'intersection des deux domaines ont démarré il y a maintenant une
quarantaine d'années, les premiers systèmes combinant étroitement intelligence et in­
teractivité ayant fait l'objet de premiers développements particulièrement dans le do­
maine aéronautique, et se poursuivant actuellement dans différents domaines ( simula­
tion, web sémantique, e-commerce, réseaux sociaux, systèmes dynamiques complexes,
intelligence ambiante ... ) .
Les interfaces utilisateur dites intelligentes ont tiré profit rapidement de la com­
plémentarité entre l'interaction personne-système et l'IA pour devenir rapidement un
domaine de recherche à part entière aux multiples facettes. Parmi les nombreuses ap­
proches d'interfaces utilisateur, les agents conversationnels animés affectifs, mis en
avant dans ce chapitre, présentent des perspectives particulièrement prometteuses.
La capitalisation, la formalisation et l'exploitation de connaissances ergonomiques
pour la conception et l'évaluation des systèmes interactifs ont fait l'objet de nombreux
travaux depuis le début des années 80. Ceux-ci se poursuivent de plus belle, les poten­
tialités de fertilisation croisées entre interaction personne-système et IA continuant à
être énormes à ce sujet.
Enfin, visualisation et fouille de données, dont les liens étroits ont été passés en
revue dans la dernière partie de ce chapitre, sont aussi particulièrement représentatifs
des domaines où l'interaction personne-système et l'IA se rejoignent naturellement.

Références
ABED, M. , ANLI, A., KoLSKI, C. et GRISLIN-LE STRUGEON, E. (2011). A generic
method for personalizing interactive systems : application to traveler information.
In KOLSKI, C . , éditeur : Human- Computer Interactions in Transport, pages 51-91.
ISTE Ltd and John Wiley & Sons Inc.
Asowo, G. D., DEY, A. K., B ROWN, P. J . , DAvrns, N., SMITH, M. et STEGGLES, P.
(1999) . Towards a better understanding of context and context-awareness. In Pro-
1 300 Panorama de l'intelligence artificielle. Volume 3
-

ceedings of the lst international symposium on Handheld and Ubiquitous Computing,


HUC '99, pages 304-307.
AMAR, R. , EAGAN, J. et STASKO, J. (2005) . Low-level components of analytic activity
in information visualization. In IEEE Symposium on information Visualization,
pages 1 1 1-1 17. IEEE Computer Society.
ANDRIENKO, N. et ANDRIENKO, G. (2006) . Exploratory Analysis of Spatial and Tem­
poral Data - A Systematic Approach. Springer.
ASIMOV, 1. (2008) . I Robot. Random House Publishing Group.
BACCINO, T., BELLINO, C. et COLOMB!, T. (2005) . Mesure de l 'utilisabilité des inter­
faces. TIC et Sciences Congnitive. Hermes.
BASTIEN, J. M. C. et SCAPIN, D. L. (1993) . Ergonomie criteria for the evaluation of
human-computer interfaces. Rapport technique 156, INRIA, Rocquencourt.
BASTIEN, J. M. C. et SCAPIN, D. L. (2001) . Evaluation des systèmes d'information et
critères ergonomiques. In KOLSKI, C., éditeur : Environnement évolués et évaluation
de l 'IHM, Interaction Homme Machine pour les SI, volume 2, pages 53-80. Paris :
Hermès.
BEALE, R. et CREED, C. (2009) . Affective interaction : How emotional agents affect
users. International Journal of Human-Computer Studies, 67(9) :755-776.
BEAUDOUIN-LAFON, M. et MACKAY, W. (2003) . Prototyping tools and techniques.
In JACKO, J. A. et SEARS, A. , éditeurs : The Human Computer Handbook : Fun­
damentals, Evolving Technologies, and Emerging Applications, pages 1006-1031. L.
Erlbaum Associates Inc. , Hillsdale, NJ, USA.
BEKA BE NGUEMA, M., KOLSKI, C., MALVACHE, N. et WAROUX, D. (2000) . Design
of a human-error-tolerant interface using fuzzy logic. Engineering Applications of
Artificial Intelligence, 13(3) :279-292.
BELLOT, P. (2011). Recherche d 'information contextuelle, assistée et personnalisée.
Collection recherche d'information et web. Hermes Science Publications / Lavoisier.
BERNERS-LEE, T., HENDLER, J. et LASSILA, 0. (2001). The semantic web. Scientific
American Magazine.
BERTIN, J. (1998) . Sémiologie Graphique : Les Diagrammes, Les Réseaux, Les Cartes.
Les ré-impressions. Ecole des Hautes Etudes en Sciences Sociales.
BOY, G. (1991a) . Intelligent assistant systems. Academic Press, New York.
BoY, G. A. (1991b) . lndexing hypertext documents in context. In Proceedings of
Hypertext '91, pages 51-61. ACM Press.
BOY, G. A. (1992) . Semantic correlation in context : Application in document compa­
rison and group knowledge design. In AAAI Spring Symposium on Cognitive Aspects
of Knowledge Acquisition.
BoY, G. A. ( 1998) . Cognitive Function Analysis. Ablex/ Greenwood, Westport, CT,
USA.
BoY, G. A. (2012) . Orchestrating Human- Centered Design. Springer, U.K.
BROSSARD, A., ABED, M. et KoLSKI, C. (201 1). Taking context into account in concep­
tual models using a model driven engineering approach. Information and Software
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 3 0 1

Technology, 53(12) : 1349-1369.


BRUSILOVSKY, P. , KOBSA, A. et NEJDL, W., éditeurs (2007) . The Adaptive Web : Me­
thods and Strategies of Web Personalization. Springer Verlag, Heidelberg, Germany.
CALVARY, G. et COUTAZ, J. (2007) . Métamorphose des IHM et plasticité. Revue
d 'interaction Homme-Machine (RIHM}, 8(1) :35-60.
CALVARY, G., COUTAZ, J. , THEVENIN, D . , LIMBOURG, Q., BOUILLON, L. et VANDER­
DONCKT, J. (2003) . A unifying reference framework for multi-target user interfaces.
Interacting with Computers, 15(3) :289-308.
CALVARY, G., PRIBEANU, c., SANTUCCI, G. et VANDERDONCKT, J., éditeurs (2008) .
Computer-Aided Design of User Interfaces V - Sixth International Conference of
Computer-Aided Design of User Interfaces 2006, Bucharest, Romania. Springer.
CANAMERO, L. (2003) . Designing emotions for activity selection in autonomous agents.
In TRAPPL, R. , PETTA, P. et PAYR, S., éditeurs : Emotions in Humans and Artifacts,
pages 115-148. MIT Press.
CAPLIER, A. (2010) . Reconnaissance visuelle des émotions : état des lieux et princi­
pauxenjeux. In PELACHAUD, C . , éditeur : Systèmes d 'interaction émotionelle, pages
141-170. Hermes Lavoisier.
CARD, S . , MACKINLAY, J. et SHNEIDERMAN, B. (1999) . Readings in Information Vi­
sualization. Morgan Kaufmann Publishers, San Francisco.
CARD, S. K., MORAN, T. P. et NEWELL, A. (1983) . The Psychology of Human­
Computer Interaction. Lawrence Erlbaum Associates, Hillsdale, NJ.
CASSELL, J. (2000) . More than just another pretty face : Embodied conversational
interface agents. Communications of the ACM, 43 :70-78.
CHI, E. H. (2000) . A taxonomy of visualization techniques using the data state refe­
rence model. In IEEE Symposium on Information Vizualization, pages 69-75. IEEE
Computer Society.
CHIGNELL, M. H. et HANCOCK, P. A. (1988) . Intelligent interface design. ln HE­
LANDER, M. , éditeur : Handbook of Human- Computer Interaction, pages 969-995.
Amsterdam : Elsevier.
CLAVEL, C. et RICHARD, G. (2010) . Reconnaissance acoustique des tmotions. In
PELACHAUD, C., éditeur : Systèmes d 'interaction émotionelle. Hermes Lavoisier.
COUTAZ, J. et CALVARY, G. (2007) . Hci and software engineering for user interface
plasticity. In JACKO, J. A., éditeur : The Human Computer Handbook : Funda­
mentals, Evolving Technologies, and Emerging Applications, pages 1 195-1220. CRC
Press, Boca Raton, FL.
COUTAZ, J. et REY, G. (2002) . Foundations for a Theory of Contextors. In KOLSKI,
C. et VANDERDONCKT, J., éditeurs : Computer-Aided Design of User Interfaces III
- Fourth International Conference of Computer-Aided Design of User Interfaces,
volume 3, pages 13-34. Kluwer Academic.
D . , G., D . , A. et C . , S. (2000) . Integrated support for working with guidelines : the
sherlock guideline management system. Interacting with Computers, 12(3) :281-311.
DAASSI, C . , NIGAY, L. et FAUVET, M.-C. (2006) . A taxonomy of temporal data visua­
lization techniques. Revue Information Interaction Intelligence, 5(2) :41-63.
1 302 Panorama de l'intelligence artificielle. Volwne 3
-

de MELO, C. M., CARNEVALE, P. , READ, S . , ANTOS, D. et GRATCH, J. {2012) . Baye­


sian model of the social effects of emotion in decision-making in multiagent systems.
In Proceedings of the 1 lth International Conference on Autonomous Agents and Mul­
tiagent Systems - Volume 1, AAMAS ' 12, pages 55-62, Richland, SC. International
Foundation for Autonomous Agents and Multiagent Systems.
DEROSIS, F., PELACHAUD, C . , POGGI, I., CAROFIGLIO, V. et CAROLIS, B. D. {2003) .
From Greta's mind to her face : Modelling the dynamics of affective states in a
conversational embodied agent. International Journal of Human- Computer Studies,
59(1-2) :81-1 18.
DEY, A. K. {2001). Understanding and using context. Personal Ubiquitous Comput. ,
5(1) :4-7.
dos SANTOS, S. et B RODLIE, K. {2004) . Gaining understanding of multivariate and
multidimensional data through visualization. Computers & Graphies, 28{3) :311-
325.
EDMONDS, E. A. {1981). Adaptive man-computer interfaces. In COOMBS, M. J. et
ALTY, J. L . , éditeurs : Computing skills and the user interface, pages 389-426. Lon­
don : Academic.
EZZEDINE, H., TRABELSI, A., TRAN, C. et KOLSKI, C. {2012) . Critères et méthodes
d'évaluation des systèmes interactifs, application à un poste de régulation dans le
domaine des transports. In HAMMADI, S. et KSOURI, M., éditeurs : Ingénierie du
transport et des services de mobilité avancés, pages 213-293. Hermès, Paris.
FORD, K. M., GLYMOUR, C. et HAYES, P. J. {1997) . Cognitive prostheses. AI Magazine,
18(3) .
GALLUD, J. A., TESORIERO, R. et PENICHET, V. M. R. , éditeurs {2011). Distributed
User Interfaces - Designing Interfaces for the Distributed Ecosystem. Springer.
G ONZALEZ CALLEROS, J., MEIXNER, G., PATERNÉ, F., PULLMANN, J., RAGGETT,
D. S. et VANDERDONCKT, J. {2010) . Model-based ui xg final report. In CAN­
TERA FONSECA, J . , éditeur : W3C Incubator Group Report.
GRATCH, J. et MARSELLA, S. {2004) . A domain-independent framework for modeling
emotion. Journal of Cognitive Systems Research, 5(4) :269-306.
GRUDIN, J. {1994) . Computer-supported cooperative work : History and focus. Com­
puter, 27{5) :19-26.
HANCOCK, P. A. et CHIGNELL, M. H. , éditeurs {1989) . Intelligent interfaces : theory,
research and design. Amsterdam : North-Holland.
HERMAN, I., MARSHALL, M. S. et MELANÇON, G. {2000). Graph visualisation and na­
vigation in information visualisation : A survey. IEEE Transactions on Visualization
and Computer Graphies, 6{1) :24-43.
HEWETT, T., BAECKER, R. , CARD, S., CAREY, T. , GASEN, J . , MANTEi, M., PERLMAN,
G., STRONG, G. et VERPLANK, W. {1992) . ACM SIGCHI curricula for human­
computer interaction. ACM, New York, NY, USA.
HOFER, G. et RICHMOND, K. {2010) . Comparison of hmm and tmdn methods for lip
synchronisation. In KOBAYASHI, T. , HIROSE, K. et NAKAMURA, S . , éditeurs : IN­
TERSPEECH 201 0, 11th Annual Conference of the International Speech Communi-
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 303

cation Association, Makuhari, Chiba, Japan, September 26-30, 2010, pages 454-457.
ISCA.
HOFFMAN, P. E. et GRINSTEIN, G. G. {2002) . A survey of visualizations for high­
dimensional data mining. In FAYYAD, U., GRINSTEIN, G. et WIERSE, A., éditeurs :
Information Visualization in Data Mining and Knowledge Discovery, pages 47-82.
Morgan Kaufmann Publishers.
HUART, J., KoLSKI, C. et BASTIEN, C. (2008) . L'évaluation de documents multimédias,
état de l'art. In S . , M. , éditeur : Objectiver l 'humain ?, volume 1 de Qualification,
quantification, pages 21 1-250. Hermes, Paris.
HussMANN, H., MEIXNER, G. et ZUEHLKE, D . , éditeurs (2011). Model-Driven De­
velopment of Advanced User Interfaces, volume 340 de Studies in Computational
Intelligence. Springer.
HUTCHINS, E. (1995) . Cognition in the Wild. MIT Press, Cambridge, MA.
HôôK, K. (2000) . Steps to take before intelligent user interfaces become real. Inter­
acting with computers, 12 :409-426.
IVORY, M. Y. et HEARST, M. A. (2001). The state of the art in automating usability
evaluation of user interfaces. ACM Computing Surveys, 33(4) :470-516.
JACKO, J. A. , éditeur (2012) . The Human Computer Handbook : Fundamentals, Evol­
ving Technologies, and Emerging Applications. CRC Press, Boca Raton, FL, 3rd
édition.
JACOB, R. J. K., LIMBOURG, Q. et VANDERDONCKT, J., éditeurs (2004) . Computer­
Aided Design of User Interfaces IV - Fifth International Conference of Computer­
Aided Design of User Interfaces, Funchal, Portugal. Kluwer.
JAMBON, F., BRUN, P. et AIT-AMEUR, Y. (2001). Spécification des systèmes interac­
tifs. In KOLSKI, C., éditeur : Analyse et Conception de l 'IHM. Interaction Homme
Machine pour les SI, volume 1, pages 175-206. Paris : Éditions Hermès.
JAMESON, A. (2007) . Adaptive interfaces and agents. In SEARS, A. et JACKO, J. A.,
éditeurs : The Human Computer Handbook : Fundamentals, Evolving Technologies,
and Emerging Applications, pages 433-458. CRC Press, Boca Raton, FL.
JAMESON, A. et GAJOS, K. Z. (2012) . Systems that adapt to their users. In JACKO,
J. A., éditeur : The Human Computer Handbook : Fundamentals, Evolving Techno­
logies, and Emerging Applications, pages 431-456. CRC Press, Boca Raton, FL.
JAQUES, P. A. et VICCARI, R. M. {2004) . A BDI approach to infer student's emo­
tions. In the Proceedings of the Ibero-American Conference on Artificial Intelligence
{IBERAMIA}, pages 901-911, Puebla, Mexique. Springer-Verlag.
KOLSKI, C. et LE STRUGEON, E. {1998) . A review of intelligent human-machine in­
terfaces in the light of the arch model. International Journal of Human- Computer
Interaction, 10(3) : 193-231.
KOLSKI, C., TENDJAOUI, M. et MILLOT, P. {1992) . A process method fo r the de­
sign of "intelligent" man-machine interfaces : case study : "the decisional module of
imagery". International Journal of Human Factors in Manufacturing, 2(2) : 155-175.
KOLSKI, c. et VANDERDONCKT, J., éditeurs (2002) . Computer-Aided Design of User
Interfaces III - Fourth International Conference of Computer-Aided Design of User
1 304 Panorama de l'intelligence artificielle. Volume 3
-

Interfaces, Valenciennes, France. Kluwer.


KUBICKI, S . , LEBRUN, Y., LEPREUX, S . , ADAM, E., KOLSKI, C. et MANDIAU, R. ( 2013 ) .
Simulation in contexts involving an interactive table and tangible objects. Simula tion
Modelling Practice and Theory, 31 : 1 16-13 1 .
LANDESBERGER, T. v. , KUIJPER, A., SCHRECK, T. , KOHLHAMMER, J . , WIJK, J. J. v. ,
FEKETE, J .-D. e t FELLNER, D. W . ( 201 1 ) . Visual analysis o f large graphs : State-of­
the-art and future research challenges. Computer Graphies Forum, 30 ( 6 ) : 1719-1749.
LAZARUS, R. S. ( 1991 ) . Emotion and adaptation. Oxford University Press.
LEE, B . , PLAISANT, C . , PARR, C. S . , FEKETE, J. et HENRY, N. ( 2006 ) . Task taxonomy
for graph visualization. In A V! Workshop on Beyond Time and Errors : Novel
Evaluation Methods For information Visualization BEL/V '06, pages 1-5. ACM.
LEE, J. et MARSELLA, S. ( 2009 ) . Learning a model of speaker head nods using gesture
corpora. In Proceedings of The Bth International Conference on Autonomous Agents
and Multiagent Systems - Volume 1, pages 289-296, Richland, SC. International
Foundation for Autonomous Agents and Multiagent Systems.
LIEBERMAN, H. ( 1995 ) . Letizia : An agent that assists web browsing. In Fourteenth
International Joint Conference on Artificial Intelligence, IJCAI 95, pages 924-929.
LIMBOURG, Q . , VANDERDONCKT, J . , MICHOTTE, B . , BOUILLON, L . , FLORINS, M. et
TREVISAN, D. ( 2004) . Usixml : A user interface description language for context­
sensitive user interfaces. In ACM A V/'2004 Workshop "Developing User Interfaces
with XML : Advances on User Interface Description Languages, pages 55-62.
MANDIAU, R. , KOLSKI, C., MILLOT, P. et CHAIB-D RAA, B. ( 1991 ) . A new approach
for the cooperation between human (s ) and assistance system (s ) : a system based
on intentional states. In LIEBOWITZ, J . , éditeur : Expert Systems World Congress
Proceedings, volume 3, pages 1672-1679, New-York. Pergamon Press.
MAYBURY, M. T. ( 1999 ) . Intelligent user interfaces : an introduction ( tutorial notes ) .
MEYER, M., SEDLMAIR, M. et MUNZNER, T. ( 2012 ) . The four-level nested model
revisited : Blocks and guidelines. In Workshop on BEyond time and errors : novel
evaLuation methods for Information Visualization {BELIV).
MUNZNER, T. ( 2009 ) . A nested process model for visualization design and validation.
IEEE Transactions on Visualization and Computer Graphies, 15 :921-928.
NIELSEN, J. ( 1993 ) . Usability Engineering. Academic Press.
NIEWIADOMSKI, R. et PELACHAUD, c. ( 2007) . Fuzzy similarity of facial expressions of
embodied agents. In Proceedings of the 7th international conference on Intelligent
Virtual Agents, pages 86-98, Berlin, Heidelberg. Springer-Verlag.
NORMAN, D. A. ( 1986 ) . Cognitive engineering. ln NORMAN, D. A. et D RAPER, S. W. ,
éditeurs : User Centered System Design : New Perspectives on Human- Computer
Interaction, pages 3 1-61. Lawrence Erlbaum Associates, Hillsdale, NJ.
ÜCHS, M. , NIEWIADOMSKI, R. , BRUNET, P. et PELACHAUD, c. ( 2012a) . Smiling virtual
agent in social context. Cognitive Processing, 13 ( 2 ) :519-532.
ÜCHS, M. , SADEK, D. et PELACHAUD, C. ( 2012b ) . A formal model of emotions for
an empathie rational dialog agent. Autonomous Agents and Multi-Agent Systems,
24 ( 3 ) :410-440.
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 305

PATERNO, F. ( 1999 ) . Model-Based Design and Evaluation of Interactive Applications.


Springer-Verlag, London, UK, UK, lst édition.
PEINTNER, B., VIAPPIANI, P. et YORKE-SMITH, N. ( 2008 ) . Preferences in interactive
systems : Technical challenges and case studies. AI Magazine, 29 ( 4 ) :13-24.
PICARD, R. ( 1997) . Affective Computing. MIT Press.
PURCHASE, H. C. ( 2012 ) . Experimental Human- Computer Interaction : A Practical
Guide with Visual Examples. Cambridge University Press.
REEVES, B. et NASS, C. ( 1996 ) . The media equation : how people treat computers,
television, and new media like real people and places. Cambridge University Press.
RousE, W. B. et MORRIS, N. M. ( 1987) . Conceptual design of a human error tolerant
interface for complex engineering systems. Automatica, 23 ( 2 ) :231-235.
SALOVEY, P. , BEDELL, B., DETWEILER, J. et MAYER, J. ( 2000 ) . Current directions
in emotional intelligence research. In LEWIS, M. et HAVILAND-JONES, J., éditeurs :
Handbook of Emotions, pages 504-520. Guilford Press.
SCAPIN, D. L. ( 1986 ) . Guide ergonomique de conception des interfaces homme­
ordinateur. Rapport technique 77, INRIA, Le Chesnay.
ScHERER, K. ( 2000 ) . Emotion. In HEWSTONE, M. et STROEBE, W., éditeurs : In­
troduction to Social Psychology : A European perspective, pages 151-191. Oxford
Blackwell Publishers.
ScHNEIDER-HUFSCHMIDT, M. , KÜHME, T. et MALINKOWSKI, U., éditeurs ( 1993 ) .
Adaptive User Interfaces. North Rolland.
SEDLMAIR, M., MEYER, M. et MUNZNER, T. ( 2012 ) . Design study methodology : Re­
fl.ections from the trenches and the stacks. IEEE Trans. Visualization and Computer
Graphies {Proc. Info Vis 2012}, 18 ( 12 ) : 2431-2440.
SEFFAH, A., VANDERDONCKT, J. et DESMARAIS, M., éditeurs ( 2009 ) . Human- Centered
Software Engineering, volume 2 de Software Engineering Models, Patterns and Ar­
chitectures for HCI. Springer, London.
SHADBOLT, N., HALL, W. et BERNERS-LEE, T. ( 2006 ) . The semantic web revisited.
IEEE Intelligent Systems, 21 ( 3 ) :96-101.
SHNEIDERMAN, B. ( 1996 ) . The eyes have it : A task by data type taxonomy for
information visualization. In IEEE Conference on Visual Languages {VL 'g6}, pages
336-343. IEEE CS Press.
SILVA, S. F. et CATARCI, T. ( 2000 ) . Visualization of linear time-oriented data : a
survey. In Proceedings of the First International Conference on Web Information
Systems Engineering, volume 1 , pages 310-319.
SMITH, S. L. et MosIER, J. N. ( 1986 ) . Guidelines for designing user interface software.
Rapport technique MTR-10090, ESD-TR-86-278, MITRE Corp., Bedford, MA.
STEPHANIDIS, C. ( 2009 ) . The Universal Access Handbook. CRC Press.
STEWART, T. et TRAVIS, D. ( 2002 ) . Guidelines, standards, and style guides. In JA­
CKO, J. A. et SEARS, A., éditeurs : The Human Computer Handbook : Fundamentals,
Evolving Technologies, and Emerging Applications, pages 991-1005. L. Erlbaum As­
sociates Inc. , Hillsdale, NJ, USA.
1 3 06 - Panorama de l'intelligence artificielle. Volume 3

Su, X. et KHOSHGOFTAAR, T. M. {2009) . A survey of collaborative filtering techniques.


Advances in Artificial Intelligence, 19 :Article ID 421425.
SZEKELY, P. { 1996) . Retrospective and challenges for model-based interface develop­
ment. In Design, Specification and Verification of Interactive Systems '96, pages
1-27. Springer-Verlag.
THEVENIN, D. et COUTAZ, J. {1999) . Plasticity of user interfaces : Framework and
research agenda. In SASSE, A. et JOHNSON, C., éditeurs : IFIP TC. 13 - Human­
Computer Interaction - INTERACT'99. IOS Press.
THOMAS, J. J. et CooK, K. A. {2006) . Illuminating the Path : The Research and
Development Agenda for Visual Analytics. IEEE Computer Society.
TRAN, C. D. {2009) . Vers un environnement générique et configurable pour l 'aide
à l 'évaluation des systèmes interactifs à base d 'agents, Application à un Système
d 'Aide à l 'information voyageurs. Thèse de doctorat, Université de Valenciennes et
du Hainaut-Cambrésis.
van den BERGH, J. {2006) . High-Level User Interface Models for Model-Driven Design
of Context-Sensitive User Interfaces. Thèse de doctorat, Hasselt University, Belgium.
van WIJK, J. {2005) . The value of visualization. In SILVA, C., GROELLER, E. et
RusHMEIER, H. , éditeurs : IEEE Visualization, pages 79-86. IEEE Computer Society.
VANDERDONCKT, J. {1994) . Guide ergonomique des interfaces homme-machine.
Presses Universitaires de Namur, Namur, Facultés universitaires Notre-Dame de la
Paix à Namur { Belgique) .
VANDERDONCKT, J. {1999) . Development milestones towards a tool for working with
guidelines. Interacting With Computers, 12{2) :81-1 18.
VANDERDONCKT, J. et COYETTE, A. {2007) . Modèles, méthodes et outils de support
au prototypage multi-fidélité des interfaces graphiques. Revue d 'Interaction Homme­
Machine, 8{1) :91-123.
VANDERDONCKT, J. et FARENC, C., éditeurs {2000) . Tools for Working With Guidelines
TFWWG '2000, London. Springer.
VANDERDONCKT, J. et PUERTA, A. R. , éditeurs {1999) . Computer-Aided Design of
User Interfaces II - Third International Conference of Computer-Aided Design of
User Interfaces, Louvain-la-Neuve, Belgium. Kluwer.
WARE, C. {2000) . Information Visualization : Perception for Design. Morgan Kauf­
mann Publishers.
WINOGRAD, T. {2001). Architectures for context. Hum.- Comput. Interact. , 16{2) :401-
419.
WOODSON, W. et CONOVER, D. (1964) . Human Engineering Guide for Equipment
Designers. University of California Press, Berkeley, California.
Postface - 1 307

Postface
La machine en quête de sapience

Le domaine de recherche qu'est l'intelligence artificielle (IA) vit le jour en 1956


à Dartmouth College (Etats-Unis) à l'occasion d'un colloque auquel assistaient John
McCarthy et Marvin Minsky, généralement considérés comme les fondateurs de cette
activité. Un demi-siècle plus tard, quelques-uns des anciens acteurs se retrouvèrent dans
le même lieu afin d'évaluer les projets de recherche achevés et d'imaginer des étapes
suivantes. Parmi les invités de ce jubilé, il n'y avait hélas aucune machine intelligente
susceptible d'apprécier la fête.

FIGURE 1 Trenchard More, John McCarthy, Marvin Minsky, Oliver Selfridge, Ray
-

Solomonoff. Credit to : Joseph Mehling/Dartmouth College.

La banalisation
De nos jours, l'IA donne souvent l'impression de faire antichambre. Le grand pu­
blic - celui qui imagine vaguement que l'ordinateur fut inventé aux alentours de 1980
Auteur : WILLIAM SKYVINGTON.
1 308 Panorama de l'intelligence artificielle. Volume 3
-

par Bill Gates - avant d'être enjolivé (rendu « smart » ) par Steve Jobs - considère
sûrement que les machines ingénieuses existent déjà depuis quelques années. On trouve
désormais banale l'habileté de sa voiture qui connaît par cœur toutes les routes de
France et de Navarre, sans parler de smartphones à qui l'on s'adresse à haute voix,
par exemple, pour savoir le temps qu'il fera demain. Sur le terrain pur des connais­
sances, on vit quotidiennement avec Google qui, visiblement, sait tout. Bien entendu,
personne n'est dupe ; on se rend compte que, derrière les prouesses de Wikipédia, par
exemple, ce n'est pas le système informatique lui-même qui serait détenteur de sapience,
mais des rédacteurs humains. Au jeu d'échecs, l'ordinateur personnel finit par dominer
les grands maîtres. Récemment, aux Etats-Unis, un jeu télévisé nommé Jeopardy (va­
riante anglo-saxonne de « Questions pour un champion » ) a permis au super-ordinateur
Watson d'IBM de gagner le grand prix d'un million de dollars . . . ce qui démontre prin­
cipalement que les développeurs de logiciel maîtrisent désormais parfaitement l'accès
ultra-rapide aux bases de données. Quant aux robots, des constructeurs japonais ex­
hibent depuis longtemps des animaux de compagnie artificiels, tandis que des robots
militaires mis au point par les Etats-Unis sont capables de circuler sur leurs quatre
pattes à travers des zones de combat. En ce moment même, un véhicule robotique
explore Mars. Entre temps, beaucoup d'entreprises ont investi massivement dans des
appareils dits « robotiques » afin de remplacer du personnel humain sur leurs chaînes
de montage. Il y a là, tout de même, un petit abus de langage. Malgré leur allure
spectaculaire, ces systèmes industriels ne manifestent aucune intelligence du type ani­
mal. Ils sont programmés pour effectuer des tâches manuelles spécifiques ; un point,
c'est tout. Enfin, c'est surtout par le biais d'images de synthèse que l'on rencontre des
univers spectaculaires peuplés d'entités synthétiques capables de se comporter avec in­
telligence et de ressentir des émotions. Au Japon, des fans se déchaînent dans les salles
de spectacle devant une manga girl qui chante et danse sur scène comme si elle était en
chair et en os. En Occident, on regarde en famille Avatar en 3D, et des larmes coulent
quand on voit la princesse Neytiri tomber sous le charme de Jake Sully. Comme si les
êtres humains rêvaient d'avoir des compagnons artificiels et intelligents . . . mais ce n'est
sûrement pas pour demain. Parfois, des accessoires permettent au spectateur humain
de participer activement et ludiquement à certains contextes artificiels. On parle alors
de réalité virtuelle. Mais c'est encore une fois un univers d'illusions, où les lueurs d'IA
sont parfaitement chimériques.

Une recherche méconnue


On ne peut pas dire que la société s'intéresse à la quête d'IA, pas plus qu'elle
ne s'y oppose. Elle l'ignore tout simplement. Le grand public est pourtant conscient
de l'évolution d'autres quêtes scientifiques et technologiques : la recherche spatiale, le
développement de nouvelles formes d'énergie, les progrès d'ordre médical et génétique,
l'évolution spectaculaire de l'informatique personnelle et ses retombées sur le plan des
communications, etc. Et ce même public est capable parfois de décrier certains domaines
de recherche, concernant par exemple les centrales nucléaires ou les manipulations
génétiques susceptibles d'enfreindre l'éthique. Mais peu de gens savent de quoi il s'agit
si on leur parle des laboratoires dans lesquels on tente depuis longtemps la synthèse de
Postface - 1309

l'intelligence dite artificielle. Cette recherche aurait pu gagner ses lettres de noblesse en
1978, quand le grand pionnier Herbert Simon reçut le Prix Nobel, mais ce fut pour ses
travaux en sciences économiques plutôt qu'en informatique. Certes, il existe un « Nobel
de l'informatique », le prix Turing, qui a été attribué à Marvin Minsky (1969) , John
McCarthy (1971), Allen Newell et Herbert Simon (1975) , Edward Feigenbaum (1994)
et Judea Pearl (201 1) . Mais une telle récompense ne suffit pas à métamorphoser un
chercheur en savant célèbre.

Les humanoïdes ne sont pas encore parmi nous


La raison de cette méconnaissance est facile à comprendre. Les premières décennies
de recherche dans ce domaine ont été un grand échec. Depuis quelques années, des
zoologues sont de plus en plus persuadés que certains animaux non humains possèdent
des facultés d'entendement et de sensibilité insoupçonnées jusqu'ici. On s'excite, par
exemple, devant la possibilité que le poulpe possède une intelligence inédite, spéciale
mais étonnante, qu'il manifeste dans sa recherche de nourriture et ses capacités de
camouflage. En ce qui concerne la quête de l'IA, en revanche, rien n'est venu pour nous
étonner, nous faire soupçonner, dans les entrailles des ordinateurs les plus puissants, la
moindre lueur d'une quelconque braise d'intelligence authentique. Il pourrait y avoir
de l'habileté, bien entendu, comme chez un ours bien dressé. Mais de sapience, point.
Et encore moins d'émotions. Quant à cette énorme chose mystérieuse, la conscience
de soi, qui caractérise l'être humain ainsi qu'une petite élite de mammifères souvent
domestiques (chiens, chats, chevaux, etc) , n'en parlons pas un seul instant dans le
monde des machines. Adresse inconnue, abonnée absente.

Un long hiver
Les observateurs des recherches en IA (aficionados aussi bien que détracteurs) n'ont
pas dû patienter bien longtemps avant de sentir qu'il y avait quelque chose de pourri
dans le royaume du data processing. Les chroniqueurs évoquent un « hiver d'intelli­
gence artificielle » qui aurait débuté très tôt, en 1966, lorsqu'on s'est rendu compte que
la belle idée de la traduction automatique des langues était sans doute une illusion. De
nos jours, certes, on peut faire appel à des logiciels impressionnants pour passer d'une
langue à une autre, mais le résultat final a toujours besoin d'un coup de pouce apporté
par un traducteur humain expérimenté. D'ailleurs, cet adjectif « expérimenté » sou­
ligne la nature des problèmes fondamentaux de traduction. Aucune machine ne peut
avoir une expérience adéquate du monde réel dans lequel les traductions prennent leur
sens. C'est ce qu'on appelle, dans la terminologie de l'IA, le problème du cadre (frame
problem) . Aux Etats-Unis, l'organisme militaire DARPA (Defense Advanced Research
Projects Agency) faisait autrefois la pluie et le beau temps dans tous les domaines
de la recherche technologique d'avant garde, dont l'IA. Au milieu des années 1970,
les dirigeants de la DARPA n'arrivaient pas à comprendre pourquoi les chercheurs de
l'université Carnegie-Mellon à Pittsburgh avaient tant de mal à créer un ordinateur
capable de comprendre la parole des hommes. Entre temps, au Royaume Uni, un fonc-
1 3 1 0 Panorama de l'intelligence artificielle. Volume 3
-

tionnaire mathématicien tout-puissant, Michael Lighthill, conseilla au gouvernement


britannique de mettre fin à tout investissement dans la robotique et le traitement par
ordinateur des langues naturelles. DARPA trouvait là un bon prétexte pour couper les
fonds outre-Atlantique. Au Japon, il y eut un moment d'euphorie au début des années
1980 quand le ministère de l'industrie annonça la naissance d'un grand projet destiné
à créer des ordinateurs « de la cinquième génération » censés permettre enfin la mani­
festation du Graal tant désiré, l'IA. Il était même question de fonder tout ce projet sur
un langage d'origine française : Prolog. Mais le projet japonais fut mort-né, sans que
l'on sache exactement ce qui n'a pas fonctionné . . . si ce n'est son fondement théorique
lui-même. Un certain temps, on a tenté de valoriser le langage primordial de l'IA in­
venté par McCarthy : Lisp. Il était question de construire une machine qui tournerait
directement en Lisp. Dans l'effervescence de cette époque, on a même conçu une version
française du célèbre langage : Le-Lisp. Mais tout est vite rentré dans l'ordre, c'est-à­
dire qu'on a abandonné ces démarches logicielles tournées vers le passé, vers l'esprit
de Dartmouth. A la fin des années 1980, tout le monde croyait que l'onirisme futuriste
de l'IA allait enfin être remplacé par une approche plus raisonnablement terre-à-terre :
celle des systèmes experts. Finie la tentative prométhéenne d'inventer une forme mé­
canique de l'intelligence. On allait tout simplement exploiter savamment l'ordinateur
pour résoudre en toute modestie, mais avec expertise, certains problèmes bien énoncés
du monde industriel réel. A la surprise générale, des résultats effectifs, d'ordre éco­
nomique, étaient au rendez-vous. En France, par exemple, la société Ilog a découvert
que, quitte à remplacer son cheval de bataille ( Le-Lisp ) par un langage plus moderne
( C++ ) , et quitte à bannir définitivement toute allusion archaïque et déroutante à l'IA,
elle pouvait se faire désirer et acheter par IBM.

Les objets du printemps


On est aujourd'hui sorti du long hiver de la machine en quête de sapience, et l'am­
biance actuelle n'est ni triste ni exubérante, seulement pragmatique. Et l'on peut jeter
calmement un coup d'œil rétrospectif sur le passé. Il est indéniable que les travaux
logiciels des anciens adeptes de l 'IA ont eu énormément de retombées sur le terrain de
l'informatique de tous les jours. On pense notamment au phénomène de la program­
mation dite « orientée-objets », devenue le b.a.-ba de tout développement de nouveaux
logiciels dans quelque domaine d'application que ce soit. Sans entrer trop avant dans
l'histoire de l'émergence du concept des objets, disons qu'il s'agit d'un dispositif du
type « atome Lisp » (accompagné de ses attributs) né dès 1960 dans le milieu de l'IA
du MIT (Massachusetts Institute of Technology) . Dans la mesure où toute la program­
mation actuelle est entièrement basée sur cette approche « objets », on peut considérer
que les retombées de la recherche en IA ont laissé une marque définitive sur l'informa­
tique. Faut-il en conclure que le premier demi-siècle de recherche en IA fut une affaire
vaseuse dont les bénéfices se borneraient à quelques retombées inattendues dans le
domaine banal de l'informatique quotidienne ? Certes, on pourrait à la rigueur établir
un bilan médiocre et affirmer rétrospectivement que cela ne valait probablement pas
la peine d'investir autant de moyens pour des résultats aussi peu convaincants. On
peut heureusement avoir de cette recherche une tout autre vision, qui la situe dans un
Postface - 1 3 1 1

cadre, non seulement fascinant, mais fabuleux. Il suffit de réfléchir simultanément -


une fois n'est pas coutume - aux machines et aux hommes. Quand on ose évoquer la
quête de sapience dans le contexte des machines électroniques, il faut tenir compte, au
même instant, de ce qu'est la sapience chez cette autre machine, l'homme. Au cours
du demi-siècle pendant lequel les chercheurs ont vainement tenté de faire avancer l'IA,
nos connaissances dans d'autres domaines - dont la physique quantique, la génétique,
la neurophysiologie et la psychologie cognitive - ont fait des bonds hallucinants. Et
l'IA doit désormais se concevoir dans le contexte global de ce savoir d'avant-garde, qui
redéfinit et remodèle de fond en comble le terrain des investigations.

Le syndrome de Colomb

Christophe Colomb pensait que le globe était assez petit, et il surestimait le vo­
lume terrestre de l'Eurasie. C'est-à-dire qu'il ne pouvait pas imaginer, un seul instant,
l'existence de l'océan Pacifique. Du coup, pensant être tombé sur les rives orientales de
l'Eurasie, il se trompait d'un continent. Sans le vouloir, sans le savoir même, il avait
découvert l'Amérique ! La quête de l'IA s'apparente à l'aventure de Colomb en ce sens
que la terra incognita dont la silhouette émergea des brumes vers la fin du XXe siècle
ne correspondait guère aux buts que les chercheurs imaginaient naïvement devoir at­
teindre tôt ou tard : alors leurs ordinateurs familiers seraient en mesure de méduser le
monde des humains par leur lucidité et leur ingéniosité. Les contrées où les chercheurs
en IA débarquèrent (peut-être ferait-on mieux de dire « échouèrent » ) n'avaient plus
rien à voir avec les grandes salles d'ordinateurs gris de Dartmouth College en 1956. Au
cours du demi-siècle, l'approfondissement de la pensée scientifique nous a plongés dans
un gigantesque bain numérique où la vieille dichotomie entre le monde vivant et les
« machines à calculer » est révolue. Désormais, tout est digital. Les organismes vivants
et les artefacts humains n'appartiennent pas à deux ordres de réalité fondamentalement
distincts. S'ils se présentent pourtant sous des aspects apparemment si différents, c'est
que l'évolution biologique et l'ingénieur humain ne travaillent ni à armes égales sur le
plan de la complexité, ni sur des échelles de temps comparables. Aujourd'hui, notre
conception même de ce que pourrait être l'IA du futur doit être profondément diffé­
rente de ce que l'on pourrait appeler l'esprit de Dartmouth. Les quêteurs ne peuvent
plus se contenter d'appliquer les protocoles de recherche et d'expérimentation d'hier,
car le laboratoire lui-même s'est subtilement métamorphosé autour d'eux, parfois sans
qu'ils s'en rendent totalement compte. A l'époque de Dartmouth, on s'engagea sur
la voie nouvelle de l'ordinateur dans l'espoir de retomber sur les contrées familières
où les problèmes se résolvent au moyen d'un fonctionnement cérébral qu'on se plaît
à appeler « intelligence » - qu'elle soit humaine ou (pourquoi pas ?) artificielle. De
nos jours, nous avons abordé un continent inattendu, mais visiblement fabuleux, dont
l'exploration exige - c'est la moindre des choses - que les savants mettent au point
des protocoles d'investigation d'un nouvel ordre, tenant compte de la nature essen­
tiellement numérique de toute chose : du cerveau humain aussi bien que de la puce
informatique.
1 3 1 2 Panorama de l'intelligence artificielle. Volume 3
-

Vivant numérique
Pour saisir ce qui s'est passé, il faut revenir à 1953, annus mirabilis dans l'histoire
de la connaissance scientifique : 1953, juste trois ans avant le colloque de Dartmouth
College. Le 25 avril 1953, la revue Nature publiait un article écrit par l'américain James
Watson et l'anglais Francis Crick sur la structure en double hélice d'une substance bio­
chimique ésotérique : l'ADN. En 1966 ( une décennie après Dartmouth) , on se rendit
compte que la nouvelle science de la génétique était une vaste affaire de codage bio­
logique basé sur quatre éléments désignés A, C, G, T ( adénine, cytosine, guanine et
thymine) . Dans l'Amérique primitive et inattendue que découvraient ces navigateurs
intrépides, une chose était certaine : les natifs, sûrement de bons sauvages, apparte­
naient tous à la tribu de l'ADN, et parlaient tous cette langue unique. Dans le contexte
des premiers ordinateurs, les données destinées à être traitées par la machine étaient
souvent stockées sur des bandes enroulées : d'abord, sous forme de trous sur un support
de papier, puis sur des bandes magnétiques. Il est amusant de noter, à cet égard, que
la fameuse maquette d'un ordinateur théorique que l'on appelle la machine de Turing
était censée exploiter un support d'information sous la forme d'une bande. Eh bien,
dans la nature également, l'information vitale est disposée sur de longues bandes : les
brins complémentaires de la double-hélice de l'ADN. Aux yeux d'un informaticien, le
format de stockage de cette information est d'une simplicité étonnante : des triplets des
quatre bases, donnant lieu à un répertoire global de 64 mots distincts. Voilà, pour ainsi
dire, l'alphabet de la vie : moins riche, à première vue, que la codification exploitée par
n'importe quelle « puce » électronique. A partir de la compréhension des mécanismes
chimiques de l'ADN, on a pu entrevoir le monde vivant - les plantes et les bactéries
aussi bien que les bêtes et les hommes - comme un gigantesque système informatique,
élaboré fortuitement par la nature. Les biologistes moléculaires se préoccupaient alors
du séquençage de génomes, dont notamment celui de l'homme, achevé au tournant du
siècle. Or, qui dit système informatique dit challenges de programmation : l'idée sur­
tout de programmer des structures biologiques comme si l'on développait un logiciel
d'IA. Ainsi, en 2007, Craig Venter annonça la création d'un chromosome artificiel. Ce
fut probablement un petit pas pour les adeptes de l'IA, mais un bond de géant pour
l'humanité numérique. Entre temps, un zoologiste d'Oxford, Richard Dawkins, publia
un ensemble de best-sellers sur le rôle primordial du gêne dans l'évolution darwinienne.
Et ce même scientifique, écrivain exceptionnel, devint le champion planétaire d'une
conception athée de l'existence. Il y a quelque chose de piquant dans le fait que la cé­
lébration d'un univers rigoureusement scientifique voire numérique, où Dieu n'a pas sa
place, soit la vocation, non pas d'un gourou inspiré des mathématiques ou d'un adepte
de l'IA, mais d'un grand spécialiste de la vie animale.

De drôles d 'ordinateurs
L'auteur américain de science-fiction Terry Bisson a écrit une merveilleuse petite
nouvelle - à peine deux ou trois page - intitulée « Ils sont faits en viande ! » Des ex­
traterrestres sont sidérés de découvrir que les créatures habitant la planète Terre sont
entièrement composées de matière organique : bref, de « viande ». Comme matières pre-
Postface - 1313

mières, les constructeurs d'ordinateurs emploient toujours des métaux, des polymères
synthétiques (plastiques) et diverses substances inorganiques (dont le silicium) . On
peut donc rester admiratif devant l'ingéniosité de la nature, qui ne s'est jamais écartée
de l'exploitation de la « viande » pour l'assemblage de son produit haut-de-gamme :
l'homme. Les prototypes de la macromolécule qui allait devenir l' ADN avaient sans
doute un comportement simple limité essentiellement à la réplication. Puis l'évolution
a tout doucement mis en place, au bout de processus immensément lents et complexes,
à peine croyables, les fonctions de développement d'un alphabet et d'un système de
traitement de l'information susceptible de gérer la synthèse des vingt protéines de la
vie. Cet « ordinateur » rustique, l'ADN, qui a créé tout seul le vaste royaume des êtres
vivants sur la planète Terre, a lui-même eu (et continue à avoir) une durée de vie et
un domaine d'application dont l'étendue impressionne sûrement les pauvres ingénieurs
humains qui construisent nos machines électroniques. Au commencement, la molécule
fabriquait (ou plutôt faisait fabriquer) les ingrédients élémentaires qui allaient per­
mettre sa reproduction, puis elle se scindait en deux parties similaires, semblables à
l'originale . . . ce qui était déjà un acte procréatif quasi-miraculeux. Puis la machine ADN
eut le bon sens de se rendre compte (façon de parler) qu'elle avait déjà atteint un stade
opérationnel proche de la perfection, et qu'elle pourrait donc faire l'économie d'une
suite interminable de générations (si chères aux fabricants modernes) . Plutôt que de
poursuivre le développement de l'engin lui-même, la macromolécule laissait le champ
libre au traitement d'une variété de toutes sortes de données récupérées à tout moment
et partout sur la planète. Ainsi, les organismes biologiques proliféraient exponentiel­
lement, tous exploitant exactement le même petit processeur, l'ADN, et tous étant
capables d'engendrer leurs semblables. Pour une entreprise de fabrication, quel rêve !
Au commencement, la famille des organismes était assez fruste : surtout des créatures
composées d'une seule cellule. Plus tard, le même vieil engin informatique et le même
langage de programmation (quatre éléments assemblés en triplets) permirent la fabrica­
tion d'organismes multicellulaires, et ceux-ci se mirent à se comporter d'une multitude
de façons surprenantes. On nageait dans les eaux tièdes de la mer. On courait sur les
rives au moyen de jambes. On s'envolait dans l'air. On devint prédateur, n'hésitant
pas à dévorer d'autres organismes, tombés ainsi dans une nouvelle catégorie nommée
proie. Certains organismes évoluèrent simultanément dans deux directions : macrosco­
piquement, par l'adjonction d'organes inédits de toute sorte (yeux, nez, ailes, etc) , et
microscopiquement, par l'insertion dans leur corps de dispositifs tels que, par exemple,
un système immunitaire. Enfin, un organe d'un type assez bizarre fit son apparition : le
cerveau. Equipé de composants puissants, des neurones, assemblés en un gigantesque
réseau, cet organe devint à sa façon une nouvelle couche informatique placée sur l'en­
gin ADN primordial. Et ce cerveau se mit à rêver. Se proclamant « intelligent », il a
même fini par imaginer qu'il pourrait créer des dispositifs artificiels qui seraient, eux
aussi, intelligents. Entre temps, le processeur primitif, l'ADN, ne cesse jamais d'éton­
ner - on dirait parfois « narguer » - son jeune frère, le super-ordinateur cérébral.
A cet égard, l'anecdote la plus récente concerne un phénomène déconcertant : la par­
tie énorme de l' ADN qui ne participe apparemment pas à la synthèse de protéines.
On supposait qu'il s'agissait de séquences archaïques des nucléotides qui traînaient
inutilement dans la double-hélice, sans aucune raison, tout simplement parce que la
1 3 1 4 Panorama de l'intelligence artificielle. Volume 3
-

macromolécule n'avait pas appris à évacuer périodiquement toute cette matière qui ne
sert plus à rien. Bref, le nettoyage de printemps ne serait pas dans les habitudes de
l'ADN. Or, depuis la publication récente de résultats obtenus dans le cadre du projet
ENCODE, les biologistes vont être obligés de revoir d'un œil nouveau ces segments de la
double-hélice qu'on appelait autrefois « ADN poubelle ». Car il s'avère que le moindre
segment d' ADN non codant peut pourtant être conçu pour jouer un rôle essentiel dans
la régulation du processus de synthèse protéique. A ne pas jeter, donc . . .

Des composants d'un nouvel ordre


Un maître du Moyen-Âge, Bernard de Chartres, nous légua une image qui a été re­
prise depuis par plusieurs savants afin d'expliquer leur processus de création de connais­
sances scientifiques : « Nous sommes comme des nains juchés sur des épaules de géants
( les Anciens ) , de telle sorte que nous puissions voir plus de choses et de plus éloignées
que n'en voyaient ces derniers. » En 1959, dans un discours prophétique, le physi­
cien Richard Feynman posa une question rhétorique où il évoquait l'idée, pour ainsi
dire, de remplacer les géants par des Lilliputiens incroyablement minuscules : « Ne
pourrait-on pas imprimer tous les 24 tomes de !'Encyclopédie Brittanica sur la tête
d'une épingle ? » Inspirés par l'interrogation de Feynman, des chercheurs à travers la
planète mirent au point la nanotechnologie, dont le nom vient du grec vcxv6ç, nain. Il
s'agissait désormais d'envisager la création de composants à l'échelle moléculaire, voire
atomique, susceptibles d'être utilisés dans la fabrication de toute sorte d'entités aux
propriétés généralement inédites, parfois bizarres. Du coup, cette Amérique inattendue
sur laquelle sont tombés les Christophe Colomb de la sapience artificielle s'est révélée
infiniment plus exotique et riche en possibilités autrefois insoupçonnées. L'ingénierie
génétique- dont le produit type fut la fameuse cellule synthétique de Venter - tra­
vaille, bien entendu, à partir de composants organiques, voire vivants. Depuis peu, une
nouvelle approche de synthèse exploite de minuscules « briques biologiques » d'un
type conçu par Tom Knight, qui faisait partie au départ de l'équipe d'IA de Minsky
au MIT. Il s'agit de composants totalement artificiels et standard ( qui rappellent les
composants logiciels exploités par les développeurs d'applications informatiques ) créés
de toutes pièces à partir des bases nucléiques A, C, G, T. Entre temps, la nanotech­
nologie permet d'imaginer une variante du génie génétique dont les créations seraient,
non pas des organismes biologiques réels, mais des modèles fonctionnant dans le cadre
de systèmes informatiques. Depuis un certain temps, certains observateurs s'étonnent
de l'apparente philanthropie de l'entreprise Google dans son gigantesque projet de nu­
mérisation d'ouvrages écrits, anciens aussi bien que modernes. Il suffit d'un minimum
d'imagination pour arriver à la conclusion que les futurs lecteurs prévus par Google
face à tous ces ouvrages numérisés seront vraisemblablement, non pas des habitués des
salles de lecture des grandes bibliothèques, mais plutôt . . . des ordinateurs ! On a donc
demandé à Larry Page, PDG de l'entreprise, comment il voyait l'avenir de l'IA dans le
contexte de Google. Il y voit deux directions possibles. On pourrait d'un côté continuer
à améliorer et à étendre les algorithmes, disons « classiques », qui ont fait jusqu'ici la
fortune de l'entreprise. Mais Larry Page évoque un second chemin qui consisterait à
modéliser, un par un, les systèmes nerveux du monde vivant, en commençant par les
Postface - 1315

plus simples (par exemple, ceux des vers de terre) et en visant les cerveaux de plus en
plus sophistiqués. En Australie, une jeune équipe en nanotechnologie de l'université de
Nouvelle-Galles du Sud vient d'annoncer la création d'un transistor opérationnel basé
sur un seul atome. En France, au CNRS , on tente de créer des dispositifs semblables
à l'échelle moléculaire. Grâce aux composants de cette nature, on pourrait désormais
imaginer qu'un vrai ordinateur quantique, grandeur naturelle, voie bientôt le jour. Et
ce type d'appareil - dont l'art de la programmation reste à inventer de fond en comble
- facilitera sûrement, enfin, la modélisation de systèmes nerveux du monde vivant.

Et la psychologie est déjà de la partie


Autrefois, en spéculant que l'esprit humain était véhiculé par le cerveau, et représen­
tant celui-ci comme une sorte d'ordinateur, on s'exprimait le plus souvent de manière
métaphorique, en ce sens que peu de gens pensaient que notre chère tête puisse réelle­
ment abriter une « machine à calculer ». Les ressemblances concevables entre l'esprit
humain et un ordinateur étaient tout aussi vaseuses que le rapport entre le Saint­
Esprit et une colombe. De nos jours, en revanche, certains savants - notamment dans
le domaine de la psychologie - n'hésitent pas à avancer la théorie que notre cerveau
serait réellement et uniquement un gigantesque système biologique destiné à traiter
des informations à la manière d'un ordinateur. Leur champion est sans doute Steven
Pinker de l'université de Harvard. Dans un premier temps, il rappelle que les adeptes
de l'IA ont d'abord grossièrement sous-estimé les « challenges techniques réussis par
notre activité mentale courante ». Pinker considère que cette découverte fut, pour les
chercheurs en psychologie cognitive, « l'une des grandes révélations de la science, une
ouverture d'esprit comparable à la découverte que l'univers est composé de milliards
de galaxies, ou qu'une goutte d'eau dans un étang est remplie de vie microscopique ».
Ultérieurement dans son ouvrage « Comment fonctionne l'esprit », Pinker évoque ex­
plicitement la « théorie informatique de l'esprit » (en anglais, computational theory of
mind:) : « C'est l'une des grandes idées de l'histoire intellectuelle, car elle résout l'une
des énigmes qui composent le problème esprit-corps, à savoir : comment relier l'univers
éthéré des significations et des intentions, la substance de notre vie mentale, avec le
morceau de matière physique qu'est notre cerveau ? » Par le biais de l'information,
tout ce qui est croyance ou désir chez l'homme peut être vu sous la forme de certaines
configurations de symboles (au sens informatique) . Autrefois, la métaphore « Machina
sapiens » servait commodément à désigner une paire d'entités hybrides dont ni l'une ni
l'autre n'était considérée comme ayant une existence réelle dans le monde de tous les
jours. Du côté de l'IA, on n'était pas encore convaincu qu'il puisse exister réellement
une machine électronique douée de sapience. De l'autre côté, chez l'Homo sapiens, on
était tout aussi persuadé que l'idée de voir nos semblables comme des machines était
tant soit peu tirée par les cheveux, voire réductionniste au sens péjoratif. De nos jours,
on finit par se dire que la machine en quête de sapience existe probablement depuis un
certain temps déjà. Cette machine, c'est nous.
Épilogue - 1 3 1 7

Epilogue :
pour une défense de la
recherche en intelligence
artificielle

On rappelle brièvement l'ambition de ce livre, avant de mesurer ensuite le terrain


exploré par l'IA en près de 60 ans, et d'essayer de cerner les malentendus et les décon­
venues, pour finalement risquer quelques mots sur ses développements futurs.

Pourquoi cet ouvrage ?


Cet ensemble de trois volumes propose un panorama détaillé de l'IA tant du point
vue de la représentation des connaissances et de leur exploitation par différents types
de raisonnement, que de son algorithmique, et de ses interfaces avec d'autres disciplines
des sciences du traitement de l'information. Il existe depuis longtemps de nombreux
livres en langue française ou anglaise, pour s'en tenir à ces deux langues, qui offrent
des introductions pour le curieux [Vandeginste, 1987 ; Haton et Haton, 1993 ; Ganascia,
1993 ; Collectif, 2001 ; Bersini, 2006 ; Sabah, 2009] , des essais plus ambitieux [Braffort,
1968 ; Skyvington, 1976 ; Hofstadter, 1979 ; Tisseau, 1996 ; Warwick, 201 1] , ou des ma­
nuels d'enseignement pour l'étudiant [Nilsson, 1971 ; Winston, 1977 ; Nilsson, 1982 ;
Charniak et McDermott, 1985 ; Farreny et Ghallab, 1987 ; Haton et al. , 1991 ; Norvig,
1992 ; Russell et Norvig, 2009 ; Jones, 2008 ; Frécon et Kazar, 2009 ; Poole et Mack­
worth, 2010 ; Lucci et Kopec, 2013] de l'IA dans son ensemble, des collections d'articles
[Nilsson, 1981] , ainsi que des ouvrages à caractère historique ( le lecteur pourra consul­
ter la bibliographie du chapitre 1 du volume 1 pour ces derniers) . Cet ouvrage est par
son dessein et son ampleur cependant d'une autre nature. Il propose un état des lieux
approfondi et documenté des recherches récentes en IA, de ses développements et de ses
principaux résultats qui restent trop souvent méconnus, y compris dans la communauté
des chercheurs en informatique. Ceci en fait un ouvrage relativement unique.
Un tel projet n'aurait pas pu être mené à bien sans la participation des nombreux
Auteurs : PIERRE MARQUIS, ÜDILE PAPINI et HENRI PRADE.
1 3 1 8 - Panorama de l'intelligence artificielle. Volume 3

collègues qui ont bien voulu participer à cette aventure. Que chacun en soit ici remercié.
Le projet est né d'une proposition faite par le dernier des trois coordinateurs aux deux
premiers, il y a quelques années lors des premières « journées d'IA fondamentale »
à Grenoble. L'architecture de l'ouvrage a été ensuite travaillée et remodelée jusqu'à
fin 2008 avant de procéder l'année suivante aux invitations des auteurs. S'en est suivi
un long processus d'échanges de courriers, d'écritures, de relectures, d'ajouts pour
finalement aboutir à ces trois volumes.
Cet ouvrage est dédié à l'école française d'intelligence artificielle, et plus particu­
lièrement à la mémoire de ceux de ses membres disparus prématurément, certains très
jeunes : Alain Bonnet [ 1984 ; 1986] , Martial Vivet [ 1996] , Jean-Louis Laurière [ 1978 ;
1987] , Thierry Castell [ 1997] , Elsa Pascual [ 1996] , Karine Liogier [ 1997] , Philippe Smets
[Smets et Kennes, 1994 ; Smets, 1997] , Rose Dieng-Kuntz [Dieng et al., 2001 ; Dieng­
Kuntz et al. , 2006] , Pascal Nicolas [Nicolas et al. , 2001, 2006] , Paul Sabatier [ Guenthner
et Sabatier, 1987 ; Pasero et Sabatier, 2000] , et Jean Veronis [Véronis, 2004, 2008] .

D 'où vient l'IA ?


Comme on l'a vu dans le premier chapitre du premier volume, l'IA a d'abord été es­
sentiellement abordée sous l'angle de la résolution de problèmes, en cherchant à mettre
en œuvre des méthodes universelles, plutôt que des approches dédiées à des problèmes
particuliers. Ces préoccupations sont à mettre directement en relation avec le versant
algorithmique de l'IA depuis notamment la recherche heuristique ordonnée jusqu'aux
problèmes de satisfaction de contraintes et à la programmation logique.
Tôt, il a été remarqué que l'efficacité de la résolution de problèmes dépendait dans
une certaine mesure du cadre de représentation utilisé, ce cadre se devant d'être le plus
universel possible pour des raisons de généralité des approches. Si la logique est un cadre
général de représentation qui a été considéré dès le début, il est vite apparu insuffisant
en tant que tel, avec le besoin notamment de prendre en compte l'incertitude, ou des
dimensions spécifiques comme le temps ou l'espace par exemple, et avec l'intérêt pour
des représentations graphiques.
Les tout premiers programmes en IA cherchant à faire rivaliser la machine avec
l'homme, se sont intéressés à des types de problèmes particuliers comme la démons­
tration automatique de théorèmes ou le jeu d'échecs. Avec l'âge des systèmes experts,
les problématiques se sont recentrées sur la question de représenter explicitement des
connaissances humaines, certes exprimées par des experts, mais cependant susceptibles
d'être entachées de multiples défauts ( incomplétude, incertitude, incohérence ) . Toutes
ces questions ont motivé ensuite nombre de travaux dont il est largement fait écho dans
cet ouvrage.
De fait, la représentation de connaissances sous toutes leurs formes possibles, et avec
toutes leurs imperfections, et pas simplement le traitement de données, fussent-elles
massives, est une spécificité de l'IA. Ces connaissances, même représentées logiquement,
ne sont pas non plus assimilables à des énoncés mathématiques universellement vrais.
Cet état de fait a conduit progressivement l'IA à s'intéresser à la modélisation des états
épistémiques des agents plutôt qu'à la vérité universelle des énoncés, à développer des
logiques non classiques capables, par exemple, de gérer les exceptions, et à mettre en
Épilogue - 1319

œuvre des cadres théoriques permettant d e représenter différentes formes d'incertitude.

Qu'est-ce que l'IA ?


Comme le suggère le rapprochement, qui a pu sembler provocateur à certains, des
mots « intelligence » et « artificielle », il s'agit de réussir à donner à des machines des
capacités leur permettant d'effectuer des tâches ou des activités réputées intelligentes
(dans le sens où jusqu'à présent uniquement réalisées par des humains) . Une telle défi­
nition reste cependant assez vague car elle ne donne ni une définition de l'intelligence,
ni même ne précise la nature des capacités dont il convient de doter la machine. Ainsi,
une machine capable de reclasser dans l'ordre croissant des nombres donnés en vrac,
ou de résoudre des équations, n'est pas considérée comme intelligente pour autant
(même si seulement un petit nombre de mathématiciens savent résoudre les équations
considérées !).
Les mythes de la machine pensante ou du programme intelligent peuvent être consi­
dérés comme fondateurs pour l'IA, mêmes si ces mythes la précèdent historiquement,
et sont tout autant liés à la cybernétique. Ils ont sinon directement motivé beaucoup de
recherches, du moins nourri les rêves de nombre de chercheurs, ceci conduisant à la ques­
tion « qu'est-ce que l'intelligence ? ». Répondre à cette question [Lautrey et Richard,
2005] , qui intéresse toutes les sciences du vivant de la cognition humaine à la cogni­
tion animale voire végétale, est cependant bien au-delà du programme de l'IA, même
si l'existence de différents programmes, de diverses natures, toujours plus performants
doit aussi nourrir la réflexion sur cette question, et si la problématique introduite par la
cybernétique, qui a ouvert la route aux sciences cognitives, a renouvelé profondément
les questions de la mécanisation de l'esprit [Dupuy, 1994, 2000] , et de la conscience
[Dennett, 1996] .
En fait, il existe différentes vues de l'IA (voir [Simon, 1969 ; Bellman, 1978 ; Schank,
1991 ; Simon, 1995 ; Pitrat, 1995 ; Davis, 1998 ; Kowalski, 201 1] pour n'en citer que
quelques-unes) , souvent entremêlées, ce qui ne facilite pas une bonne compréhension
de ce qu'est la nature de l'IA. Il est intéressant de constater que si on se rapporte
aux écrits de Turing [1948 ; 1950] , l'intelligence des machines est d'abord une question
de calculabilité, et secondairement de capacité d'apprentissage à partir de données.
C'est dire qu'il n'y est pas fait réellement place à la représentation des connaissances
humaines. Cette vue correspond davantage à une approche « boîte noire » du type re­
connaissance des formes, reconnaissance de situations, qui correspondrait chez l'homme
à des activités réflexes ou qui du moins n'auraient pas d'expression verbale, et dont les
réseaux neuronaux offrent un prototype.
Une autre forme d'IA est plus directement en interface avec des experts et / ou
des utilisateurs humains. Elle requiert une représentation explicite des connaissances,
des mécanismes d'inférence appropriés, et suppose, en principe, pour le système des
capacités d'explicabilité des conclusions auxquelles il arrive, afin de pouvoir les com­
muniquer et les justifier à l'utilisateur (en termes intelligibles pour lui) . C'est dire que
la recherche en IA porte alors sur des questions de mécanisation de différentes formes
de raisonnement et de prise de décision. Le problème est alors sans doute envisagé
de manière sensiblement différente de chez l'humain où la décision est plutôt affaire
1 320 - Panorama de l'intelligence artificielle. Volume 3

de perception, d'émotions que le résultat d'un processus logique [Berthoz, 2003] . En


fait, ces deux conceptions coexistent [Kahneman, 201 1] , comme par exemple dans des
tâches de diagnostic où un jugement d'expert basé sur une très grande expérience doit
ensuite être éventuellement argumenté auprès d'autres experts ou expliqué au patient
[Raufaste, 2001] .
Mais un autre type d'intelligence a aussi retenu l'intérêt des chercheurs, c'est l'intel­
ligence répartie, collective (dont les philosophes ont aussi souligné l'importance [Varela,
1989 ; Dupuy, 1982] ) . Elle correspond à l'émergence [Bersini, 2007] de propriétés, de
comportements complexes dans des systèmes dynamiques à partir d'interactions lo­
cales entre des agents artificiels obéissant à des règles simples, établissant ainsi des
ponts entre par exemple !'éthologie des sociétés d'insectes, l'IA multiagent et les méta­
heuristiques [Theraulaz et al. , 1998 ; Bonabeau et al. , 1999] , ou entre la robotique et
la phonologie par l'étude de l'auto-organisation de systèmes de vocalisation et l'ap­
prentissage de correspondances perceptuo-motrices dans un groupe de robots babillant
ensemble [Oudeyer, 2013] .
Enfin, ce dernier aspect est aussi à mettre en relation avec une vision « encorpo­
rorée » (en anglais « embodied » ) de l'intelligence [Iida et al. , 2004] , où les agents ont
des capacités sensori-motrices (dont déjà Piaget [1936] avait souligné le rôle en appren­
tissage) , et où des processus émotionnels participent de l'activation de l'intelligence
comme chez l'humain [Damasio, 1999] .
Il ne s'agit bien sûr pas de trancher entre ces différentes conceptions de l'idée d'in­
telligence qui toutes font sens dans l'artificiel, comme dans le vivant, et peuvent éven­
tuellement se trouver simultanément à l'œuvre à différents niveaux.

Les « promesses » de l 'IA


Ces différents courants de recherche, comme les promesses souvent excessives des
uns ou des autres, ont alimenté de vaines polémiques sur les mérites comparés des ap­
proches, ainsi que toutes sortes de malentendus, voire de procès faits à l'IA. L'IA a ainsi
connu des alternances de périodes d'engouement et de périodes de défiance, voire de
discrédit. Le besoin de vanter un nouveau paradigme, la recherche de soutiens institu­
tionnels et industriels a souvent gonflé ces promesses, quelquefois dans des proportions
extraordinaires. Un exemple déjà ancien est celui du « boom » des systèmes experts où
certains n'hésitaient pas à présenter l'IA comme un nouvel Eldorado [Feigenbaum et
McCorduck, 1983 ; Feigenbaum et al. , 1988] , alors même que des questions importantes
restaient en suspens au plan de l'acquisition des connaissances, et que le traitement
des exceptions et de l'incertitude n'y était pas encore complètement maîtrisé. De fa­
çon générale, la pression à produire rapidement des outils complétement opérationnels,
même si des réalisations indéniables peuvent être obtenues [Braunschweig et al. , 2012] ,
a pour revers l e morcellement des approches, et le développement de chapelles qui sont
conduites à valoriser au maximum leurs acquis, et souvent à survendre leurs résultats,
tout en ignorant largement les recherches éventuellement connexes et complémentaires
des autres chapelles.
Ainsi l'IA a pu rencontrer les critiques de scientifiques, de philosophes, de repré­
sentants de la société. Pour ce qui est de ces derniers, un exemple est fourni dans le
Épilogue - 1321

chapitre précédent par William Skyvington, qui pose d'emblée la question : « que
sont devenues les promesses des pères fondateurs ? ». Il fait le constat qu'il n'y avait
« aucune machine intelligente susceptible d'apprécier la fête » du cinquantenaire de
l'IA ! Certes nous sommes encore loin d'une machine intelligente qui serait capable de
comprendre tous les ressorts d'une situation de ce genre, et qui plus est d'avoir une
forme de « conscience » { même si certains y pensent (Pitrat, 2009] sérieusement ) . Mais,
inversement, on ne doit pas tenir pour négligeables les avancées de l'IA (sans parler de
celles de la robotique ) depuis 50 ans. Par ailleurs, il faut garder à l'esprit que, même
si l'IA s'appuie sur un ensemble de disciplines scientifiques anciennes, elle a moins de
60 ans à ce jour et, à ce titre, fait figure de nouveau-né dans la famille des sciences. Il
faut donc prendre garde à ne pas jeter le bébé avec l'eau du bain . . . Pour ce qui est
des questions d'ordre philosophique nous renvoyons le lecteur au chapitre 3.9 et aux
discussions qui accompagnent (Dreyfus, 1984] ; voir aussi dans d'autres registres (Gorz,
2003 ; Borillo et al. , 2000] .
Les critiques de scientifiques sont d'une autre nature, quand elles ne sont pas sim­
plement dues à une simple méconnaissance des recherches en IA. Ainsi l'IA a-t-elle
pu encourir le dénigrement de la part de logiciens, mathématiciens de la logique (Tu­
ring et Girard, 1995] , qui se gaussent du manque de rigueur et du caractère, disons,
laborieux de certains travaux. Mais c'est oublier deux choses. La première c'est que
la problématique de la formalisation logique du raisonnement en IA n'est pas celle de
la logique comme fondement des mathématiques où tous les énoncés se doivent d'être
sans incertitude et universellement vrais ( c'est-à-dire sans exception ) . La seconde, nous
la dirons au travers de la citation d'une déclaration célèbre du physicien Oliver Hea­
viside (1850-1925) qui, aux dires de certains des mathématiciens de son temps, sortait
des cadres classiques et connus ( il suffira au lecteur pour l'adapter à notre propos de
substituer à la physique, les sciences du traitement de l'information) : « Mathematics
is of two kinds, Rigorous and Physical. The former is Narrow : the latter Bold and
Broad. To have to stop to formulate rigorous demonstrations would put a stop to most
physico-mathematical inquiries. Am I to refuse to eat because I do not Jully understand
the mechanism of digestion ? » Notons cependant que des appels dès les années 1980
(McCarthy, 1984] pour une recherche de base en IA et des standards d'évaluation des
résultats plus exigeants se sont fait entendre dans la communauté, conduisant progres­
sivement à un développement de plus en plus important de travaux théoriques. Une
autre critique émanant de scientifiques touche au nom même de la discipline, conduisant
aussi à l'expression de craintes de voir l'homme assimilé à la machine si l'IA devient le
référent de l'idée d'intelligence (Arsac, 1987] . Il faut d'ailleurs se souvenir que, dès les
débuts de l'IA, Herbert Simon préférait parler de « complex information processing »
et de « simulation of cognitive processes » (Simon, 1969] , reconnaissant cependant que
« "Artificial Intelligence " seems to be here to stay, and it may prove easier to cleanse
the phrase than to dispense with it », ajoutant que « In time it will become sufficiently
idiomatic that it will no longer be the target of cheap rhetoric ».
De fait, beaucoup des résultats dont l'IA peut être légitimement fière { nous ne
tenterons pas d'en dresser une liste ici, ce qui serait long et fastidieux, préférant sim­
plement renvoyer le lecteur à la table des matières et à l'ensemble des chapitres de cet
ouvrage ) , sont d'abord des contributions au traitement avancé de l'information.
1 322 Panorama de l'intelligence artificielle. Volume 3
-

Où va l'IA ?
Il est vrai que le terme « intelligence artificielle » a pu causer quelques malentendus,
voire déplaire, et peut assurément être interprété de diverses manières, comme on l'a
rappelé plus haut. En effet, si chacun peut apprécier les capacités toujours plus grandes
des machines pour effectuer des calculs numériques ou des opérations symboliques, ou
traiter des documents, l'idée que la machine pourrait détenir ne serait-ce que quelques
onces d'intelligence provoque bien naturellement des questions, des craintes et des fan­
tasmes. L'usage de l'expression « intelligence artificielle » s'est cependant largement
répandu dans le public, au fur et à mesure des progrès de la technologie informatique
et de sa propagation dans les activités humaines. Les plus jeunes, dans les jeux video,
rivalisent contre des adversaires, appelés intelligences artificielles. Pluriel assez singu­
lier, mais qui s'explique vu la pluralité des formes que l'IA peut prendre et de la grande
variété des problèmes abordés, dont l'ensemble des chapitres de cet ouvrage témoigne.
Clairement, l'IA fait maintenant partie de notre culture comme le montre l'existence
de nombreux articles, livres, ou films s'y rapportant plus ou moins directement. L'IA
n'a cessé d'alimenter l'imaginaire collectif, comme par exemple, l'émergence du concept
(fantasme ?) de cyborg, créature à l'interface entre l'humain et la machine qui a suscité
une réflexion sur les aspects éthiques, politiques et sociaux de la science et de la tech­
nologie [Haraway, 1991 ; de Pracontal, 2002 ; Hoquet, 201 1] et qui a donné naissance à
des mouvements artistiques comme la littérature cyberpunk [Chassay, 2010] (à laquelle
des informaticiens peuvent eux-mêmes participer [Bersini, 2012] ) .
Par ailleurs, l'IA entretient des échanges fructueux avec les sciences cognitives (cf.
le chapitre 10 de ce volume ; voir aussi [Garbay et Kayser, 201 1] ) , car, d'une part elle
fournit de nouveaux repères, points de comparaison pour la compréhension de l'intel­
ligence, et d'autre part elle peut s'inspirer de ce que l'on sait du fonctionnement du
cerveau et de la façon dont l'homme raisonne, même si rien ne dit que l'IA doive copier
l'intelligence humaine dans toutes ses manières de procéder (ainsi les avions volent,
quoique différemment des oiseaux ! ) . De plus, puisque la machine doit échanger ses
conclusions avec des usagers, il importe qu'elle puisse s'exprimer en termes cogniti­
vement significatifs pour eux. Les grands progrès des neurosciences [Changeux, 1983 ;
Eccles, 1989, 1994 ; Changeux, 2008] devraient aussi avoir un impact à terme sur l'IA.
Les recherches en IA tendent à rendre la machine capable d'acquérir de l'informa­
tion, de raisonner sur une situation statique ou dynamique, de résoudre des problèmes
combinatoires, de faire un diagnostic, de proposer une décision ou un plan d'action,
d'expliquer et de communiquer les conclusions qu'elle obtient, de comprendre un texte
ou un dialogue en langage naturel, de résumer, d'apprendre, de découvrir. Pour ce faire,
la machine doit être munie de méthodes génériques susceptibles de s'adapter à de larges
classes de situations. Même si sur toutes ces questions de grands progrès restent cer­
tainement à faire, notamment en développant des visions plus unifiées des approches,
de nombreux résultats ont déjà été obtenus montrant qu'au moins, dans une certaine
mesure, ce programme est réalisable. L'IA va vers une maîtrise toujours plus grande et
plus conviviale de l'exploitation de l'information. L'opportunité de grandes masses de
données et de connaissances maintenant disponibles sur le Web devrait ainsi permettre
d'envisager le programme de recherche ancien de Douglas Lenat [1990] sur de nouvelles
bases.
Épilogue - 1 323

Pour autant, une machine dotée de l'ensemble des fonctionnalités citées plus haut,
ces fonctionnalités ayant atteint leur meilleur niveau d'efficience, serait encore assez loin
de posséder les capacités de penser d'un être humain ( même si la machine se révélera
sans doute bien plus performante dans certains registres de tâches qu'un être humain ) .
Il lui manquerait encore une forme de conscience.

Pour conclure
L'IA a cinquante ans révolus. Elle occupe une place singulière dans le champ très
vaste de l'informatique et des sciences du traitement de l'information. Alors même que
l'IA n'a jamais connu autant de développements et d'applications variés, ses résul­
tats restent largement méconnus dans leur ensemble, y compris dans la communauté
des chercheurs en informatique. Au-delà de quelques monographies introductives, il
n'existe pas de traités offrant une vue d'ensemble approfondie, et à jour, des recherches
dans ce domaine. C'est pourquoi il nous a paru indispensable de dresser l'état des
lieux des travaux en intelligence artificielle au plan international. Comme il s'agissait
d'une entreprise de grande ampleur, nous avons fait appel appel à l'ensemble de la
communauté française ( qui prend une part active au développement de l'intelligence
artificielle ) pour réaliser cet objectif. Chaque chapitre a été écrit par des spécialistes
français du domaine. Ce livre aura le mérite d'offrir à la communauté des chercheurs
en intelligence artificielle une image d'elle-même, et plus encore d'affirmer sa place
dans la communauté informatique auprès des collègues, comme des tutelles. Telle est
sa vocation principale.

Références
ARSAC, J. (1987) . Les Machines à Penser. Des Ordinateurs et des Hommes. Seuil,
Paris.
BELLMAN, R. (1978) . Artificial Intelligence. Can Computers Think ? Boyd & Fraser
Publ. Comp., Boston.
BERSINI, H. (2006) . De l 'Intelligence Humaine à l 'Intelligence Artificielle. Ellipse
éditions.
BERSINI, H. (2007) . Qu 'est-ce-que l 'Émergence ? Ellipse éditions.
BERSINI, H. (2012) . Le Tamagotchi de Mme Yen et Autres Histoires. Le Pommier,
Paris.
BERTHOZ, A. (2003) . La Décision. Odile Jacob, Paris.
BONABEAU, E. , DORIGO, M. et THERAULAZ, G., éditeurs (1999) . Swarm Intelligence :
Prom Natuml to Artificial Systems. Oxford Univ. Press, Cary, North Carolina.
BONNET, A. (1984) . L 'Intelligence Artificielle. Promesses et Réalités. InterEditions,
Paris. Trad. anglaise 'Artificial Intelligence : Promise and Performance' de J. Howlett,
Prentice Hall, 1986.
BONNET, A., HATON, J.-P. et TRUONG NGOC, J.-M. ( 1986) . Systèmes Experts - Vers
la Maîtrise Technique. InterEditions, Paris.
1 324 Panorama de l'intelligence artificielle. Volume 3
-

BORILLO, M., PRADE, H., SOUBIE, J.-L. et GADON, C. (2000) . Les Machines Pensent­
elles ? Les livrets du Service Culture UPS n 1 , Université Paul Sabatier, Toulouse.
Propos autour du spectacle de J.-F. Peyret « Histoire naturelle de l'esprit (suite et
fin) ».
B RAFFORT, P. (1968) . L 'intelligence Artificielle. PUF, Paris.
BRAUNSCHWEIG, B . , TOURNIER, A. et KAMAGATE, A., éditeurs (2012) . Intelligence
Artificielle et Robotique - "Confluences de l 'Homme et des STIG". Agence Nationale
de la Recherche, Les cahiers de l' ANR, n. 4.
CASTELL, T. et C AYROL, M. ( 1997) . Hidden gold in random generation of sat satisfiable
instances. In Proc. of the 15th !nt. Joint Conf. on Artificial Intelligence (IJCAI '97),
Nagoya, August 23-29, pages 372-377. Morgan Kaufmann.
CHANGEUX, J.-P. (1983) . L 'Homme Neuronal. Fayard ; Hachette, Pluriel, 1989.
C HANGEUX, J.-P. (2008) . Du Vrai, du Beau, du Bien : Une Nouvelle Approche Neuro­
nale. Odile Jacob.
CHARNIAK, E. et McDERMOTT, D. (1985) . Introduction to Artificial Intelligence.
Addison-Wesley, Reading, Ma.
CHASSAY, J.-F. (2010) . L 'imaginaire de l 'Être Artificiel. Presses Universitaires du
Québec.
COLLECTIF (2001) . L 'Intelligence Artificielle, Mais Enfin de Quoi s 'Agit-il ? Des Cher­
cheurs de l 'IRIT répondent . . . Université Paul Sabatier, Toulouse. Les livrets du
Service Culture UPS n 3.
DAMASIO, A. (1999) . The Feeling of What Happens : Body and Emotion in the Making
of Consciousness. Houghton Miffiin Harcourt, New York.
DAVIS, R. ( 1998) . What are intelligence ? And why ? 1996 AAAI Presidential address.
The AI Magazine, 19(1) :91-1 1 1 .
D E PRACONTAL, M. (2002) . L 'Homme Artificiel : Golems, robots, clones, cyborgs.
Denoël.
DENNETT, D . (1996) . Kinds of Minds. Seuil, Paris. Trad. "La Diversité des Esprits.
Une Approche de la Conscience", par A. Abensour, Hachette, 1998.
DIENG, R. , C ORBY, o . , GANDON, F . , GIBOIN, A., GOLEBIOWSKA, J . , MATTA, N.
et RIBIÈRE, M. (2001) . Méthodes et Outils pour la Gestion des Connaissances :
Une Approche Pluridisciplinaire du Knowledge Management. Dunod. 3ième édition,
Knowledge Management : Méthodes et Outils pour la Gestion des Connaissances,
2005.
DIENG-KUNTZ, R. , MINIER, D . , RUZICKA, M., CORBY, F . , CORBY, 0. et ALAMARGUY,
L. (2006) . Building and using a medical ontology for knowledge management and
cooperative work in a health care network. Comp. in Bio. and Med. , 36(7-8) :871-892.
D REYFUS, H. L. (1984) . Intelligence artificielle - Mythes et limites. Flammarion.
Trad. de 'What Computers Can't Do : The Limits of Artificial Intelligence' (1979)
par R.-M. Vassallo-Villaneau et D. Andler ; avant-propos de D. Andler et J. Perriault,
discussions de J. Arsac, M. Borillo et J. Pitrat.
DUPUY, J.-P. (1982) . Ordres et Désordres. Enquête sur un Nouveau Paradigme. Seuil,
Paris.
Épilogue - 1 325

DUPUY, J.-P. (1994) . Aux Origines des Sciences Cognitives. Éditions La Découverte.
DUPUY, J.-P. (2000) . Les Savants Croient-ils en leurs Théories ? Une Lecture de
l 'Histoire des Sciences Cognitives. Inra Éditions, Paris.
ECCLES, J. C. (1989) . Evolution of the Brain : Creation of the Self Piper Verlag,
München / Zürich. Trad. "Evolution du cerveau et création de la conscience. A la
recherche de la vraie nature de l'homme", Fayard, Paris, 1992 ; Flammarion, Champ
n 294, Paris,1997.
ECCLES, J. C. (1994) . How the Self Controls Its Brain. Springer Verlag. Trad. "Com­
ment la conscience contrôle le cerveau" , Paris, Fayard, 1997.
FARRENY, H. et GHALLAB, M. ( 1987) . Eléments d 'intelligence Artificielle. Hermes.
FEIGENBAUM, E. et McCORDUCK, P. ( 1983). The Fifth Generation. Artificial Intelli­
gence and Japan's Computer Challenge to the World. New American Library, New
York. Revised paperback edition, 1984.
FEIGENBAUM, E., McCORDUCK, P. et Nn, H. P. (1988) . The Rise of the Expert Com­
pany. How Visionary Companies are Using Artificial Intelligence to Achieve Higher
Productivity and Profits. Macmillan, London. Foreword by T. Peters ; Appendix :
Expert Systems in Use by P. Harmon.
FRÉCON, L. et KAZAR, O. (2009) . Manuel d 'intelligence Artificielle. Presses Polytech­
niques et Universitaires Romandes.
GANASCIA, J.-G. (1993) . L 'intelligence Artificielle. Dominos, Flammarion.
GARBAY, C. et KAYSER, D . , éditeurs (201 1). Informatique et Sciences Cognitives :
Influences ou Confluence ? Éditions Ophrys, Éditions de la Maison des Sciences de
. l'Homme, Paris.
GoRz, A. (2003) . L 'Immatériel. Connaissance, Valeur et Capital. Galilée, Paris.
GUENTHNER, F. et SABATIER, P. (1987) . Sémantique formelle et représentation des
connaissances. Langages (Larousse}, 87 : 103-122.
HARAWAY, D. J. (1991 ) . Simians, Cyborgs and Women : The Reinvention of Nature.
Routledge, New York. Trad. "Des Singes, des Cyborgs et des Femmes : La Réin­
vention de la Nature", par M.-H. Bourcier et C. Bonis, éd. Jacqueline Chambon,
2009.
HATON, J.-P. , Bouzm, N., CHARPILLET, F., HATON, M.-C. , LAASRI, B . , LAASRI, H. ,
MARQUIS, P. , MONDOT, T. et NAPOLI, A. (1991) . Le Raisonnement en Intelli­
gence Artificielle. Modèles, Techniques et Architectures pour les Systèmes à Bases
de Connaissances. InterEditions, Paris.
HATON, J.-P. et HATON, M.-C. (1993). L 'Intelligence Artificielle. PUF. Que Sais-je ?
2444.
HOFSTADTER, D. R. (1979) . Godel, Escher, Bach : An Eternal Golden Braid. A
metaphorical fugue on minds and machines in the spirit of Lewis Carroll. Vintage
Books. Trad. "Gôdel, Escher, Bach : Les Brins d'une Guirlande Éternelle", par J.
Henry et R. French, InterEditions, 1987.
HOQUET, T. (2011). Cyborg Philosophie : Penser Contre les Dualismes. Seuil, Paris.
ImA, F., PFEIFER, R. , STEELS, L. et KUNIYOSHI, Y., éditeurs (2004) . Embodied Arti­
ficial Intelligence, volume 3139 de LNCS. Springer.
1 326 Panorama de l'intelligence artificielle. Volume 3
-

JONES, T. (2008) . Arti.ficial Intelligence : A Systems Approach. Infinity Science Press


LLC.
KAHNEMAN, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux ; republ.
Penguin Group. 'frad. par R. Clarinard "Système 1 / Système 2. Les deux vitesses
de la Pensée" , Flammarion, 2012.
KOWALSKI, R. (2011). Computational Logic and Human Thinking : How to Be Arti.fi­
cially Intelligent. Cambridge University Press.
LAURIÈRE, J.-L. (1978) . A language and a program for stating and solving combina­
torial problems. Arti.ficial Intelligence, 10(1) :29-127.
LAURIÈRE, J.-L. (1987) . Intelligence Artificielle - Résolution de Problèmes par l 'Homme
et par la Machine. Editions Eyrolles. 'frad. 'Problem-Solving and Artificial Intelli­
gence' , Prentice Hall, 1989.
LAUTREY, J. et RICHARD, J.-F., éditeurs (2005) . L 'intelligence. Hermès-Lavoisier,
Paris.
LENAT, D. et GUHA, R. (1990) . Building Large Knowledge-Based Systems : Represen­
tation and lnference in the Gye Project. Addison-Wesley, Reading.
LIOGIER, K. (1997) . Négation constructive et modèles bivalués. In BENHAMOU, F.,
éditeur : JFPLC'91, Sixièmes Journées Francophones de Programmation Logique et
Programmation par Contraintes, 26-28 mai 1991, Orléans, pages 85-100. Hermes.
LuccI, S. et KOPEC, D. (2013) . Arti.ficial Intelligence in the 21st Century. Mercury
Learning and Information, Dulles, VA.
McCARTHY, J. (1984) . We need better standards for artificial intelligence research.
president's message. The AI Magazine, 5(3) :7-8.
NICOLAS, P. , GARCIA, L., STÉPHAN, 1. et LEFÈVRE, C. (2006) . Possibilistic uncertainty
handling for answer set programming. Ann. Math. Artif. Intell. , 47(1-2) : 139-181.
NICOLAS, P. , SAUBION, F. et STÉPHAN, 1. (2001). Heuristics for a default logic reaso­
ning system. !nt. J. on Arti.ficial Intelligence Tools, 10(4) :503-523.
NILSSON, N. (1971). Arti.ficial Intelligence. McGraw-Hill Inc.
NILSSON, N. ( 1981). Readings in Arti.ficial Intelligence : A Collection of Articles.
Morgan Kaufmann.
NILSSON, N. (1982) . Principles of Arti.ficial Intelligence. Morgan Kaufmann.
NORVIG, P. (1992) . Paradigms of Arti.ficial Intelligence Programming : Case Studies
in Common Lisp. Morgan Kaufmann Publ.
ÜUDEYER, P.-Y. (2013) . Aux Sources de la Parole - Auto-Organisation et Évolution.
Odile Jacob, Paris.
PASCUAL, E. (1996) . Integrating text formatting and text generation. In ADORNI,
G. et ZocK, M . , éditeurs : Trends in Natural Language Generation, An Arti.ficial
Intelligence Perspective, 4th European Workshop, E WNLG '93, Pisa, April 28-30,
1993, Selected Papers, volume 1036 de LNCS, pages 205-221. Springer.
PASERO, R. et SABATIER, P. (2000) . Modèle conceptuel et classes d'objets. BULAG,
pages 49-57. Numéro Hors Série, Lexique, Syntaxe et Sémantique, Presses Univer­
sitaires de Franche-Comté.
Épilogue - 1 327

PIAGET, J. ( 1936 ) . La Naissance de l 'intelligence chez l 'Enfant. Delachaux et Niestlé.


PITRAT, J. ( 1995 ) . De la Machine à l 'intelligence. Hermès, Paris.
PITRAT, J. ( 2009 ) . Artificial Beings : The Conscience of a Conscious Machine. ISTE
et Wiley.
POOLE, D. L. et MACKWORTH, A. K. ( 2010 ) . Artificial Intelligence : Foundations of
Computational Agents. Cambridge University Press.
RAUFASTE, E. ( 2001 ) . Les Mécanismes Cognitifs du Diagnostic Médical : Optimisation
et Expertise. PUF ,Paris.
RUSSELL, S. et NORVIG, P. ( 2009 ) . Artificial Intelligence : A Modern Approach {3rd
Edition). Prentice Hall. lst Edition 1995, 2nd Edition 2003.
SABAH, G. ( 2009 ) . 10 Questions à Gérard Sabah sur l 'intelligence Artificielle et la
Technologie. Académie des Technologies / Éditions Le Manuscrit.
SCHANK, R. ( 1991 ) . Where's the Al. The AI Magazine, 12 ( 4 ) :38-49.
SIMON, H. A. ( 1969 ) . The Sciences of the Artificial. MIT Press, Cambridge, Ma.
2nd edition, 1981 ; "La Science des Systèmes, Science de !'Artificiel", traduction et
postface par J.-L. Le Moigne, EPI éditeurs, Paris, 1974 ; rééd. Dunod, 1991 ; rééd.
titré "Les Sciences de !'Artificiel", Gallimard, Folio Essais, 2004.
SIMON, H. A. ( 1995 ) . Artificial intelligence : An empirical science. Artificial Intelligence,
77 ( 1 ) :95-127.
SKYVINGTON, W. ( 1976 ) . Machina Sapiens. Essai sur l 'intelligence Artificielle. Seuil,
Paris.
SMETS, P. ( 1997) . The normative representation of quantified beliefs by belief fonctions.
Artificial Intelligence, 92 ( 1-2 ) :229-242.
SMETS, P. et KENNES, R. ( 1994 ) . The transferable belief model. Artificial Intelligence,
66 ( 2 ) : 191-234.
THERAULAZ, G., BONABEAU, E. et DENEUBOURG, J. L. ( 1998 ) . The origin of nest
complexity in social insects. Complexity, 3 : 1 5-25.
TISSEAU, G. ( 1996 ) . Intelligence Artificielle. Problèmes et Méthodes. PUF, Paris, .
TURING, A . et GIRARD, J.-Y. ( 1995 ) . La machine de Turing. Points-Sciences, Seuil,
Paris. Trad. par J. Basch et P. Blanchard de deux articles de Turing "On computable
numbers with an application to the Entscheidungsproblem" ( 1936 ) et "Computing
machinery and intelligence" ( 1950 ) , avec une introduction et deux commentaires
critiques sur l'intelligence artificielle de J .-Y. Girard.
TURING, A. M. ( 1948 ) . Intelligent machinery. Rapport technique 3. Reprinted in :
Machine Intelligence, Vol. 5, Edinburgh Univ. Pr. , 3-23, 1969.
TURING, A. M. ( 1950 ) . Computing machinery and intelligence. Mind, 59 :433-460.
VANDEGINSTE, P. , éditeur ( 1987) . La Recherche en Intelligence Artificielle. La Re­
cherche & Points-Sciences, Seuil. Articles de A. Belaïd, M. Briot, R. Chatila, A.
Colmerauer, M. O. Cordier, B. Faller, H. Gallaire, J.-G. Ganascia, J.-P. Haton, D.
Kayser, Y. Kodratoff, J.-P. Laumond, J. Mariani, J. Pitrat, R. Prajoux, A. Robert
de Saint Vincent, J.-P. Sansonnet.
VARELA, F. J. ( 1989 ) . Connaître les Sciences Cognitives - Tendances et Perspectives.
1 328 Panorama de l'intelligence artificielle. Volume 3
-

Seuil, Paris.
VÉRONIS, J. {2004) . Hyperlex : lexical cartography for information retrieval. Computer
Speech Language, 18{3) :223-252.
f3
VÉRONIS, J. {2008) . Informatique et linguistique : Introduction, historique. Bulletin
d 'Informatique Approfondie et Applications {BIAA}, 80 :5-44.
VIVET, M. {1996) . The classroom as one learning environment of the future. J. of
Universal Computer Science, 2(10) :663-678.
WARWICK, K. {2011). Artificial Intelligence : The Basics. Routledge.
WINSTON, P.-H. {1977) . Artificial Intelligence. Addison-Wesley, Reading, Ma. 3 edi­
tion, 1992.
Index

abduction, 370, 385, 563 de propagation de contraintes tempo­


absence d'envie, 483 relles, 1219
abstract state machine, 1003 de recherche
accroissement de risque à moyenne aveugle, 661
constante, 433 bidirectionnelle, 666
acte, 428 en largeur d'abord, 659
action, 90, 363, 365 en profondeur d'abord, 668
à effets conditionnels, 366 heuristique, 662
concurrente, 368 meilleur d'abord, 661
déterministe, 366 de séparation-évaluation ( branch and
épistémique, 365, 367 bound) , 844
exécutable, 366 génétique, 957
explicite, 512 glouton aléatoire, 961
implicite, voir logique STIT hybride, 956
ontique, 365 IDA*, 668, 695
adaptation, 245 mémétique, 964
agent, 42, 266, 363, 461-494, 1112 par estimation de distributions, 961
BDI, 505 Q-learning, 1230
agrégation, 339, 351 value-iteration, 1222
de préférences, 396, 462, 463, 489 alignement
algèbre d'ontologies, 632, 1098, 1 1 10, 1 1 14
des intervalles d'Allen, 132, 1218 de concept, 632
non associative, 137 allocation de ressources, 462, 480, 487, 489
qualitative, 124, 126, 247 analogie, 240, 250
relationnelle, 136 analyse
algorithme attribution de rôles sémantiques, 1 133
de Davis et Putnam (DP) , 787 désambiguïsation sémantique, 1 133,
de Davis, Logeman, Loveland 1 135
(DPLL) , 788 distributionnelle, 1 134
A*, 660, 693 extraction d'information, 1 124
alpha-beta, 683 rétrograde, 695
carte probabiliste, 1207 reconnaissance d'entités nommées,
d'apprentissage, 917 1124
d'élimination de variable, 841 sémantique, 1 122
de Ffoyd-Warshall, 1219 statistique, 1 133
de Moore-Dijkstra, 659 syntaxique, 1 133
traduction automatique, 1 133 attitude faible, 435
étiquetage morphosyntaxique, 1 133 attitude forte, 435
annotation, 1098, 1 145 automate, 568, 1041
apprentissage, 71, 90, 104, 265, 529, 1 1 13- à pile, 1046
1 1 15, 1 185, 1228 applications, 1050
avec requêtes, 272 cellulaire, 995
de concepts, 271 d'arbre, 1048
de paramètres, 868 de mot, 1041
de règles, 271 transducteur, 1047
de structure, 289, 869 automatique, 387, 575
en ligne, 275 autonomie, 575, 1201
langue naturelle, 1132-1 135 axiomatique
méta-apprentissage, 942 de Savage, 428
multiagent, 289 de von Neumann-Morgenstern, 426
non supervisé, 918, 1 134 axiomatisation, 999, 1273
par analogie, 254 axiome
par démonstration, 1 185, 1233 d'indépendance, 427
par renforcement, 284, 1 185, 1228 de continuité, 427
relationnel, 288
semi-supervisé, 1 134 backtmck chronologique, 814
statistique, 103, 280
bagging, 943
base, 298-303, 308-311
supervisé, 269, 918, 919, 1 133, 1 186
d'informations, 298-301 , 308-312
sur-apprentissage, 270, 920, 925
de cas, 240, 243
approche
de connaissances, 155, 156, 242, 247,
constructiviste, 623
557, 593, 595
particulaire, 1212
compilation, 793
phénoménologique, 1252
CYC, 1 129, 1130
approximation, 71, 86, 96 FrameNet, 1 124
arbre interrogation, 157, 165, 175
de décision, 271, 450, 938-1 1 14 Wikipédia, 1130
de jonction, 864 de croyances, 90, 324, 381
de recherche, 683, 789 pondérées, 350
architecture, 565, 573 de données, 165, 176, 1067, 1099-
hiérarchique, 1235 1 101, 1 106, 1 109
logicielle, 1234 de Herbrand, 742
réactive, 1234 de règles, 593, 595, 601
teleo-réactive, 1235 belief expected utility, 446
argument, 300, 308-312 bioinformatique, 782, 1 141
attaque entre arguments, 1273 biologie computationnelle, 1208
argumentation, 301 , 308-312, 603, 604, boosting, 943
1098, 1272 but, 369, 510, 1268
assistant de preuve, 734
ATMS, 797 cake-cutting, 485
atome, 741, 749, 751 calcul des situations, 373
attitude face au risque calculabilité, 740, 992, 999
Kleene, 993, 1001 NP, 780, 781 , 1037
raisonnable, 1033 P, 781
Rice, 1002 PSPACE, 800
sur les réels, 1053 PTIME, 1037
Turing, 1000 traitable, 848
capacité, 414, 442 de Kolmogorov, 1040
cartographie, 1210 hiérarchie polynomiale, 800
causalité, 90, 377, 385, 580, 1273 information, 1040
chambre chinoise de Searle, 1251 problèmes complets, 1037
changement, 321, 325, 335, 345, 363 comportement, 1268, 1270
de croyances, 381 stratégique, 473
minimal, 324, 332, 345, 371 concordance, 406
choix social, 461-494 conditionnel, 41, 43, 77, 83, 89
computationnel, 462 conditionnement, 83-85, 88, 101, 103, 108,
CHR, 749 345-347, 840, 844
circonscription, 373, 557, 754, 756, 1 131 Condorcet, 461
classification, 96, 103-106, 244, 254, 872 effet, 401
de mots, voir analyse distribution­ vainqueur de Condorcet, 468
nelle confiance, 68, 69, 73, 85, 515, 1098, 1 102,
clause, 87, 560, 713, 741, 747, 756, 774 1 1 10
assertive, 790 confidentialité, 233
de Horn, 166, 560, 740, 741 , 1 108 conflit, 96, 97, 559, 561 , 579
définie, 742, 746 confluence, 128, 726
clôture algébrique, 134, 135, 137 connaissance, 42, 53, 299, 304, 313, 314,
coefficient d'aversion absolue au risque, 378
436 acquisition des connaissances, 247,
coercition de type, 1 130 615
cognition située, 623 de raisonnement, 617
cohérence, 135-137, 139, 309, 311, 313, du domaine, 617
314, 55� 595, 596, 598, 1 1 13 ingénierie des connaissances, 615,
d'arc, 816, 846 1 1 15
directionnelle, 848 patron de connaissances, 632
optimale, 847 représentation des connaissances,
virtuelle, 84 7 155, 633, 1271
locale, 816-822 source de connaissances, 620
restauration de la cohérence, 300-302, système à base de connaissances, 155,
381 , 560 591 , 605, 616, 1 166
communautés de pratiques, 640 connexion de Galois, 91
comparaison ceteris paribus, 186 conséquence sémantique, 775
complétion, 754, 757, 762 construction de modèle, 623, 720
complétude, 47, 49, 598, 1 107 contexte
complexité, 132, 1033, 1036 discursif, 1 122, 1 127
classe, 781 , 1037 énonciatif, 1 122
coNP, 781 contraction, 325
décidable, 718 contrainte, 173, 376, 598, 746, 753, 759,
763, 812, 813 c-dominance, 402
d'intégrité, 385, 595, 596, 1072, 1073, d'ordre 2, 406
1075, 1076 de Lorenz, 403, 489
de réalisme, 511 pondérée, 405
globale, 828 de Pareto, 396, 463, 536
temporelle, 383, 1076 faible, 402
valuée, 836 partielle, 402
contrary to duty, 225 stochastique
contrôlabilité temporelle, 1219 d'ordre 1 , 443
corpus annoté, 1 133, 1 134 d'ordre 2, 434
couverture Dutch book, 431
€-couverture, 402 découverte de motifs, 1 145
couverture de Markov, 860
critère, 395 échantillon d'apprentissage, 917
d'Hurwicz, 447 efficacité, 463, 465, 481
inductif, 917, 919, 920 égalitarisme, 465
croyance, 42, 324, 365, 508, 1 132, 1272 émotion, 518
enchère
décidabilité, 1017 combinatoire, 489-494
décision, 66, 1269 langages d'enchères, 491
centralisée, 466 enracinement épistémique, 89, 329
collective, 461-494 ensemble
dans l'incertain, 428 approximatif, 70
dans le risque, 428 de croyances, 324
distribuée, 466, 488 flou, 66, 71, 82, 255, 836, 1 167, 1170
multicritère, 395 réponse (ASP ) , 312, 753
Pareto-efficace ou Pareto-optimale, entropie de Shannon, 1040
463, 465, 481 , 486 entscheidungsproblem, 1018
séquentielle, 851 envisionnement, 128, 129
décomposition, 813, 823, 829 équité, 465, 479, 481
déduction, 157, 160, 169, 739, 740, 1006, espace
1015 de configuration, 1206
naturelle, 1007 des versions, 939
défaut, 89, 385, 555, 558, 569, 577 espérance d'utilité, 426
dépendance, 377, 384 à la Choquet, 442
diagnostic, 82, 90, 364, 369, 558, 563, 570, état, 364
579, 799 de la nature, 425
à base de modèle, 556 épistémique, 76, 80, 325, 331 , 333,
décentralisé, 573 341 , 365, 381
distribué, 573 mental, 504, 508, 519
diagnosticabilité, 565, 574 événement, 68, 70-72, 74, 77, 79, 80, 82-
diagramme d'influence, 453, 580, 862 84, 365, 425, 568
diversification, 956 élémentaire, 425
DL-Lite, 161, 1 105-1 108 exception, 52
document, 621, 635 exécution
dominance contrôleur d'exécution, 1216
de tâches, 1216 de Lambek, 1 125
déterministe, 1217 de Montague, 1124
non deterministe, 1221 Gouvernement et Liage, 1 125
temporelle, 1218 HPSG, 1 125, 1 129
expansion, 381 LFG , 1 125, 1 129
expérience, 240, 250 granularité, 70, 71, 1 168, 1170
explication, 370, 564, 591, 598-600, 606 graphe, 313, 314, 379
expression régulière, 1043 causal, 563, 580
expressivité, 132, 155, 184 conceptuel, 155, 166, 1 100, 1 101,
extension, 53, 54 1 106, 1 109, 1 129
extraction d'information, 1 152 d'argumentation, 311
extrapolation, 370 d'états, 655
de conflit, 791
filtrage de Kalman, 90, 385, 387, 1210 de distance, 1219
fonction et/ou, 656
d'utilité, 425, 464, 484 minimal, 1219
de coût, 836, 838 grille répertoire, 624
de croyance, 93, 94, 96, 98, 100, 347,
349, 444 héritage, 1 129
de nécessité, 330 heuristique, 657, 845
de possibilité, 327, 330, 346 de décision, 789
de rang, 85, 344, 346 d'ordonnancement des variables, 826
ordinale conditionnelle, 85, 344, 350 de Manhattan, 693
sous-modulaire, 849 minorante, 664
forme monotone, 665
clausale, 713 histoire, 124
normale HMM, 1 144, 1 146
conjonctive (FNC) , 87, 713, 776 hypothèse, 557, 917, 918
disjonctive (FND) , 87, 776
négative décomposable (FNND) , idéal, 511
796 impliquant premier, 794
formule, 297-316 impliqué, 778
booléenne quantifiée ( QBF) , 800 premier, 778, 794
indépendante du domaine, 1071 incertitude, 65, 68, 76, 98, 330, 365, 368,
fossé 378, 1 169, 1271
sémantique, 1 166, 1175 incohérence, 88, 299, 301 , 307, 310, 313,
sensoriel, 1175 315, 381 , 560, 565, 579, 594, 598,
frame, 1123 1 105, 1 109, 1 1 12
fusion, 97, 336, 1170 incomplétude, 594, 732
contrainte, 337 indéterminisme, 743
majoritaire, 342 indécidabilité, 1001, 1002, 1017, 1053
indépendance, 84, 95, 97, 378
génération de programmes, 1174 conditionnelle, 859
gradualité, 68, 256 préférentielle, 185, 464, 483
grammaire, 995, 1043 indexical, 748
catégorielle, 1 125 indifférence, 184
inertie, 370 langage
inférence, 301-304, 306, 307, 312, 313 d'action, 371 , 373, 375-378, 384, 387
argumentative, 303 déclaratif, 740, 751
défaisable, 1 130 langue naturelle
grammaticale, 931 , 935, 1 146 anaphore, 1 126, 1 131
implicature scalaire, 1 130 apprentissage, 1 132
moteur d'inférence, 1 129 dialogue, 1 132
non monotone, 53, 70, 88, 754 et image, 1 135
pair à pair, 1112 logique, 1 125-1 132
par compilation, 862 métonymie, 1 129
par conditionnement, 862 pragmatique, 1121, 1 130
par élimination de variables, 862 sémantique, 1121
possibiliste, 87, 88, 864 structure
préférentielle, 89 discursive, 1 127, 1 134
probabiliste, 861 temporelle, 1 134
informations contradictoires, 297-299, traitement automatique, 1121
310, 313 TAL, 1121
intégrale largeur d'arbre, 843
de Choquet, 94, 414 lexique génératif, 1 129
de Sugeno, 82, 416 limite descriptive de EU, 437
intégration liste de décision, 271
de données, 637, 1083, 1085, 1086 littéral, 377, 71 1 , 741 , 753, 774
et architecture logicielle, 1234 complémentaire, 774
intensification, 956
localisation, 1208, 1209
interaction, 308-310, 312
logique, 297-316, 557, 739-741, 747, 752,
homme-robot, 1226
754, 1006, 1070, 1 100, 1 103
multirobot, 1225
BDI, 505
interdiction, 215
Brouwer-Heyting-Kolmogorov, 1013
interprétation, 159, 375, 741, 747, 754, 774
constructive, 1006
de Herbrand, 742
d'ordre supérieur, 1124, 1 126
intervalle généralisé, 134, 136
de description, 155, 158, 1068, 1087,
inverse de Mobius, 415, 445
isomorphisme de Curry-Howard, 993,
1 103-1 107, 1 129
1014, 1016 de l'équilibre, 755
de planification, 1128
JEPD, 133 déontique, 215, 1068
jeu des actions, 219
booléen, 1 132 dyadique, 221
de réflexion, 683 standard (SDL) , 217
de signalisation, 1 132 des annonces publiques, 56, 513
théorie des jeux, 1 132 des défauts, 52, 54, 312, 561, 751 , 1 131
vidéo, 683 des préférences, 206
juste part, 482, 486 doxastique, 508
du ici et là, 754
lambda-calcul, 996, 1004, 1039, 1 124 du premier ordre, 155, 373, 1068,
typé, 1 126 1073, 1076, 1 100, 1 126
dynamique, 56, 378, 379, 1 128 de J affray, 44 7
épistémico-dynamique, 56, 379, 513 de Markov, 931
épistémique, 43, 47, 375, 378, 379, de raisonnement, 617
1068 de Yaari, 412
floue, 66, 1 1 10 graphique, 184, 598, 838, 857, 931
intuitionniste, 1007 probabiliste, 1 150
langue naturelle, 1 125 qualité, 640
modale, 45, 164, 378, 505, 754 réutilisation de modèles, 628
monadique, 1044 stable, 751 , 752
non monotone, 374, 1130, 1131, 1271 structurel, 569, 1 172
paraconsistante, 299, 300, 304, 306- modus ponens, 774
308 monde
possibiliste, 86, 88, 302, 350, 365, 380, clos, 156, 1 109
1068 épistémique, 509
propositionnelle, 375, 381 , 773 idéal, 511
quantificateur, 1126, 1 130, 1 134 ouvert, 157
STIT, 513 possible, 509, 511
temporelle, 377, 378, 509, 1068, 1073, préféré, 511
1076 monotonie, 374
loterie, 426 Monte-Carlo, 689
mixage, 426 motif fréquent, 918, 937, 941
moyenne ordonnée
méta-programmation, 744 pondérée
métaheuristique, 955 (OWA) , 410, 485
machine de Turing, 994 doublement (WOWA) , 412
universelle, 1000 multirobot, 1225
manipulation, voir comportement straté­
gique négation, 739, 741, 746
maximes de Grice, 1128 forte, 753
maximisation de satisfaisabilité de for­ par échec, 744
mules booléennes (MaxSAT) , par défaut, 751
784, 849, 967 navigation, 1215
mean preserving spread, 433 nécessité, 43, 45, 68, 80
méthode no-free lunch theorem, 942
à noyaux, 929, 1 144, 1 146, 1 147 norme, 215
ascendante, 622 de Tchebycheff, 409
descendante, 622 internalisée, 511
mise-à-jour, 381-385
modèle, 557, 741, 747, 751, 775 obligation, 215
conceptuel, 616 avec délais, 227
de calcul, 993, 994, 1053 conditionnelle, 221
continu, 1053 de groupe, 229
parallèle, 995 violation, 225
quantique, 1055 observation, 363, 367, 557, 569
séquentiel, 994 ontologie, 155, 156, 158, 165, 167, 607,
de Herbrand, 742, 752 617, 1098, 1 102-1 108, 1 1 14, 1 129,
1151, 1 169, 1176 de modélisation, 627
construction, 626, 628 de construction d'ontologie, 627
de haut niveau, 619 de TAL, 626
du domaine, 617, 619 plausibilité, 79, 93, 95, 344
évolution, 640 point
langue naturelle, 1 129 de référence, 407
modulaire, 637 fixe, 1001
noyau, 619 idéal, 410
représentation, 633 politique, 801, 1221
réutilisation, 628, 631 optimale, 1222
opérateur de conséquence immédiate, 742, possibilité, 68, 70, 77-81 , 83, 84, 88, 90,
752 94, 95, 101, 365, 380, 1 170
optimisation postdiction, 369
combinatoire, 835, 955 postulat
par colonies de fourmis, 962 de rationalité, 382-385
ordre, 382 de sens, 1 129
de bien-être social, 463 prédicat, 373, 557, 741 , 747, 757
de grandeur, 125-127 de contraintes, 74 7
absolu, 125, 130 de programme, 747
relatif, 125, 126, 130 prédiction, 368, 369, 376, 377
leximin, 206, 465, 485, 489 préférence, 302, 310, 336, 461-494, 841 ,
OVVL, 158, 165, 1 103-1 109, 1 113, 1115 1 132
cardinale, 184, 464
paradoxe d e Ross, 219
partage équitable, 461 , 462, 479, 480, 484, élicitation de préférences, 194
485, 489 ordinale, 184, 463
PDDL, 376 représentation compacte, 184, 487
performance, 395 prétraitement, 792
permission, 215 preuve, 1006, 1007, 1010
physique par résolution, 779
naïve, 123, 124 principe
qualitative, 123, 124 de la chose sûre, 429
pilotage d'algorithmes, 1174 comonotone, 441
plan, 367 faible, 449
langue naturelle, 1 127 de Pigou-Dalton, 403
planification, 367, 369, 370, 375-377, 1 182 de transfert, 403
avec cartes probabilistes, 1204 priorité, 383
de mouvements, 1204, 1223 probabilité, 65, 72, 73, 76, 77, 84, 86, 94,
des déplacements, 1215 106, 107, 345, 365, 367-369, 379,
exécution de tâches, 1216 380, 860
interaction, 1225 imprécise, 106
non deterministe, 1221 infinitésimale, 85
par réseau hiérarchique de tâches, pignistique, 100
1218 problème
temporelle, 1218 de choix, 395
plate-forme de la qualification, 372
de la ramification, 372, 376, 385 décentralisé, 301 , 573
de rangement, 395 et dialogue, 1 132
de satisfaction de contraintes ( CSP) , interpolatif, 254
812, 814, 836, 970, 1 148 non monotone, 88, 89, 739, 751 , 757
de tri, 395 par analogie, 240, 250
du décor, 371 , 374, 377, 379 qualitatif, 565, 580
procédure dictatoriale, 402 temporel, 365, 368, 370
processus décisionnel de Markov (MDP) , RAM, 995
368, 370, 387, 122 1 , 1223, 1230RCC-8, 132, 134, 136, 138-140
produit, 774 RDF/RDFS, 171, 1099-1 103, 1 107, 1 108,
de Nash, 485 1 1 15
programmation recherche
dynamique, 842, 1222 locale, 783
logique, 739, 740, 1 108, 1 109 d'information, 1098, 1 1 1 3
avec contraintes (CLP), 739, 746 heuristique, 655
en clauses de Horn, 739 locale, 957
inductive, 931 , 939 tabou, 785, 960
non monotone, 751 recommandation, 210
par contraintes, 851 , 1 107, 1 1 13, 1 1 1 5
reconnaissance
par ensembles réponses (ASP), 751 des formes, 1 165, 1172
programme, 378 d'entités nommées, 1 152
logique recuit simulé, 960
étendu, 753 récursivité, 993
disjonctif, 753 primitive, 993
normal, 751 réduction des inégalités, 484
progression, 368-372, 376, 378, 381 , 384, règle, 165, 171, 749, 751 , 1 108-1 109
385 causale, 377, 378, 385, 557, 580
PROLOG, 739
d'association, 918, 941 , 1 1 14
propagation
de conditionnement de Dempster, 103
de contraintes, 560, 816, 824, 845, 846
de Dempster, 349
unitaire, 789, 790
de fusion de Dempster, 104
proportion analogique, 251
de Jeffrey, 345
proportionnalité, voir juste part, 482
existentielle, 171, 176
protocole, 528
réglementation, 232
de concession monotone, 536
des offres alternées, 537 régression, 369-372, 375, 378
psychologie, 1267 relation
d'attaque, 3 1 1
Q-algèbre, 126, 127 d e concordance, 406
de généralité, 932, 937
raisonnement, 155, 157, 159, 297-316, 857, de ORD-Horn, 136, 137
1267 de préférence, 365, 382, 383
à partir de cas, 239, 240, 251 , 254, pré-convexe, 136, 140
1 181 rhétorique, 1 127
approché, 255 spatiale, 1 167, 1 171
bien fondé, 315 temporelle, 1 134
remémoration, 242, 243 manufacturière, 1200
représentation médicale, 1200
des connaissances, voir connaissances personnelle, 1200
faible, 136, 137 portée par l'homme, 1200
requête, 165, 174, 1 101, 1 106-1 108, 1 1 1 1 , robustesse, 1236
1 1 12
à préférences, 1068, 1078 satisfaction de contraintes (CSP) , 956
réécriture, 165, 177, 1075, 1085, 1086, satisfaisabilité de formules booléennes
1 108 (SAT) , 375, 775, 841 , 956, 966
réseau schéma
bayésien, 101, 860, 930, 931 , 1 1 14, de partition, 136
1 150, 1271 médiateur, 1084, 1087
augmenté par un arbre, 873 script, 1 123
augmenté par une forêt, 873 sécurité, 232, 874
dynamique, 379, 1213 segmentation, 1172
naïf, 872 sémantique, 159, 168
CP-net, 185 analyse, 1 122
d'ontologies, 1 1 10, 1 1 13, 1 1 14 compositionnalité, 1 122
de Kripke, 43, 45
de contraintes, 132, 134, 135, 137-
distributionnelle, 1 134
139, 143, 812, 813, 1 147, 1 148
dynamique, 1 122, 1126
valuées, 838
formelle, 618
de fonctions de coût, 838
interprétative, 618
GAI-net, 197
lexicale, 1 128
possibiliste, 380, 864
séparateur à vastes marges (SVM) , 928,
résidu, 576 929
résolution, 712, 778 similarité, 243, 254, 255, 257
étendue, 780 simulation qualitative, 126, 128-131
SLD, 742, 747 par composants, 128
ressource par contraintes, 128, 129
continue (divisible) , 480, 482, 485 par processus, 128
discrète (indivisible) , 480, 482, 489 SLAM, 1209
retour-arrière solveur, 557, 748
chronologique, 788 ASP, 375, 761
non chronologique, 790 SPARQL, 1 1 01, 1 101, 1 107-1 109, 1 1 15
révision, 74, 89, 246, 247, 324, 345, 369, STN, 1219
381 , 385, 1 1 12, 1272 stratégie, 451
itérée, 331 STRIPS, 375, 376, 384, 1216, 1217
RIF, 1 108-1 109 structure de valuation, 837
robot, 1 199 juste, 837
humanoïde, 1203 subsomption, 159, 161-163, 716, 778,
télé-manipulation, 1201 1 106, 1 107, 1 1 10-1 112
télé-opération, 1201 substitution, 375, 379, 713, 742
robotique, 1 165, 1 184, 1 197 superposition, 714
d'exploration, 1200 supervision, 364, 369, 555
de service, 1200 de codes, 1178
surveillance, 567 valeur morale, voir idéal
symétrie, 828 validation, 591 , 593, 597, 606, 607, 1236
système, 557 valuation, 711
à base de valuation, 863 vérification, 595, 606, 608, 1236
à événements discrets, 568 veto, 407
d'aide à la décision, 393, 423 violation, 577, 579
d'inférence pair à pair, 313-315 vision par ordinateur, 1 165
de décision automatique, 393, 423 vote, 467-479
dynamique, 363, 364 règle de vote, 467
expert, 66, 591, 600, 601 vue, 1084-1087
vérifonctionnalité, 42
tableau sémantique, 165, 166, 722, 1 1 12
tâche, 627 Web, 1097-1099
générique, 627 de données, 1098, 1 101-1 1 10
TAL, voir langue naturelle des données liées, 639
tautologie, 775 sémantique, 158, 606, 633, 1097, 1 1 15
temps, 364, 380, 509 service, 638
terme, 710, 741 , 746, 753 Web 2.0, 639
terminologie, 159, 161, 1129
test de Turing, 1 123, 1250
théorie des algorithmes
axiomatisation, 1004
thèse de Church, 992, 997, 999, 1004, 1056
Gandy, 999
Turing, 997
théorème
de Gôdel, 1017
de Rotschild et Stiglitz, 435
de Savage, 431
de von Neumann-Morgenstern, 427
théorie des algorithmes, 1002, 1004
trace, 250, 569, 598-600
transition, 365, 366, 369, 377, 383
de phase, 785
treillis de concepts, 1 129

unification, 713, 742, 746, 749, 764


langue naturelle, 1129
univers de Herbrand, 742
urne d'Ellsberg, 444
utilitarisme, 465
utilité, 425, 863
collective ou sociale, 464
dépendant du rang ( RDU ) , 440
individuelle, 464
qualitative, 448
Table des matières

Préface xiii

Volume 3 Intelligence artificielle frontières et applica­


tions
1 Informatique théorique : calculabilité, décidabilité et logique 989
1.1 Introduction . . . . . . . . . . . . . . . 989
1.2 Emergence de la notion de calculabilité . 993
1.3 Théorie de la calculabilité . . . . . . . . . 999
1.4 Formalisation de la notion d'algorithme . 1002
1.5 Déduction et calcul : la nature algorithmique des preuves constructives 1006
1.6 Décidable versus indécidable . 1017
1. 7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1021
2 Informatique théorique : complexité, automates et au-delà 1031
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 1031
2.2 A l'intérieur de la calculabilité : la théorie de la complexité . 1033
2.3 Complexité algorithmique de l'information . . . . 1040
2.4 Une opérationnalité efficace : les automates finis . 1041
2.5 Aller plus loin : calculabilité sur les réels . . 1053
2.6 Conclusion . . . . . . . . . . . . . . . . . . . 1057
3 Bases de données et intelligence artificielle 1067
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 1067
3.2 Modélisation des bases de données relationnelles en logique . 1068
3.3 Contraintes d'intégrité . . . . . . . . . . . . 1072
3.4 Bases de données et requêtes à préférences . 1078
3.5 Intégration de bases de données . 1083
3.6 Conclusion . . . . . . . . . . . . . . . . . . . 1087
4 Web sémantique 1097
4. 1 Introduction . . . . . . . . . . . . . . . . . . . . 1097
4.2 Représenter la connaissance . . . . . . . . . . . . 1099
4.3 Raisonner dans le Web sémantique : ontologies . 1 102
4.4 Gérer l'hétérogénéité . . 1 1 10
4.5 Conclusion . . . . . . . 1 114

5 Intelligence artificielle et langage 1121


5.1 Introduction . . . . . . . . . 1 121
5.2 Les premiers efforts . . . . . . . . 1 122
5.3 La logique, l'IA et le TAL . . . . . 1 125
5.4 La statistique et les méthodes d'apprentissage en TAL . . 1 133
5.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . 1 135

6 Bioinformatique 1 141
6.1 Introduction . . . . . . . 1 141
6.2 Les macromolécules . . . 1 142
6.3 Les réseaux biologiques . 1 149
6.4 Formalisation et extraction des connaissances . . 1 151
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . 1 155

7 Intelligence artificielle et reconnaissance des formes, vision, appren-


tissage 1 165
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 165
7.2 IA en vision par ordinateur et reconnaissance des formes . . . . . 1 166
7.3 Supervision de codes pour le traitement automatique des images . 1 174
7.4 L'apprentissage pour la robotique . 1 184
7.5 Conclusion . . . . . . . . . . . . . . 1 188

8 Intelligence artificielle et robotique 1 197


8.1 Introduction . . . . . . . . . . . . . 1 197
8.2 Problématique et état de l'art . . . . 1 199
8.3 Planification et exécution de mouvements . 1205
8.4 Planification et exécution de tâches . 1216
8.5 Planification et interaction . . . . . . 1225
8.6 Apprentissage . . . . . . . . . . .
. . 1229
8.7 Intégration et architecture logicielle . 1235
8.8 Conclusion . . . . . . . . . . . . . . . 1239

9 Perspectives philosophiques et épistémologiques ouvertes par l'in­


telligence artificielle 1251
9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1251
9.2 Trois débats classiques : le test de Turing, la chambre chinoise de Searle,
les arguments phénoménologiques de Dreyfus . . . . . . . . . . . . . . . 1252
9.3 Rappel des défis au programme de l'IA . . . . . . . . . . . . . . . . . . 1256
9.4 Comment l'évolution de l'IA a déplacé les perspectives épistémologiques
sur l'intelligence . . . . . . . . . . . . . . . . . 1 257
9.5 La juste place des défis philosophiques . . . . . 1261
9.6 Les tentatives pour relever les nouveaux défis . 1263
9.7 Conclusion . . . . . . . . . . . . . . . . . . . . 1267
10 Intelligence artificielle et psychologie du raisonnement et de la dé-
cision 1269
10. 1 Introduction . . . . .1269
10.2 Modes d'interaction . 1271
10.3 Illustrations . .1272
10.4 Conclusion . . . . . . 1276

1 1 Fertilisation croisée entre interaction personne-système et intelli­


gence artificielle 1281
1 1 . 1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1281
11.2 Historique des interfaces entre interaction personne-système et IA : la
genèse . . . . . . . . . . . . . . . . . . . . 1283
11.3 Interfaces utilisateur intelligentes . . . . . . . . . . . . . . . . . . . . . . 1286
1 1 .4 Agents conversationnels animés affectifs . . . . . . . . . . . . . . . . . 1289
.

11.5 Capitalisation, formalisation et exploitation de connaissances ergono-


miques pour la conception et l'évaluation des systèmes interactifs . .1292
1 1 .6 Visualisation et fouille de données . 1296
11.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1299

Postface 1307

Épilogue : pour une défense de la recherche en intelligence artificielle 1317


Index
Table des matières
Si cet ouvrage fait l'objet d'un additif ou d'un erratum , l'information sera alors disponible sur le site
internet www.cepadues.com, à la fiche de l'ouvrage. L'accès direct se fait en tapant la référence de
l'ouvrage (1 043) dans le champ recherche.

Vous pouvez faire part de vos remarques,


critiques, suggestions
aux auteurs à cette adresse :

auteurs@cepadues.com

Achevé d'imprimer en France


en mai 201 4 chez Messages SAS
1 1 1 , rue Nicolas Vauquelin • 31 1 00 Toulouse
Té l . : 05 61 41 24 14 • Fax : 05 61 19 OO 43
imprimerie@messages.fr
PA N O RAMA D E L ' I NTELLI G E N C E ARTI F I C I E L LE

C et ouvrage, org a n isé e n trois v o l u m es, e s t i s s u d e l a com m u n a uté fra n ç a ise


des c h erc heurs en intellig e n c e artifi c i e l l e ( I A ) . I l a pour o bj ectif d e dresser un
pa nora m a des rec h erches effectuées e n I A a l l a n t d e travaux fo n d a m e ntaux aux
a p plications et a u x frontières, e n mettant l ' a c c e n t tout a u t a n t s u r les résultats
obtenus q u e sur les problématiques a c t u e l l e s .

I l s ' ad resse à u n public d ' étudiants d e m aster et d e d octorat, mais a u s s i de


c h erc h eurs et d ' ingénieurs intéressés par c e d o m a i n e .

L ' ouvrage e s t org a n isé en trois vol u m es :

* le premier volume reg roupe vingt c h a pitres tra it a n t des fo n d e m e n ts d e la


représentation des c o n n a issa nces et d e la form a lisation des ra iso n n e m e nts
( V o l u m e 1 . Représentation des c o n n a i s s a n c e s et formalis atio n des rais o n n e ­
ments ) ;

* l e d e uxième vol u m e offre u n e v u e d e l ' IA e n onze c h a pitres, sous l ' a ng l e des


a l g orithmes ( V o l u m e 2 . Alg orith mes pour l ' i nte l l i g e n c e a rtifi c ie l l e) ;

* le troisième v o l u m e , e n onze c h a pitres é g a l e m e nt, décrit les pri n c i p a les


frontières et a p plications d e l ' I A ( V o l u m e 3 . L ' i n te l l i g e n c e artifi c iel le : fronti ères
et a p p l i c atio n s ) .

S i c h a q u e c h a pitre peut être l u i n d é p e n d a m m e n t des a u tres, les références


croisées e ntre c h a pitres sont n o m breuses et u n i n d ex g l o b a l d e l ' ouvra g e permet
d ' a border c e l u i-ci de façon non l i n é a ire .

Volume 3 . L ' intel lig enc e artifi c i e l l e :


frontiè res et ap plications
L ' I A est d ' u n e c e rt a i n e m a n i è re a u c œ u r d e s s c i e n c e s du tra i t e m e n t d e
l ' i nf o rm a t i o n . C e tro i s i è m e v o l u m e a p o u r o bj e t l ' exa m e n d e s i n t e rfa c e s
de l ' IA avec d iffére nts c h a m ps de rec h erc h e de l ' i n f o rm a t i q u e ,
t a n t t h é oriq u e q u ' a p p l i q u é e , c o m m e l e s b a s e s d e d o n n é e s , l e W e b
sémantique, l a l i n g u istiq u e c o m p u ta t io n n e l l e , la bio-inform a t i q u e , l a
re c o n n a issa n c e d e s form e s , l e tra it e m e n t d ' i m a g es , l a ro b o t i q u e , o u
la c o m m u n ic a ti o n h o m m e- m a c h i n e . Des c h a p i t re s s o n t é g a l e m e n t
c o ns a c rés a u x q u e s t i on s p h i l o so p h i q u e s , e n p a rtic u l i e r é p isté m o l o g i q u e s ,
l i é e s à l ' I A , a i n s i q u ' à l a psyc h o l o g i e c o g n i t i v e e n m a t i è re d e ra iso n n e m e n t
e t d e d é c is i o n . U n e postfa c e p ro p o s e l e re g a rd d ' u n t é m o i n d e l ' I A à s e s
d é b u ts s u r les rés u l ta ts d e p l u s d e c i n q u a n t e a n n é e s d e re c h e rc h e . E n fi n ,
u n é p i l o g u e c l ô t ure l e s tro i s v o l u m e s d e l ' o u vra g e , s o u s la form e d ' u n
p l a i d oyer p o u r la re c h e rc h e e n I A .

www. c e pa d u e s . c o m

Vous aimerez peut-être aussi