Académique Documents
Professionnel Documents
Culture Documents
L'intelligence artificielle :
frontières et applications
***
Coordinateurs :
Pierre Marquis
Odile Papini
Henri Prade
Préface:
Paul Braffort
Cépaduès
ÉDITIONS
PANORAMA DE L'INTELLIGENCE ARTIFICIELLE
ses bases méthodologiquiQc- ses développements
Volume 3
L'intelligence artificielle :
frontières et applications
***
Coordinateurs :
Pierre Marquis
Odile Papini
Henri Prade
Préface:
Paul Broffort
CÉPADUÈS-ÉDITIONS
Ill, rue Nicolas Vauquelin
3 1100 Toulouse - France
Tél. : 05 6140 57 36 - Fax: 05 61417989
www.cepadues.com
Courriel : cepadues@cepadues.com
Coordonnées GPS en WGS 84
N 43 ° 34'43 2, "
E 001° 24'2 15",
Illustration de couverture réalisée par Émilie Prade, http://emilieprade.com/
Photographie de couverture : Sylvain Erdei
i
lectif sans autorisation des ayants droit. Or, cette pratique en se généralisant provoquerait une baisse bru
tale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles
et de les faire éditer correctement est aujourd'hui menacée.
Nous rappelons donc que toute reproduction, partielle ou totale, du présent ouvrage est interdite sans
autorisation de !'Éditeur ou du Centre français d'exploitation du droit de copie (CFC- 3, rue d'Hautefeuille
PHOTocttPlllAGE - 75006 Paris).
TUE LE LIVRE
Dépôt légal : mai 2014
Présentation de l'ouvrage
L'intelligence artificielle (IA) a cinquante ans révolus. Elle occupe une place sin
gulière dans le champ très vaste de l'informatique. Alors même que l'IA n'a jamais
connu autant de développements et d'applications variés, ses résultats restent large
ment méconnus dans leur ensemble, y compris dans la communauté des chercheurs en
informatique.
Au-delà de monographies introductives, il n'existe pas de traité offrant une vue
d'ensemble approfondie, et à jour, des recherches dans ce domaine. C'est pourquoi il
était important de dresser l'état des lieux des travaux en IA au plan international.
Le présent « panorama de l'intelligence artificielle - ses bases méthodologiques, ses
développements » vise à répondre à cette demande.
Pour cette entreprise de grande ampleur, il a été fait largement appel à la com
munauté française en IA. Chaque chapitre est écrit par un ou des spécialiste(s) du
domaine abordé.
L'ouvrage est organisé est trois volumes :
- le premier volume regroupe vingt chapitres traitant des fondements de la repré
sentation des connaissances et de la formalisation des raisonnements ;
- le deuxième volume offre une vue de l'IA, en onze chapitres, sous l'angle des
algorithmes ;
- le troisième volume, en onze chapitres également, décrit les principales frontières
et applications de l'IA.
Si chaque chapitre peut être lu indépendamment des autres, les références croisées
entre chapitres sont nombreuses et un index global de l'ouvrage permet d'aborder
celui-ci de façon non linéaire.
Quelle que soit la façon dont le lecteur utilisera cet ouvrage, nous espérons que le
panorama proposé le réjouira et satisfera sa curiosité.
Sommaire
Volumel
Avant-Propos
Préface
1 Éléments pour une histoire de l'intelligence artificielle . 1
2 Représentation des connaissances : modalités, conditionnels et raisonnement
non monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Représentations de l'incertitude en intelligence artificielle . . . . . . . . . . . . 65
4 Raisonnement qualitatif sur les systèmes dynamiques, le temps et l'espace . . 123
5 Raisonner avec des ontologies : logiques de description et graphes conceptuels 155
6 Représentation des préférences . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
7 Normes et logique déontique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
8 Raisonnement à partir de cas, raisonnement et apprentissage par analogie,
gradualité et interpolation . . . . . . . . . . . . . . . . . . . . 239
9 Modèles d'apprentissage artificiel . . . . . . . . . . . . . . . . 265
10 Argumentation et raisonnement en présence de contradictions 297
1 1 Approches de la révision et de la fusion d'informations 321
12 Raisonnement sur l'action et le changement 363
13 Décision multicritère . . . . . . . . . . . . 393
14 Décision dans l'incertain . . . . . . . . . . . 423
15 Systèmes multiagents : décision collective . 461
16 Formalisation de systèmes d'agent cognitif, de la confiance et des émotions . 503
17 Systèmes multiagents : négociation, persuasion . . . . . 527
18 Diagnostic et supervision : approches à base de modèles 555
19 Validation et explication . . 591
20 Ingénierie des connaissances 615
Postface . . . . . . . . . . . . . 651
Index
Table des matières
V
Volume2
Avant-Propos
Préface
1 Recherche heuristiquement ordonnée dans les graphes d'états 655
2 JeUJC et recherche heuristique 683
3 Déduction automatique . . . . . . . . . . . . . . . . . . 709
4 Programmation logique . . . . . . . . . . . . . . . . . . 739
5 Logique propositionnelle et algorithmes autour de SAT 773
6 Raisonnement par contraintes . . . . . . . . . . . . . . 811
7 RéseaUJC de contraintes valués . . . . . . . . . . . . . . 835
8 Modèles graphiques pour l'incertitude : inférence et apprentissage 857
9 Planification en intelligence artificielle . . . . . . . . . . . . 885
10 Algorithmique de l'apprentissage et de la fouille de données 915
11 Méta-heuristiques et intelligence artificielle . 955
Postface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 981
Index
Table des matières
Volume3
Avant-Propos
Préface
1 Informatique théorique : calculabilité, décidabilité et logique . 989
2 Informatique théorique : complexité, automates et au-delà . 1031
3 Bases de données et intelligence artificielle . 1067
4 Web sémantique . . . . . . . . . . . 1097
5 Intelligence artificielle et langage . . . . . . 1 121
6 Bioinformatique . . . . . . . . . . . . . . . . 1 141
7 Intelligence artificielle et reconnaissance des formes, vision, apprentissage . . 1 165
8 Intelligence artificielle et robotique . . . . . . . . . . . . . . . . . . . . . . . 1 197
9 Perspectives philosophiques et épistémologiques ouvertes par l'intelligence ar-
tificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1251
10 Intelligence artificielle et psychologie du raisonnement et de la décision . . . . 1269
11 Fertilisation croisée entre interaction personne-système et intelligence artifi-
cielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1281
Postface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1307
Épilogue : pour une défense de la recherche en intelligence artificielle . . 1317
Index
Table des matières
vi
Volume 3
L'intelligence artificielle :
frontières et applications
L'intelligence artificielle (IA) , de par son projet de doter les machines de capacités
d'exploitation de données et de connaissances toujours plus sophistiquées, est au cœur
des sciences du traitement de l'information. Peut-être à cause de cela, les contours
mêmes de l'IA ont évolué avec le temps, et peuvent quelquefois poser questions à
certains quant à leur exacte localisation. C'est pour cette raison qu'il nous est apparu
intéressant et important de réserver un volume de ce panorama de l'IA à ses interfaces
avec de nombreuses disciplines, avec lesquelles elle entretient des liens forts aux plans
méthodologiques ou applicatifs.
Ces disciplines et ses liens sont de différentes natures. Motivés en général par des
complémentarités thématiques, ces liens ont aussi une dimension historique. Ainsi le
volume débute-t-il par une préface rappelant que l'IA est née pour une bonne part
de la cybernétique (ce dont le chapitre 1 du premier volume se fait aussi l'écho) . La
recherche opérationnnelle, dont les débuts précèdent d'une décennie ceux de l'IA, a
fait l'objet de la postface du deuxième volume, étant donné que c'est d'abord sur un
terrain algorithmique que les deux disciplines se rencontrent, la première ayant au
départ davantage développé des méthodes pour des classes de problèmes spécifiques,
tandis que la seconde privilégiait des méthodes plus génériques.
Ce troisième volume consacre bien naturellement des chapitres à des disciplines
historiquement soeurs de l'IA, car nées en même temps, et ayant d'ailleurs constitué
au départ un ensemble conjoint avec elles : le traitement automatique des langues, la
reconnaissance des formes et la vision par ordinateur, la robotique : les liens de l'IA
avec ces trois champs disciplinaires sont l'objet respectivement des chapitres 5, 7, et
8. Également proches et complémentaires par leurs liens directs à l'information, les
bases de données, le Web sémantique (apparu plus récemment à l'interface des bases
de données et de l'IA) , et les interactions homme-machine sont la matière des chapitres
3, 4 et 1 1 , respectivement. Toutes ces disciplines sont des lieux privilégiés d'applications
passées, présentes et futures de méthodes d'IA conjointement avec celles propres à ces
disciplines. C'est aussi le cas de la bio-informatique (chapitre 6) qui emploie pour une
part des outils, principalement algorithmiques, venant de l'IA.
vii
Les développements théoriques et méthodologiques de l'IA ont conduit aussi à un
dialogue avec l'informatique théorique autour des sujets classiques de cette discipline
que sont la calculabilité, la décidabilité, la logique ( chapitre 1), et la complexité, ou
les automates notamment ( chapitre 2) . De plus, il n'est sans doute pas exagéré de dire
qu'à terme, l'IA, au travers des questions théoriques qu'elle soulève ( et dont cet ou
vrage a pu donner une idée) suscitera, en relation avec sa problématique, davantage de
recherches spécifiques en mathématiques et en informatique théorique. Par ailleurs, les
recherches en IA ont renouvelé des questions philosophiques et épistémologiques ( cha
pitre 9) , tandis que leur validité cognitive interroge la psychologie du raisonnement et
de la décision ( chapitre 10) . D'autres aspects de la psychologie cognitive qui touchent
aussi à l'IA, comme la perception [Pylyshyn, 1984 ; Delorme et Flückiger, 2003 ; Pyly
shyn, 2004 ; Bianchi et Savardi, 2008) , ne sont cependant pas abordés dans ce volume.
Enfin, une postface discute l'attente sociétale qu'a suscitée l'IA et ses mythes, tandis
qu'un épilogue de l'ouvrage fait brièvement le bilan du chemin parcouru, et s'efforce
de dissiper quelques malentendus. Il va sans dire que dans ce volume les chapitres sont
largement autonomes les uns des autres et que l'ordre de lecture sera essentiellement
dicté par les intérêts de chacun.
On pourra cependant regretter que diverses circonstances ne nous aient pas permis
d'inclure des chapitres sur les interfaces de l'IA avec un certain nombre de domaines, en
particulier la recherche d'information [Jones, 1999 ; Mandl, 2009 ; Pallot et al. , 2012) , la
réalité augmentée et la réalité virtuelle [Luck et Aylett, 2000 ; Donikian et Petta, 201 1 ;
Muratet et al. , 2011), l'intelligence ambiante [Foresti et Ellis, 2005 ; Cai et Abascal,
2006 ; Delaney, 2008 ; Rebaï et al., 2013) , la vie artificielle [Varela et Bourgine, 1992 ;
Langton, 1995 ; Drogoul et Meyer, 2000 ; Bersini et Reisse, 2007) , les systèmes complexes
et les réseaux petits mondes [Barabasi, 2002 ; Buchanan, 2002 ; Watts, 2004 ; Bourgine
et al. , 2006 ; Collard et al. , 2013) , l'économie [Walliser, 2000 ; Bourgine et Nadal, 2004 ;
Walliser, 2008) , les neurosciences computationnelles [Thorpe, 2009 ; Shah et Alexandre,
201 1) , et dans un autre registre, la création artistique [Borillo, 2010 ; Guffiet et Dema
zeau, 2004) et littéraire [Balpe, 2000) . Les quelques références qui accompagnent cette
liste pourront aider à pallier quelque peu ce manque.
Références
BALPE, J.-P. (2000) . Contextes de l 'Art Numérique. Hermès.
BARABASI, A.-L. (2002) . Linked : The New Science of Networks. Perseus Books Group.
BERSINI, H. et REISSE, J . , éditeurs (2007) . Comment Définir la Vie ? Les Réponses de
la Biologie, de l 'intelligence Artificielle et de la Philosophie des Sciences. Vuibert.
BIANCHI, I. et SAVARDI, U. (2008) . The Perception of Contraries. Aracne, Roma.
BORILLO, M . , éditeur (2010) . Dans l 'Atelier de l 'Art. Champ Valon.
BOURGINE, P. , CHAVALARIAS, D. et COHEN-BOULAKIA, c., éditeurs (2006) . Déter
minismes et complexités : du Physique à l 'Éthique : Autour d 'Henri Atlan. La
Découverte.
BOURGINE, P. et NADAL, J.-P. , éditeurs (2004) . Cognitive Economies. An Interdisci
plinary Approach. Springer.
viii
BUCHANAN, M. (2002). Nexus : Small W orlds and the Groundbreaking Science of
Networks. W. W. Norton & Company, NewYork.
CAI, Y. et ABASCAL, J., éditeurs (2006) . Ambient Intelligence in Everyday Life. LNCS
3864. Springer.
COLLARD, P. , VEREL et CLERGUE, M. (2013) . Systèmes complexes. Une Introduction
par la Pratique. Presses Polytechniques et Universitaires Romandes.
DELANEY, K., éditeur (2008) . Ambient Intelligence with Microsystems. Augmented
Materials and Smart Objects. Springer.
DELORME, A. et FLÜCKIGER, M., éditeurs (2003) . Perception et Réalité : Introduction
à la Psychologie des Perceptions. De Boeck Supérieur.
DONIKIAN, S. et PETTA, P. (201 1 ) . A survey of research work in computer science
and cognitive science dedicated to the modeling of reactive human behaviors. J. of
Visualization and Computer Animation, 22(5) :445-455.
DROGOUL, A. et MEYER, J.-A., éditeurs (2000) . Intelligence Artificielle Située. Cer
veau, Corps et Environnement. Hermès.
FORESTI, G. L. et ELLIS, T., éditeurs (2005). Ambient Intelligence - A Novel Paradigm.
Springer.
GUFFLET, Y. et DEMAZEAU, Y. (2004) . Applying the PACO paradigm to a three
dimensional artistic creation. In Proc. 5th !nt. Workshop on Agent-Based Simulation
{ABS'04}, Lisbon, pages 121-126.
JONES, K. S. (1999) . Information retrieval and artificial intelligence. Artificial Intelli
gence, 1 14(1-2) :257-281 .
LANGTON, C. G., éditeur (1995) . Artificial Life : An Overview. MIT Press, Paris,
Cambridge, Mass.
LUCK, M. et AYLETT, R. (2000) . Applying artificial intelligence to virtual reality :
Intelligent virtual environments. Applied Artificial Intelligence, 14(1) :3-32.
MANDL, T. (2009) . Artificial intelligence for information retrieval. In RABUNAL, J. R. ,
DORADO, J. et PAzos, A. , éditeurs : Encyclopedia of Artificial Intelligence, pages
151-156. IGI Global.
MURATET, M., TORGUET, P. , VIALLET, F. et JESSEL, J.-P. (201 1 ) . Experimental
feedback on Prog&Play : A serions game for programming practice. Comput. Graph.
Forum, 30(1) :61-73.
PALLOT, M., TROUSSE, B. et SENACH, B. (2012) . A tentative design of a future internet
networking domain landscape. In The Future Internet - Future Internet Assembly
2012 : From Promises to Reality, volume 7281 de LNCS, pages 237-249. Springer.
PYLYSHYN, Z. W. (1984) . Computation and Cognition : Toward a Foundation for
Cognitive Science. MIT Press.
PYLYSHYN, Z. W. (2004) . Seeing and Visualizing : lt 's Not What You Think. An Essay
on Vision and Visual Imagination. MIT Press.
REBAÏ, 1., PRZYTULA-MACHROUH, E., BELLIK, Y. , PRUVOST, G. et SANSONNET, J.-P.
(2013). Influence des modalités de sortie d'un système sur les modalités de l'utili
sateur. cas des environnements ambiants de type pièces intelligentes. Technique et
Science Informatiques, 32(5) :575-604.
ix
SHAH, N. et ALEXANDRE, F. (20 1 1 ) . Reinforcement learning and dimensionality reduc
tion : A model in computational neuroscience. In Proc. IEEE Int. Joint Conference
on Neural Networks {IJCNN'11}, San Jose, Ca, USA, July 31 - Aug. 5, pages 836-
842.
THORPE, S. J. (2009) . Why connectionist models needs spikes. In HEINKE, D. et
MAVRITSAKI, E., éditeurs : Computational Modelling in Behavioural Neuroscience :
Closing the Gap between Neurophysiology and Behaviour, pages 21-44. Psychology
Press.
VARELA, F. J. et B OURGINE, P. , éditeurs (1992) . Toward a Practice of Autonomous
Systems. MIT Press. Proc. lst Europ. Conf. on Artificial Life.
WALLISER, B. (2000) . L 'Économie Cognitive. Odile Jacob.
WALLISER, B . , éditeur (2008) . Economie et Cognition. Éditions Ophrys, É ditions de
la Maison des Sciences de l'Homme, Paris.
WATTS, D. J. (2004) . Six Degrees - The Science of a Connected Age. W. W. Norton
& Company, NewYork.
Liste des auteurs du volume 3
xi
FÉLIX INGRAND (Université de Toulouse, CNRS, LAAS)
felix@laas.fr
CHRISTOPHE KOLSKI (Université de Valenciennes et
du Hainaut-Cambrésis - LAMIH-CNRS)
christophe.kolski@univ-valenciennes.fr
PIERRE LIVET (Université d'Aix-Marseille)
Pierre.Livet@univ-amu.fr
JEAN-YVES MARION (Université de Lorraine, LORIA)
jean-yves.marion@loria.fr
Guy MELANÇON (Université de Bordeaux - LaBRI et INRIA)
melancon@labri.fr
CLAIRE NÉDELLEC (INRA)
claire.nedellec@jouy.inra.fr
MAGALIE OcHS (Télécom ParisTech - CNRS LTCI)
magalie.ochs@telecom-paristech. fr
SIMON PERDRIX (Université Paris VII, PPS-CNRS)
simon.perdrix@pps.jussieu.fr
OLIVIER PIVERT (IRISA)
olivier. pivert@enssat.fr
GUY POLITZER (ENS-EHESS-CNRS)
ploitzer@univ-paris8.fr
MARINETTE REVENU (GREYC, ENSICAEN et
Université de Caen Basse-Normandie, UMR CNRS 6072)
marinette.revenu@ensicaen.fr
MARIE-CHRISTINE ROUSSET (Université de Grenoble & IUF - LIG)
marie-christine.rousset@imag.fr
THOMAS S CHIEX (INRA - Unité de Mathématiques et
Informatique Appliqués, Castanet Tolosan)
thomas.schiex@toulouse.inra.fr
OLIVIER SIGAUD (Université Pierre et Marie Curie, ISIR-CNRS)
olivier.sigaud@upmc.fr
S OPHIE TISON (Université de Lille I, LIFL-CNRS)
sophie.tison@lifl..fr
JEAN VANDERDONCKT (Louvain School of Management,
Université Catholique de Louvain - LiLab , Belgique)
jean. vanderdonckt@uclouvain.be
FRANCK VARENNE (Université de Rouen, GEMASS-CNRS)
fvarenne@wanadoo.fr
JEAN-PHILIPPE VERT (Mines ParisTech - Institut Curie)
jean-philippe.vert@mines.org
PIERRE ZWEIGENBAUM (Université Paris Sud, CNRS, LIMSI)
pz@limsi.fr
xii
Préface
L'intelligence artificielle (IA) est un domaine encore assez jeune (à peine plus d'un
demi-siècle) mais dont la médiatisation a été considérable dès ses débuts, accompa
gnée parfois de polémiques. Il n'y en a plus guère et les recherches se sont largement
diversifiées ainsi qu'en témoignent le trois volumes dont voici le dernier. Cette variété
rend nécessaire une mise en perspective historique : c'est ce que je propose dans cette
préface.
Dès 1946, l'éditeur français Hermann avait fait paraître Cybernetics or Control and
Communication in the Animal and the Machine, de Norbert Wiener, qui fut un grand
succès éditorial. Et en 1954, un Congrès International de Cybernétique (le premier)
se tint à Namur et auquel j 'eus la chance de participer. L'intelligence artificielle n'a
commencé à être mentionnée comme un domaine à part entière - voire une discipline au
tonome - qu'au milieu des années cinquante, dans le fameux « rapport de Dartmouth »,
rédigé par John McCarthy, Marvin Minsky, Nathan Rochester et Claude Shannon, les
pères fondateurs, en 1955. Il sera suivi de nombreux autres ainsi que par des congrès et
colloques sur l'intelligence artificielle (dont le baptême est un peu postérieur) . Les deux
domaines étaient évidemment voisins et furent souvent confondus, et d'ailleurs les fron
tières interdisciplinaires avec d'autres domaines comme l'automatique, l'informatique,
les recherches cognitives, etc., demeurent, aujourd'hui encore, assez floues. Une vaste
arborescence de rubriques et sous-rubriques s'est finalement développée. Une mise au
point comme celle que présente cet ouvrage est donc la bienvenue.
J'ai eu le privilège d'être impliqué dans ces premiers développements. D'abord au
Commissariat à !'Energie Atomique où je dirigeais le laboratoire de Calcul Analo
gique puis à Euratom où j 'avais constitué un « Groupe de Recherches sur !'Information
Scientifique Automatique ». Les sujets que nous avons abordés à cette époque étaient,
principalement :
- la documentation automatique,
- la traduction automatique,
- la simulation des jeux,
- la démonstration automatique des théorèmes.
Pour d'évidentes raisons économiques et politiques, le thème de la traduction auto
matique bénéficia d'investissements considérables mais qui se trouvèrent brutalement
réduits lorsqu'il apparut que nos connaissances en linguistique (en sémantique particu
lièrement) demeuraient insuffisantes pour qu'on puisse aboutir à des résultats accep-
Auteur : PAUL BRAFFORT.
tables. De toute façon, les algorithmes que nous développions et dont l'objectif était
la mise au point de procédures anti-combinatoires demandaient la mise en œuvre de
moyens informatiques dont peu d'équipes pouvaient alors disposer. Aussi les progrès
furent-ils assez lents et l'impatience des décideurs prompte à s'exprimer. Elle était
renforcée par des excès médiatiques où s'exprimaient trop de promesses qui ne furent
pas tenues. Il est intéressant de relire l'ouvrage de vulgarisation, rédigé en 1952 et
publié en 1953 par la NRF dans la collection « L'avenir de la science » dirigée par
Jean Rostand, ouvrage intitulé « La Pensée Artificielle » et sur-titrée « Introduction
à la Cybernétique ». L'auteur, Pierre de Latil, était un journaliste scientifique que le
livre de Norbert Wiener avait fortement impressionné. Latil, dans son livre, met l'ac
cent sur un mécanisme dont les recherches menées pendant la seconde guerre mondiale,
celles, notamment, relatives à la défense anti-aérienne, avaient montré l'importance :
le feedback. Pour ce concept, qui est au centre des analyses de Wiener, Latil propose
un heureux néologisme : rétroaction (p. 52) . Le concept de rétroaction était - impli
citement ou explicitement - à la base de nombreux projets d' « automates » que l'on
propose alors avec Ashby, Grey Walter, McCulloch, etc. L'enthousiaste Latil qualifie
ces projets de révolutionnaires, malgré la modestie de leurs résultats et de leur impact.
En fait, cet impact est essentiellement médiatique et réveille de vieux mythes comme
celui du Golem que Wiener évoquera plus tard dans God and Golem, !ne. (MIT Press,
1964) .
On peut trouver un exemple significatif des problèmes qui se posaient au début
des années 60, ainsi que des orientations que prenait la recherche dans l'exposé que je
présentai au deuxième congrès de l' AFCALTI, l' Association Française de Calcul Auto
matique, en 196 1 , sous le titre « Rencontre de problèmes numériques et non numériques
dans l'élaboration d'un programme dédié à la résolution du jeu de. Go-bang » (p.221
du compte-rendu) . On y rencontre le thème et les problèmes de la représentation for
malisée des « situations », et de leur évaluation, celui du parcours des arborescences
dans lesquelles elles s'inscrivent et des stratégies qu'elles permettent de construire. On
passait donc du numérique au symbolique.
La « programmation non numérique », qui débutait ainsi, représentait un tournant
important dans le développement des « machines à calculer électroniques », consacré
jusque-là au « calcul scientifique » qui dominait les ingénieries spatiale et nucléaire. Le
thème du non-numérique fut largement évoqué lors de la table ronde sur l'intelligence
artificielle organisée à Munich par Marvin Minsky, en 1962, dans le cadre du Congrès
de l'IFIP. J'y présentai un exposé intitulé « Des recherches concernant l'intelligence
artificielle à EURATOM » mais ces questions avaient été discutées aussi au cours des
deux colloques organisés un peu avant par IBM à Blaricum (Pays-Bas) avec la parti
cipation de John McCarthy, et de nombreux logiciens. Certaines des communications
qui y avaient été présentées parurent d'ailleurs dans l'ouvrage que j 'éditai en 1963
avec David Hirschberg chez North-Rolland, dans la collection Studies in Logic and the
Foundations of Mathematics sous le titre Computer Programming and Formal Systems.
On y trouve notamment l'importante contribution de John McCarthy : A Basis for
a Mathematical Theory of Computation (p.33) qui est à l'origine du langage de pro
grammation LISP et le célèbre article de Chomsky et Schützenberger : The Algebraic
·
xiv
Le livre que je publiai en juillet 1968 aux Presses Universitaires de France, dans la
collection « La Science Vivante » dirigée par Henri Laugier, sous le titre « L'intelligence
artificielle » faisait le point sur ces recherches. Premier du genre, il figura à ce titre dans
le Guiness Book of Records ! On retrouve, bien entendu, les thèmes abordés dans les
neuf chapitres de ce petit livre dans les trois volumes du présent ouvrage : langage,
jeux, logique, complexité, contrôle ... et même création artistique.
Jean-Claude Quiniou, Jean-Marc Font, Gérard Verroust, Jean-Marc Philippe et
Claudine Marenco publièrent à leur tour, en 1970, un nouvel ouvrage de mise au
point intitulé, significativement « Les cerveaux non humains » (collection « Le point
de la question » ) . Dans ce livre - tout aussi méconnu que celui de Latil, on trouve,
entre autres, amusante curiosité, la présentation du « système bibinaire » de Boby La
pointe (p.225) ainsi qu'une dénonciation curieusement virulente du livre messianique de
Jacques Bureau « L'ère logique » (Robert Laffont, 1969) . Bureau, ingénieur, présente
le projet d'une société qui serait devenue « autoadaptative » grâce à l'introduction des
nouvelles technologies, celles précisément. , du contrôle et de la communication. Cette
utopie reprenait un rêve déjà ancien qui, après une période de relatif oubli, renaît
aujourd'hui avec plus de vigueur que jamais dans les projets, les publications et l'ac
tion promotionnelle de Raymond Kurzweill autour de ces progrès sensationnels dont il
prévoit l'éclosion en 2045, l'année de la « singularité ».
XV
au service duquel il avait utilisé les ressources de l'analyse fonctionnelle la plus avancée.
Son livre de 1946 avait mis l'accent, à cette occasion, sur les phénomènes de feedback
pour lesquels il développe une analyse mathématique complexe, illustrée de nombreux
schémas (que Latil reprendra et complétera) : des schémas de boucles et de cercles.
Parmi les métaphores géométriques élémentaires, celle du cercle est l'une des plus
utilisées, mais aussi l'une des plus ambiguës : rassurante lorsqu'il s'agit de la famille ou
des amis, inquiétante si c'est un raisonnement, une argumentation que l'on évoque. Elle
rejoint alors d'autres métaphores à connotation péjorative : labyrinthe, arborescence
complexe, etc . . La notion de boucle, surtout, présente des connotations opposées, qui
font penser à l'inachèvement aussi bien qu'à la complétion. Les schémas circulaires
abondent en effet dans l'essai de Wiener comme dans le livre de Latil.
Mais la crainte du cercle a donc toujours été vive chez les philosophes et les savants.
Elle s'exprime avec force chez tous ceux qui veulent préciser les conditions d'une argu
mentation efficace et honnête. La détection d'un raisonnement circulaire est cause de
perplexité, voire de malaise, chez le lecteur : une expérience de pensée souvent pénible . .
Une telle situation est une conséquence d e l'épreuve que logiciens, mathématiciens et
philosophes traversèrent au début du siècle. La « crise » de la théorie des ensembles,
la découverte des paradoxes de la logique formelle, en premier lieu le paradoxe du
menteur, et l'expression précise des « énoncés de limitation » rendirent plus aiguë la
nécessité d'asseoir les disciplines scientifiques - et surtout les plus formalisées - sur des
bases solides . . .
xvi
analogique ».
Les unités dont il est question ici sont les assemblages électroniques qui sont les élé
ments constitutifs traditionnels d'une machine analogique : additionneurs, inverseurs
(de signe algébrique) , intégrateurs, etc. Leur composant principal est un amplificateur
à courant continu où la contre-réaction (ou rétroaction) joue un rôle essentiel, comme
on peut le voir sur le schéma (comportant une boucle !) ci-après :
L'objectif recherché, dans la constitution du schéma analogique ci-dessous, est sim
plement d'obtenir la valeur opposée d'une valeur donnée : S(t) = -E(t) .
S(t)
E(t)
xvii
The survival of man depends on the early construction of an ultraintelligent machine.
Good se situe ainsi dans une grande tradition anglo-saxonne qui comprend évidem
ment Jonathan Swift (1667-1745) avec l'Académie de Laputa et sa machine à produire
de la littérature, Mary Shelley (1797-1851) et la créature du Dr Frankenstein, ainsi que
Samuel Butler (1835-1901) et l'utopie d'Erewhon. En 1929, Olaf Stapledon (1886-1950)
a publié Last Men and First Men qui inspira Fred Hoyle comme I.J. Good et, parmi
de nombreux concepts anticipateurs, présente celui d' « intelligence distribuée ».
Depuis le début des années 80, les spéculations utopiques associées au développe
ment de l'intelligence artificielle se multiplient, avec les travaux, inventions et publi
cations de Raymond Kurzweill ( né en 1948) . Elève surdoué, il développe des modèles
réduits et des logiciels de statistique. En 1965 il est invité par CBS à interpréter au
piano une œuvre composée sur ordinateur. Puis il développe des technologies et des lo
giciels de reconnaissance des formes (caractères et sons) et crée de nombreuses sociétés
dont la « Fondation Kurzweill » qui soutient le développement de technologies desti
nées aux personnes handicapées. En 1990, il publie The Age of Intelligent Machines
( MIT Press) , en 1999, The Age of Spiritual Machines : When Computers Exceed Hu
man Intelligence ( Penguin Books ) et reprend ainsi le thème cher à I.J. Good. Partant
de nombreuses extrapolations relatives à la vitesse et à la capacité des ordinateurs, il
prédit la venue d'un moment où la capacité des machines dépassera, dans tous les do
maines, celle de l'homme et il en calcule même la date : 2045. C'est ce qu'il appelle la
singularité. L'effet médiatique est immense : plusieurs livres ( dont The Singularity is
Near : When Humans Transcend Biology, Viking 2005) , films, conférences internatio
nales, etc. Désormais l'intérêt se concentre sur les capacités biologiques des automates,
la possibilité d'une forme d'immortalité ...
L'utopie, en tout cas, semble immortelle !
l . Informatique théorique : calculabilité, décidabilité et logique - 989
Chapitre 1
In formatique théorique :
calculabilité, décidabilité et
logique
Ce chapitre traite d'une question basique dans l'idée d'intelligence artificielle : que
peut-on calculer avec une machine ? Un accord s'est fait sur la réponse apportée par
Turing en 1936, toutes les autres approches proposées depuis ayant donné la même
réponse. On a ainsi un modèle mathématique de ce qui est faisable par machine. Cette
mathématisation a permis de prouver des résultats surprenants qui alimentent la ré
flexion sur l'intelligence et les machines.
1.1 Introduction
1.1.1 Informatique théorique et thèmes fondateurs de l'IA
To me there is a special irony when people say machines cannot have minds,
because I feel we 're only now beginning to see how minds possibly could work
- using insights that came directly from attempts to see what complicated
machines can do.
" Why People Think Computers Can't '?" [Minsky, 1982}
Artificial intelligence researchers predict that "thinking machines " will take
over our mental work, just as their mechanical predecessors were inten
ded to eliminate physical drudgery. Critics have argued with equal fervor
that "thinking machine " is a contradiction in terms. Computers, with their
foundations of cold logic, can never be creative or insightful or possess real
judgment. Although my own understanding developed through active parti-
Auteurs : ÜLIVIER BOURNEZ, GILLES DOWEK, RÉMI GILLERON, SERGE GRIGORIEFF , JEAN-YVES
MARION, SIMON PERDRIX et SOPHIE TISON.
990 Panorama de l'intelligence artificielle. Volume 3
-
des modèles séquentiels, ils calculent pourtant exactement les mêmes fonctions que les
machines de Turing. La calculabilité est une formalisation mathématique de ce qui est
calculable. Elle exprime un point de vue dénotationel. C'est seulement dans les années
1980 que la notion d'algorithme, considérée comme objet d'étude, a réellement vu le
jour. Cette dualité dénotation/intention se reflète en logique avec l'émergence de la
théorie de la démonstration, où les démonstrations sont des algorithmes au travers de
l'isomorphisme de Curry-Howard.
g : Nk -+ N telle que
domaine(g ) = { œ 1 3y f ( œ , y) = 0} g( œ ) = le plus petit y tel que f ( œ, y) = 0
Sans surprise, on montre que la classe des fonctions récursives à la Kleene coïncide
avec celle des fonctions programmables avec les deux boucles FOR et WHILE. Cette
classe coïncide aussi avec celle des fonctions Herbrand-Gôdel calculables.
le À-calcul qu'il avait développé depuis le début des années 1930. L'article (Church,
1936] (voir (Davis, 1965] ) présente son argumentation. Sans pouvoir rentrer de façon
approfondie dans le À-calcul, mentionnons qu'il s'agit d'un langage de termes construit
à partir de deux opérations (cf. aussi la Remarque en fin du §1. 5.4) :
• l 'application (t u) d'un terme t à un autre terme u. Son intuition est celle de l'ap
plication d'une fonction à un objet. La difficulté conceptuelle étant qu'en À-calcul tout
est fonction, il n'y a aucun typage 1 .
• l 'abstraction Àx t d'un terme t relativement à une variable x (qui peut figurer ou
non dans t). Son intuition est celle de la fonction qui à un objet x associe t (qui peut
dépendre de x) .
Ce langage de termes est complété par une notion de réduction, la ,8-réduction, qui
remplace l'application d'un terme u à une abstraction Àx t par le terme t (u /x) obtenu
en substituant u à x dans t (il y a un petit problème de clash de variable liée sur lequel
nous n'insisterons pas) . Le À-calcul est ainsi le premier exemple de système abouti de
réécriture.
Comment le À-calcul peut-il être un modèle de calcul ? Où sont les entiers ? L'idée,
très originale, de Churchest d'identifier un entier n au terme Churchn qui représente
la fonctionnelle qui itère n fois une fonction. Par exemple, le terme Church3 qui repré
sente l'entier 3 est Àf Àx (f(f(fx)) . De la sorte, à chaque terme t on peut associer
la fonction sur les entiers qui associe à un entier n l'entier p si le terme (t, Churchn)
peut se réduire à Churchp . Church et Kleene ont montré que les termes du À-calcul
représentent exactement les fonctions partielles calculables (cf. §1.3.1).
Le À-calcul peut être typé, ce qui permet d'assurer la terminaison des réductions, et de
définir des fonctions totales. Dans la section 1.5, nous montrerons comment un À-terme
peut être vu comme l'interprétation d'une démonstration. Pour aller plus loin, nous
recommandons les livres (Barendregt, 1980 ; Hindley et Seldin, 1986 ; Krivine, 1990 ;
Hankin, 1994] .
la thèse suivante, nommée thèse M dans (Gandy, 1980] , et parfois nommée version
physique de la thèse de Church :
Ce qui peut être calculé par une machine peut l 'être par une machine de
Turing.
Dans cette dernière, la notion de machine est intuitive, et est supposée obéir aux lois
physiques 2 du monde réel (Copeland, 2002] . Sans cette hypothèse, la thèse est facile
à contredire, cf. les contre-exemples dans (Ord, 2006] ou dans (Copeland et Sylvan,
1999] . Observons que cette variante de la thèse est intimement reliée au problème de la
modélisation de notre monde physique, c'est-à-dire au problème de comprendre si les
modèles de notre monde physique sont correctement reliés à ce dernier. En fait, une
variante proche de la dernière thèse est la suivante :
Tout processus qui admet une description mathématique peut être simulé
par une machine de Turing {Copeland, 2002}.
Encore une fois ( et pour globalement les mêmes contre-exemples en fait que pour la
thèse physique ) , si le processus n'est pas contraint de satisfaire les lois physiques de
notre monde réel alors cette thèse est facile à contredire (Copeland, 2002] .
Ces trois thèses sont indépendantes : la première concerne la puissance des systèmes
formels ; la seconde concerne la physique du monde qui nous entoure (Smith, 1999 ; Co
peland, 2002 ; Yao, 2003] ; la troisième concerne les modèles que nous avons du monde
qui nous entoure (Smith, 1999 ; Copeland, 2002 ; Yao, 2003] .
Chacune de ces thèses, faisant référence à une notion intuitive, ne saurait être complè
tement prouvée 3 . Il peut toutefois être intéressant de discuter ces thèses.
D'une part, il est possible de chercher à définir un certain nombre d'axiomes mini
maux que doivent satisfaire un système formel, ou une machine physique pour rendre
ces thèses prouvables. Cela permet de réduire ces thèses à des hypothèses minimales
sur les systèmes considérés, et peut aider à se convaincre de leur validité (Gandy, 1980 ;
Dershowitz et Gurevich, 2008 ; Boker et Dershowitz, 2008] .
D 'autre part, si l'on prend chacune de ces thèses de façon contraposée, chacune
signifie que tout système qui calcule quelque chose de non calculable par une machine
de Turing doit utiliser un ingrédient, que nous appellerons ressource, qui soit n'est
pas calculable algorithmiquement, pour la première, soit n'est pas calculable par une
machine physique, pour la seconde, soit n'est pas calculable par un modèle de machine
physique, pour la troisième. Dans tous les cas, on peut qualifier (si besoin par définition )
une telle ressource de « non raisonnable ». Il peut alors sembler important de discuter
ce qui fait qu'une ressource peut être non raisonnable, indépendamment de la véracité
de chacune des thèses, pour mieux comprendre le monde et les modèles du monde qui
nous entourent.
Enfin, on peut observer que ces thèses expriment des faits très profonds sur la
possibilité de décrire par les mathématiques ou par la logique le monde qui nous entoure
(Dowek, 2007] , et plus globalement sur les liens entre calculabilité, mathématiques et
physique :
2. Sinon à ses contraintes sur les ressources.
3. En fait, la notion de calcul, ou de machine, est souvent définie dans nombre d'ouvrages de
calculabilité ou de complexité, en supposant ces thèses (ou l'une de ces thèse) comme vraie.
1 . Informatique théorique : calculabilité, décidabilité et logique 999
-
- la nature calcule-t-elle ?
- quels sont les liens entre non-déterminisme, chaos, non-prédictibilité, et aléatoire
[Longo et Paul, 2009] ?
revanche, les deux hypothèses physiques mentionnées plus haut, ne sont pas nécessai
rement vraies dans toute théorie physique. Il peut donc être intéressant de comprendre
ce qui se passe par exemple en mécanique quantique, ou en physique relativiste. Pour la
physique quantique, nous renvoyons à [Nielsen, 1997] pour une discussion des sources
de non-calculabilité, et les conséquences à en tirer sur la thèse de Church ou sur nos
modèles physiques. L'article [Arrighi et Dowek, 2008] discute par ailleurs de principes
à la Gandy qui permettraient de capturer la théorie des calculs quantiques.
Mentionnons que l'axiomatisation de Gandy a été simplifiée et étendue ultérieure
ment par différents travaux de Wilfried Sieg : voir par exemple [Sieg, 1999, 1994, 1997,
2008] . Une toute autre axiomatisation de la notion d'algorithme, due à Gurevich, sera
vue en §1 .4.
terminent pas dans certains cas, expérience banale de tout programmeur ...
D'où la notion de fonction partielle calculable (ou fonction récursive partielle) : fonction
non partout définie dont la valeur là où elle est définie est donné par le résultat d 'un al
gorithme. La dénomination « fonction partielle calculable » n'est pas très heureuse car
le qualificatif partiel a un double sens : d'une part, il exprime que la fonction est par
tielle, c'est-à-dire non partout définie, d'autre part, la calculabilité de cette fonction est
partielle car elle ne permet pas de décider si la fonction est ou non définie en un point
mais seulement de connaître sa valeur lorsqu'elle est définie. Daniel Lacombe, dans les
années 1960, avait essayé (sans succès) d'introduire la dénomination bien meilleure de
« semi-fonction semi-calculable » ou de « fonction partielle partiellement calculable »
(cf. (Lacombe, 1960] , §1.9) .
La contrepartie ensembliste de cette notion de fonction partielle calculable est celle
d'ensemble calculablement énumérable (ou récursivement énumérable) , c'est-à-dire
d 'ensemble pour lequel il existe une énumération des éléments qui est calculable. Ainsi,
si un élément est dans l'ensemble, on finit par le savoir. En revanche, si un élément n'y
est pas, on n'a a priori aucun moyen de le savoir.
Ce phénomène de calculabilité partielle peut apparaître comme une scorie de la cal
culabilité, en fait, il s'agit d'un trait fondamental qui permet une vraie théorie de la
calculabilité. Il est important de le souligner : Malgré le grand nombre de livres intitulés
« théorie de la calculabilité », il n 'y a pas de théorie significative de la calculabilité. En
revanche, il y a une remarquable théorie de la calculabilité partielle. Citons quelques
résultats spectaculaires que nous énonçons pour les fonctions sur les entiers, mais on
pourrait le faire pour les fonctions sur toute autre famille d'objets finis : mots, arbres
ou graphes finis ...
question) . On ne sait pas quels sont les meilleurs couples possibles, il a seulement été
prouvé [Pavlotskaya, 1973, 1978 ; Kudlek, 1996] que, pour tout n, les couples 1 x n,
2 x 3, 3 x 2 ne sont pas des tailles de machines universelles car le problème de l'arrêt
de telles machines est décidable, cf. §1.3.3.
Théorème du paramètre (ou s-m-n) {Kleene, 1943 ) . Il existe une fonction cal
culable totale s : N3 -t N telle que, pour toute fonction partielle calculable f : N2 -t N
x
de programme e, et tout et y, on a
cps( 1(e,y
) (
)
X) - 'Pe( 2 ) ( X, Y )
La fonction s calcule un nouveau programme à partir d'un programme existant e et
d'une entrée y. Ce résultat a des conséquences d'une surprenante richesse. Tout d'abord,
il dit qu'un programme et une entrée sont interchangeables : la grande idée de John
von Neumann pour les ordinateurs ! D'autre part, s spécialise un paramètre du pro
gramme e par y, et en cela le théorème du paramètre de Kleene est la pierre de base
de l'évaluation partielle. Au passage, mentionnons la projection de Futamura-Ershov
Turchin qui construit un compilateur en spécialisant un interpréteur d'un langage de
programmation avec le programme à compiler. On se reportera encore aux travaux de
Jones (1997] .
Théorème du point fixe de Kleene {1938 ) . Quelle que soit la fonction partielle
calculable f : N -t N, il existe e telle que, pour tout = x, cpi1 ) (x) cp}��) (x).
Ainsi,
pour toute transformation de programme, il y a un programme qui fait la même chose
que son transformé. Evidemment, en général ce programme (ainsi que son transformé)
ne fait rien, c'est-à-dire ne termine pas. Mais ce n'est pas toujours le cas : ce théo
rème est, de fait, un des outils les plus puissants de la calculabilité. Ce théorème a
de nombreuses conséquences et il permet de montrer en général des résultats négatifs
d'indécidabilité. Les liens avec la logique ont été explorés, avec le brio qu'on lui connaît,
par Smullyan (1993 ; 1994] . Ceci étant, un exemple amusant d'application positive est
l'obtention d'un programme sans entrée dont la sortie est le programme lui-même !
De tels programmes sont appelés des « quines ». Ce théorème du point fixe est aussi
la source d'une théorie de la virologie, qui a débuté avec la thèse de Cohen (1986] et
l'article de son directeur Adleman (1988] . L'implication du théorème du point fixe dans
la virologie a été éclaircie dans (Marion, 201 2] . Enfin, ce résultat est aussi employé en
apprentissage (Jain et al. , 1999] .
Après ces théorèmes positifs, voyons deux théorèmes catastrophes.
Pour cela, considérons la fonction partielle f telle que f(x) = 1 si <p11 ) (x) n'est pas
définie et f(x) n'est pas définie si <p11 l (x) est définie. Si le domaine de <p( l ) était cal
culable, cette fonction f le serait aussi ; mais nous allons montrer par contradiction
que f n'est pas calculable. Pour cela supposons que r soit un programme de f. En
d'autres termes, la fonction f est calculée par <pp ) . Regardons de plus près f(r) . Si
f(r) = 1 , alors <p�1 ) (r) n'est pas définie, par définition de f. Puisque <p�1 ) (r) = f(r) ,
nous obtenons une contradiction. Essayons alors l'autre possibilité. Si f(r) n'est pas
définie, alors <p�1 ) (r) l'est, toujours par définition de f. Nous obtenons une seconde
contradiction. Par conséquent nous concluons que la fonction f n'est pas calculable.
Cette démonstration de l'indécidabilité du problème de l'arrêt utilise une construction
par diagonalisation, un argument inventé par Cantor pour montrer que le cardinal de
l'ensemble des fonctions des entiers sur les entiers n'est pas dénombrable. Une autre
démonstration consiste à utiliser un argument quantitatif qui s'appuie sur le paradoxe
de Richard [1906] et la fonction dite du castor affairé [Rado, 1962] (en anglais « busy
beaver » ) .
Théorème de Rice (1954) , version programmes. Quelle que soit la famille P de
fonctions partielles calculables, si P n'est ni vide ni pleine (il y a une fonction partielle
calculable dand P et une autre non dans P) alors l'ensemble { e 1 <p�1 ) E P} des pro
grammes qui calculent une fonction dans P n'est pas un ensemble calculable. Ainsi, on
ne peut décider aucune question non triviale sur la sémantique des programmes, et cela
a des conséquences fondamentales pour la démonstration automatique et la vérification
de programme.
Kolmogorov-Uspensky (cf. §1.2.2). Mais il ne dispose pas d'outil lui permettant d'ar
gumenter dans ce sens. En fait, on sait depuis les travaux de Yuri Gurevich[1997] que
ni ce modèle ni celui des machines de Schônhage (cf. §1.2.2) ne sont opérationnellement
complets. Cependant, des généralisations le sont, cf. §1 .4.2 ci-dessous.
hyper-KU) , les arêtes deviennent donc des hyper-arêtes qui relient chacune une paire
de sommets à un troisième sommet. Dans le cas orienté (cas hyper-Schônhage) , les
arcs deviennent des hyper-arcs qui relient chacun un couple de sommets à un troisième
sommet.
Sans passer aux hypergraphes, il suffit de rajouter aux modèles de calcul originaux
de Kolmogorov-Uspensky et de Schônhage une fonction injective de l'ensemble des
couples de noeuds dans l'ensemble des noeuds ainsi que les inverses de cette injection
(qui sont des fonctions partielles) pour qu'ils deviennent opérationnellement complets.
iv. Seules des opérations considérées comme indéniablement calculables sont dispo-
nibles dans les états initiaux.
Nachum Dershowitz et Yuri Gurevich (2008] (qui font suite à (Baker et Dershowitz,
2008] ) , prouvent que tout processus calculatoire qui satisfait ces quatre axiomes vé
rifie la thèse de Church. La beauté de cette axiomatisation (Dershowitz et Gurevich,
2008] est d'être générique, formelle, et basée sur des formalismes communément admis.
D'autre part, elle permet de réduire prouvablement tout doute sur sa validité en doute
sur l'un de ces quatre principes élémentaires.
Mentionnons qu'il est possible d'étendre ces résultats à la notion d'algorithme parallèle
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 005
(b)
M(O) >.y 0 C(f) (O) � 0
min(x, y) � M(x) (y)
·
min(3, 7) � 1 M(3) (7) 1 � C(M(2)) (7) � 1 M(2) (6) 1 + 1 � C(M( 1)) (6) + 1
� 1 M(1) (5) I + 2 � C(M(0)) (5) + 2 � 1 M(0) (4) I + 3 � (>.y . 0) (4) + 3 --+ 0 + 3 --+ 3
Ce type de résultat a été ensuite étendu à d'autres familles d'algorithmes, cf. [Fredholm,
1996 ; Colson et Fredholm, 1998) , et à d'autres fonctions très simples telles le pgcd (plus
grand commun diviseur) , cf. Yiannis Moschovakis [2006) et Lou van den Dries [2003) .
1 006 Panorama de l'intelligence artificielle. Volume 3
-
Pour aller plus loin dans cette utilisation des langages de preuves comme langages de
programmation, voir l'article de Christine Paulin-Mohring et Benjamin Werner [1993] .
axiome
A i , . . . , An 1- Ai
r 1- 1-
1--élim T-intro
r 1- A r 1- T
r l- A t\ E r l- A t\ E r 1- A r l- E
t\-élim t\-intro
r i- A r l- E r l- A t\ E
r i- A V E r, A 1- C r, E 1- C r 1- A r l- E
V-élim V-intro
r 1- c r i- A V E r i- A V E
r i- A r l- A =? E r, A 1- E
=?-élim =?-intro
r l- E r l- A =? E
r 1- Vx A r i- A
V-élim V-intro
r 1- A ( t/ x ) r 1- Vx A
(si X n'est pas libre dans r )
r l- 3x A r, A l- E ,. r 1- A ( t / x )
3-ehm 3-intro
r 1- E r 1- 3x A
(si X n'est pas libre dans r, E )
Les séquents prouvables sont les séquents qui étiquetent les preuves. Remarquons aussi
que les arbres ne vérifiant que la condition {ii) correspondent à des règles dérivées
dont les prémisses sont toutes les feuilles qui ne sont pas des axiomes. Rajouter de
telles règles dérivées n'augmente pas la famille des séquents prouvables.
Enfin, le cadre usuel de prouvabilité se retrouve comme suit :
- une preuve d'une formule A est une preuve du séquent de contexte vide 0 1- A,
- une preuve d'une formule A dans une théorie axiomatique 7 (c'est-à-dire un ensemble
7 de formules) est une preuve d'un séquent r 1- A dont le contexte r est inclus dans
7.
Remarque. Comme on est en logique constructive, certaines propriétés « classiques »
ne sont plus prouvables. Nous citons ci-dessous trois exemples de tautologies de la
logique « classique » {le premier est la formule de Pierce, les deux autres traduisent
les formules p V •P et ••P ::::} p) dont aucune n'admet de preuve constructive :
((p ::::} q) ::::} p) ::::} p p V (p ::::} l_) ( (p ::::} _i) ::::} _i) ::::} p
Contextes
L'étiquetage des noeuds des arbres de preuves par des séquents est plutôt lourd
car les contextes sont des listes de formules qui se répètent de noeud en noeud. Une
notation plus légère serait bienvenue. L'idée la plus simple est d'oublier les séquents
et de ne garder en étiquettes que les noms des règles utilisées. Mais cela ne suffit pas
Il s'en suit que chaque axiome est en fait une liste infinie d'axiomes et chaque règle une liste infinie de
règles.
l 0 l 0 - Panorama de l'intelligence artificielle. Volume 3
car il faut bien indiquer les formules en jeu dans la règle. Comme les contextes varient
assez peu dans une preuve, on procède comme suit.
• On introduit un nom ai pour chaque hypothèse Ai du contexte du séquent de la
les hypothèses mobiles et les nommer. Ainsi, avec le contexte nommé (a :P) pour la
racine, la preuve
------- axiome ------- axiome
a :P, (3 :P =? Q f- P =? Q a :P, (3 :P =? Q f- P
=?-élim
a :P, (3 :P =? Q f- Q .
=?-mtro
a :P f- ( P =? Q) =? Q
ne peut pas être simplement réécrite sous la forme =?-intro( =?-élim((3, a) ) car, pour
pouvoir retrouver le contexte (a :P, (3 :P =? Q) du fils de la racine, il faut indiquer que
c'est l'hypothèse P =? Q nommée (3 qui est mobile dans cette règle. Nous réécrirons
donc l'arbre de preuve comme le terme suivant =?-intro((3, =?-élim((3, a)) .
O n observe qu'il y a beaucoup de similarités entre noms d'hypothèses et variables. Par
exemple, dans une preuve associée au terme =?-intro((3, 7r ) , le nom d'hypothèse (3 ne
peut être utilisé que dans la sous-preuve associée au terme 11' et ne figure pas dans le
contexte nommé de la racine de cette preuve. On peut donc dire que la preuve 11' est
dans le champ de la variable (3 et que cette variable est liée par le symbole =?-intro.
"{
r
{� ::::} { . { . { .
TI- A A R
rr
r A
{ �
i ( A , B , ") r A
V-l.
rr1 :
r i- A V B
, rr2 :
r , a :A l- c
, rr3 :
r , /3 :B I- c
==>
{� ::::} { �
r 1- A V B ,
......
rr j ( A , B , ") r B ô(rri , a :A n2 , /3 :B rr3) •
r l-AVB r , a :A l-C r , /3 :B l-C ,
r B V-l. V-e S'
::::}
r 1- A V B 8'
{
r 1-c
{� rr
r A
A ::::} ::::}-l
Àa :A rr • r , A 1- B
, 1-
r B
. rri { r 1-
 *
B '
rr2
r �A
�
1·
;.
o.
,, 0
::::}-é
::i.
�
==> app(rr1 , n2) •
r , A 1- B r 1- A �
{
r l- B
ô
i:
�A � �
t x)
rr r B . rr app(n , r 1- Vx A , :::;:
r V-l r 1- A V-e .o
.
{ { : { :
p.
(1),
ô
rr
r 1- l(t/x) rr) r 1- A (t ) .
3-1
/x rr1
r 1- 3x A
, rr2
r , a :A 1- B
�::::.·
(1),
, r 1- 3x A
�
xa :A rr2 )
rr1 rr2
Ô3 ( rr i , r 1- 3x A r , a :A 1- B �
T' 1- R
3-é
1·'
......
0
......
TABLE 2 - Termes associés aux preuves en déduction naturelle constructive
1 0 1 2 Panorama de l'intelligence artificielle. Volume 3
-
7r1 : :7r2
r 1- A r 1- B .
�-mtro ,
r 1- A /\ B
/\-ehm
r 1- A
Une telle preuve peut être simplifiée en ne gardant que la preuve 7r1 qui conduit
au même séquent r 1- A. Avec les termes associés, la preuve avec coupure s'écrit
fst( ( 7r1 , 7r2 ) ) et la règle de réduction de preuve est
r, a : A 1- B :7r2
=?-intro
r 1- A =? B r 1- A
------ =?-élim
r l- B
dont le terme associé est ((.Xa :A 7r 1 ) 7r2 ) . La réduction de cette preuve se fait ainsi :
• on supprime l'hypothèse A dans tous les séquents de la preuve 7r 1 ,
• on remplace chaque axiome qui introduit en conclusion cette formule A par la preuve
7r2 .
Cette opération est donc une simple substitution : dans la preuve 7r1 , on substitue
la preuve 7r2 à chaque occurrence de la variable a associée à l'hypothèse A dans le
contexte r, A. Ceci conduit à la règle de réduction de preuve qui est la (3-réduction du
À-calcul ( 1 .2.6)
( (.Xa :A 7r1 ) 7r2 ) ---+ 7r1 ( 7r2 / a)
Les autres règles sont construites de façon analogue. La Table 3 donne l'ensemble des
règles de réduction de preuve. Ainsi, si une preuve contient une coupure, il est facile de
l'éliminer en appliquant l'une des règles de réduction. Mais l'élimination d'une coupure
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 0 1 3
peut créer d'autres coupures ! Le théorème principal du sujet assure que, néanmoins,
ce processus de réduction des preuves se termine.
Remarque. La famille des termes ainsi construits avec ses règles de réduction est une
extension du À-calcul évoqué au §1.2.6. Le À-calcul proprement dit correspond aux
termes associés aux preuves dans lesquelles ::::} est le seul connecteur qui apparaisse
avec la seule règle afférente, dite ,B-réduction, qui est celle de la cinquième ligne de la
Table 3.
Des phénomènes similaires sont aussi vrais avec les autres connecteurs et quantifica
tions : <P est un isomorphisme entre les formules et les types. C'est l'isomorphisme
de Curry-de Bruijn-Howard. En identifiant, comme il est usuel de le faire, des objets
isomorphes, on voit que le type d'une preuve est la formule qu'elle prouve.
1 .5 . 6 Théories
Rappelons que lorsqu'on a esquissé la démonstration de la propriété du témoin au
§1.5.4, on a bien précisé qu'une preuve constructive sans coupure d'un séquent sans
axiome se termine nécessairement par une règle d'introduction. Cette propriété ne
s'étend pas à n'importe quelle théorie axiomatique. Par exemple, si on ajoute le seul
axiome 3x P(x) , alors la formule 3x P(x) admet une preuve qui se réduit à cet axiome
et ne se termine donc pas par une règle d'introduction. Et, bien que la formule 3x P(x)
soit prouvable, il n'existe aucun terme t tel que la formule P(t) soit prouvable.
Evidemment, lorsqu'on n'a aucun axiome, il y a bien peu de fonctions dont on
peut prouver l'existence et le langage des preuves constructives est alors un langage de
programmation assez pauvre. C'est donc une des questions les plus essentielles du sujet
de l'interprétation algorithmique des preuves que d'essayer d'incorporer des axiomes
sans perdre la propriété capitale qu'une preuve constructive sans coupure se termine
nécessairement par une règle d'introduction.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 0 1 5
(RecA 1!'1 1!'2 S(n) ) ---t ( 11'2 n (RecA 1!'1 1!'2 n))
Cette approche a été beaucoup étudiée, citons K. Godel (1958] , W.W. Tait [1967] ,
P. Martin-Lof [1984] , Ch. Paulin [1993] , B. Werner [1994] , ...
X E P(y)
fold
X E P(y) x y unfold
_
C
Dans ce cas, il faut bien sfir rajouter aussi des règles de réduction de preuves. En
particulier, l'application successive des règles fold et unfold doit être considérée comme
une coupure et la preuve
XÇy
fold
X E P(y)
----
x Ç y unfold
doit pouvoir être réduite à 1!' . Cette approche a également été beaucoup étudiée, citons
D. Prawitz [1965] , M. Crabbé [1974 ; 1991] , L. Hallnii.s [1983] , J. Ekman (1994] , S. Negri
and J. von Plato [2001] , B. Wack [2005] , ...
Davantage de formules
Certains axiomes peuvent être abandonnés si on enrichit le langage des formules.
Un exemple typique est celui des axiomes de la théorie simple des types : ils peuvent
abandonnés si l'on permet de quantifier sur les prédicats. Ceci conduit à étendre donc
le langage des types et à définir des langages de programmation fonctionnel d'ordre
supérieur. C'est une approche qui a été étudiée par J.-Y. Girard [1971] , Th. Coquand
& G. Huet [1988] , D. Leivant (1983] , J.-L. Krivine and M. Parigot [1990] , ...
1 0 1 6 - Panorama de l'intelligence artificielle. Volume 3
A(u i fy ) V . . . V A( un / Y )
De cette façon, les preuves classiq ues apparaissent comme des algorithmes non déter
ministes. Voir, par exemple, [Parigot, 1992] .
Enfin, à part la déduction naturelle, d'autres calculs logiques ont été considérés, en
particulier le calcul des séquents. Voir, par exemple, [Curien et Herbelin, 2000 ; Urban,
2001] .
des énoncés vrais est décidable, c'est-à-dire forme un ensemble dont on peut décider par
un algorithme si un énoncé donné y figure ou pas. Nous donnons ci-dessous quelques
exemples de l'incroyable foison de résultats obtenus depuis bientôt un siècle.
On peut même supposer que m = 9 (Matijasevich [1977] , cf. Jones [1982] ) . On soup
çonne que l'on peut, en fait, avoir m = 3.
Arithmétique purement additive. On renonce à la multiplication. Cette arithmé
tique additive est alors décidable (Presburger, 1929) . Ce résultat est d'une très grande
importance en informatique car elle permet de modéliser nombre de situations et four
nit donc des algorithmes.
Arithmétique du successeur avec quantifications sur les entiers et aussi sur
les ensembles d'entiers. Cette arithmétique est également décidable (Büchi, 1959) .
La preuve s'obtient par des techniques d'automates finis. Là encore, ce résultat est
d'une importance très grande en informatique.
Algèbre réelle
Si l'arithmétique des entiers et celle des rationnels est indécidable (cf. plus haut) ,
celle des réels (!R., +, x , =) est ô surprise - décidable (Tarski (1931] ) . Tous les problèmes
-
Géométrie élémentaire
Les anciens qui ont passé de durs moments sur les problèmes de géométrie du
plan ou de l'espace avec les côniques et les quadriques, le cercle des neuf points, les
faisceaux harmoniques, les problèmes de géométrie descriptive, ... trouveront une saveur
particulière à ce résultat de Tarski, 1931 : la théorie de la géométrie élémentaire est
décidable (son axiomatisation se fait avec des notions de points, droites, plans, une
appartenance et une relation « être entre deux points » ) . Ainsi, tous les problèmes du
bachot d'il y a bien des années pouvaient être résolus par une machine ... Ce résultat est,
en fait, un corollaire facile de la décidabilité de l'algèbre réelle qui utilise le passage en
coordonnées cartésiennes.
Dominos. Supposons donnée une famille finie de carrés ayant tous la même taille et
dont les cotés sont coloriés de diverses façons. Peut-on paver le plan euclidien Z x Z
avec de tels carrés de sorte que si deux carrés sont adjacents alors leur coté commun est
colorié de la même façon dans ces deux carrés ? Ce problème est indécidable : l'ensemble
des familles finies pour lesquelles on peut paver ainsi n'est pas récursif (Berger [1966] ) .
O n peut poser le même problème dans le plan hyperbolique. Attention, il n'y a pas de
carré (ni de rectangle) dans le plan hyperbolique mais, en revanche, pour tout s ;:::: 5, il
y a des polygones réguliers à angles droits ayant s cotés ... Pour chaque s 2: 5, la réponse
est la même, le problème est indécidable [Margenstern, 2007, 2008] .
1.7 Conclusion
La formalisation de la calculabilité, cette notion intuitive remontant à l'Antiquité,
est un des apports mathématiques majeurs du 20ième siècle. Elle est le soubassement
de la science informatique et, historiquement, elle en a été le point de départ.
Quels sont les développements de et autour de la calculabilité en cours et ceux
auxquels on peut s'attendre dans l'avenir proche ?
Programmation. En dévoilant un rapport inattendu entre calculs et preuves, l'iso
morphisme de Curry-Howard (cf. le §1.5.5) a créé un pont entre deux sujets a priori
complètement distincts, et, par là même, en a souligné encore davantage l'importance
et la force. Ce rapport entre calcul et preuve est l'objet de recherches fructueuses dont
on attend encore beaucoup dans la perspective des langages de programmation et des
assistants de démonstration.
Virologie informatique. Le théorème du point fixe de Kleene (cf. §3.2) est l'outil
théorique sur lequel se dévelope la virologie informatique, sujet dont l'histoire ne peut
être qu'une suite sans fin d'actions et de réactions au fil de l'ingéniosité des hackers
malveillants et de celle de ceux qui cherchent à les contrer.
Algorithmes. Comme on l'a vu au §1 .4, la formalisation de la notion opérationnelle
d'algorithme est avancée mais encore inachevée, il reste là un champ à explorer qui
donnera de nouveaux outils pour cerner les aspects les plus fins du calcul.
Analyse numérique. Un développement des plus prometteurs est la rencontre entre
la théorie de la calculabilité et l'analyse numérique, deux communautés qui s'intéressent
au calcul ! Bien sûr, il faut pour cela étendre le champ de la calculabilité aux nombres
réels, mais cela a déjà été fait et a même sa source dans le travail original de Turing
de 1936, c'est le sujet de l'analyse récursive (cf. le §1.4 de la deuxième partie sur la
complexité) . Comme l'explique Kolmogorov, les phénomènes de la nature sont d'es
sence discrète, sont modélisés par les mathématiques du continu car ce sont des outils
performants et maîtrisés, et au final, pour le calcul par machine des valeurs explicites,
on procède à une discrétisation des solutions. Bien sûr ces opérations de passage au
continu puis au discret ne sont pas exactement inverses l'une de l'autre. Mais quand
même, il y a peut-être une autre approche globale gérant mieux l'essence discrète des
phénomènes.
Probabilités et statistiques. Bien que plutôt inattendu, il y a un lien profond entre
l 022 Panorama de l'intelligence artificielle. Volume 3
-
Références
ABRAMSKY, S . , GABBAY, D. M. et MAIBAUM, T. S., éditeurs {1992-2001) . Handbook
of Logic in Computer Science, volume 1-5. Elsevier.
ADLEMAN, L. M. {1988) . An abstract theory of computer viruses. In Advances in
Cryptology - CRYPTO 'BB, volume 403. Lecture Notes in Computer Science.
ARRIGHI, P. et DOWEK, G. {2008) . A quantum extension of Gandy's theorem. Colloque
"La thèse de Church : hier, aujourd'hui, demain".
BAIOCCHI, C. {2001). Three small universal turing machines. In MARGENSTERN, M.
et RoGOZHIN, Y. , éditeurs : Machines, Computations and Universality, volume 2055,
pages 1-10. Lecture Notes in Computer Science.
BARENDREGT, H. { 1980) . The Lambda-Calculus : Its Syntax and Semantics. North
Holland, Amsterdam.
BERGER, R. {1966) . The undecidability of the domino problem. Memoirs of the
American Mathematical Society, 66 :72 pages.
BLASS, A. et GUREVICH, Y. {2003) . Abstract state machines capture parallel algo
rithms. A CM Transactions on Computation Logic, 4(4) :578-651 .
BLASS, A. et GUREVICH, Y . {2008) . Abstract state machines capture parallel al
gorithms : Correction and extension. ACM Transactions on Computation Logic,
9(3) : 1-32.
BOKER, U. et DERSHOWITZ, N. {2008) . The Church-Turing thesis over arbitrary do
mains. In AVRON, A., DERSHOWITZ, N. et RABINOVICH, A., éditeurs : Pillars of
Computer Science : Essays Dedicated to Boris (Boaz) Trakhtenbrot on the Occasion
of His 85th Birthday, volume 4800, pages 199-229. Springer.
1 . Informatique théorique : calculabilité, décidabilité et logique - l 023
Uspekhi Mat. Naut, 13(4) . English translation in AMS translation vol. 2 1 (1963) ,
217-245.
KRIVINE, J.-L. (1990) . Lambda-calcul. Masson.
KRIVINE, J.-L. et PARIGOT, M. (1990) . Programming with proofs. J. Inf. Process.
Cybern. EIK, 26(3) : 149-167.
KUDLEK, M. ( 1996) . Small deterministic Turing machines. Theoretical Computer
Science, 168 :241-255.
KUDLEK, M. et RoGOZHIN, Y. (2002) . A universal Turing machine with 3 states and
9 symbols. In Developments in Language Theory, volume 2295 de Lecture Notes in
Computer Science, pages 31 1-318. Springer.
LACOMBE, D. (1960) . La théorie des fonctions récursives et ses applications. Bulletin
de la Société Mathématique de France, 88 :393-468.
LEEUW, K. d., MOORE, E. F. , S HANNON, C. E. et SHAPIRO , N. (1956) . Computability
by probabilistic machines. In SHANNON, C. et MAcCARTHY, J . , éditeurs : Automata
Studies, pages 183-212. Princeton University Press.
LEIVANT, D. (1983) . Reasoning about functional programs and complexity classes
associated with type disciplines. In Foundations of Computer Science, FOCS'83,
volume 88, pages 460-469. IEEE Computer Society Press.
LONGO, G. et PAUL, T. (2009) . Le monde et le calcul. Réflexions sur calculabilité,
mathématiques et physique. In Logique et Interaction : Géométrie de la cognition,
volume Actes du colloque et école thématique du CNRS "Logique, Sciences, Philo
sophie" , Cerisy. Hermann.
MACINTYRE, A. J. et WILKIE, A. (1995) . On the decidability of the real exponential
field. In ÜDIFREDDI, P. G., éditeur : Kreisel 70th Birthday Volume. CLSI.
MARGENSTERN, M. (2007) . The domino problem of the hyperbolic plane is undecidable.
Bulletin of the EATCS, 93 :220-237.
MARGENSTERN, M. (2008) . The domino problem of the hyperbolic plane is undecidable.
Theoretical Computer Science, 407 :28-84.
MARION, J.-Y. (2012) . From turing machines to computer viruses. Phil. Trans. R.
Soc. A, 370 :3319-3339.
MARTIN-LOF, P. (1984) . Intuitionistic type theory. Bibliopolis.
MATIJASEVICH, Y. (1977) . Sorne purely mathematical results inspired by mathematical
logic. In Proceedings of Fifth International Congress on Logic, Methodology and
Philosophy of science, London, Ontario, 1 g15, pages 121-127. Dordrecht : Reidel.
MAYR, E. W. ( 1984) . An algorithm for the general Petri net reachability problem.
SIAM Journal on Computing, 13(3) :441-460. Preliminary version in Proceedings of
the thirteenth annual ACM symposium on Theory of computing, p. 238-246, 198 1 .
MAZOYER, J. e t YuNÈS, J.-B. (2010) . Computations on cellular automata. In ROZEN
BERG, G . , BACK, T. H. et KoK, J. N., éditeurs : Handbook of Natural Computing.
Springer. to appear.
MELZAK, Z. (1961). An informal arthmetical approach to computability and compu
tation. Canadian Mathematical Bulletin, 4(3) :279-293.
1 . Informatique théorique : calculabilité, décidabilité et logique - 1 027
MINSKY, M. (1961). Recursive unsolvability of post's problem of 'tag' and other topics
in theory of turing machines. Annals of Mathematics, 74 :437-455.
MINSKY, M. L. ( 1982) . Why people think computers can't. AI Magazine, 3(4) :3-
15. Reprinted in Technology Review, Nov/Dec 1983, and in The Computer Culture,
( Donnelly, Ed. ) Associated Univ. Presses, Cranbury NJ, 1985.
MOSCHOVAKIS, Y. (2001). What is an algorithm ? In ENGQUIST, B. et SCHMID, W.,
éditeurs : Mathematics unlimited 2001 and beyond, pages 919-936. Springer.
-
Chapitre 2
In formatique théorique :
complexité, automates et
au- delà
Dans ce chapitre on s'interroge sur les ressources en temps, espace et/ou matériel
mises en jeu dans un calcul, ce qui donne une idée du coté réaliste ou non de la résolution
par machine de certains problèmes. Ce sujet donne lieu à des résultats surprenants
où l'on voit que simplicité conceptuelle n'est pas toujours synonyme d'efficacité. Sujet
difficile dans lequel des questions simples à formuler, comme le célèbre problème P=NP
(formulé en 1970) , n'ont toujours pas été résolues.
2.1 Introduction
2.1.1 Complexité de l'homme et complexité des machines
Quelques chiffres, donnés en 1948 au Hixxon Symposium, cf. [von Neumann, 1951] .
With any reasonable de.finition of what constitutes an element, the natural
organisms are very high complex aggregations of those elements. The number
of cells in the human body is somewhere of the general order of 10 1 5 or 10 16 •
The number of neurons in the central nervous system is somewhere of the
general order of 10 1 0 . We have absolutely no past experience with systems of
this degree of complexity. All arti.ficial automata made by man have numbers
of parts which by any comparable schematic count are of the order of 103
to 106 .
Quelques chiffres, de nos jours.
- Complexité du cerveau humain. Le cerveau humain est constitué d'environ
= 10 1 1 neurones (cent milliards) . En moyenne, chacun de ces neurones a une
Auteurs : ÜLIVIER BOURNEZ, GILLES DOWEK, RÉMI GILLERON, SERGE GRIGORIEFF, JEAN-YVES
MARION, SIMON PERDRIX et SOPHIE TISON.
1 032 - Panorama de l'intelligence artificielle. Volume 3
L a raison du stupéfiant progrès technologique que révèlent ces chiffres depuis 1948
est bien résumée par la « loi de Gordon E. Moore » :
le nombre de transistors dans un circuit intégré double tous les deux ans.
Loi vérifiée depuis 1958, et qui vaut encore de nos jours (2013) . Le doublement était
même tous les dix-huit mois jusqu'en 1965. Ainsi, la performance atteinte aujourd'hui
est 2 4 + 24 "" 270 millions de fois celle de 1958.
On le voit, l'échelle de complexité de la machine se rapproche de celle de certains
constituants de l'humain. De quoi enrichir le débat sur la pertinence des thèmes fon
dateurs de l'IA, cf. §1. 1 . 1 .
Egalement, la gestion et l'utilisation efficaces de telles masses de données (de l'ordre
de centaines de petaoctets) avec des machines d'une telle puissance (de vitesse de calcul
de l'ordre du petaflop) , conduit, plus que jamais, à apporter aux algorithmes d'accès,
de mise à jour et de traitement de ces données un soin extrême et une inévitable
sophistication. Une approche de la faisabilité et donc de l'utilité de ces algorithmes
consiste à estimer l'ordre de grandeur des ressources utilisées par ceux-ci. C'est l'objet
du thème de la complexité en informatique.
seconde.
Le nombre N = 1 = 3�3���x1�0 1;4 104 1 représente alors le plus grand nombre d'unités
,....,
Celui de [Karatsuba et Ofman, 1962] est en O(n10g2 ( 3) ) (noter que n2 = n10g2 (4 ) tandis
que n10g2 ( 3 ) = n 1 • 5 849··· ) , il consiste à couper la représentation binaire des entiers en
deux : supposons pour simplifier que p = q = n = 2m et écrivons a = 2m a1 + a" et
b = 2mb1 + b" où a', a", b', b" sont des entiers ayant m chiffres binaires, alors
aXb (2m a' + a" ) X ( 2m b1 + b" ) = a'b' 2 2m + (a'b" + a" b') 2m + a" b" (2. 1 )
= a'b' 2 2m + [( a' + a" ) (b' + b" ) - a'a" - b'b" ] 2m + a" b" (2.2)
Le passage de la ligne (2. 1) à la ligne (2.2) , a priori bizarre, permet de ramener quatre
multiplications de deux entiers de m chiffres (à savoir, a'b', ab", a"b' et a"b") à trois
multiplications d'entiers de m (ou m+ 1) chiffres, (à savoir a' a", b'b" et (a' + a" ) (b' +b")) .
C'est cette astuce qui permet, quand on l'itère, d'obtenir un algorithme en temps
O(n10g2 ( 3) ) . Un autre algorithme, celui de [Schônhage et Strassen, 1971] , basé sur la
transformée de Fourier rapide, est en O(n log(n) log(log(n)) ) . Le meilleur algorithme
connu à ce jour est dû à [Fürer, 2009] , il est en 0( n log(n) log* ( n)) donc quasi-linéaire 1 .
Mentionnons enfin que si l'algorithme de Karatsuba est implémenté dans tous les sys
tèmes de calcul formel, ceux de Schonhage & Strassen et celui de Fürer ne le sont pas
car, actuellement, ils sont grevés par une constante multiplicative gigantesque cachée
dans la notation 0( . . ) .
.
On peut montrer que c'est optimum tant en additions (comme montré par Alexan
der Ostrowski en 1954) qu'en multiplications [Pan, 1966] . Mais, pour évaluer ce po
lynôme en un grand nombre N de points (par exemple, pour en tracer le graphe) , la
meilleure complexité n'est pas de 4N additions et 4N multiplications. Un précondition
nement permet de le faire avec environ 3N multiplications et 5N additions (on a donc
échangé environ N multiplications contre autant d'additions) . Le « environ » traduit
les quelques opérations arithmétiques du calcul des coefficients a, {3, "(, ô ci-dessous : on
peut écrire
P(x) a4 [( x + a) (x + [3 )] 2 + "f(X + a) (x + {3) + (x + ô) (2.3)
� + � + � + aj � + m b + � � + aj � + � (2.4)
2a4 (a + {3) = a3
, a4 (a 2 + {32 + 4a{3) + "( a2
ou a, {3, "f, ô sont tels que
2 a4 af3 ( a + {3) + 'Y(a + {3) + 1 ai
{ a4 a2 {3 2 + a{3"( + ô = ao
La première équation (2.3) donne la valeur de a + {3. De la deuxième on déduit
1. La fonction log* est le nombre de fois qu'il faut itérer le logarithme pour trouver 0 (i.e. log* 1 = 1
et 2P s; n < 2P+1 => log* n = 1 + log* p) . Bien que cette fonction log* tende vers l'infini, sa croissance
est d'une lenteur extrême : ainsi, log* (10320) = 5. Au-regard des limites de temps vues en §2.2. 1 , cette
fonction log* ne dépassera donc jamais, en pratique, la valeur 5 ...
2. Informatique théorique : complexité, automates et au-delà - 1 035
l 'entrée n, alors il existe un autre algorithme B qui calcule f et, quel que soit n, travaille
en temps (resp. en espace) a(C(n)) sur l 'entrée n.
Une telle fonction f n'admet donc pas de meilleur algorithme puisque chacun de ses
algorithmes peut être accéléré.
Complexité et modèle de calcul. La complexité d'un problème peut fortement dé
pendre du modèle de calcul considéré. C'est ainsi que la reconnaissance des palindromes
(les mots qui coïncident avec leur renversé) peut se faire de façon évidente en temps
linéaire sur une machine de Turing à deux rubans mais exige O(n2 ) étapes de calcul
sur une machine de Turing à un seul ruban (un résultat qui peut être établi par un
élégant argument de complexité de Kolmogorov [Paul, 1979] ) . Fort heureusement, les
modèles raisonnables de calcul séquentiel (ceux vus dans le chapitre précédent sur la
calculabilité) sont robustes, dans le sens où un modèle peut en simuler un autre avec
une perte de temps polynomiale (même quadratique, le plus souvent) . Certains auteurs
( [Slot et van Emde Boas, 1984] , la monographie [Arora et Barak, 2009]) expriment cette
robustesse sous la forme d'une variante forte de la thèse de Church présentée dans le
précédent chapitre précédent sur la calculabilité dans la partie qui traite des différentes
versions de la thèse :
Tout modèle de calcul physiquement réalisable peut être simulé par une
machine de Turing au prix d 'un surcoût polynomial.
De telles versions sont sujettes à plus de controverses que les autres variantes. Dans le
cadre de la comparaison entre machines analogiques et machines digitales, la preuve de
cette thèse de Church forte pour les systèmes dynamiques à temps continu présentée
dans [Vergis et al. , 1986] se fait au prix de simplifications discutables.
Complexité en temps, complexité en espace. Les ressources les plus courantes
sont le temps et l'espace dans le cas des algorithmes séquentiels, voir Cook [1983] Mais
comment mesurer ces ressources ? Qu 'est-ce qu 'une étape de calcul ? Qu 'est-ce qu 'une
unité d 'espace de calcul ? Ceci nous renvoie à la notion d'algorithme vue dans le chapitre
précédent sur la calculabilité et à la réflexion de Gurevich. Voir aussi Cobham [1965] .
Nous dirons que le temps est le nombre d'étapes qu'effectue une machine pour exécuter
un algorithme, et l'espace est la quantité de mémoire nécessaire. Examinons cela de
près. Dans l'exemple vu plus haut de la multiplication de deux entiers, est-ce raison
nable de considérer que le coût de l'addition de deux entiers vaut 1 . Cook a proposé
de charger un coût logarithmique [Cook et Reckhow, 1973] dans le cas des RAM, voir
le chapitre précédent sur la calculabilité.
De même pour les algorithmes parallèles, la complexité sera mesurée par rapport à un
modèle de calcul parallèle comme les PRAM (parallel RAM) ou les circuits booléens.
Suivant les modèles de calcul, on s'intéressera aussi au nombre de processeurs et à leur
topologie, cf. [van Emde Boas, 1990] .
Complexité au pire cas versus complexité en moyenne. La complexité au pire
cas fournit une borne supérieure sur une ressource donnée. Mais, en pratique, la com
plexité en moyenne - par rapport à une distribution des entrées - peut être beaucoup
plus significative [Levin, 1986] . En revanche, l'analyse en moyenne est, en général de
beaucoup plus difficile.
2. Informatique théorique : complexité, automates et au-delà - 1 037
semble pertinente et solide d'un point de vue pratique. D'autre part, il y a des ré
sultats d'échange entre les ressources, et de hiérarchie à garder en tête : quelle que soit
la fonction de complexité T,
par composition comme l'est PTIME. Si cette classe est peu présente avec les problèmes
combinatoires, en revanche, elle contient cependant la FFT et les fonctions arithmé
tiques sur les entiers ( cf. Exemple 1 et 3 du 2.2.2). Elle est aussi capitale en analyse
récursive : Richard Brent (1976] a, en effet, montré que toutes les fonctions de l'analyse
( exponentielle, sinus, cosinus, fonction r,. .. ) sont calculables en temps n( log n) O ( l ) ( il
faut pour cela utiliser un algorithme de multiplication des entiers qui soit lui-même
dans cette classe n( log n) O ( l ) , cf. Exemple 1 du §2.2.2).
dommage du point de vue complexité. Pourtant, cela est néanmoins possible. Un cher
cheur lithuano-américain, Algirdas Avizienis, a imaginé d'utiliser plus de chiffres que
nécessaire [Avizienis, 196 1] . Ainsi, en base 2, peut-on utiliser les trois chiffres - 1 , 0, l .
Bien sûr, un nombre aura alors plusieurs représentations : par exemple, écrivant î au
lieu de - 1 , le nombre 17 peut s'écrire 10001 ou lOOlî ou 101 1 1 ou 1 1 1 1 1 ou 1 1 1 1 1 1 ... Ce
fait peut-être utilisé avec profit pour empêcher la propagation non bornée des retenues
et permettre des additions en parallèle, cf. le livre de [Muller, 1989] . Mentionnons que
cette technique n'est pas pure théorie, elle est, en effet, implémentée dans les circuits
des ordinateurs.
1
de facteur aba.
i � p p � p
a
q --+ r r 7 r
i � i p � q q � i r --+ r
Nous présentons sans démonstration une sélection de résultats de base sur les automates
finis de mots. Pour tout automate, il existe un automate complet qui reconnaît le même
langage. Pour tout automate à n états, il existe un automate déterministe complet à
au plus 2n états qui reconnaît le même langage. On peut noter que les calculs dans un
automate sont effectués par une lecture de gauche à droite du mot et une lettre est
consommée à chaque application de règle. Une première extension consiste à autoriser
un changement d'état sans consommer de lettre. On parle d'automate avec e-transitions
(ou e-règles) . Il existe un algorithme de construction d'un automate reconnaissant le
même langage qui ne contient pas <l'e-transitions et donc l'expressivité de ces automates
correspond à la classe des langages reconnaissables. Une autre extension consiste à
permettre d'alterner le sens de lecture du mot pendant le calcul. Ici encore l'expressivité
reste inchangée.
Une propriété importante des langages reconnaissables s'exprime à l'aide de lemmes
de pompage. Dans sa version première (des lemmes plus forts ont été proposés) , ce
lemme affirme que, pour tout langage reconnaissable, il existe une constante k, telle
que tout mot du langage de longueur supérieure à k possède une factorisation avec un
facteur qui peut être itéré ou enlevé en restant dans le langage. Ce lemme permet de
montrer facilement qu'un langage tel que { a n b n 1 n ;::: O} n'est pas régulier.
La classe des langages reconnaissables est close par les opérations booléennes, à
savoir intersection, union et complémentation : par exemple, l'intersection de deux
2. Informatique théorique : complexité, automates et au-delà 1 043
-
langages reconnaissable est reconnaissable. Elle est close par homomorphisme et ho
momorphisme inverse. Le vide d'un langage ( savoir si un langage est vide ou non à
partir de sa présentation par un automate ) est un problème décidable.
Le résiduel à gauche u - 1 L d'un langage L relativement à un mot u est le lan
gage constitué des mots v qui sont tels que u suivi de v, i.e. uv , est un mot de L.
On peut définir une relation =L par u =L v si u - 1 L = v - 1 L, i.e. u et v ont les
mêmes prolongements dans L. Cette relation est une relation d'équivalence qui est
stable par concaténation, c'est donc une relation de congruence dans l'algèbre formée
par les mots munis de l'opération ( u, v ) f-t uv ( appelée concaténation ) . Le théorème
de Myhill-Nerode affirme que L est un langage régulier si et seulement si le nombre de
classes d'équivalence de =L est fini. Ce théorème implique principalement l'existence
d'un automate déterministe minimal pour tout langage régulier L au sens du nombre
minimal d'états. Ce nombre minimal d'états est le nombre de classes de congruence
de =L· Des algorithmes de construction de l'automate minimal ont été définis : un
algorithme dérivé de la preuve du théorème, l'algorithme de Hopcroft par raffinement
de partition en partant d'un automate déterministe et de la partition (F, Q F) , un -
vent spécifique à chaque langage informatique. Nous prenons ici le point de vue formel
et considérons les opérations sur les langages que sont la concaténation 2 notée par un
point . (souvent oublié) et définie par X.Y = XY = {w 1 w = uv, u E X, v E Y} ;
l'union notée + en notation infixée ; l'étoile * en notation postfixée et définie par
X* = {w 1 w = u 1 . . . un , n � O, ui , . . . , un E X} (le cas n = 0 donnant le mot vide) ,
soit encore l'union infinie des puissances d'ordre n � 0 d'un langage. Par exemple, cette
syntaxe permet d'écrire (a + b)* pour l'ensemble des mots sur l'alphabet a, b. On peut
ainsi décrire comment sont « construits » les mots du langage en utilisant « suivi de »
pour la concaténation, « ou » pour l'union et « un certain nombre de » pour l'étoile.
Un langage est rationnel s'il peut être décrit par une expression rationnelle.
Le théorème de Kleene, présent dans le papier originel [Kleene, 1956] , montre l'éga
lité entre la classe des langages reconnaissables et la classe des langages réguliers. Au
vu du grand nombre d'applications, les transformations entre automates et expressions
régulières ont été et demeurent beaucoup étudiées. Pour transformer une expression ré
gulière en un automate équivalent, une première solution est d'utiliser une construction
sur les automates pour chacun des opérateurs . , + et * · Ceci se fait facilement avec des
automates finis avec e-transitions. Cette construction n'est pas optimale car on peut
avoir beaucoup <l'e-transitions et leur élimination peut être coûteuse. Une construction
d'un automate fini équivalent sans e-transitions, appelé automate des positions ou auto
mate de Glushkov, de taille quadratique par rapport à la taille de l'expression régulière
est attribuée à Glushkov [1961] . Cette construction aux très nombreuses applications
a été reprise, améliorée et particularisée pour des classes d'expressions. Citons, entre
autres, McNaughton et Yamada [1960] , Berry et Sethi [1986] , Brüggeman-Klein [1993 ;
1998] . Pour transformer un automate en une expression régulière équivalente, une so
lution est d'écrire un système d'équations rationnelles de la forme Xi = l:i Xiaii ou
Xi = l:i Xiaii + e où la variable Xi capture les mots pouvant arriver dans l'état qi et
aii une lettre de l'alphabet, puis de résoudre ce système en utilisant des substitutions
et le fait que l'unique solution de l'équation X = XY + Z lorsque e </. Y est ZY* . Mais,
Ehrenfeucht et Zeiger [1976] définissent des automates à n états pour lesquels la plus
petite expression régulière équivalente contient un nombre exponentiel d'occurrences
de lettres de A dans l'expression.
La question du nombre d'étoiles nécessaires pour définir un langage reconnaissable
s'est posée très tôt. Une première réponse a été de montrer que la hauteur d'étoiles
(le nombre d'imbrications dans l'expression) ne peut pas être bornée (Eggan [1963] ,
amélioré dans Dejean et Schützenberger [1966] ) . Un deuxième résultat plus difficile,
obtenu par Hashiguchi [1988] , fut de proposer un algorithme pour déterminer la hau
teur d'étoile d'un langage régulier. Des améliorations algorithmiques ont été apportées
depuis mais la complexité reste exponentielle et impraticable.
Logique monadique du second ordre (MSO) Un mot peut être représenté par
une structure du premier ordre avec un ensemble de positions qui est un intervalle [1, n]
d'entiers, une notion de successeur, un ordre naturel et pour chaque lettre de l'alphabet
l'ensemble des positions du mot correspondant à cette lettre. On peut alors considérer
un langage du premier ordre où les variables, notées x, y, . . . , représentent des entiers
2. Le mot concaténation désigne tant l'opération sur les mots (u, v ) >-+ uv que son extension aux
langages.
2. Informatique théorique : complexité, automates et au-delà - 1 045
se fait par l'ajout d'une pile à l'automate fini et la possibilité pour les règles d'empiler
ou de dépiler des symboles sur la pile. Nous ne détaillerons pas le formalisme des auto
mates à piles. Les langages algébriques et les automates à piles ont été très largement
étudiés à cause de leurs très nombreuses applications : langages de programmation
et langue naturelle, par exemple. Des points d'entrées pour la très vaste littérature
peuvent être les articles sur les grammaires algébriques de [van Leeuwen, 1990 ; Ro
zenberg et Salomaa, 1997] . Mais on peut noter que certains résultats importants sont
postérieurs. Par exemple, l'équivalence d'automates à piles déterministes a été montrée
décidable à la fin des années 90 par Sénizergues [2002] .
Ce transducteur est basé sur les partitions suivantes (où + désigne la réunion d'en
sembles) :
résultat a été étendu aux arbres infinis (et les automates correspondants) pour obtenir
un résultat fondamental aux nombreuses applications : le théorème de Rabin (Rabin's
Tree Theorem) [Rabin, 1969] qui établit que la logique monadique du second-ordre des
mots binaires (lesquels constituent l'arbre infini binaire) est décidable. Les différences
principales entre automates d'arbres et de mots sont :
Les « tree walking automata ». Dans ce modèle, on peut tester si la position cou
rante correspond à une feuille, la racine, un fils droit ou un fils gauche d'un noeud.
Les règles permettent d'annoter la position courante par un état et de rester dans la
même position, de monter au noeud père ou de descendre au fils droit ou fils gauche
de la position courante. Un calcul réussi considère une configuration initiale avec un
état initial à la racine de l'arbre, des configurations obtenues en appliquant les règles
et une configuration finale avec un état final à la racine de l'arbre. Si il est facile de
voir que les langages reconnus sont reconnaissables il n'a été démontré que récemment
que l'inclusion est stricte (il existe des langages reconnaissables non reconnus dans ce
modèle) et que le déterminisme restreint le pouvoir d'expression. Ces résultats ont été
obtenus par [Bojanczyk et Colcombet, 2006, 2008] .
La linéarité. La clôture par morphisme des langages reconnaissables n'est pas vé
rifiée dans les arbres. Un morphisme est linéaire si on interdit la duplication de
variables. La classe des langages reconnaissables est close par morphisme linéaire.
Mais pas dans le cas général. En effet, si on considère un langage reconnaissable
{g(r(a)) 1 n ;::: O} et un morphisme qui transforme g(x) en h(x, x) , l'image du langage
est {h(r (a) , r (a)) 1 n 2: O} qui n'est pas un langage reconnaissable d'arbres.
que la théorie de la réécriture avec des règles sans variables dans les termes est déci
dable. Ce résultat est présenté dans le chapitre 3 de [Cornon et al. , 2007] . Ce chapitre
contient également des applications des automates d'arbres au typage, à la réécriture,
au filtrage et à l'unification.
Inférence grammaticale. Pour les modèles de Markov cachés et les grammaires al
gébriques probabilistes, l'algorithme de Baum Welch permet d'apprendre les poids
associés aux transitions ou aux règles, une structure d'automates ayant été choisie a
priori. L'inférence grammaticale se pose la question d'inférer la structure d'automate
(ou de grammaire) la plus adaptée à un corpus. La question est difficile car les langages
reconnaissables ne sont pas apprenables à partir de mots du langage (une trop grande
généralisation ne pouvant être évitée) . Par contre, des algorithmes ont pu être proposés
dans le cas où on dispose de mots du langage et de mots n'appartenant pas au langage.
La plupart des algorithmes construisent l'automate déterministe minimal et sont basés
sur le théorème de Myhill Nérode. Pour le cas probabiliste, on apprend à partir de
mots tirés à partir de la distribution à apprendre. Les algorithmes précédents peuvent
être étendus pour apprendre les distributions définies par des automates déterministes
probabilistes. Récemment, de nouveaux algorithmes basés sur une vision algébrique
ont été conçus par [Denis et al. , 2006] , ils permettent d'étendre la classe des lois de
probabilité apprenables.
2. Informatique théorique : complexité, automates et au-delà - 1 053
Théorème de Rice {1954) , version réels. On ne peut pas décider si un réel est nul.
d'intégration ( u, v ) i--+ w où
w(t) = t u ( x ) v ' ( x ) dx
lto
(avec t0 quelconque) . Ces unités peuvent être connectées librement dans un circuit
avec retours arrières pour l'intégration (feedback connexions) . Une fonction est GPAC
engendrée si on peut la lire à la sortie d'un tel circuit, cf. figure 1 . Les fonctions
GPAC-engendrées sont exactement les fonctions différentiellement algébriques, c'est
à-dire les solutions d'équations différentielles p(x, y, y' , y" , . . . , y < k> ) = 0 où p est un
polynôme (Shannon [1941] , voir Graça [2007]) . Ce sont aussi les composantes des so
lutions y = (Y i . . . . , Yk ) des systèmes différentiels y' = p(t, y) , y(O) = a, où p est un
k-uplet de polynômes et a un k-uplet de réels [Graça et Costa, 2003] .
Ces fonctions GPAC-engendrables n'incluent pas toutes celles de l'analyse récursive :
manquent, par exemple, la fonction ((x) = L: n > l ; de Riemann et la fonction
.,
r(x) = J0+ 00 r c l e t dt, laquelle étend aux réels (�ême aux complexes) la fonction
- -
Il est clairement impossible d'unifier toutes les approches : par exemple toute fonc
tion calculable en analyse récursive est nécessairement continue, alors que des fonctions
discontinues sont calculables dans le modèle initial de Blum Shub et Smale (1989] . Ce
pendant, si l'on met de coté l'approche algébrique du modèle de Blum Shub et Smale,
certains résultats récents établissent l'équivalence entre différents modèles (voir par
exemple (Bournez et al. , 2006, 2007 ; Graça et Costa, 2003] ) . Il n'est pas cependant
clair à ce jour qu'il puisse exister un concept unificateur pour les modèles continus
analogue à la thèse de Church pour les modèles discrets/digitaux : nous renvoyons au
survol [Bournez et Campagnolo, 2008] pour des discussions sur le sujet.
Calculabilité avec oracle. La première façon, proposée par Turing lui-même dans
(Turing, 1939] consiste à considérer des machines avec oracles, qui correspondent à des
boîtes noires capables de répondre à certaines questions. Cela permet classiquement de
« relativiser » nombre de résultats en calculabilité et complexité, mais aussi d'obtenir
des modèles plus puissants que les machines de Turing {dès que l'oracle n'est pas cal
culable) .
Il y a plusieurs types de machines ou de systèmes dans l'esprit des machines à oracles.
Cela inclut les machines de Turing couplées de [Copeland, 1997] , qui sont des machines
de Turing connectées à un canal d'entrée, ou les réseaux de machines qui exploitent le
fait qu'un temps de synchronisation peut être irrationnel et non calculable (Copeland
et Sylvan, 1999] , ou les machines couplées à des dispositifs physiques comme les scatter
machines de (Beggs et al. , 2008] , ou utilisant des tirages aléatoires biaisés comme dans
(Ord et Kieu, 2004] .
Autres machines. Il est aussi possible de considérer différentes variantes des ma
chines de Turing : des machines exploitant un non-déterminisme non borné [Spaan
et al. , 1989] , travaillant sur des entrées infinies (voir par exemple [Weihrauch, 2000]
pour une présentation des machines de Turing de type 2) , des machines avec une infinité
d'états (Ord, 2002] , des machines bruitées (Asarin et Collins, 2005] , etc ...
2. Informatique théorique : complexité, automates et au-delà - 1 05 7
2.6 Conclusion
Références
AARONSON, S., KUPERBERG, G. et GRANADE, C. ( 1992-2010) . Complexity zoo.
http : //qwiki . stanford . edu/wiki/Complexity_Zoo .
AJTAI, M. (1983) . af formulae on finite structures. Journal of Pure and Applied Logic,
24 : 1-48.
ARORA, S. et BARAK, B. (2009) . Computational Complexity : A Modern Approach.
Cambridge University Press.
ASARIN, E. et COLLINS, P. (2005) . Noisy Turing machines. ln Proc. of ICALP'05,
volume 3580 de Lecture Notes in Computer Science, pages 1031-1042. Springer
Verlag.
1058 Panorama de l'intelligence artificielle. Volume 3
-
2006, Beijing, China, May 15-20, 2006, Proceedings, volume 3959 de Lecture Notes
in Computer Science, pages 631-643. Springer.
BOURNEZ, 0 . , CAMPAGNOLO, M. L., GRAÇA, D. S. et HAINRY, E. (2007) . Polynomial
differential equations compute all real computable fonctions on computable compact
intervals. Journal of Complexity, 23(3) :317-335.
BRENT, R. (1976) . Fast multiple-precision evaluation of elementary fonctions. Journal
of the Association for Computing Machinery, 23 :242-251 .
BRÜGGEMANN-KLEIN, A. (1993) . Regular expressions t o finite automata. Theoretical
Computer Science, 120(2) : 197-213.
BRÜGGEMANN-KLEIN, A. et WOOD, D . (1998) . One-unambiguous regular languages.
Information and Computation, 142 : 182-206.
BRZOZOWSKI, J. A. et LEISS, E. (1980) . On equations for regular languages, finite
automata, and sequential networks. Theoretical Computer Science, 10 : 19-35.
Bücm, J. R. (1960a) . On a decision method in a restricted second order arithmetic. In
TARSKI, A. et HENKIN, L. , éditeurs : Proc. Internat. Congr. on Logic, Methodology
and Philosophy of Science, pages 1-1 1 . Stanford Univ. Press.
BÜCHI, J. R. (1960b) . Weak second-order arithmetic and finite automata. Z. Math.
Logik Grundl. Math. , 6 :66-92.
Busu, V. (1931). The differential analyzer. A new machine for solving differential
equations. J. Franklin Inst. , 212 :447-488.
Buss, S. R. (1987) . The Boolean formula value problem is in ALOGTIME. In ACM,
éditeur : Proceedings of the 19th Annual ACM Symposium on Theory of Computing,
1987, New York, New York, pages 123-131 . ACM Press.
CALUDE, C. et PAVLOV, B. (2002) . Coins, quantum measurements, and Turing's bar
rier. Quantum Information Processing, 1 ( 1-2) : 107-127.
CHANDRA, A. K., KOZEN, D. C. et STOCKMEYER, L. J. (1981) . Alternation. Journal
of the Association for Computing Machinery, 28 : 1 14-133.
CHATER, N. et VITANYI, P. (2007) . 'Ideal learning' of natural language : Positive
results about learning from positive evidence. Journal of Mathematical Psychology,
51 (3) : 135-163.
CILIBRASI, R. et VITANYI, P. (2005) . Clustering by compression. IEEE Trans. Infor
mation Theory, 51 (4) : 1523-1545.
CILIBRASI, R. , VITANYI, P. et de WOLF, R. (2004) . Algorithmic clustering of music
based on string compression. Computer Music J. , 28(4) :49-67.
COBHAM, A. (1965). The intrinsic computational difficulty of fonctions. In BAR
HILLEL, Y. , éditeur : Proceedings of the International Conference on Logic, Metho
dology, and Philosophy of Science, pages 24-30. North-Rolland, Amsterdam.
COMON, H., DAUCHET, M., GILLERON, R. , LÔDING, c., JACQUEMARD, F., LUGIEZ,
D., TISON, S. et TOMMASI, M. (2007) . Tree automata techniques and applications.
http ://tata.gforge.inria.fr/.
COOK, S. A. (1971). The complexity of theorem proving procedures. Proceedings Third
Annual ACM Symposium on Theory of Computing, pages 151-158.
l 060 Panorama de l'intelligence artificielle. Volume 3
-
Chapitre 3
Bases de données et
intelligence artificielle
Ce chapitre illustre, au travers de quelques travaux notables, les liens qui existent
entre le domaine des bases de données et celui de l'intelligence artificielle. Plus précisé
ment, nous rappellerons les résultats de base du courant « logique et bases de données »
initiateur de nombreuses recherches à l'intersection des bases de données et de l'intelli
gence artificielle. Ces résultats concernent l'utilisation de la logique pour modéliser les
bases de données. Puis nous nous intéresserons à la prise en compte dans les bases de
données, de contraintes dites dynamiques. Nous survolerons ensuite les travaux relatifs
à la prise en compte de requêtes à base de préférences. Et enfin nous terminerons par
la problématique de l'intégration de bases de données.
3. 1 Introduction
Les recherches en bases de données et les recherches en intelligence artificielle entre
tiennent des liens depuis plus de trente ans, comme en témoigne le courant de recherche
« logique et bases de données » [Gallaire et Minker, 1978 ; Gallaire et al. , 1981 ; Reiter,
1983 ; Gallaire et al. , 1983, 1984] dont l'objectif était de formaliser en logique un cer
tain nombre de problèmes rencontrés dans le domaine des bases de données. Si cette
démarche a mis quelque temps avant d'être acceptée à une époque où les concepts
utilisés dans les bases de données n'étaient pas toujours clairement dissociés des consi
dérations technologiques, son intérêt a peu à peu été reconnu dans la communauté
scientifique. Limité tout d'abord aux bases de données relationnelles, le domaine de
cette recherche s'est ensuite étendu à la prise en compte de données plus complexes,
comme les informations incomplètes, les règles de déduction, les contraintes d'intégrité
sur plusieurs états, les informations floues, les informations de type réglementaire etc.
Cette recherche s'est également étendue vers l'étude de nouvelles fonctionnalités des
Auteurs : NICOLE BIDOIT, PATRICK Bosc, LAURENCE CHOLVY, ÜLJVIER PIVERT et MARIE-CHRISTINE
ROUSSET.
1 068 Panorama de l'intelligence artificielle. Volume 3
-
Dans ces travaux, seules les contraintes d'intégrité que l'on peut exprimer en lo
gique du premier ordre sont considérées. À la section 3.3, nous reviendrons plus en
détail sur la notion de contrainte d'intégrité. Nous verrons que ces contraintes sont
dites statiques et qu'il existe d'autres contraintes d'intégrité, dites dynamiques, dont
l'expression nécessite l'usage d'une logique temporelle.
En ce qui concerne l'interrogation d'une base de données, l'utilisation de la logique
a permis d'apporter quelques résultats, notamment dans le cadre de la simplification
de requêtes, l'équivalence de requêtes etc, et ce même si les requêtes sont exprimées en
1 070 Panorama de l'intelligence artificielle. Volume 3
-
algèbre relationnelle, laquelle est un des langages les plus en usage dans le domaine des
bases de données. Tous ces résultats sont basés sur le fait qu'une requête algébrique
peut être reformulée en logique. Ceci est rappelé par la proposition ci-dessous.
Soit BV une base de données relationnelle. Soit Q une question exprimée en algèbre
relationnelle. Notons rep(Q, BV) la réponse de Q lorsqu'elle est calculée dans BV. On
peut montrer le résultat suivant :
Proposition Soit (n, I, IC) la représentation en logique de BV. Il existe une formule
de n associée à Q, que l'on notera t(Q, xi , . . . , Xn ) , Xi , . . . , Xn étant des variables libres,
telle que : rep(Q, BV) = { < di , . . . , dn >E Dj : I satisfait t(Q, di , . . . , dn ) } .
Si, comme nous venons d e l e montrer, toute requête algébrique peut être reformulée
en logique, la réciproque n'est pas vraie. Plus précisément, on peut montrer qu'il existe
des formules de la logique qui ne correspondent à aucune requête algébrique. C'est le
cas par exemple de la formule : Employé(x, jouet) V Employé( Sally, y) qui exprime
la requête : « quels sont les x et les y tels que x travaille dans le département jouet
ou y est le département dans lequel travaille Sally ? ». L'expression de cette requête en
algèbre relationnelle est impossible.
Le langage de la logique du premier ordre est donc un langage plus puissant que
l'algèbre pour exprimer des requêtes sur les bases de données. Dans la section suivante,
nous verrons que c'est un langage trop puissant puisqu'il autorise l'expression de for
mules qui n'ont pas de sens dans le cadre de la modélisation et des bases de données
en particulier.
Mais revenons aux conséquences de cette propriété. Parce qu'on peut exprimer une
base de données relationnelle en logique et parce qu'une requête algébrique peut être
traduite en une formule logique, un certain nombre de problèmes issus des bases de
données peut trouver une solution du côté de la logique. Par exemple, montrer que
deux requêtes algébriques Q et Q' sont équivalentes ( c'est-à-dire qu'elles fournissent
des réponses identiques quel que soit l'état cohérent de la base) , est un problème qui
revient à montrer : IC f= t(Q, xi , . . . , Xn ) ++ t(Q', xi , . . . , Xn ) c'est-à-dire que l'équivalence
est conséquence logique de IC.
De même, montrer que la réponse à une requête algébrique Q sera toujours vide
revient à montrer que : IC U t(Q, xi , . . . , xn ) est incohérent. Cela a été utilisé dans le
cadre des réponses coopératives.
3. Bases de données et intelligence artificielle - 1 07 1
Par ailleurs, notons l'existence d'une approche différente, mais finalement conver
gente qui, au lieu de restreindre les formules autorisées pour exprimer une requête,
consiste à modifier la sémantique du langage en restreignant le domaine de valuation
des variables aux seuls individus ayant une occurrence dans l'interprétation d'un des
prédicats du langage ou dans la formule exprimant la requête. Ainsi, par exemple,
considérons deux prédicats P (binaire) , S (unaire) ainsi que l'interprétation l=(D1 , i)
dessinée ci-dessous, supposant que D1={ a i , a2 , ... , b i , ... } est infini :
p
de ses colonnes (domaine des attributs) . En revanche, la description des tables par
le modèle relationnel ne permet pas d'exclure certaines combinaisons de valeurs, pas
plus bien évidemment, qu'il ne permet, à l'inverse, de forcer l'occurrence de valeurs
sous certaines conditions, etc. De manière générale, le modèle relationnel ne permet
pas d'exprimer des propriétés complexes et des lois générales que les données sont
censées respecter si toutefois on souhaite que celles-ci soient conformes aux applications
modélisées.
Pour ce faire, le modèle relationnel comme les autres modèles de données, est en
richi par un mécanisme permettant de compléter la spécification de la structure des
données par des propriétés liées au domaine d'application. Ces propriétés sont des
méta-données appelées des contraintes d'intégrité. La connaissance et le traitement
(maintenance) des contraintes d'intégrité sont fondamentaux à plusieurs égards : (1)
comme évoqué précédemment, l'objectif premier est d'assurer une forme de fiabilité des
données, c'est-à-dire leur conformité avec la « réalité » (2) comme le typage en pro
grammation, les contraintes d'intégrité sont un véritable levier pour l'optimisation des
traitements (mises à jour et requêtes) tant au niveau logique qu'au niveau physique ;
les contraintes servent à la fois à structurer les données et à exécuter efficacement les
traitements sur les données, ceci pouvant aller jusqu'à se dispenser de l'évaluation d'une
requête dont on a pu détecter statiquement (à la compilation , grâce aux contraintes
d'intégrité, qu'elle ne retournerait aucune réponse.
L'évolution des applications, depuis l'apparition des systèmes de gestion de base
de données relationnels jusqu'à l'émergence plus récente des systèmes de gestion de
données XML, s'est accompagnée de la nécessité accrue de développer des techniques
garantissant la sûreté, la conformité des données manipulées et améliorant la rapidité
et la fiabilité des développements.
Cette section n'a pas pour prétention d'exposer de façon exhaustive les caractéris
tiques des systèmes de contraintes d'intégrité [Abiteboul et al. , 1995 ; Bidoit et Collet,
2001] , encore moins de couvrir les méthodes proposées par les systèmes commerciaux.
L'objectif ici est de traiter de quelques problèmes liés à l'expression et à la gestion des
contraintes illustrant les liens entre le domaine des bases de données et celui de l'intelli
gence artificielle. La première partie de cette section est consacrée aux concepts élémen
taires et en particulier à la formalisation en logique du premier ordre des contraintes
d'intégrité. La deuxième partie est centrée sur les contraintes dynamiques et la logique
temporelle. Elle sera d'ailleurs l'occasion d'un détour sur les langages de requêtes tem
porels, la distinction entre requête et contrainte étant somme toute assez ténue.
premier ordre 2 . Pourquoi ? Parce qu'en dehors de la toute relative simplicité qu'offre
la logique du premier ordre à exprimer des propriétés, la plupart des problèmes liés
aux contraintes d'intégrité s'expriment directement en termes logiques ce qui permet
la réutilisation de résultats et outils formels existants, ce qui permet aussi l'apport de
nouveaux résultats. Voici un tour d'horizon des problèmes les plus connus et les plus
communs (voir [Abiteboul et al. , 1995] [Bidoit et Collet, 2001] pour un exposé plus
approfondi et une riche bibliographie) .
Implication
Les contraintes sont des méta-données. Il est important, par exemple pour la
validation du schéma de la base de données de pouvoir répondre à la question : étant
donné un ensemble de contraintes IC, existe-t-il d'autres contraintes qui sont nécessai
rement satisfaites ? Et lesquelles ? Ce problème est identique au problème (de décision)
de l'implication en logique, à savoir, déterminer si un ensemble de formules IC im
plique une formule c. Il a été abordé des points de vue algorithmique et complexité
pour différentes classes de contraintes (dépendances) . L'approche purement syntaxique
du problème consiste à exhiber un système d'inférence {axiomatisation) permettant de
construire le cas échéant une preuve de c à partir de IC 3 . Le système d'inférence le
plus connu est certainement celui d'Armstrong pour les dépendances fonctionnelles
[Armstrong, 1974] . La frontière entre logique et bases de données est tracée par la com
plexité du problème de l'implication qui a donc conduit à considérer des sous-classes
de contraintes (acycliques, unaires, tgds, . . . ) .
Cohérence
La spécification de contraintes pour une application ne peut évidemment pas faire
l'économie de la vérification de leur cohérence : existe-t-il des données satisfaisant ces
propriétes ? Ce problème est lié à la satisfaisabilité d'un ensemble de formules, problème
bien connu pour être indécidable : existe-t-il un modèle pour cet ensemble de formules ?
Toutefois, satisfaisabilité (consistance) et cohérence ne coïncident pas totalement : un
ensemble de formules est dit satisfaisable dès lors qu'il a un modèle, celui-ci pouvant
fort bien être vide, alors qu'en base de données, un ensemble de contraintes est cohérent
si il admet au moins un modèle non vide.
Optimisation sémantique
L'optimisation des requêtes est un problème critique et combine traditionnellement
deux approches. D'une part, l'optimisation physique exploite le schéma physique de la
base {index et autres chemins d'accès) pour générer un code d'exécution performant :
les contraintes telles que clés et clés étrangères impliquent la création d'index, un atout
2. Le choix de la logique du premier ordre a un impact sur les contraintes que l'on peut exprimer
exactement comme pour les requêtes et il est parfois nécessaire de considérer un langage plus expressif.
3. L'existence d'une procédure de décision de l'implication n'implique pas l'existence d'une axio
matisation.
3 . Bases de données et intelligence artificielle - 1 075
Il n'est pas possible ici de procéder à une présentation exhaustive de tous les pro
blèmes liés aux contraintes d'intégrité dont l'étude a donné lieu à des échanges entre
les communautés intelligence artificielle et bases de données. Il est toutefois difficile
d'éluder une discussion des méthodes de maintenance des contraintes d'intégrité.
Contraintes d'intégrité
4. Les dépendances fonctionnelles constituent une base significative pour l'optimisation du tri,
opération requise par les clauses SQL telles que group by, order by, dist inct [Simmen et al. , 1996) .
5. Il est ici impossible d'évoquer la notion de transaction et son rôle.
1 076 Panorama de l'intelligence artificielle. Volume 3
-
pointeurs sur des méthodes mises en œuvre pour maintenir les dépendances tempo
relles. Deux types de méthodes ont été explorés. Les premières font l'hypothèse que
l'historique de la base de données est entièrement stocké et peut donc être utilisé pour
vérifier les contraintes, les stratégies étant alors similaires à celles pour les contraintes
statiques. Les deuxièmes, au lieu de stocker tout l'historique, utilisent une extension de
l'état courant de la base de données pour mémoriser les informations seules nécessaires
à la vérification des contraintes [Chomicki, 1995] [Chomicki et Toman, 1995] : chaque
mise à jour implique la mise à jour de relations auxiliaires qui servent à la vérification
des contraintes temporelles. Pour un ensemble donné de contraintes, le nombre de rela
tions auxiliaires doit être fixe et leur contenu ne doit dépendre que de celui de la base
de données. Le gain de telles méthodes réside dans le stockage des seules informations
pertinentes à la vérification des contraintes. [Bidoit et Arno, 1998] aborde la vérification
de contraintes temporelles par une approche comparable au raffinement de spécifica
tion : à partir d'une spécification abstraite, ici un ensemble de contraintes temporelles,
est générée une spécification concrète, ici un ensemble de mises à jour paramétrées et
de règles de composition de celles-ci. La méthode, qui n'est pas générale, permet de
prendre en compte une classe significative de contraintes temporelles.
3.4 . 1 Introduction
Les deux dernières décennies ont vu se manifester un intérêt croissant pour l'ex
pression de préférences dans les requêtes adressées à des bases de données. Les raisons
d'un tel engouement sont multiples. Tout d'abord, il est apparu souhaitable d'offrir
des langages de requête plus expressifs, pouvant traduire plus fidèlement les intentions
des utilisateurs. En deuxième lieu, l'introduction de préférences dans les requêtes four
nit une base à l'ordonnancement des éléments retournés, ce qui est particulièrement
appréciable quand le résultat d'une requête est volumineux. Enfin, a contrario, lors
qu'une requête classique produit une réponse vide, une version relaxée (et donc moins
restrictive) de la requête a plus de chances d'être satisfaite par certains des objets de
la base.
Les approches visant à intégrer des préférences dans les requêtes de bases de don
nées peuvent être classées en deux catégories [Hadjali et al. , 201 1] selon qu'elles sont
quantitatives ou qualitatives - voir aussi l'introduction du chapitre 1.6. Dans la pre
mière famille, les préférences sont exprimées de façon quantitative au moyen d'une
fonction de score monotone (le score global est positivement corrélé aux scores partiels,
et chacun de ces derniers est fonction d'une ou de plusieurs valeurs d'attribut) . Comme
la fonction de score associe à chaque n-uplet un degré numérique, le n-uplet t 1 est pré
féré au n-uplet h si le score de ti est plus grand que celui de t 2 • Dans les approches
de type qualitatif, en revanche, les préférences sont définies au travers de relations de
préférence binaires.
Ces deux familles d'approches sont présentées ci-après au travers de certains de
leurs représentants typiques.
3 . Bases de données et intelligence artificielle - 1 079
Des prédicats atomiques et modifiés peuvent intervenir dans des conditions com
plexes qui vont bien au-delà de celles que l'on peut utiliser dans un cadre d'interrogation
1 080 Panorama de l'intelligence artificielle. Volume 3
-
classique. La conjonction (resp. disjonction) est interprétée à l'aide d'une norme (resp.
co-norme) triangulaire T (resp. 1-) , par exemple le minimum ou le produit (resp. le
maximum ou la somme probabiliste) . Quant à la négation, elle est modélisée par :
Vx, µ..,p ( x ) = 1 µ p (x ) . Des opérateurs de conjonction et de disjonction pondérées
-
ainsi que de moyenne pondérée peuvent être utilisés pour affecter différentes impor
tances aux prédicats d'une requête.
Les opérations de l'algèbre relationnelle peuvent être étendues de façon directe
aux relations floues (i.e. , aux relations résultant elles-mêmes de requêtes floues, où
les n-uplets sont affectés d'un degré d'appartenance) en considérant d'une part que
ces dernières sont des ensembles flous et en donnant d'autre part un sens graduel
aux opérations appropriées. Notons que l'approche floue fournit un cadre d'interro
gation compositionnel, contrairement à la plupart des autres approches de requêtes à
préférences (quantitatives et qualitatives) . Les définitions des opérateurs relationnels
étendus peuvent être trouvées dans [Bosc et al. , 1999] . En guise d'illustration, nous
donnons ci-après la définition de la sélection floue, où r désigne une relation floue ou
classique et cond représente un prédicat flou.
Le langage SQLf décrit dans [Bosc et Pivert, 1995 ; Pivert et Bosc, 2012] étend quant à
lui la norme SQL de façon à pouvoir gérer des requêtes floues. Le paradigme des requêtes
floues a également été appliqué à l'interrogation de bases de données multimédia [Fagin,
1998] .
Requêtes top-k
Dans l'approche des requêtes top-k [Chaudhuri et Gravano, 1999] , l'utilisateur spé
cifie des valeurs idéales pour certains attributs ainsi qu'un nombre k de n-uplets souhai
tés. La distance entre une valeur d'attribut et la valeur idéale est calculée à l'aide d'une
simple différence (en valeur absolue) , après normalisation préalable (on se ramène à
des valeurs entre 0 et 1). La distance globale est calculée en agrégeant les distances élé
mentaires au moyen d'une fonction qui peut être le minimum, la somme ou la distance
euclidienne. Le score global d'un tuple est le complément à 1 de sa distance globale à
l'objet idéal. Les étapes du calcul sont les suivantes :
1 . à partir de k, de la fonction d'agrégation choisie et de statistiques sur la relation
considérée, un seuil a sur le score global est déduit ;
2. une requête booléenne calculant l'ensemble des éléments dont le score est supé
rieur ou égal à a ou un sur-ensemble - est déterminée ;
-
3. cette requête est évaluée et le score global attaché à chaque élément du résultat
est calculé ;
4. si au moins k n-uplets possédant un score supérieur ou égal à a ont été obtenus,
les k meilleurs sont délivrés, sinon la procédure est relancée (à partir de l'étape
2) en utilisant un seuil a plus faible.
3. Bases de dotmées et intelligence artificielle - 1 0 8 1
CP-nets
L'utilisation de la structure appelée CP-net (réseau de préférences conditionnelles)
pour les requêtes de bases de données à préférences a été suggérée par Brafman et
Domshlak [Brafman et Domshlak, 2004] - mais cette approche avait été initialement
développée en intelligence artificielle [Boutilier et al. , 2004] (voir le chapitre I.6) . Un
CP-net est une représentation graphique de propositions traduisant des préférences
conditionnelles de type ceteris paribus. L'idée sous-jacente est que les préférences de
1 082 - Panorama de l'intelligence artificielle. Volume 3
Linéarisation de domaines
L'approche proposée dans [Georgiadis et al. , 2008) considère des préférences défi
nies comme des préordres sur des attributs relationnels et leurs domaines respectifs.
Considérons à nouveau une table auto ( #i, marque, modèle, type, couleur, prix, . . . )
décrivant diverses caractéristiques de véhicules automobiles. Un exemple de requête à
préférences au sens de [Georgiadis et al. , 2008) est constitué des propositions suivantes :
(1) « Volkswagen » est préféré à « Opel » et à « Ford » (préférence Pi ) ;
(2) Les couleurs « noir » et « gris » sont préférées à « blanc » (P2) ;
(3) Le type « berline » est préféré à « coupé », lui-même préféré à « 4 x 4 » (P3 ) ;
(4) La marque est aussi importante que le type, tandis que la combinaison marque-type
est plus importante que la couleur (P4 ).
D e telles propositions définissent des relations binaires d e préférence : ( 1 ) , ( 2 ) e t (3)
sur des domaines d'attributs, (4) sur l'ensemble des attributs. Ces relations sont sup
posées être réflexives et transitives, i.e. , être des préordres. Les auteurs proposent une
technique de linéarisation des domaines associés à ces préordres partiels (rappelons
qu'un domaine, au sens de la théorie des domaines, est un ensemble partiellement or
donné) . De cette façon, on induit une séquence de blocs (i.e. , une partition ordonnée)
du résultat de la requête. Dans une telle séquence, chaque bloc contient des n-uplets
3. Bases de données et intelligence artificielle - 1 083
incomparables au sens des préférences. Le premier bloc contient les éléments les plus
préférés, et dans tout autre bloc, pour chaque élément, il existe un élément plus préféré
dans le bloc précédent.
Les algorithmes proposés dans (Georgiadis et al. , 2008] calculent la séquence de blocs
constituant la réponse à une requête à préférences sans construire l'ordre induit sur les
n- uplets. Ceci est réalisé en exploitant la sémantique d'une expression de préférence
et, en particulier, en linéarisant le produit cartésien de toutes les valeurs d'attribut
apparaissant dans l'expression. Concrètement, on passe d'un ensemble de propositions
exprimant des préférences partielles à un treillis de requêtes, puis de là à un treillis des
résultats de ces requêtes, et enfin à une séquence de blocs constituant la réponse.
Par rapport aux approches fondées sur l'ordre de Pareto, l'originalité principale
réside dans l'utilisation de préordres partiels et non pas stricts pour modéliser des
préférences indépendantes positives. Ceci permet de distinguer la notion de « n-uplets
également préférés » de celle de « n-uplets incomparables » .
des informations qu'il peut être intéressant d'intégrer pour une application donnée. La
construction de médiateurs [Wiederhold, 2002] au-dessus de bases de données multiples
et hétérogènes a pour but de donner l'illusion aux utilisateurs qu'ils interrogent un
système de gestion de données centralisé et homogène en leur offrant comme interface
de requêtes un schéma global unique (appelé aussi schéma médiateur) .
Contrairement à un système de gestion de bases de données classique, un médiateur
ne contient pas de données, qui restent stockées dans les différentes bases de données
existantes selon un format et un schéma propres à chaque base de données, mais des
descriptions abstraites de ces données sous forme de vues. Les vues décrivent en fonction
du schéma médiateur le contenu de chaque base de données existante que l'on souhaite
intégrer via le médiateur. Formellement, une vue est une requête (i.e. , une formule
logique) définie sur les relations du schéma médiateur et identifiée par un nom.
Pour répondre aux requêtes des utilisateurs, qui sont exprimées en termes des re
lations du schéma médiateur, le médiateur ne dispose donc pas des extensions des
relations de la requête, mais seulement des extensions des vues. Le problème du calcul
des réponses aux requêtes posées à un médiateur est donc formellement équivalent au
problème du calcul des réponses à partir d'extensions de vues.
Or, ce problème est plus difficile que le problème de l'évaluation standard d'une
requête pour laquelle on connaît de façon complète les extensions des relations
apparaissant dans la requête. En effet, les instances des relations de la requête doivent
être inférées à partir des instances (ou extensions) de vues et des définitions de ces
vues. Même dans des cas simples, on ne peut inférer les instances des relations de la
requête que de façon incomplète, comme l'illustre l'exemple suivant.
Reservation(?, c) .
La seule réponse précise que l'on puisse fournir avec certitude à la requête Q est
3 . Bases de données et intelligence artificielle - 1 085
< a, a >. Les autres réponses précises, comme par exemple < a, c > , sont possibles
mais incertaines.
Considérons que les données sont stockées dans deux bases de données distinctes
BDl et BD2 dont le contenu est spécifié en fonction des relations du schéma médiateur
par les deux vues dont les définitions sont :
Vl ( e, b, d) : Bureau( e, b) /\ Employé( e, d)
BDl fournit des informations sur les employés, leur numéro de bureau et leur dé
partement.
V2(e, p) : Phone(e, p) /\ Employé(e, jouet) .
BD2 fournit des informations sur les numéros de téléphone des employés du dépar
tement jouet.
Considérons la requête Q (p , b) : Phone(sally, p) /\ Bureau(sally, b) deman
dant les numéros de téléphone et de bureau de Sally. La seule réécriture
que l'on peut obtenir pour cette requête en fonction des vues Vl et V2 est :
Qv (P, b) : V2(sally , p) /\ Vl(sally, b, d) .
Il est important de noter que l'on n'a pas la garantie d'obtenir de réponses par exé
cution du plan de requêtes correspondant à cette réécriture, et ce pour plusieurs raisons.
Tout d'abord, si Sally ne fait pas partie du département jouet, le plan de requêtes cor
respondant à la réécriture ne ramènera aucune réponse. Cela est dû à l'incomplétude
des données disponibles relativement au schéma médiateur, qui est exprimée au niveau
de la définition des vues : la vue V2 spécifie dans sa définition qu'elle ne peut fournir
des informations que sur les employés du département jouet. Une autre cause d'in
complétude est liée au fait que, sauf information supplémentaire, on ne sait pas si les
bases de données dont on spécifie le contenu par la définition de vues, sont complètes
relativement à ces définitions.
Une extension de vue est complète si on peut supposer qu'elle contient bien toutes
les réponses à la requête qu'elle définit. Par exemple, poser que l'extension de la vue
V2 de l'exemple précédent est complète c'est garantir que la base de données BD2
dont elle modélise le contenu contient bien tous les numéros de téléphone de tous les
employés du département jouet. Cette hypothèse est souvent trop forte en intégration
d'informations où l'on ne peut que supposer la correction mais pas la complétude d'une
extension de vue. Poser que l'extension de la vue V2 est correcte (sans être nécessai
rement complète) exprime que la base de données BD2 contient bien des numéros de
téléphone d'employés du département jouet mais pas nécessairement tous.
à une requête Datalog (standard) à partir des extensions de vues définies comme des
requêtes conjonctives est polynomial (en fonction de la taille des données) , alors que
sous l'hypothèse d'extensions complètes, ce problème est coN P-complet. Si le langage
de requêtes et de vues est Datalog, alors, dans les deux cas, le problème est indécidable.
[Calvanese et al. , 2000a] ont étendu ce genre de résultats à des langages de requêtes et
de vues faisant partie de la famille des logiques de description [Baader et al. , 2003] .
[Beeri et al. , 1997 ; Goasdoué, 2001] ont étudié le problème de réécriture de requêtes
en termes de vues, quand les langages de requêtes, de vues et de réécritures sont des
langages de la famille CARIN [Levy et Rousset, 1998] combinant Datalog et les logiques
de description (cf. chapitre I.5) .
[Calvanese et al. , 2000b] ont montré que l'évaluation d'une réécriture d'une requête
en termes de vues, même si on peut montrer qu'elle est équivalente à la requête (et pas
simplement subsumée) , ne garantit pas de trouver toutes les réponses que l'on peut
obtenir par l'évaluation de la requête à partir des extensions de vues. Autrement dit,
on obtient une nouvelle cause possible de l'incomplétude des réponses, principalement
due aux limites du pouvoir d'expression du langage de réécriture. Ainsi, il peut se faire
qu'une réécriture définie dans un langage plus expressif que le langage de réécriture
imposé pour modéliser les plans de requêtes conduise à l'obtention de plus de réponses
que n'importe quelle réécriture dans le langage considéré.
[Goasdoué, 2001] fournit une condition suffisante assez générale garantissant l'ob
tention par réécriture de toutes les réponses possibles à une requête à partir d'extensions
de vues. Si la requête possède un nombre fini de réécritures maximales définies dans le
langage des requêtes conjonctives avec inégalité, alors le résultat de l'évaluation de la
requête sur les extensions des vues est égal à l'union des réponses obtenues par exécu
tion des plans de requêtes correspondant aux réécritures maximales. Cette condition
a pour corollaire de garantir qu'un médiateur pourra calculer toutes les réponses en
un temps polynomial en fonction de la taille des données (même s'il est exponentiel en
fonction de la taille de la requête et des vues) . Ces travaux ont été appliqués dans la
conception et l'implémentation du médiateur PICSEL [Goasdoué et al. , 2000 ; Rousset
et al. , 2002] en liaison avec France Telecom R& D.
Plus récemment, les travaux autour de DL-Lite [Calvanese et al. , 2007] se sont
fondés sur des arguments de complexité du problème du calcul des réponses d'une
requête en fonction de la taille des données pour définir la famille de logiques de des
cription DL-Lite. DL-Lite fournit un cadre de formalisation d'ontologies garantissant
une interrogation efficace de données définies et interrogées via des ontologies.
3.6 Conclusion
En conclusion, il est important d'évoquer l'activité de recherche particulièrement
intense ciblant actuellement les données semi-structurées et le format d'échange de
données XML. Dans ce contexte aussi, bien évidemment, les contraintes d'intégrité
jouent un rôle important relativement à la gestion des données, au raisonnement et à
l'optimisation. De nombreux travaux [Davidson et al. , 2007] [Arenas, 2009] ont récem
ment attaqué le problème de l'expression et de la gestion de schémas et de contraintes
XML telles que les dépendances de clés, clés étrangères, fonctionnelles, les contraintes
1 088 Panorama de l'intelligence artificielle. Volume 3
-
de chemin [Buneman et al. , 2001] [Buneman et al. , 2003] [Fan et Siméon, 2003] . Dans ce
cadre, par exemple, les logiques modales [Kripke, 1963] ont été explorées parce qu'elles
offrent une formalisation simple et directe de propriétés de graphes ainsi que des méca
nismes de raisonnement puissants pour ces structures : les graphes (ou plus simplement
les arbres) étiquetés sont utilisés très communément pour représenter les données XML
[Calvanese et al. , 1999] [Alechina et al. , 2003] [Demri, 2003] . L'expression des schémas
et des contraintes a été étudiée dans (Bidoit et Colazzo, 2007] [Bidoit et de Arno, 1998] .
Concernant les requêtes à préférences, il est connu que les fonctions de score ne
peuvent modéliser toutes les préférences qui sont des ordres partiels stricts [Fishburn,
1999] , pas même celles pouvant apparaître de façon naturelle dans des applications
de bases de données [Chomicki, 2003] . Par exemple, les fonctions de score ne peuvent
pas capturer les requêtes skyline (voir [Hadjali et al. , 201 1] ) . Notons aussi qu'il n'est
pas toujours simple de définir les fonctions de score. Puisque les relations binaires
utilisées dans les approches qualitatives peuvent être définies en termes de fonctions
de score, l'approche qualitative est plus générale que celle quantitative. Notons qu'il
est raisonnable d'imposer que les préférences qualitatives, même si elles ne sont pas
fondées sur une comparaison de scores globaux, aient un comportement monotone
par rapport aux scores partiels. Les aspects liés à l'implémentation de ces modèles,
notamment l'évaluation de requêtes, n'ont pu être abordés ici faute de place, mais sont
évidemment cruciaux dans un contexte de bases de données où le volume d'information
à traiter est en général très élevé. Dans cette synthèse, nous nous sommes limités aux
travaux les plus récents, mais le lecteur intéressé peut se référer à [Pivert et Bosc, 2012]
pour une étude plus complète.
On observe enfin que les ontologies sont maintenant au cœur du Web sémantique
[Berners-Lee et al. , 2001] . Elles fournissent une vue conceptuelle des données et services
mis à disposition sur le Web, dans le but de faciliter leur manipulation. Répondre à
des requêtes conjonctives sur des ontologies est un problème central pour la mise en
œuvre du Web sémantique. La famille DL-Lite [Calvanese et al. , 2007] a été spéciale
ment définie pour garantir que répondre à une requête est polynomial dans la taille des
données interrogées. DL-Lite est un fragment du langage d'ontologies OWL 7 du W3C
et de son évolution à venir OWL2 8• De plus, DL-Lite étend RDFS 9, avec la possibilité
de déclarer des relations disjointes ou d'exprimer des restrictions de cardinalités. RDFS
est le standard du W3C pour décrire les méta-données des ressources du Web séman
tique. Une étape de reformulation de la requête en fonction des axiomes et contraintes
déclarés dans l'ontologie est nécessaire pour garantir la complétude des réponses. Le
point important est que cette reformulation (comme la réécriture en termes de vues)
est indépendante des données.
Un résultat majeur de [Calvanese et al. , 2007] est que DL-Lite est un des fragments
décidables maximaux de la logique du premier ordre pour lequel répondre à des requêtes
sur des grands volumes de données en présence de contraintes logiques sur le schéma
est traitable. Les travaux sur DL-Lite ont été généralisés à la réécriture de requêtes en
termes de vues en décentralisé dans [Abdallah et al. , 2009] . Pour des raisons de passage
Références
ABDALLAH, N., GOASDOUÉ, F. et ROUSSET, M.-C. (2009) . D L-LITEn in the light
of propositional logic for decentralized data management. In International Joint
Conference on Artificial Intelligence (IJCAI).
ABITEBOUL, S. et DuSCHKA, O. M. (1998) . Complexity of answering queries using
materialized views. In A C M , éditeur : PODS '98. Proceedings of the Seventeenth
ACM SIG-SIGMOD-SIGART Symposium on Principles of Database Systems, New
York, NY 10036, USA. ACM Press.
ABITEBOUL, S . , HERR, L. et van den BUSSCHE, J. (1999) . Temporal connectives ver
sus explicit timestamps to query temporal databases. In Journal of Computer and
System Science, volume 58(1), pages 54-68.
ABITEBOUL, S . , HULL, R. et VIANU, V. (1995) . Foundations of Databases. Addison
Wesley.
ABITEBOUL, S. et VIANU, V. (1989) . A transaction-based approach to relational da
tabase specification. JACM, 36(4) :758-789.
AGRAWAL, R. et WIMMERS, E. (2000) . A framework for expressing and combining
preferences. In Proc. of SIGMOD 2000, pages 297-306.
ALECHINA, N., DEMRI, S. et de RIJKE, M. (2003) . A modal perspective on path
constraints. J. Log. Comput. , 13(6) :939-956.
ARENAS, M. (2009) . Xml integrity constraints. In Encyclopedia of Database Systems,
pages 3592-3597. Springer.
ARMSTRONG, W. (1974) . Dependency structures of data base relationships. In Proc.
IFIP Congress, pages 580-583, North Rolland, Amsterdam.
BAADER, F . , CALVANESE, D . , McGUINNESS, D . , NARDI, D. et PATEL-SCHNEIDER,
P. F., éditeurs (2003) . The Description Logic Handbook : Theory, Implementation,
and Applications. Cambridge University Press.
BARAL, C . , LOBO, J. et TRAJCEVSKI, G. (1997) . Formal characterizations of active
databases : Part ii. In DOOD, pages 247-264.
BEERI, C., LEVY, A. et ROUSSET, M.-C. (1997) . Rewriting queries using views in
description logics, editor acm. In PODS '97. Proceedings of the Sixteenth ACM
=
161-170.
LEVY, A. (200 1 ) . Answering queries using views : a survey. VLDB Journal.
LEVY, A. et ROUSSET, M.-C. (1998) . Combining horn rules and description logics in
carin. Artificial Intelligence, 101.
LIN, X. , YUAN, Y., ZHANG, Q. et ZHANG, Y. (2007) . Selecting stars : the k most
representative skyline operator. In Proc. of the ICDE 2001, pages 86-95.
MAIER, D . , MENDELZON, A. 0. et SAGIV, Y. (1979) . Testing implications of data
dependencies. ACM Trans. Database Syst. , 4( 4) :455-469.
McCUNE, W. et HENSCHEN, L. (1989) . Maintaining state constraints in relational
databases : A proof theoretic basis. JACM, 36(1) :46-68.
NICOLAS, J. M. ( 1982). Logic for improving integrity checking in relational databases.
Acta Informatica, 18(3) .
PATON, E., éditeur (1998) . Active Rules in Database Systems. Springer Verlag.
PIVERT, O. et Bosc, P. (2012) . Fuzzy Preference Queries to Relational Databases.
Imperial College Press, London, UK.
PRIOR, A. (1957) . Time and modality. In John Locke Lectures for 1955-56. Oxford
University Press.
QIAN, X. (1990) . An axiom system for database transactions. !PL, 36(4) : 183-189.
REITER, R. (1983) . Towards a logical reconstruction of relational database theory. In
On Conceptual Modelling : Perspectives from Artificial Intelligence, Databases and
Programming Languages. Springer Verlag.
REITER, R. (1988) . What should a database know. In Proceedings of PODS.
REITER, R. (1993) . Proving properties of states in the situation calculus. Artificial
intelligence, 64(2) .
ROUSSET, M.-C . , BIDAULT, A. , FROIDEVAUX, C., GAGLIARDI, H., G OASDOUÉ, F.,
REYNAUD, C. et SAFAR, B. (2002) . Construction de médiateurs pour intégrer des
sources d'informations multiples et hétérogène : le projet picsel. Information, Inter
action, Intelligence, 2 :9-58.
SIMMEN, D . , SHEKITA, E. et MALKEMUS, T. (1996) . Fundamental techniques for order
optimization. In JAGADISH, H. et MUMICK, I. , éditeurs : Proceedings of the 1996
ACM SIGMOD International Conference on Management of Data, Montreal, Quebec,
Canada, June 4-6, 1996, pages 57-67. ACM Press.
TOMAN, D. (2003) . On incompleteness of multi-dimensional first-order temporal logics.
In Proceedings of the 1 Oth International Symposium on Temporal Representation and
Reasoning, pages 99-106.
TORLONE, R. et CIACCIA, P. (2002) . Finding the best when it's a matter of preference.
In Proc. of the 1 0th Italian National Conf. on Advanced Data Base Systems {SEBD
2002}, pages 347-360.
VARDI, M. ( 1988) . A temporal fixpoint calculus. In Proceedings of the 5th ACM
Symposium on Principles of Programming Languages, pages 250-259.
WrnoM, J. (1992) . A Denotational Semantics for the Starburst Production Rule Lan
guage. SIGMOD Record, 21 (3) :4-9.
3. Bases de données et intelligence artificielle - 1 095
WIDOM, J. et CERI, S. (1996) . Active Database systems - Triggers and Rules for Advan
ced Database Processing. Morgan Kaufmann Publishers, San Francisco, California.
WIEDERHOLD, G. (2002) . Mediators in the architecture of future information systems.
IEEE Computers.
WoLPER, P. (1983) . Temporal logic can be more expressive. In Information and
Control, volume 56(1-2) , pages 72-99.
ZADEH, L. (1965). Fuzzy sets. Information and Control, 8 :338-353.
ZL OOF, M. (1977) . Query-By -Example : a data base language. IBM Systems Journal,
16( 4) :324-343.
4. Web sémantique - 1 097
Chapitre 4
Web sémantique
4. 1 Introduction
L'idée d'utiliser la représentation de connaissances sur le worldwide Web a germé
assez rapidement après le développement du Web. Des systèmes tels qu'Ontobroker
[Fensel et al. , 1998] et SHOE [Luke et al. , 1997] ont intégré la représentation formelle
de la connaissance dans les pages Web alors qu'Ontoserver [Farquhar et al. , 1995] et
HyTroeps [Euzenat, 1996] permettaient d'éditer la connaissance en utilisant le Web.
Mais c'est en 1998 que Tim Berners Lee a véritablement posé les principes, et
surtout proposé le nom, du « Web sémantique ». Il avait déjà introduit au sein du
W3C 1 le langage RDF dont le but initial était d'annoter les pages Web. A l'époque, il
écrivait « A Semantic Web is not Artificial Intelligence », mais a ajouté plus tard que
c'était « Knowledge Representation goes Global » [Berners-Lee, 1998] .
En 2000, cette notion de Web sémantique n'avait pas trouvé d'écho particulièrement
favorable ni donné lieu a des développements d'envergure. Mais la DARPA a lancé le
programme DAML (DARPA Agent Markup Language) dirigé par James Hendler, l'ins
tigateur de SHOE. Immédiatement après, s'est tenu un séminaire intitulé « Semantics
for the Web » [Fensel et al. , 2003] qui a permis de lancer plusieurs efforts européens
dont le réseau thématique OntoWeb auquel a succédé le réseau d'excellence Knowledge
Web. Ces efforts ont permis d'impliquer nombre de chercheurs en intelligence artificielle
dans le développement des technologies pour le Web sémantique [Euzenat (ed.) , 2002] .
Le Web sémantique est souvent présenté comme un « Web pour les machines » : il
s'agit d'utiliser, pour représenter la connaissance sur le Web, des langages formels qui
soient susceptibles de traitement par les machines. Il est, dès lors, naturel d'utiliser les
techniques développées en intelligence artificielle.
L'application principale du Web sémantique est effectivement la recherche d'infor
mation : être capable de retrouver un document précis car annoté avec des « méta
données sémantiques ». Alors que cet objectif pouvait sembler lointain en 2000, il est
maintenant beaucoup plus tangible. En dix ans, on a vu l'utilisation par Facebook
d'Open Graph, la définition de l'ontologie légère schema.org par quatre des principaux
moteurs de recherche (Bing, Google, Yahoo, Yandex) , et l'utilisation par Google du
knowledge graph permettant non plus de retourner des listes de documents mais de
répondre à des questions de manière structurée.
Beaucoup d'autres types d'applications ont vu le jour, toutes fondées sur les mêmes
bases : l'annotation de certaines ressources à l'aide du même langage de représenta
tion de connaissance. Plus que de Web sémantique, on parle alors d'application des
technologies sémantiques. Ainsi,
- les services Web sémantiques dans lesquels les interfaces de services Web (en
trées, sorties) sont annotés sémantiquement ;
- les systèmes pair-à-pair sémantiques dans lesquels les ressources à partager sont
annotées sémantiquement ;
- les réseaux sociaux sémantiques dans lesquels les relations sociales sont annotées
sémantiquement ;
- le bureau sémantique ( « semantic desktop » ) dans lequel les informations per
sonnelles (agenda, carnet d'adresses, etc.) sont exprimées sémantiquement ;
- l'intelligence ambiante dans laquelle les capteurs, dispositifs et information qu'ils
échangent sont annotés sémantiquement ;
- le Web des données dans lequel des corpus de données sont exprimées et liées à
l'aide des langages du Web sémantique.
Le Web sémantique s'est donc largement étendu au-delà des espérances initiales. Il
s'agit d'un vaste champ d'investigation dans lequel sont abordées des problématiques
variées comme la confiance dans les systèmes pair-à-pair ou l'argumentation d'aligne
ments entre ontologies. Comme les technologies du Web ont progressivement investi
tous les types d'applications informatiques, il semble en aller de même avec les tech
nologies sémantiques.
Nous allons aborder les relations entre les techniques d'intelligence artificielle et ce
que sont les technologies du Web sémantique. Pour cela nous évoquerons trois grands
problèmes au cœur du Web sémantique : représenter la connaissance (§4.2) , raisonner
avec cette connaissance (§4.3) et mettre diverses sources de connaissance en relation
(§4.4) . Ce découpage peut sembler arbitraire. En effet, il ne correspond pas à une
4. Web sémantique - 1 099
4. 2 Représenter la connaissance
Le premier problème posé à l'entreprise du Web sémantique est l'expression de
données factuelles sur le Web. A cet effet, il est nécessaire de disposer d'un langage
pour la représentation de ces données adapté à son utilisation sur le Web.
Pour cela, le langage RDF (Resource Description Pramework) est le langage recom
mandé par le W3C et adopté par les praticiens.
rdf : type
Pierre ,________,, foaf : Person
comprendre comme « Pierre connaît un parent d'une de ses collègues ». Cette séman
tique « intuitive » ne suffisant pas à un traitement automatique, il faut munir RDF
d'une sémantique formelle.
RDF propose aussi certains mots-clés réservés, qui permettent de donner une séman
tique particulière à des ressources. Ainsi, on peut représenter des ensembles d'objets
{rdf : bag) , des listes {rdf : sequence) , des relations d'arité quelconque {rdf : value) . RDF
autorise aussi la réification d'un triplet comme une entité liée aux trois éléments du
triplet par les relations rdf : subj ect, rdf : predicate et rdf : obj ect .
La sémantique d'un graphe RDF est exprimée en théorie des modèles [Hayes, 2004] .
RDF est donc à proprement parler une logique. Cette sémantique est un peu particu
lière car les prédicats, qui correspondent naturellement aux prédicats d'une logique
dyadique, peuvent être utilisés comme objets. Ainsi, le triplet (rdf : type, rdf : type,
rdf : Property} est licite en RDF et doit pouvoir être interprété {il indique effective
ment que rdf : type dénote un prédicat) . Ceci est réalisé à l'aide d'une interprétation
construite en deux temps : une première passe associe une dénotation à chacun des URis
utilisés et une seconde passe interprète ceux présents en position de prédicat comme
des relations binaires. C'est la particularité principale de la sémantique de RDF par
rapport à celle du calcul des prédicats.
Certains graphes RDF peuvent être traduits en formules de la logique positive (sans
négation) , conjonctive, existentielle du premier ordre (sans symboles fonctionnels) . A
chaque triplet (s, p, o} on associe la formule atomique p( o , s) , où p est un nom de
prédicat, et o et s sont des constantes si ces éléments sont des URis ou des littéraux
dans le triplet, et des variables sinon. Un graphe se traduit par une formule qui est la
fermeture existentielle de la conjonction des formules atomiques associées à ses triplets.
Ainsi, le graphe de la figure 1 se traduit par la formule :
Les modèles d'une telle formule sont en bijection avec ceux définis par la sémantique
directe en théorie des modèles. Cette « traduction logique » de RDF permet de le rap
procher d'autres représentations : la logique, bien sûr, mais aussi les bases de données
{Datalog positif, voir chapitre 111.3) ou les graphes conceptuels (voir chapitre 1.5) .
Au début du Web sémantique, un concurrent de RDF était le formalisme des cartes
topiques ( « tapie maps » (Biezunski et al. , 1999] ) , un standard ISO issu de HyTime
dont le but était d'annoter les documents multimédia. Il ne rencontre cependant plus
guère de succès malgré quelques utilisations intéressantes. Une de ses particularités par
4. Web sémantique - 1 101
SELECT ?n , ?z
FROM Figure 1
WHERE {
?x rel : daught er ?y
?y rel : worksWith ?z .
?z foaf : knows ?x . }
OPTI ONAL { ?z f oaf : name ?n }
FIGURE 2 Une requête SPARQL e t l e patron d e graphe associé (la partie optionelle
-
rapport à RDF était la séparation des noms et des concepts. Mais la sémantique des
cartes topiques n'est pas suffisamment définie pour une exploitation automatique.
obtenir des informations sur chaque chose identifiée en utilisant l'URI qui la nomme
(via HTTP) . Qui plus est il est conseillé de lier les corpus entre eux, principalement par
le prédicat owl : sameAs indiquant que deux URI dans deux corpus différents identifient
la même ressource.
Les règles gouvernant le Web des données s'énoncent comme suit :
l. Utiliser des URI pour nommer les choses ;
2. Utiliser des URI HTTP pour que l'on puisse se renseigner sur ces noms (en les
mettant dans un navigateur) ;
3. Lorsque quelqu'un s'enquiert d'un URI, lui fournir de l'information utile à l'aide
de standards (RDF, SPARQL) ;
4. Inclure des liens vers d'autres URI (et vers d'autres sources) , qu'ils puissent
découvrir plus de choses.
Le Web des données constitue ainsi un immense graphe RDF accessible par le
protocole HTTP comme le Web. Celui-ci a pris une réalité très importante, tout d'abord
avec DBpedia (Bizer et al. , 2009] , une extraction massive de Wikipedia en RDF ainsi que
de nombreux efforts qui sont venus se lier à DBpedia, puis avec en 2009, la publication
par plusieurs gouvernements (notamment anglo-saxon) de sources d'archives en RDF.
4.2.4 Perspectives
RDF est un langage relativement simple et stable. Il remplit bien son rôle au sein
du Web sémantique. Cependant, il souffre de limitations périphériques. Ainsi, s'il est
simple de parler de triplets et de manipuler les triplets que l'on a à disposition, il est
beaucoup plus difficile de parler d'un sous-ensemble de triplets. Actuellement, ces sous
ensembles se trouvent souvent être le contenu d'un fichier, mais ceci ne fonctionne plus
lorsque les triplets d'intérêt sont répartis sur le Web. Une demande croissante est donc
de pouvoir explicitement nommer et manipuler des graphes RDF (on parle de « named
graphs », graphes nommés) .
Un besoin complémentaire est la possibilité d'associer des assertions à des triplets.
Ceci pourrait permettre d'associer un triplet à un graphe nommé ou de lui associer des
informations quant à son origine ou la confiance que l'on peut lui accorder. Ce besoin
a été depuis longtemps pris en compte dans les implémentations qui enregistrent des
« quads » au lieu de triplets, le quatrième élément servant à identifier le triplet (et donc
à le mentionner dans d'autres triplets) .
Ces deux besoins, ainsi que des questions de simplification de RDF, sont actuelle
ment considérés par le W3C pour la prochaine version de RDF.
des ensembles d'axiomes décrits dans une logique spécifique. Plusieurs de ces logiques
ont été définies.
4. 3 . 1 RDFS
RDFS (pour RDF Schéma [Brickley et Guha, 2004) ) a pour but d'étendre le langage
RDF en décrivant plus précisément les ressources utilisées pour étiqueter les graphes.
En RDFS, cette extension est vue comme l'introduction d'un vocabulaire (un ensemble
d'URis) particulier auquel une sémantique spécifique par rapport à celle de RDF est as
sociée. RDF introduit déjà quelques mots-clé dans l'espace de nom rdf : qui permettent
de structurer la connaissance :
- (ex : Sonia rdf : type ex : Employa) la ressource ex : Sonia est une instance de la
classe ex : Employa ;
- (rel : worksWith rdf : type rdf : Property) affirme que rel : worksWith est un prédi
cat (une ressource utilisable pour étiqueter les arcs) ;
RDFS s'écrit toujours à l'aide de triplets RDF, en introduisant de nouveaux mots-clés
dans l'espace de nom rdfs, comme :
- (ex : Employe rdf : type rdfs : Class) la ressource ex : Employe a pour type rdfs :
Class, et est donc une classe ;
- (ex : Employe rdfs : subClassOf foaf : Person) la classe ex : Employe est une sous
classe de foaf : Pers on, toutes les instances de ex : Employa sont donc des instances
de foaf : Person, c'est le cas de ex : Sonia ;
- (ex : worksWi th rdf s : range ex : Employee) affirme que toute ressource utilisée com
me extrémité d'un arc étiqueté par rel : worksWith est une instance de la classe
ex : Employee.
La sémantique de RDFS étend celle de RDF en considérant certaines URI comme
identifiant des classes et en les interprétant en deux temps, comme les propriétés [Hayes,
2004] . Cependant, RDFS ne fournit que des mécanismes primitifs pour spécifier ces
classes. Son expressivité correspond à celle d'un langage de « frames ». D'autres langages
ont été définis pour aller au-delà.
Motik et al. , 2009c] . Elle est directement issue des logiques de descriptions. La séman
tique associée aux mots-clés de OWL est plus précise que celle associée au graphe RDF
représentant une ontologie OWL (elle permet plus de déductions) .
Ainsi, OWL permet de décrire des concepts, par exemple la propriété « fille »
(daughter ) , comme une sous-propriété de l'inverse de hasParent dont le codomaine
et de sexe féminin :
<owl : Obj e ctProperty rdf : about = " rel : daughter " >
<owl : subPropertyOf>
<owl : Obj e ctProperty>
<owl : inverseOf rdf : resource= " rel : hasParent " / >
</owl : Obj e ctProperty>
</owl : subPropertyOf>
<rdf s : range>
<owl : Restri c t i on>
<owl : onProperty rdf : resource= " f oaf : gender " />
<owl : hasValue>female</owl : hasValue>
</owl : Restri c t i on>
</rdf s : range>
</owl : Obj e ctProperty>
OWL introduit une autre contrainte assez forte dans la sémantique des ontologies :
elle est construite sur des ensembles d'entités exclusifs. Ainsi, une URI ne peux pas dé
noter à la fois une classe et une propriété ou une classe et un individu. Cette contrainte,
qui ne s'applique pas à RDF ni à RDFS, n'est pas valide pour OWL Full. La contrainte
de séparation des domaines d'interprétation est relâchée artificiellement dans OWL 2
en introduisant des entités distinctes associées à un même URI.
Nous donnons ici les principaux constructeurs utilisés dans OWL, dans une syntaxe
simplifiée (les mots-clés réservés de OWL, habituellement préfixés de owl : ) , ainsi que
leur « sémantique intuitive » (voir (Motik et al. , 2009b] pour une définition précise) .
- Les mots-clés de RDF (rdf : type, rdf : Property ) et RDFS ( rdfs : subClassOf ,
rdfs : subPropertyOf , rdfs : range, rdfs : domain) sont utilisés avec la même séman
tique ;
- owl : Class est une nouvelle (méta)classe ;
- owl : sameAs et owl : differentFrom permettent d'affirmer que deux individus sont
égaux ou différents ;
- owl : inverseOf sert à affirmer qu'une propriété p est l'inverse de p' (dans
ce cas, le triplet (s p o) a pour conséquence ( o p' s)) ; d'autres caractéris
tiques sont par exemple la réflexivité ( owl : Reflexi veProperty ) , la transitivité
( owl : Transi ti veProperty ) , la symétrie ( owl : SymmetricProperty) ou la fonction
nalité ( owl : FunctionalProperty) ;
- owl : allValuesFrom associe une classe C à une relation P. Ceci définit la classe des
objets x tels que si (x P y) est un triplet, alors la classe de y est C (quantification
universelle de rôle en logique de descriptions) . owl : someValuesFrom encode la
quantification existentielle de rôle ;
- owl : minCardinality (resp. owl : maxCardinality ) définit la classe des objets n'ay
ant pas moins (resp. plus) d'un certain nombre d'objets distincts par une pro
priété particulière. Une version qualifiée de ces constructeurs, introduite en OWL
2, impose en plus que les objets soient dans une classe particulière ;
4. Web sémantique - 1 1 05
OWL-Full
------- OWL 2
OWL-DL RDFS
DL-Liten =OWL2 QL î
OWL-Lite �pRDF
î
DL-Litecore
RDF
FIGURE 3 - Une hiérarchie de langages d'ontologies pour le Web sémantique. Les flèches
ou l'inclusion représentent l'ordre d'expressivité des différents langages. pRDFS est un
sous-ensemble de RDFS défini dans (Pérez et al. , 2009] .
- owl : oneOf permet de décrire une classe en extension par la liste de ses instances ;
- owl : hasValue affirme qu'une propriété doit avoir comme objet un certain indi-
vidu ;
- owl : disj ointWith permet d'affirmer que deux classes n'ont aucune instance com
mune ;
- owl : unionOf , owl : intersectionOf et owl : complementOf permettent de définir une
classe comme l'union ou l'intersection de deux classes, ou le complémentaire
d'une autre classe ;
- owl : hasSelf définit la classe des objets en relation avec eux-mêmes par une
relation particulière ;
- owl : hasKey indique qu'un ensemble de propriétés est une clé pour une classe,
c'est-à-dire que deux individus distincts ne peuvent pas partager le même tuples
de valeurs pour ces propriétés ;
- owl : propertyChainAxiom permet de composer plusieurs relations entre-elles pour
obtenir une propriété ou une relation ;
- owl : NegativePropertyAssertion permet d'exprimer qu'un individu n'a pas une
valeur précise pour une propriété particulière.
Nous n'avons pas cité ici certains constructeurs, qui peuvent être trivialement im
plémentés grâce à ceux que nous avons évoqués (par exemple owl : equi valentClass,
servant à affirmer que deux classes sont identiques, peut être écrit grâce à deux
rdfs : subClassOf ) .
OWL propose aussi des constructeurs de types de données que nous n'abordons pas
ici. Ils sont toutefois importants car ils conduisent facilement à des incohérences.
1 1 06 Panorama de l'intelligence artificielle. Volume 3
-
chapitre 1.5) ;
OWL 2 QL correspond à DL-Liten. ;
OWL 2 RL supprime toute construction pouvant engendrer des objets inconnus et
surtout oriente les axiomes de telle sorte, par exemple, que seules certaines expres
sions (existentielles) sont autorisées en super-classe et certaines expressions (uni
verselles) sont autorisées en sous-classes d'un axiome de type rdf s : subClassOf .
Plusieurs problèmes comme le test de subsomption peuvent se résoudre en temps
polynomial dans ce langage.
La figure 3 propose deux vues des relations entre les principaux langages définis autour
de OWL et de RDFS.
4.3.4 Raisonnement
Le développement d'outils efficaces pour raisonner dans le Web sémantique sera un
critère décisif pour l'adoption d'un langage particulier. Ce sont ces moteurs d'inférence
qu'il faudra encapsuler dans des systèmes de requêtes plus évolués afin d'interroger
le Web et agir sur les réponses obtenues. Or, le problème de déterminer en RDF si
un graphe est une conséquence d'un autre est déjà un problème N P-complet. Des al
gorithmes efficaces ont pourtant été développés pour calculer les homomorphismes de
graphes qui répondent à ce problème (basés sur les améliorations de rétrogression dé
veloppées pour les réseaux de contraintes ; voir chapitre II.6) .
Mais, dans le contexte du Web sémantique, le problème est plus ardu de plusieurs
manières :
- Certains veulent accomplir un raisonnement sur l'ensemble du Web sémantique,
c'est-à-dire sur toute l'information en OWL ou RDF présente sur le Web. On
parlait, en 201 1 , de dizaines de milliards de triplets dans le « linked open data
cloud » seulement.
- Ces graphes et le raisonnement à développer dépendent d'ontologies dans les
quelles les problèmes de raisonnement peuvent être indécidables.
- Enfin, cette information est distribuée et hétérogène.
Les travaux sur le raisonnement avec ces langages se sont poursuivis dans deux
directions :
- le développement, comme précédemment, de procédures de décision pour les
logiques de description sous-jacentes à OWL [Horrocks et Sattler, 2007 ; Motik
et al. , 2009d] .
- la recherche, comme on vient de le voir, de fragments de OWL pour lesquels on
peut disposer de procédures de décision efficaces.
tenant compte du fait que ces bases sont exprimées en RDF Schema ou en OWL. Cepen
dant, SPARQL peut être redéfini en fonction de la notion de conséquence [Alkhateeb
et al. , 2009] . Cette redéfinition permet d'utiliser différentes notions de conséquences
pour s'adapter à différents langages.
Divers efforts ont été développés afin de dépasser ce problème. Ainsi, il est possible
de répondre à des requêtes SPARQL modulo une ontologie décrite en RDFS par simple
réécriture de la requête comme une requête PSPARQL (que l'on peut décrire comme
SPARQL disposant de la clôture transitive sur les propriétés [Alkhateeb et al. , 2008] ) .
Des résultats similaires ont été obtenus [Pérez e t al. , 2010] sur un sous-ensemble de
SPARQL. De même, le langage SPARQL-DL [Sirin et Parsia, 2007] permet d'évaluer
des requêtes dans une syntaxe SPARQL en fonction d'ontologies en OWL-DL. Cepen
dant, les requêtes sont limitées aux requêtes conjonctives et l'usage des variables est
restreint.
Le groupe de travail chargé de définir SPARQL 1 . 1 travaille sur la notion de régime
d'inférence de SPARQL [Glimm et Ogbuji, 201 1] . Cette notion rend le langage de
requêtes plus paramétrable en permettant de redéfinir la notion de conséquence, mais
aussi les motifs de requêtes et les types de réponses attendues.
Indépendamment de SPARQL, d'autres travaux ont étendu Datalog pour qu'il
puisse prendre en compte des requêtes en fonction d'une ontologie écrite en DL-Liten
(donc en RDFS) [Cali et al. , 2009] ou étudié la complexité de telles requêtes en y
incluant l'opération UNION de SPARQL [Artale et al. , 2009] .
4.3.6 Règles
En ce qui concerne les langages de règles, la situation est moins claire que pour
les autres langages du Web sémantique. Le W3C a abouti à un « rule interchange
format » (RIF [Boley et al. , 2013] ) dont le but est de ménager à la fois les tenants
de règles définies en programmation logique (chapitre II.4) et ceux des règles métier
( « business rules » ) , sortes de règles déclenchant des actions lorsqu'une condition est
remplie. Deux dialectes ont donc été définis : BLD pour « Basic Logic Dialect » and
PRD pour « Production Rule Dialect », partageant une portion de syntaxe commune
(RIF-Core) . RIF a une syntaxe différente des, déjà nombreuses, syntaxes proposées par
les autres langages mais offre un pont avec RDF et OWL. La syntaxe RDF de RuleML
et de SWRL [Horrocks et al. , 2004] semble donc être abandonnée.
Sur le plan théorique, les travaux développés en programmation logique s'appliquent
naturellement à l'utilisation de règles dans le Web sémantique et plus directement au
dialecte BLD de RIF. Malheureusement, la connexion entre la partie ontologique et la
partie règle reste à spécifier. Un premier travail a cependant été fait pour exprimer le
fragment OWL 2 RL à l'aide de RIF-Core.
La combinaison de logiques de description et de Datalog a déjà été proposée [Levy
et Rousset, 1998] . Dans le contexte du Web sémantique, on est d'abord parti d'une ap
proche moins expressive : DLP ( « description logic programs » [Grosof et al. , 2003] ) est
un langage minimal à l'intersection des clauses de Horn et des logiques de description.
Il ne permet donc ni d'exprimer tout ce que l'on peut trouver dans un langage comme
OWL-Lite, ni toute la programmation logique. Par contre, il devrait être adapté pour
raisonner à large échelle. DLP a inspiré OWL 2 RL. Une intégration serrée des logiques
4. Web sémantique - 1 1 09
de description (chapitre 1.5) et de « answer set programming » (chapitre 11.4) , qui réin
troduit donc des aspects comme la négation par échec fini et la possibilité de prendre
en compte l'hypothèse du monde clos, a aussi été étudiée [Motik et Rosati, 2010] .
D'autres travaux ont considéré la reconstruction des logiques de descriptions sur la
base de langages de programmation logique [Hustadt et al. , 2007, 2008] .
Du côté des graphes conceptuels, des règles logiques ont été proposées comme une
extension des graphes conceptuels simples (voir chapitre 1.5, [Baget et Mugnier, 2002] )
qui peuvent être appliquées directement à RDF.
4.3.8 Perspectives
Le langage OWL 2 a été recommandé par le W3C à l'automne 2009, le langage
SPARQL 1 . 1 est en passe d'être recommandé [Harris et Seaborne, 2012] . Il y a ce
pendant de très actifs travaux de recherche liés à l'inférence efficace à l'aide de ces
langages. On se trouve à la croisée des activités de bases de données, où la quantité
de données prime, et de représentation de connaissance, où l'expressivité des ontolo
gies prime. A ces problèmes, traditionnels mais jamais appliqués à une telle échelle,
s'ajoute l'incidence du réseau avec des problématiques de communication, de latence
et de caches.
Du côté raisonnement, le Web sémantique est donc une importante source de pro
blèmes pour l'intelligence artificielle et, en particulier, la déduction automatique (voir
chapitre II.3) .
1 1 1 0 Panorama de l'intelligence artificielle. Volume 3
-
Du côté représentation, les langages offerts par le Web sémantique sont peu ex
pressifs et orientés vers la représentation factuelle. Des efforts pour apporter d'autres
éléments de représentation de connaissance sont en cours. Ainsi, il existe divers travaux
pour apporter des représentations floues aux langages d'ontologies [Stoilos et al., 2007 ;
Bobillo et Straccia, 2009] .
Cette même remarque s'applique au langage SKOS [Miles et Bechhofer, 2009] qui
permet d'exprimer des thesauri et offre des primitives permettant de définir des rela
tions entre termes de ces thesauri.
Des propositions pour résoudre ce problème ont été faites. Ainsi, C-OWL [Bouquet
et al. , 2004] offre un langage permettant d'exprimer les ontologies en OWL et des
relations entre entités des ontologies à l'aide d'assertions de subsomption, d'équivalence
et d'incompatibilité entre concepts. L'originalité de C-OWL est d'envisager les réseaux
d'ontologies en tant que tels et de proposer une sémantique spécifique qui préserve la
localité des ontologies (contrairement à la solution consistant à exprimer les alignements
entre ontologies à l'aide de la syntaxe de OWL) . La sémantique de C-OWL est fondée
sur les logiques de descriptions distribuées [Borgida et Serafini, 2003] .
L'approche épistémique [Calvanese et al. , 2008] est fondée sur la logique KD45 qui
modélise la connaissance de chaque pair. Cette approche, parce qu'elle ne permet que
de propager l'information sur la connaissance qu'un pair a d'une formule ne permet
pas de propager de connaissance sur la négation de celle-ci. En particulier, tout comme
dans C-OWL, les correspondances sont orientées.
La sémantique à égaliseurs [Zimmermann et Euzenat, 2006 ; Zimmermann, 2008]
préserve les interprétations des différents langages de représentations : ainsi les onto
logies reliées peuvent être exprimées dans des langages différents. Pour interpréter les
correspondances, elle plonge les interprétations des ontologies dans un domaine com
mun. Par rapport à la sémantique de C-OWL, celle-ci permet un raisonnement global
sur les réseaux d'ontologies (par exemple en composant des alignements) [Zimmermann
et Euzenat, 2006] .
décider si une ontologie, ou un réseau d'ontologies, est une extension conservative d'une
autre ontologie est très coûteux et même indécidable pour A.CC QIO qui forme le cœur
de OWL-DL [Ghilardi et al. , 2006] .
4.4.6 Perspectives
L'alignement d'ontologies, comparé aux autres aspects mis en œuvre dans le Web
sémantique, n'en est qu'à ses balbutiements. De nombreuses pistes sont disponibles
pour améliorer ce maillon essentiel du Web sémantique. On peut en particulier citer
(Shvaiko et Euzenat, 2013] :
- une meilleure compréhension formelle de la sémantique des alignements,
- le développement et l'évaluation d'algorithmes fondés sur le contexte et en par-
ticulier d'algorithmes tirant parti des immenses ressources offertes par le Web
et bientôt le Web sémantique,
- la sélection et la configuration automatique d'algorithmes en fonction de la si
tuation,
- l'implication de l'utilisateur de manière transparente de sorte de pouvoir exploi
ter ses réactions et sa connaissance dans l'activité d'alignement,
- le développement de systèmes sociaux et collaboratifs tirant parti d'une multi
tude d'utilisateurs utilisant ontologies et alignements,
- l'infrastructure et le support pour stocker et partager de nombreux alignements,
- le raisonnement à large échelle avec des alignements, ainsi que les techniques
d'approximations permettant de passer à l'échelle.
4.5 Conclusion
Comme le Web, le Web sémantique est un objet indéfini. L'un et l'autre peuvent
être réduits aux technologies qui les composent : URL, HTTP, HTML d'un côté, URI ,
4. Web sémantique - 1 1 15
RDF, OWL, SPARQL et Alignements de l'autre. Mais dans les deux cas on passera à
côté de la réalité.
Le Web sémantique est un écosystème fondé sur ces technologies. Comme tel, se
demander s'il est enfin disponible n'est pas pertinent. La bonne question est : sera-t-il
capable d'évoluer et de perdurer ?
Pour la recherche en intelligence artificielle, c'est un formidable terrain d'appli
cation. Comme on a essayé de le montrer, de nombreuses techniques provenant de
représentation de connaissance (chapitre I.5) , de raisonnement (chapitres II.3 et II.5) ,
de résolution de contraintes (chapitre II.6) , ou d'apprentissage (chapitre I.9) sont mises
à contribution dans le cadre du Web sémantique. Et encore, par manque de place, nous
sommes nous concentrés sur la partie représentation de connaissance et raisonnement
du Web sémantique. La partie consistant à acquérir des données pour l'y intégrer fait
aussi appel aux techniques d'ingénierie des connaissances (chapitre I.20) , de traitement
de la langue (chapitre III.5) et d'apprentissage (chapitre I.9) .
C'est un terrain d'application la plupart du temps exigeant : l'échelle est gigan
tesque, les utilisateurs sont pressants. Qui plus est, les techniques développées en in
telligence artificielle sont confrontées à des contraintes particulières qui obligent à les
adapter (par exemple, les contraintes réseaux interviennent dans le raisonnement et
bientôt les contraintes sociales imposeront de nouveaux développements) .
C'est aussi un terrain d'application prometteur : chaque technique qui trouvera sa
place au sein des technologies du Web sémantique aura des millions d'utilisateurs.
Références
ADJIMAN, P. , CHATALIC, P. , GoAsoouÉ, F., ROUSSET, M.-C. et SIMON, L. (2006) .
Distributed reasoning in a peer-to-peer setting : Application to the semantic web.
Journal of artificial intelligence research, 25 :269-314.
ALKHATEEB, F., BAGET, J.-F. et EUZENAT, J. (2008) . Constrained regular expressions
in SPARQL. In ARABNIA, H. et SOLO, A., éditeurs : Proceedings of the international
conference on semantic web and web services {SWWS}, Las Vegas (NV US), pages
91-99.
ALKHATEEB, F., BAGET, J.-F. et EUZENAT, J. {2009) . Extending SPARQL with regular
expression patterns (for querying RDF) . Journal of web semantics, 7(2) :57-73.
ANTONIOU, G. et VAN HARMELEN, F. (2008) . A semantic web primer. The MIT press,
2 édition.
ARTALE, A., CALVANESE, D . , KONTCHAKOV, R. et ZAKHARYASCHEV, M. (2009) . The
DL-Lite family and relations. Journal of artificial intelligence research, 36 : 1-69.
BAGET, J.-F. et MUGNIER, M.-L. (2002) . Extensions of simple conceptual graphs :
the complexity of rules and constraints. Journal of artificial intelligence research,
16 :425-465.
B ECK ETT, D. (2004) . RDF /XML syntax specification (revised) . Recommendation,
W3C. http : //www . w3 . org/TR/REC-rdf- syntax/.
BECKETT, D. (2008) . Turtle - terse RDF triple language. Team submission, W3C.
http : //www . w3 . org/TeamSubmission/turtle/.
1 1 1 6 Panorama de l'intelligence artificielle. Volume 3
-
1 ( 1 ) : 7-26.
HORROCKS, I. et SATTLER, U. ( 2007) . A tableau decision procedure for shoiq. Journal
of automated reasoning, 39 ( 3 ) :249-276.
HUSTADT, u., MOTIK, B. et SATTLER, u. ( 2007) . Reasoning in description logics by a
reduction to disjunctive datalog. Journal of automated reasoning, 39 ( 3 ) :351-384.
HUSTADT, u., MOTIK, B. et SATTLER, u. ( 2008 ) . Deciding expressive description logics
in the framework of resolution. Information and computation, 206 ( 5 ) :579-601 .
JIMENEZ Rmz, E . , CUENCA GRAU, B . , HORROCKS, I . et BERLANGA, R . ( 2009 ) . On
tology integration using mappings : Towards getting the right logical consequences.
In Proc. 6th European Semantic Web Conference (ESWC}, volume 5554 de Lecture
notes in computer science, pages 173-188, Hersounisous ( GR) .
KALFOGLOU, Y. et SCHORLEMMER, M. ( 2003 ) . Ontology mapping : the state of the
art. The knowledge engineering review, 18 ( 1 ) : 1-31 .
KLYNE, G. et CARROLL, J. ( 2004 ) . RDF concepts and abstract syntax. Recommenda
tion, W3C. http : //www . w3 . org/TR/rdf- concepts/.
LASSILA, O . et SWICK, R. ( 1999 ) . Resource description framework ( RDF ) model
and syntax specification. Recommendation, W3C. http : //www . w3 . org/TR/ 1999/
REC-rdf- syntax- 19990222/.
LEVY, A. et ROUSSET, M.-C. ( 1998 ) . Combining Horn rules and description logics in
CARIN. Artificial intelligence, 104 ( 1-2 ) : 165-209.
LUKE, S., SPECTOR, L., RAGER, D. et HENDLER, J. ( 1997) . Ontology-based web agents.
In Proc. lst International Conference on Autonomous Agents, pages 59-66.
LUTZ, C . , WALTHER, D. et WOLTER, F. ( 2007) . Conservative extensions in expressive
description logics. fn Proc. 20th International joint conference on artificial intelli
gence, Hyderabad {IN}, pages 453-458.
MAO, M . , PENG, Y. et SPRING, M. ( 2010 ) . An adaptive ontology mapping approach
with neural network based constraint satisfaction. Journal of web semantics, 8 ( 1 ) : 14-
25.
MEILICKE, c., STUCKENSCHMIDT, H. et TAMILIN, A. ( 2009 ) . Reasoning support for
mapping revision. Journal of logic and computation, 19 ( 5 ) :807-829.
MILES, A. et BECHHOFER, S. ( 2009 ) . SKOS simple knowledge organization system :
Reference. Recommendation, W3C. http : //www . w3 . org/TR/skos-reference.
MOTIK, B . , G RAU, B. C . , HoRROCKS, 1 . , Wu, Z., FoKOUE, A. et LUTZ, C. ( 2009a) .
OWL 2 web ontology language profiles. Recommendation, W3C. http : //www . w3 .
org/TR/owl2-profiles/.
MOTIK, B., PATEL-SCHNEIDER, P. et CUENCA GRAU, B. ( 2009b ) . OWL 2 web on
tology language direct semantics. Recommendation, W3C. http : //www . w3 . org/TR/
owl2-direct- semant ics/.
MOTIK, B., PATEL-SCHNEIDER, P. et PARSIA, B. ( 2009c ) . OWL 2 web ontology lan
guage structural specification and functional-style syntax. Recommendation, W3C .
http : //www . w3 . org/TR/owl2-syntax/.
MOTIK, B. et ROSATI, R. ( 2010 ) . Reconciling description logics and rules. Journal of
the ACM, 57 ( 5 ) .
4. Web sémantique - 1 1 1 9
Chapitre 5
Intelligence artificielle et
langage
5.1 Introduction
L'intelligence artificielle (IA) a pour but de comprendre et de modéliser par des
moyens informatiques l'intelligence humaine. Or, parmi les traits les plus frappants
des humains, indices de leur intelligence, on trouve leur capacité à utiliser un sys
tème langagier pour communiquer, ce système langagier étant bien plus complexe que
n'importe autre système de communication utilisé parmi toutes les espèces animales
connues. Depuis le début de l'informatique, les chercheurs se sont intéressé aux proces
sus du traitement du langage humain par des méthodes informatiques et ce, à tous les
niveaux du système langagier : c'est le domaine du traitement automatique des langues
(TAL ; encore appelé traitement automatique du langage naturel, linguistique informa
tique, linguistique computationnelle, voire ingénierie linguistique, selon la facette sur
laquelle on souhaite mettre l'accent) . Mais les principales interactions et contributions
de l'IA à la linguistique ont eu lieu dans le domaine de la sémantique et de la prag
matique, c'est-à-dire dans la modélisation du contenu d'une phrase, d'un texte ou d'un
dialogue.
D'un point de vue linguistique, le contenu d'une phrase est capturé au moins en
partie par un formalisme qui donne les conditions de vérité de la phrase, c'est-à-dire les
conditions qui devraient s'appliquer pour que la phrase soit vraie. Les linguistes formels
Auteurs : NICHOLAS ASHER, LAURENCE DANLOS et PIERRE ZWEIGENBAUM.
1 1 22 Panorama de l'intelligence artificielle. Volume 3
-
sont habitués à utiliser le formalisme d'un langage formel comme les logiques du pre
mier ordre ou d'ordre supérieur. Ces conditions sont représentées par un ensemble de
modèles rendant vraie la formule logique qui est la traduction d'une phrase en langue
naturelle. Pour tester la justesse de cette traduction, ces linguistes utilisent les consé
quences logiques du langage formel pour tester leurs analyses sémantiques. Une ana
lyse sémantique reçoit un appui empirique en fonction de la justesse des conséquences
de l'analyse sémantique. Par exemple, une analyse de la sémantique des syntagmes
adverbiaux comme à minuit ou avec enthousiasme qui prédit que (5.lb-d) sont des
conséquences logiques de l'analyse de (5. la) est mieux vérifiée a priori qu'une analyse
de (5. la) dont (5. lb-d) ne sont pas des conséquences logiques.
(5. 1) a. Jean a beurré son toast avec enthousiasme à minuit.
b. Jean a beurré son toast avec enthousiasme.
c. Jean a beurré son toast.
d. Jean a beurré quelque chose.
Une propriété importante pour l'analyse sémantique est la compositionnalité, dont
il existe plusieurs versions. En gros la compositionnalité nous dit que le contenu d'une
expression complexe doit être une fonction des contenus des expressions qui la com
posent, de leur structure syntaxique, et, depuis l'arrivée de la sémantique dynamique,
que l'on discutera plus en détail ci-dessous, du contexte discursif et même du contexte
énonciatif. Pour beaucoup de philosophes et de linguistes, la division entre la séman
tique et la pragmatique se situe dans l'exploitation du contexte discursif et énonciatif.
Mais pour beaucoup d'autres, et au moins pour certains d'entre nous, cette division
est un peu arbitraire, car on peut citer beaucoup de travaux où le contexte discursif
interagit même avec le sens des mots [Kamp, 1973 ; Asher, 2011]. Dans ce qui suit nous
insisterons peu sur la division entre sémantique et pragmatique. Nous examinerons en
revanche plus en détail l'idée que donner le sens d'une phrase ou d'un mot isolé n'est
pas adéquat pour capter le contenu de cette phrase ou de ce mot dans un contexte
particulier : l'unité de l'analyse conceptuelle du contenu doit être au moins le discours.
La linguistique est une science ancienne. Les études linguistiques remontent au
cinquième siècle avant notre ère avec les travaux syntaxiques du grammairien indien
Panini et les discussions sur le sens des mots dans le Cratule de Platon. Depuis les
révolutions chomskiennes et montagoviennes des années cinquante et soixante du siècle
dernier, nous disposons de modèles bien formalisés en syntaxe et en sémantique. Le
grand problème est que très peu de ces modèles sont opératoires pour plus qu'un sous
ensemble jouet d'une langue naturelle. Et comme le montrent les recherches venant de
l'IA que nous esquisserons ci-dessous, il y a de fait un gouffre entre ces théories et un
calcul effectif du sens d'un texte ou d'un discours.
lui une suite de caractères ou chiffres et sort, selon ses instructions une autre suite de
caractères représentant une réponse en chinois (voir la discussion dans le chapitre 3.9) .
L'intuition de Searle et de beaucoup de ses lecteurs est que cette personne n'a aucune
idée du contenu des expressions en chinois qu'elle manipule. Manifestement, l'approche
des scripts et frames avait échoué à réaliser un objectif principal de ses inventeurs -
créer une machine qui comprenait le langage humain.
Les raisons pour lesquelles les scripts ont largement été abandonnés sont nom
breuses. Schank et Minsky voulaient traiter toute la complexité du système langagier
sans étudier ni prendre en compte la complexité des interfaces entre syntaxe et séman
tique, entre sémantique et pragmatique, et entre phrase et discours. Une analyse de
l'interface entre syntaxe et sémantique, telle qu'elle avait déjà été esquissée par le lin
guiste et philosophe Richard Montague dans les années 60 donnait un moyen de générer,
à partir d'informations lexicales, des représentations sémantiques subtiles écrites dans
un langage logique avec une sémantique bien définie, contenant entre autres une notion
puissante de conséquence logique. Les grammaires de Montague utilisaient pour calculer
le sens le langage du lambda-calcul simplement typé et la notion de conséquence était
celle de la logique d'ordre supérieur ou plus tard celle définie sur l'ensemble des modè
les généralisés de Henkin pour ce langage. Les types de base employés par Montague
permettaient une sémantique intensionnelle des expressions, une sémantique bien plus
raffinée qu'une sémantique dont les assignations d'extensions aux termes et de valeurs
de vérité aux phrases ne suffisaient pas pour capter leur sens.
Les premiers chercheurs en IA sur le TAL ignoraient ou rejetaient cet axe mon
tagovien de recherche. De plus, rappelons que la méthode de scripts était très fragile
(peu robuste, dirait-on maintenant) et sans système de raisonnement. Les contenus que
leurs auteurs voyaient dans leurs scripts n'étaient pas là pour une raison fondamentale.
On peut dire qu'un ordinateur ou un humain comprend un message avec un sens s si
le comportement du système change d'une manière particulière et prédictible en vertu
de s et pas d'un autre sens non équivalent s'. Les prédicats des scripts n'étaient que
des connecteurs entre messages non analysés et donc ne pouvaient ni accorder un sens
particulier ni distinguer entre deux messages possédant des sens différents.
Bien que cette approche n'ait pas abouti à des résultats à la hauteur des objectifs
de ses inventeurs, elle est l'ancêtre d'autres approches encore utilisées en extraction
d'informations (dans les campagnes Message Understanding Conferences et ensuite)
[MUC5, 1993) , qui se servent de patrons pour extraire des informations sur des sujets
ciblés. Cette approche a aussi démontré l'importance des connaissances conceptuelles
pour la compréhension d'un texte, et a donné une méthode pour isoler dans un texte
les objets et événements importants. Cette méthode est à la base d'outils de TAL
contemporains comme les systèmes de reconnaissance d'entités nommées ( named entity
recognition ou NER) . Néanmoins, il y a maintenant un consensus pour dire que les
techniques à base de patrons et de reconnaissance de formes ne peuvent donner que
des informations sémantiques de surface ( shallow semantics) . Les idées des scripts ont
été adoptées et persistent aussi dans la sémantique lexicale, c'est-à-dire la description
et la modélisation du contenu des mots. Le projet FrameNet de Berkeley [Johnson
et Fillmore, 2000) , initialement conçu comme une ressource informatique lexicale pour
l'anglais et maintenant adapté ou en cours d'adaptation à plusieurs autres langues dont
5. Intelligence artificielle et langage - 1 1 25
le français, l'espagnol et l'allemand, associe des mots non fonctionnels (c'est-à-dire les
verbes, adjectifs et noms communs) à des cadres ou scripts. Ce projet lexical est moins
ambitieux que l'approche de Schank ; il ne prétend pas construire un système qui saisit
les sens de mots. Mais il hérite aussi des difficultés des scripts tant qu'on ne leur a pas
défini de sémantique claire ni de système pour exploiter cette sémantique.
Le besoin d'exploiter les représentations du contenu plus en profondeur avait bien
été perçu. Un courant de recherche en IA sur le langage a donc basculé vers l'étude et
la modélisation en profondeur de la sémantique et de la pragmatique par des méthodes
logiques.
que les axiomes sont fixés une fois pour toutes et encodent la structure compositionnelle
d'un langage, et donc la grammaire est déterminée simplement par le lexique.
Sur le plan sémantique, les développements et fertilisations mutuelles entre intel
ligence artificielle et linguistique se poursuivaient aussi mais le progrès sur le plan de
machines plus « intelligentes » allait à petits pas et sans grand succès. L'idée, encore
présente dans la linguistique formelle de nos jours, était de construire à partir d'une
représentation syntaxique une formule en logique (du premier ordre ou d'ordre supé
rieur) pour représenter le contenu d'une phrase ou d'un texte en termes de conditions
de vérité ou d'évaluation. En d'autres termes, le sens était défini par les modèles de
cette formule logique. Au vu de la complétude de la logique du premier ordre, on pou
vait espérer raisonner de façon automatisée sur le contenu pour au moins une fraction
importante de la langue.
Pour passer de la syntaxe à une formule logique représentant le sens d'une phrase,
il faut (1) construire des entrées lexicales, (2) combiner ces entrées lexicales, et (3)
donner une portée particulière à tout opérateur introduit dans la traduction ainsi faite.
La deuxième étape avait été largement étudiée par Montague et d'autres sémanticiens
de son école en utilisant le lambda-calcul typé de Church. Par exemple, d'après l'arbre
syntaxique pour la phrase (5.3) , on a les informations que aime est un syntagme verbal
avec un temps (présent) , un verbe aimer, et un objet direct Bob.
(5.3) Alice aime Bob.
En traduisant Bob comme une constante logique b et en donnant au verbe une re
présentation dans la logique d'ordre supérieur avec un opérateur >. de Church (1940] ,
>.x>.T>.yT(aime(y, x) ) , où T est un opérateur de type ( e --t t) --t ( e --t t) qui sera
spécifié par le temps du verbe, les règles de réduction dans le >.-calcul prédisaient la
formule (5.4) pour le syntagme verbal.
(5.4) >.y Présent(aime (y, b))
qui pourrait ensuite se combiner avec la traduction du sujet pour produire une formule
logique donnant les conditions de vérité pour la phrase complète. L'école de Montague a
démontré comment généraliser cette procédure à beaucoup de constructions complexes
des langues naturelles, y compris les temps verbaux, les quantificateurs, les modalités,
les ellipses, la coordination, les propositions relatives.
Par contre la première étape consistant à donner des représentations adéquates aux
mots posait et pose encore beaucoup de problèmes si l'on veut doter une machine de la
capacité de raisonner sur les informations lexicales de façon logique. Nous reviendrons à
ces problèmes plus loin. Pour l'instant, nous discutons de la dernière étape de la chaîne
de traitement que nous venons d'esquisser. Cette troisième étape consiste à donner
des portées aux quantificateurs et opérateurs qui se trouvaient dans la traduction en
logique d'un texte. Et c'est là où la linguistique formelle a eu du mal avec les formalismes
standard en logique du premier ordre. Prenons un exemple banal.
(5.5) Un homme est entré dans le bar. Il fumait un cigare.
Le pronom il de la deuxième phrase dépend clairement du quantificateur introduit par
le déterminant un. Mais dans des méthodes de logique classique la portée du quantifi
cateur s'arrête au maximum à la fin de la première phrase. Il n'y avait pas de solution
élégante ni dans la logique classique ni dans la grammaire de Montague. Pour cela les
5. Intelligence artificielle et langage - 1 1 27
linguistes ont réinventé une sémantique pour les textes, la sémantique « dynamique »,
qui était très similaire à la sémantique des programmes. Dans la sémantique des pro
grammes, nous rappelons que chaque commande effectue soit une transition de l'état
de la machine soit un test sur l'état courant. Une action possible consiste à donner une
valeur aléatoire à une variable liée intuitivement par un quantificateur existentiel ; il est
très important pour les programmes que cette valeur assignée à la variable soit propa
gée dans les états suivants de la machine, à moins qu'elle ne soit remplacée. C'est aussi
ce qui se passe dans l'exemple (5.5) : la valeur de la variable liée par le quantificateur
existentiel est « propagée » vers l'état qui est l'entrée du traitement de la deuxième
phrase, et celle-ci peut alors être reprise par l'interprétation. En construisant diverses
méthodes de sémantique dynamique, les linguistes avaient découvert ou réinventé les
ressources de l'informatique théorique qui sont utilisées pour la sémantique des lan
gages de programmation [Kamp et Reyle, 1993 ; Groenendijk et Stokhof, 1991 ; Harel,
1984] . Depuis il y a eu des interactions intéressantes entre les méthodes abstraites de
sémantique pour les langages de programmation (la méthode des continuations) et la
sémantique pour les langages naturels [de Groote, 2006 ; Barker et Shan, 2006] .
Cette transition à une sémantique dynamique pour les textes a permis de traiter de
façon beaucoup plus sophistiquée les problèmes linguistiques dits « anaphoriques », où
l'interprétation d'un mot ou construction dépend du contexte linguistique précédent.
Au milieu des années 1980, des chercheurs principalement européens, en particulier
les linguistes et informaticiens qui s'intéressaient à la sémantique dynamique, dans le
groupe de recherche de Hans Kamp parmi d'autres, ont commencé à s'intéresser à
des implémentations de sémantique formelle. Des chercheurs ont utilisé le langage de
programmation PROLOG pour construire des interfaces syntaxe/sémantique pour la
sémantique dynamique et LFG [Frey et al. , 1983] . Ces implémentations continuent de
nos jours avec des analyseurs syntaxiques toujours plus performants et des algorithmes
toujours plus sophistiqués pour l'interface syntaxe/sémantique.
La sémantique dynamique a eu beaucoup de succès depuis les trente dernières an
nées. Néanmoins, certaines faiblesses sont apparues dans le traitement des expressions
anaphoriques en sémantique dynamique. Cette sémantique ne distingue pas des anté
cédents multiples qui sont jugés possibles. Or, les recherches en linguistique ont montré
dès la fin des années 1980 que de meilleures prédictions sur l'interprétation de divers
éléments dépendant du contexte discursif pour leur contenu étaient possibles si l'on
concevait le contexte discursif non pas comme une séquence de valeurs assignées à des
variables, mais plutôt comme une structure relationnelle comprenant des constituants
discursifs reliés par des relations discursives ou rhétoriques [Fox, 1987 ; Asher, 1993 ;
Lascarides et Asher, 1993] . Plus tard, des recherches en psychologie et psycholinguis
tique ont confirmé expérimentalement que la résolution des anaphores dépend de la
structure discursive du texte [Kehler et al. , 2008] .
modèles pour une structure discursive. Schank et Abelson d'une part, et Grosz et
Sidner d'autre part, ont développé l'idée, qui a son origine moderne chez le philosophe
Paul Grice [1975) , d'une analyse d'un texte ou dialogue basée sur les intentions et les
plans. Ces chercheurs postulaient que la structure discursive d'un texte correspondait
à la structure d'un plan récursif dans l'esprit du locuteur. Chez Grosz et Sidner, ces
plans étaient composés à l'aide de deux opérateurs ; l'un reliait deux segments d'un
discours si le deuxième segment détaillait ou spécifiait le plan du premier plan ; l'autre
était un opérateur de séquence qui ordonnait les actions dans un plan particulier, de
façon analogue à l'opérateur ";" de la logique dynamique. L'approche de Mann et
Thompson [1986 ; 1987) de la structure discursive continuait dans cette direction, en
enrichissant le nombre et la capacité descriptive des relations intentionnelles reliant
des segments de texte. La fertilisation entre la recherche sur les plans et le discours
a été fertile [Grosz et Kraus, 1993 ; Lochbaum, 1998) . Ces auteurs ont pu profiter des
langages et logiques de planification dans leurs travaux, ainsi que des développements
de modélisations en logique modale des connaissances, croyances et intentions, fournies
par de multiples chercheurs en IA, dont en particulier Joe Halpern, Ron Fagin et Moshe
Vardi [Halpern et al. , 1995) à travers des conférences comme Theoretical Aspects of
Reasoning about Knowledge.
L'approche intentionnelle de la structure discursive avait néanmoins un point faible
qui requérait des hypothèses fortes pour qu'il ne la rende pas implausible. Le problème
était qu'il fallait inférer les intentions des locuteurs à partir de ce qui avait été dit, et que
ces inférences sont souvent incertaines et même fausses. Pour remédier à ce problème, il
fallait poser des hypothèses sur les locuteurs et interlocuteurs. Ces hypothèses, venues
aussi de Grice, supposaient que faisait partie des connaissances communes des partici
pants d'une conversation le fait que tout locuteur était fortement coopératif avec ses
interlocuteurs et disait ce qu'il croyait être la vérité. Avec ces hypothèses et des axiomes
reliant des traits langagiers avec des intentions particulières (par exemple si le locuteur
posait une question c'était parce qu'il voulait obtenir une réponse informative et véri
dique) , les chercheurs dans ce domaine avaient réussi à analyser à la main des dialogues
pédagogiques qu'ils avaient construits et à en déduire leur structure discursive.
Les relations de cohérence (dites « rhétoriques » ) ont été aussi utiles non seulement
pour le développement d'une sémantique textuelle mais aussi pour les applications
computationnelles, par exemple le résumé de texte [Marcu, 1997) . Avec des analyseurs
discursifs plus performants, il devient envisageable d'avoir des systèmes sophistiqués
exploitant la structure discursive pour la fouille d'informations ou d'opinions.
de (5.6b) , nous avons besoin d'informations auxiliaires qui ne viennent pas directement
des entrées lexicales produites dans la tradition sémantique de Montague.
(5.6 ) a. Boris est un chat.
b. Boris est un animal.
La solution à ce problème dans l'approche montagovienne était de construire des pos
tulats de sens donnant ces inférences, une approche poussée par Dowty [1979] . Mais les
linguistes n'avaient pas vraiment essayé de codifier de manière systématique ces postu
lats. Dans l'IA deux pistes se sont dégagées pour apporter des techniques pour résoudre
ce problème. La première consiste à essayer d'axiomatiser de façon plus ou moins com
plète dans la logique du premier ordre les informations associés à des lexèmes, dont
l'exemple de la base de connaissances CYC développée par Douglas Lenat, qui continue
probablement à être l'effort le plus massif en ce sens [Lenat, 1995] . Cette approche est
encore d'actualité dans la discipline de l'ontologie formelle et des conférences comme
FOIS et ISMIS, ainsi que les conférences générales en IA, et a eu le plus de succès avec
l'axiomatisation des informations temporelles et spatio-temporelles.
Une deuxième piste a consisté à utiliser des outils comme les structures de traits et
l'unification, développés pour le traitement de la syntaxe en LFG et HPSG, avec des
treillis de concepts associés à des mots. L'utilisation de systèmes d'héritage comme ceux
examinés par Horty, Thomason et Touretsky [1987] servaient de moteur d'inférence.
L'idée clef de cette approche est de simplifier l'encodage des connaissances lexicales en
utilisant un langage beaucoup moins expressif que la logique du premier ordre. Cette
approche est la plus visible en linguistique dans les travaux de James Pustejovsky [1995]
et sa théorie du lexique génératif. En IA ces techniques sont utilisées dans les domaines
de la terminologie et de l'ontologie : nous renvoyons le lecteur au chapitre 1.20 de cet
ouvrage sur l'ingénierie des connaissances qui décrit les travaux relatifs à l'élaboration
et aux usages des ontologies, et au chapitre 1.5 Raisonner avec des ontologies : logiques
de description et graphes conceptuels.
Cependant ces approches ont eu du mal à se faire accepter dans la sémantique for
melle. Elles se sont développées sans grand regard pour leurs fondements logiques, et
n'étaient de ce fait pas vraiment en position de produire des connaissances lexicales
sophistiquées dans la forme requise par les approches logiques. Les faiblesses de forma
lisation et la difficulté d'intégrer les systèmes de traits dans le À-calcul, qui demeure le
moteur principal pour le composition de sens dans la sémantique formelle, ont eu pour
résultat que cette piste n'a pas eu beaucoup d'effet sur la sémantique formelle jusqu'à
présent.
Ces deux approches ne sont pourtant pas exclusives. De nombreux travaux ont
utilisé des langages de représentation des connaissances (voir le chapitre 1.5) possédant
un fondement logique affirmé, comme les Graphes Conceptuels [Sowa, 1984] ou les
Logiques de Description [Brachman et Schmolze, 1985] , pour représenter concepts et
sens de mots. Le couplage à des modèles syntaxiques à base de structures de traits et
de relations prédicat-arguments comme les LFG leur donnait les avantages des deux
approches.
Cependant, comme dans tous les autres cas, la mise en œuvre de ces méthodes sur
des textes réels et en vraie grandeur rencontre plusieurs difficultés. Il faut d'une part
réconcilier la rigidité du À-calcul et la souplesse de la langue, dont la métonymie est
1 1 3 0 Panorama de l'intelligence artificielle. Volume 3
-
un exemple. Les auteurs de Bouaud et al. [1996] examinent ainsi l'expression (5.7) :
(5. 7) la dilatation d'une sténose
Si l'on a défini l'action de « dilater » comme portant sur un objet physique (par exemple
une artère) , et sachant qu'une sténose est un état pathologique (le rétrécissement d'une
artère) 1 , l'expression (5. 7) ne permet pas de construire une représentation satisfaisant
les contraintes énoncées car les types objet et état sont incompatibles. On rencontre ici
un phénomène courant : le fait qu'un mot désignant un état soit employé pour désigner
l'objet qui subit cet état, ce qui constitue une forme particulière de métonymie. Des
mécanismes permettant d'échapper à ces contraintes sont alors nécessaires, comme la
coercition de type (Pustejovsky, 1995] , et demandent de sortir du >.-calcul pour rester
adéquats.
D 'autre part, la description exhaustive pour une langue des représentations lexicales
nécessaires demande soit un effort humain colossal, comme l'a entrepris CYC, soit des
méthodes d'acquisition automatique de connaissances à partir de corpus textuels () ou
d'encyclopédies, ce que l'existence de Wikipédia (http : //www . wikipedia . fr/) rend
aujourd'hui envisageable.
(5 .9) The murderer lunged towards John. John hit the murderer with a hammer.
le syntagme prépositionnel with a hammer peut s'attacher soit au syntagme nominal
the murderer pour préciser la dénotation du syntagme nominal, soit au syntagme verbal
hit the murderer comme adverbe de manière, ce qui serait l'attachement préféré dans
ce contexte discursif. Les inférences défaisables constituent une partie importante du
mécanisme de déduction des liens anaphoriques, comme l'ont montré les travaux de
Megumi Kamayama [1995] . Celle-ci donne comme exemple :
(5. 10) Jean a frappé Arnold Schwarzenegger. Il a eu mal.
Il s'agit ici de déterminer le référent de il. Étant donné les informations générales à
cette époque sur Arnold Schwarzenegger, la résolution préférée mais défaisable pour
le pronom était Jean. Finalement, on peut citer le domaine de la désambiguïsation
lexicale comme un autre champ où sont employées des inférences défaisables. Prenons
par exemple le verbe anglais enjoy. Dans
(5. 1 1) John enjoyed the meal.
le verbe requiert un événement comme objet direct : John a apprécié les plats du repas,
ou encore la conversation du repas, le décor du repas, etc. Or l'interprétation préférée de
cette phrase est que Jean a apprécié les plats du repas. Mais cette interprétation reste
défaisable : John aurait pu dans un autre contexte aimer la conversation ou l'ambiance
bien qu'il ait trouvé les plats médiocres.
C'est l'IA qui a fourni aux linguistes et aux philosophes des formalisations précises
du raisonnement défaisable en développant la logique non monotone. La méthode de
circonscription de John McCarthy [1980] et la logique des défauts de Ray Reiter [1980] ,
développées à la fin des années 70, offraient des cadres formels bien définis pour étudier
le raisonnement défaisable et ont engendré d'autres systèmes formels pour la logique
non monotone, beaucoup d'articles, et une série de colloques internationaux sur ce
thème (voir le chapitre 1.2 de cet ouvrage) . En partie, les formalisations de McCar
thy et de Reiter répondaient à un défi lancé par l'un des partisans des modèles de
scripts/frames, Marvin Minsky, qui avait dit que la logique ne pouvait pas formaliser
de façon adéquate une phrase comme
(5. 12) Les oiseaux volent.
(penser au cas des autruches) . Depuis, l'étude linguistique des phrases comportant des
syntagmes nominaux « génériques » comme (5. 12) a confirmé que les efforts de Mc
Carthy et Reiter ont fourni à la linguistique des outils précieux. Ces méthodes et leurs
descendants ont été appliqués à beaucoup de phénomènes linguistiques. Pour n'en citer
que quelques exemples : la présupposition [Mercer, 1987] , l'inférence des relations rhé
toriques [Lascarides et Asher, 1993 ; Hobbs et al. , 1993 ; Asher et Lascarides, 2003] , les
modalités [Veltman, 1996] , l'analyse des temps verbaux [Asher, 1992] , les implicatures
scalaires [van Rooij et Schultz, 2004] , les syntagmes nominaux génériques [Asher et
Morreau, 1995 ; Pelletier et Asher, 1997] .
Ces approches basées sur des systèmes de raisonnement fournissaient des méca
nismes puissants pour traiter un certain nombre de phénomènes linguistiques. Elles se
montraient néanmoins encore trop fragiles pour traiter des textes arbitraires et don
ner une véritable validation empirique des théories sous-jacentes. La manipulation de
l 1 32 Panorama de l'intelligence artificielle. Volume 3
-
l'incertain avec le raisonnement non monotone requérait par exemple un effort d'axio
matisation considérable pour arriver à modéliser des phénomènes simples. Ici encore,
l'espoir est que le développement des techniques d'apprentissage (voir plus bas, sec
tion 5.4) et l'arrivée d'analyseurs syntaxiques performants à large couverture rendront
ces méthodes réellement utilisables.
2. Intervention à la table ronde « RING (RefreshINGenious Ideas) », dont l'un des sujets débattus
était « The Pendulum has swung too far. The revival of empiricism in the 1990s was an exciting time.
But now there is no longer much room for anything else. »
5. Intelligence artificielle et langage - 1 1 35
sujet de tel autre mot. Ces vecteurs se placent dans un espace de grande dimension et
permettent de faire émerger des classes de mots de façon non supervisée [Hirschman
et al. , 1975 ; Grefenstette, 1994 ; Habert et al. , 1996] . Ces classes non supervisées sont
également de plus en plus utilisées comme attributs supplémentaires en classification
supervisée, par exemple pour la segmentation en syntagmes minimaux ( chunks) et pour
la reconnaissance d'entités nommées ['Ihrian et al. , 2010] . Un enjeu est maintenant de
faire entrer cette représentation du sens dans un calcul compositionnel 3 , en faisant
attention aux effets des mots fonctionnels comme, par exemple, les opérateurs booléens
et les quantificateurs V et 3, pour obtenir le sens d'une phrase, voire d'un texte ou
d'un discours. Ceci reste encore un problème non résolu aujourd'hui. Par contre, nous
estimons que la sémantique distributionnelle est une ressource riche qui est exploitable
pour d'autres tâches, par exemple comme traits pertinents pour la construction de la
structure discursive d'un texte.
Enfin, l'ancrage de la langue dans le monde est une dimension complémentaire
que des chercheurs abordent de façon croissante 4 , par l'intermédiaire par exemple de
grands corpus où des textes sont associés à des images ou des vidéos, et où les caracté
ristiques des objets rencontrés dans ces modalités différentes sont mises en relation avec
le contenu des textes. Cela permet de contribuer à la résolution de certaines des tâches
mentionnées plus haut, comme la désambiguïsation de sens de mots [Barnard et al. ,
2003] , et d'étendre la sémantique distributionnelle à des attributs à la fois textuels et
issus de la perception des images [Bruni et al. , 201 1] .
5.5 Conclusion
Dans ce chapitre nous avons esquissé l'histoire du rôle de l'intelligence artificielle
dans le traitement automatique des langues. Nous nous sommes concentrés sur les as
pects logiques, sémantiques et discursifs (section 5.3) et aux apports de l'apprentissage
automatique (section 5.4) , car c'est dans ces sous-domaines du traitement automatique
des langues où on retrouve les interactions les plus immédiates entre la linguistique et
l'intelligence artificielle. Le traitement automatique des langues a fourni à l'intelligence
artificielle des problématiques et applications nouvelles et stimulantes pendant presque
toute l'histoire de ces deux jeunes disciplines. Et nous pensons que cette interaction,
qui est très bénéfique aux deux disciplines, continuera à prendre de l'envergure.
Références
ALLAUZEN, A. et YVON, F. (2011). Méthodes statistiques pour la traduction automa
tique. In GAUSSIER, E. et YVON, F., éditeurs : Modèles statistiques pour l 'accès à
l 'information textuelle, chapitre 7, pages 271-356. Hermès, Paris.
3. C'est par exemple l'objectif mis en avant par Ed Hovy dans ses conférences invitées récentes, de
COLING 2010 à NAACL 2012.
4. Voir par exemple le Workshop on Learning Word Meaning /rom Non-Linguistic Data à HLT
NAACL 2003 : http : //acl . ldc . upenn . edu/W/W03/W03- 0600 . pdf .
1 1 3 6 Panorama de l'intelligence artificielle. Volume 3
-
PRASAD, R. , D INESH, N., LEE, A., MILTSAKAKI, E. , ROBALDO, L., JOSHI, A. et WEB
BER, B. {2008) . The penn discourse treebank 2.0. Proceedings of the 6th International
Conference on Language Resources and Evaluation (LREC 2008}, page 2961.
PUSTEJOVSKY, J. {1995) . The Generative Lexicon. MIT Press.
RABIN, M. {1990) . Communication between rational agents. Journal of Economie
Theory, 51 : 144-170.
REITER, R. {1980) . A logic for default reasoning. Artificial Intelligence, 13 :91-132.
ScHANK, R. et ABELSON, R. {1977) . Scripts, Plans, Goals, and Understanding. Law
rence Erlbaum Associates, Hillsdale, New Jersey.
SCHMID, H. { 1994) . Probabilistic part-of-speech tagging using decision trees. In Pro
ceedings of the International Conference on New Methods in Language Processing,
pages 44-49, Manchester, UK.
SEARLE, J. R. {1980) . Minds, brains, and programs. Behavioral and Brain Sciences,
3(3) :417-424.
SowA, J. F. { 1984) . Conceptual Structures : Information Processing in Mind and
Machine. Addison-Wesley, London.
THOMASON, R. H., éditeur {1974) . Formal Philosophy. Yale University Press, New
Haven. ·
Chapitre 6
Bioinformatique
6.1 Introduction
La bioinformatique s'intéresse à toutes les applications de l'informatique et des tech
nologies de l'information à la biologie moléculaire. En tant que domaine de recherche,
elle est devenue visible avec le développement rapide des technologies de séquençage
de génome au début des années 1990, se focalisant d'abord sur les problèmes d'analyse
de séquences d'ADN. De nos jours, la bioinformatique offre un large spectre couvrant
la conception de bases de données, d'algorithmes dédiés, de techniques statistiques ou
de théories pour résoudre des problèmes formels ou pratiques générés par la gestion
et l'analyse de données biologiques diverses, dépassant largement le seul cadre des sé
quences d'ADN. Elle s'étend maintenant à toutes les approches informatiques visant
à améliorer la compréhension des processus biologiques, à toutes les échelles du vivant
{ADN, cellule, tissu, organisme, populations) .
De fait, la bioinformatique exploite des résultats issus de domaines variés de l'in
formatique, des statistiques et des mathématiques. La finalité générale, l'interprétation
de données brutes, souvent de nature discrète (telles les séquences) , et produites dans
des quantités importantes par des technologies dites à haut débit, a rapidement donné
de l'importance aux techniques issues de l'intelligence artificielle. Les méthodes de
découverte de motifs, de fouille de données, de traitement du signal et du langage,
quencé à l'ensemble des molécules (ARN, protéines) que la cellule peut produire reste
un problème difficile car les régions de l' ADN impliquées dans ce processus ne sont pas
explicites et peuvent être morcelées. Ces problèmes d'analyse de séquence et de pré
diction de gènes continuent de faire l'objet de nombreux travaux en bioinformatique.
Une fois ce catalogue construit, il faut encore identifier les fonctions biochimiques de
chaque molécule, les conditions dans lesquelles leur synthèse est déclenchée et les ac
teurs avec lesquels elle peut réagir ou interagir. L'annotation fonctionnelle des génomes
cherche à répondre à ces questions. Au sein d'une espèce, la comparaison des génomes
de différents individus peut permettre l'identification de mutations ou de variations
structurales de !'ADN responsables de différences de phénotype ou de susceptibilités à
certaines maladies.
Prédiction de gènes La prédiction des gènes de protéines peut être d'une difficulté
très variable selon le type d'organisme et en particulier la compacité de son génome.
Dans les organismes les plus simples (virus, bactéries) , une protéine est associée à un
intervalle de la séquence d'ADN du génome, ces intervalles pouvant être chevauchants.
Dans les organismes possédant un noyau (eucaryotes) , du parasite du paludisme
aux vertébrés, en passant par les plantes, un gène est habituellement segmenté en une
succession de régions appelées « exons », séparées par des régions non codantes appelées
introns. Une ponctuation assez floue encadre ces différentes régions. Un intron est ainsi
bordé par des motifs mal caractérisés, appelés signaux d'épissage, dont le contenu est lié
à des interactions avec une machinerie moléculaire complexe et mal connue. La part du
génome utilisée par ces gènes peut être très faible, ce qui ne facilite pas leur recherche.
Trois grands principes sont utilisés pour détecter les gènes :
l. les propriétés statistiques spécifiques liées à l'utilisation du code génétique (pé
riodicité grossière de 3, fréquences des codons ... ) et à la présence des signaux
(épissage, codons spécifiques ... ) . On parle d'approche ab initio ou intrinsèque.
2. la similarité (syntaxique) d'une partie du génome avec une séquence expérimen
talement caractérisée comme faisant partie d'un gène. On parle d'approche ex
trinsèque.
3. la conservation de la séquence entre deux régions de deux organismes pas trop
proches (ayant suffisamment divergé au cours de l'évolution pour qu'une telle
conservation soit inattendue) . Si elle est significative, cette conservation doit être
1 144 Panorama de l'intelligence artificielle. Volume 3
-
le fruit d'une pression sélective liée au fait que la région assure une fonction biolo
gique importante et porte sans doute un gène. On parle d'approche comparative.
L'approche ab initio s'est rapidement appuyée sur des modélisations classiques de
la segmentation utilisées en reconnaissance des formes et en traitement du signal et du
langage. Dans un premier temps, ce sont essentiellement des variantes des chaînes de
Markov qui ont été utilisées pour caractériser les gènes des organismes simples (bac
téries) . Le cas plus complexe des organismes eucaryotes, avec des gènes segmentés, a
été abordé en s'appuyant sur des modèles de type chaînes de Markov cachées (HMM)
[Rabiner, 1990] ou des variantes telles les semi-HMM, permettant de représenter ex
plicitement les distributions de longueur des différentes régions, exons, introns, région
sans gène, etc. . . Pour identifier les signaux de ponctuations « flous » dans les gènes,
une très grande variétés de méthodes de classification de motifs textuels ont été uti
lisées : réseaux de neurones, fonctions de discrimination linéaires ou non, séparateurs
à vaste marges (SVM) (voir chapitre I.9) , modèles probabilistes (chaînes de Markov
non homogènes, réseaux bayésiens... . Voir chapitre II.8) . Tous ces modèles, qu'ils soient
probabilistes ou non, sont généralement appliqués dans un cadre « supervisé » et néces
sitent par conséquent la construction préalable de grands jeux d'apprentissage utilisés
pour estimer les paramètres des modèles. La construction du jeu d'apprentissage peut
être assez lourde, car elle nécessite généralement un travail expérimental délicat. Ces
méthodes sont toujours utilisées dans les prédicteurs de gènes ab initio [Lukashin et
Borodovsky, 1998 ; Stanke et al. , 2006 ; Burge et Karlin, 1997] . Un travail algorith
mique non négligeable a été nécessaire pour permettre de tirer parti des propriétés
spécifiques du problème de prédiction de gènes pour rendre praticable les approches
de type semi-HMM dont les algorithmes associés, de complexité quadratique, sont peu
compatibles avec la taille des données traitées.
Les approches extrinsèques et comparatives sont limitées par la connaissance d'un
existant avec lequel se comparer. La majorité des travaux ici ne proviennent pas de l'in
telligence artificielle mais s'appuient sur des programmes issus du domaine de l'analyse
de séquences permettant la comparaison rapide de séquence à grande échelle tels que
BLAST [Altschul et al. , 1990] , qui est l'un des outils les plus utilisés de la bioinforma
tique. Les régions similaires ainsi identifiées sont rarement complètes ou précises, mais
assez fiables.
Depuis les années 2000, l'essentiel des travaux a été consacré à la conception de pré
dicteurs « consensuels » (ou intégratifs) permettant de prendre en compte simultané
ment le plus possible d'informations pertinentes : propriétés statistiques, similarités de
séquence, conservation de séquence, prédictions issues d'autres sources (expérimentales
ou non) . Le modèle HMM qui modélise la distribution de probabilité jointe des données
observées, c'est-à-dire la séquence d'ADN, et de sa segmentation en exons, introns ... qui
sont des données cachées, devient mal adapté. En effet, l'intégration d'une variété de
données de sources disparates dans un tel cadre est incompatible avec les hypothèses
d'indépendance sous-jacentes au formalisme. Les prédicteurs de gènes intégratifs uti
lisent donc systématiquement des modèles discriminants, modélisant uniquement en
quoi les observations rendent plus ou moins vraisemblables différentes segmentations.
Ainsi, le formalisme des champs aléatoires conditionnels [Lafferty et al. , 2001] est main
tenant au cœur de nombreux prédicteurs de gènes car il permet de se libérer, dans une
6. Bioinformatique - 1 1 45
[Corpet et al. , 1998] et Pfam [Sonnhammer et al. , 1997] contiennent plusieurs milliers
de modèles de chaînes de Markov cachées de type profile ( pHMM ) (Durbin et al. , 199 8]
caractéristiques de chaque type de domaine connu et largement utilisés par la com
munauté pour l'annotation de génomes. Le succès des pHMM tient en leur structure
simple de type gauche-droite, modélisant cependant les phénomènes d'insertions, de
délétions et de mutations, et surtout dans le schéma d'entraînement des pondérations
basé sur une grande utilisation de densités de probabilité définies a priori, implémenté
dans les deux principales suites logicielles SAM et HMMR (Krogh et al. , 1994 ; Eddy,
1998] . Des structures de HMM plus spécialisées intégrant des connaissances expertes
sur l'application visée ont été conçues avec succès pour la prédiction de régions trans
membranaires dans TMHMM (Sonnhammer et al. , 1998] et / ou de signaux peptidiques
dans Phobius (Kall et al. , 2004] , éventuellement couplées à des réseaux de neurones
artificiels comme dans SignalP 3.0 [Bendtsen et al. , 2004] . L'inférence automatique
de la structure de HMMs reste un problème difficile et relativement ouvert, même si
des avancées, obtenues par le croisement de techniques d'alignement de séquence avec
des méthodes d'inférence grammaticale, ont pu être réalisées dans ce domaine pour la
caractérisation de familles de protéines [Kerbellec, 2008] .
l'expression des gènes dans des échantillons soumis à diverses conditions expérimen
tales, provenant de différents patients, ou provenant de souches ayant des différences
génétiques connues, on peut caractériser chaque gène par son profil d'activité dans
ces différents échantillons. Cette information est évidemment très utile pour l'annota
tion fonctionnelle des gènes, et de nombreux outils de classification supervisée et non
supervisée, visualisation, ou décomposition en composantes additives on été proposés
dans ce but. Par exemple, la simple classification hiérarchique est un outil maintenant
standard pour détecter des groupes de gènes ayant des profils similaires, et donc sus
ceptibles d'avoir également des fonctions similaires [Eisen et al. , 1998] . Les algorithmes
de classification supervisée ont été utilisés pour prédire la fonction de gènes à partir
de leurs profils d'expression [Brown et al. , 2000] . Un autre exemple est l'utilisation
d'analyse en composantes principales ou de factorisation de matrices pour la recherche
de variables latentes susceptibles de représenter des modules de gènes participant à une
même fonction biologique [Raychaudhuri et al. , 2000 ; Brunet et al. , 2004] .
1981] pour déterminer une structure d'énergie optimale reste essentiel, les modèles
thermodynamiques restent assez approximatifs, et la vraie structure n'est malheureu
sement pas souvent la structure optimale. Certains outils de prédiction de structure
tels que celui de Gaspin et Westhof [1995] ou MC-SYM [Major, 2003] s'appuient sur des
formalismes de l'intelligence artificielle tels que les réseaux de contraintes [Rossi et al. ,
2006] pour caractériser et identifier les structures possibles d'une séquence d'ARN en
intégrant plus d'informations que les données de thermodynamique.
Pour intégrer encore plus d'information, une approche comparative est souvent
utilisée. Elle consiste à prédire une structure sur la base de plusieurs séquences d' ARN
ayant la même fonction mais issus d'organismes différents. Une structure idéale est
alors une structure qui peut être adoptée par ces séquences ( formation d'hélices ) et qui
est d'énergie pas trop éloignée de l'énergie optimale. L'approche fondamentale [Sankoff,
1985] s'appuie sur la programmation dynamique mais est trop lourde en pratique. Des
versions heuristiques mais efficaces ont donc été définies [Touzet et Perriquet, 2004 ;
Bernhart et al. , 2008] .
La question de l'annotation des génomes a conduit à développer des méthodes
d'identifications de gènes d' ARN dans les génomes complets. Trois types d'approches
existent : (1) en partant d'une description de la structure d'ARN connus et en cher
chant les régions qui peuvent se replier selon la même structure, (2) via une approche
comparative (exploitant la conservation des hélices et autres composants essentiels de
la structure) ou (3) ab initio (en s'appuyant sur les propriétés intrinsèques de l'ARN ) .
La première approche nécessite de pouvoir formaliser ce qu'est « la structure »
d'une famille ARN, ce qui est déjà problématique. En ignorant certaines complexités
des structures, celles-ci peuvent en général se décrire via un arbre, et le formalisme
des grammaires stochastiques libres de contexte ( Stochastic Context Free Grammar,
ou SCFG ) , utilisé notamment en intelligence artificielle en analyse du langage, fournit
des représentations pouvant être entraînées automatiquement pour caractériser chaque
famille de séquences de structures connues. Ces modèles, aussi appelés modèles de co
variance [Sakakibara et al. , 1994 ; Eddy et Durbin, 1994] , sont ensuite utilisés pour
analyser (parser) la séquence génomique (par programmation dynamique) et identifier
des régions qui sont vraisemblablement des gènes d'ARN de la même famille. Diffé
rentes bases de données (RFAM [Griffiths-Jones et al. , 2005] , ncRNAdb [Szymanski
et al. , 2007] ... ) regroupent au niveau international un ensemble de modèles de ce type.
Ces modèles probabilistes restent lourds et peu « compréhensibles » par les biologistes.
Une autre famille d'approche s'appuie plus sur l'utilisation de langages dédiés et ac
cessibles pour décrire les propriétés que doivent satisfaire les ARN d'une famille don
née [Laferriere et al. , 1994 ; Dsouza et al. , 1997 ; Billoud et al. , 1996] . Les formalismes
de description des connaissances tels que les réseaux de contraintes et les réseaux de
contraintes pondérées ont ainsi été utilisés [Thebault et al. , 2006 ; Zytnicki et al. , 2008] .
Les algorithmes associés, de type « recherche arborescente avec filtrage par cohérence
locale » [Rossi et al. , 2006] , permettent ensuite de localiser les régions qui satisfont ces
propriétés, par la résolution d'un problème de satisfaction de contraintes . Plus ou
verts que les modèles probabilistes, ils présentent l'inconvénient de ne pas disposer de
méthodes de construction automatique à partir d'un jeu d' ARN de structure connue.
D 'autres méthodes suivent une approche hybride [Macke et al. , 2001] .
6. Bioinformatique - 1 1 49
sur le taux de production de ses cibles sont décrits par des graphes d'interaction ou
des graphes d'influence, qui peuvent être obtenus par exemple par inférence automa
tique. Des descriptions plus cinétiques concernent les effets déterministes des réactions
moléculaires c'est-à-dire, l'état du système au temps n + 1 en fonction de son état au
temps n. C'est le cas par exemple, des réseaux de signalisation. Elles sont représentées
par des graphes de réaction qui sont interprétés à l'aide de langages et de formalismes
booléens (Kauffman, 1971 ; Chabrier-Rivier et al., 2004] . Ces approches déterministes
sont parfois prises en défaut par l'existence de différentes échelles de temps, en parti
culier dans les réseaux de régulation génétique - une transcription est bien plus longue
que la dégradation d'une protéine. La dynamique devient alors non déterministe, ses
attracteurs à moyen terme qui varient dans l'espace des concentrations sont décrits
à l'aide de modèles multivalués ou linéaires par morceaux (Thomas, 1981 ; De Jong,
2002] .
dans LLL où de nets progrès en terme de qualité sont observés, mais où le passage à
l'échelle reste un verrou malgré des tentatives remarquables comme celle de MEDIE.
Par exemple, il s'agit dans GerE stimulates sigK transcription d'identifier la protéine
GerE comme agent de l'interaction dont sigK est la cible. L'approche à base de patrons
de surface, par exemple un verbe d'interaction encadré par deux noms de protéines, est
peu à peu abandonnée au profit de l'analyse syntaxique des dépendances qui permet de
rendre compte de cas de dépendances longues distances, d'ellipses ou d'apposition que
les patrons échouent à traiter [Rinaldi et al. , 2008] . Par exemple dans la phrase : GerE
stimulates cotD transcription and cotA transcription [.. ], and, unexpectedly, inhibits
.
préalablement identifié que GerE est le sujet du verbe inhibits dont la transcription
du gène sigK est l'objet. L'extraction de relations à base d'apprentissage automatique
(classification discriminante) est rendue difficile par la complexité et la variété des for
mulations et la relative petite taille des corpus annotés. Le travail pluridisciplinaire de
Alain-Pierre et al. (2008] compense par exemple cette limitation grâce à la programma
tion logique inductive (PLI) , exploitant une ontologie décrivant les différents modèles
biologiques sous-jacents, tels que la fixation ( binding) de la protéine sur le promoteur,
l'appartenance à un régulon ou la mutation du gène cible.
Les avancées dans le domaine de la RI pour l'indexation automatique en texte plein
(à-la- Google) , par opposition à l'indexation contrôlée, sont limitées par la faible adé
quation des terminologies existantes. Trois raisons principales en sont à l'origine. Outre
la rareté et l'incomplétude des terminologies pour de nombreux domaines à l'exclusion
de certains champs du domaine biomédical, les terminologies sont conçues à des fins
d'indexation contrôlée c'est-à-dire manuelle, ou de normalisation du vocabulaire, et
non pas pour la projection automatique sur du texte. De ce fait, les termes d'indexa
tion sont choisis pour leur compréhensibilité hors contexte quand les rédacteurs vont
préférer une formulation moins dense. Enfin, les synonymes sont rarement indiqués, ou
de façon incomplète au regard de la richesse des formulations textuelles. L'acquisition
plus ou moins automatisée à partir de corpus de terminologies structurées repose sur
l'extraction automatique de termes (Nédellec et al. , 2009] , utilisant ou non des métho
des de variation morpho-syntaxiques, puis l'application de patrons dits à-la-Hearst ou
la sémantique distributionnelle (classification non supervisée clustering) pour l'extrac
tion de relations de synonymie ou d'hyperonymie. Les années à venir devraient voir
l'intégration de ces approches automatiques avec des interfaces coopératives dans des
applications opérationnelles.
Jusqu'ici, l'hypothèse très forte de bijection parfaite entre les labels des concepts
des ontologies et les termes des textes a négligé des phénomènes linguistiques très fré
quents tels que la métonymie GerE stimule sigK peut être indifféremment décrit par
-
l'expressivité dans les ontologies pour préserver le lien au texte. Par exemple le terme
hyperthermophile bacteria dans un document devrait être représenté non pas unique
ment par le concept hyperthermophile bacteria mais à l'aide des concepts d'habitat, de
températures normales et extrêmes pour un habitat, et d'intervalles de température, si
l'ontologie doit permettre un raisonnement sur les biotopes des bactéries. Cette voie est
peu explorée en lien avec l'analyse textuelle et reste un chaînon manquant pour l'ex-
6. Bioinfonnatique - 1 1 55
ploitation des ontologies dans des applications documentaires. Elle est liée à la question
montante de l'implication textuelle ( textual entailment) en EL
6.5 Conclusion
Nous avons présenté dans ce chapitre quelques problématiques phares de la bio
informatique qui ont bénéficié de méthodes issues de l'intelligence artificielle, et qui
ont également généré de nouveaux besoins de structuration, modélisation et analyse
de données et de connaissance. La biologie vit depuis une décennie une véritable ré
volution caractérisée par l'apparition à un rythme effréné de nouvelles technologies
générant d'énormes quantités de données, et par l'importance croissante prise par les
outils mathématiques et informatique pour la manipulation et l'exploitation de ces
données pour en extraire de la connaissance. On peut prédire que l'intelligence artifi
cielle aura encore une belle place à prendre pour assister le biologiste à travers cette
révolution, en n'oubliant jamais - aussi bien du côté informatique que biologique - que
les prédictions in silico ne restent que des prédictions et qu'elles doivent être confirmées
expérimentalement in vitro ou, mieux, in vivo.
Références
AKUTSU, T., MIYANO, S. et KUHARA, S. (2000) . Algorithms for identifying Boolean
networks and related biological networks based on matrix multiplication and finger
print fonction. J. Comput. Biol. , 7(3-4) :331-343.
ALAIN-PIERRE, M., ERICK, A. et PHILIPPE, B. (2008) . Genic interaction extraction by
reasoning on an ontology. In SALAKOSKI, T., REBHOLZ-SCHUHMANN, D. et PYY
SALO, S., éditeurs : Proceedings of the Third International Symposium on Semantic
Mining in Biomedicine {SMBM 2008}, Turku, Finland. Turku Centre for Computer
Science (TUCS ) .
ALTMAN, R. B., BERGMAN, c., BLAKE, J., BLASCHKE, c., COHEN, A., GANNON, F.,
GRIVELL, L., HAHN, u. , HERSH, W., HIRSCHMAN, L., JENSEN, L. J . , KRAL LINGER,
M., MONS, B., O ' DONOGHUE, S. I., PEITSCH, M. c., REBHOLZ-SCHUHMANN, D . ,
H . , S. et A . , V . (2008) . Text mining fo r biology - the way forward : opinions from
leading scientists. Genome Biology, 9 :2.
ALTSCHUL, S. F., G1sH, W., MILLER, W. , MYERS, E. W. et LIPMAN, D. J. (1990) .
Basic local alignment search tool. J Mol Biol, 215(3) :403-10.
ALTUN, Y. , TSOCHANTARIDIS, I. et HOFMANN , T. (2003) . Hidden markov support
vector machines. In FAWCETT, T. et MISHRA, N., éditeurs : ICML, pages 3-10.
AAAI Press.
ANANIADOU, S. et MCNAUGHT, J. (2005) . Text Mining for Biology And Biomedicine.
Artech House, Inc.
1 1 56 Panorama de l'intelligence artificielle. Volume 3
-
2074-80.
TH OMAS, R. ( 1981 ) . On the relation between the logical structure of systems and their
ability to generate multiple steadt states or sustained oscillations. Springer Ser.
Synergetics, 9 : 180-193.
ToUZET, H. et PERRIQUET, 0 . ( 2004 ) . CARNAC : folding families of related RNAs.
Nucleic Acids Res, 32 (Web Server issue ) :Wl42-5.
T ROYANSKAYA, O. G., DOLINSKI, K., OWEN, A. B., ALTMAN, R. B. et BoTSTEIN,
D. ( 2003 ) . A bayesian framework for combining heterogeneous data sources for
gene function prediction ( in saccharomyces cerevisiae) . Proc. Natl. Acad. Sei. USA,
100 ( 14 ) :8348-8353.
WARD, J. J., McGUFFIN, L. J . , BuxTON, B. F. et JONES, D. T. ( 2003 ) . Secondary
structure prediction with support vector machines. Bioinformatics, 19 ( 13 ) : 1650-
1655.
WASHIETL, S. ( 2007) . Prediction of structural noncoding RNAs with RNAz. Methods
Mol Biol, 395 :503-26.
WINGENDER, E. , CHEN, X., HEHL, R., KARAS, H., LIEBICH, I. , MATYS, V. , MEIN
HARDT, T., PRUBETA, M., REUTER, I. et SCHACHERER, F. ( 2000 ) . TRANSFAC : an
integrated system for gene expression regulation. Nucl. Acids Res., 28 ( 1 ) :316-319.
WITTEN, I. H. et FRANK, E. ( 2005 ) . Data Mining : Practical Machine Learning Tools
and Techniques. Morgan Kaufmann Series in Data Management Systems. Morgan
Kaufmann.
ZUKER, M. et STIEGLER, P. ( 1981 ) . Optimal computer folding of large RNA sequences
using thermodynamics and auxiliary information. Nucleic Acids Res, 9 ( 1 ) : 133-48.
ZYTNICKI, M., GASPIN, C. et SCHIEX, T. ( 2008 ) . DARN ! A weighted constraint solver
for RNA motif localization. Constraints, 13 ( 1 ) :91-109.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 65
Chapitre 7
Intelligence artificielle et
reconnaissance des formes,
• •
v1s1on, apprentissage
7. 1 Introduction
La convergence entre les domaines de l'intelligence artificielle et ceux de la recon
naissance des formes, de la vision par ordinateur et de la robotique est de plus en
plus visible, et les recouvrements et intersections entre ces domaines se sont élargis
ces dernières années. L'objectif de ce chapitre est d'en montrer quelques aspects, en
particulier pour l'interprétation de haut niveau de scènes visuelles et pour l'intégration
de connaissances dans les méthodes de traitement et d'interprétation.
Beaucoup de thèmes abordés dans les autres chapitres et de méthodes qui y sont
décrites peuvent également être associés à des problématiques de reconnaissance des
formes, vision artificielle ou encore interprétation d'images. Il en va de même pour les
problématiques de la robotique. Ainsi les théories de l'incertain sont elles largement
utilisées pour modéliser les imperfections des données, des objectifs et des modes de
Auteurs : ISABELLE BLOCH, RÉGIS CLOUARD, MARINETTE REVENU et ÜLIVIER SIGAUD.
1 1 66 Panorama de l'intelligence artificielle. Volume 3
-
Dans cette section, nous proposons un bref panorama des interactions entre intel
ligence artificielle et vision par ordinateur, du point de vue des systèmes à base de
connaissances pour l'interprétation d'images et de scènes, et pour la reconnaissance de
formes, de structures ou d'objets dans les images. L'objectif général de ces approches
est d'ajouter de la sémantique aux images, en associant des informations visuelles ex
traites des images d'une part et des connaissances ou des modèles d'autre part [Crevier
et Lepage, 1997 ; Le Ber et Napoli, 2002] .
Une des difficultés principales, au-delà des questions de représentation et de rai
sonnement, est de mettre en correspondance les niveaux perceptuels et conceptuels.
Le niveau perceptuel comporte les primitives extraites des images, donc proches de
l'information au niveau des pixels en 2D ou des voxels en 3D. Le niveau conceptuel
est au contraire souvent décrit sous forme textuelle. Ce problème est souvent appelé le
problème du fossé sémantique, défini par [Smeulders et al. , 2000] comme suit : « the
lack of coïncidence between the information that one can extract from the visual data
and the interpretation that the same data have for a user in a given situation » . Il
est proche des problèmes d'ancrage de symboles traités en intelligence artificielle et en
robotique [Harnad, 1990 ; Coradeschi et Saffiotti, 1999] .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 67
7.2. 1 Connaissances
Les connaissances modélisées dans les systèmes à base de connaissances concernent
la scène et tout ce qui peut être utile à son interprétation. La distinction la plus classique
est toujours celle de [Matsuyama et Hwang, 1990] :
- les connaissances génériques sur le type de scène (décrivant typiquement les
objets qu'elle contient et les relations entre ces objets) ou le type d'images,
- les connaissances spécifiques aux images, constituant les données d'observation
de la scène, et à leur traitement, et qui sont nécessaires pour extraire des infor
mations de ces images,
- les connaissances permettant de faire le lien entre la scène et l'image, contribuant
à répondre au problème du fossé sémantique.
tion spatiale ;
- les graphes conceptuels (Sowa, 1984 ; Chein et Mugnier, 2008] , constitués de
nœuds de concepts et de nœuds de relations, et d'arcs permettant de les relier. La
représentation graphique permet de les construire et de les manipuler aisément ;
- les ontologies et les logiques de description, qui fournissent une formalisation, de
manière cohérente et consensuelle, des connaissances d'un domaine donné (Gru
ber, 1993] (voir aussi le chapitre 1.5) .
En vision et en interprétation d'images, où l'on opère dans des environnements
incomplètement spécifiés et seulement partiellement connus, on trouve des exemples
de systèmes à base de connaissances essentiellement pour la supervision de pro
grammes (Clément et Thonnat, 1993 ; Nazif et Levine, 1984] et pour l'interprétation
d'images (Desachy, 1990 ; Hanson et Rieseman, 1978 ; Matsuyama, 1986 ; McKeown
et al. , 1985] , pour ne citer que les travaux précurseurs.
En vision, des tâches spécifiques de focalisation et adaptation (avec leurs méca
nismes attentionnels, de révision ou réparation et de maintien de la cohérence) , de
coopération et fusion ( confrontative, augmentative, intégrative) , de coordination (déli
bérative, réactive, optimale) sont ajoutées aux systèmes à base de connaissances (Gar
bay, 2001] .
Des travaux récents proposent d'utiliser les ontologies pour introduire de la séman
tique et pour réduire le problème du fossé sémantique. Par exemple dans (Town, 2006] ,
il est proposé d'ancrer dans le domaine de l'image, à l'aide de techniques d'apprentis
sage supervisé, les termes d'un langage de requêtes utilisé pour rechercher des images
par mots-clés. Une approche semblable est utilisée par (Mezaris et al. , 2004] et (Hude
lot, 2005] , qui définissent une ontologie intermédiaire de concepts visuels dont chaque
concept est ancré à un ensemble de descripteurs calculés dans l'image. Cette approche
permet d'une part de faire des requêtes de manière qualitative à l'aide des concepts de
l'ontologie intermédiaire ou du domaine mais elle permet aussi de filtrer et sélectionner
les résultats pertinents en fonction de leurs caractéristiques visuelles.
Les modes de raisonnement associés à ces différents types de représentations dé
pendent de la logique utilisée. Un des problèmes difficiles est la mise en correspondance
entre un modèle de connaissances et des informations extraites des images, en parti
culier à cause du fossé sémantique. Ce problème est simplifié lorsque ces informations
représentent directement des objets (Saathoff et Staab, 2008 ; Benz et al. , 2004] . Lorsque
ce n'est pas le cas (par exemple lorsque l'image à interpréter est sur-segmentée) des ap
proches de mise en correspondance inexacte de graphes, de satisfaction de contraintes
ou de raisonnement spatial doivent être mises en œuvre (Perchant et Bloch, 2002 ;
Bengoetxea et al. , 2002 ; Deruyver et Hodé, 1997, 2009 ; Colliot et al. , 2006 ; Nempont
et al. , 2010, 2013 ; Atif et al. , 2013] .
7 .2.4 Incertain
Les informations manipulées en interprétation d'images et en vision par ordinateur
sont le plus souvent imparfaites. Ces imperfections se manifestent sous de multiples
formes : ambiguïté, biais, bruit, incomplétude, imprécision, incertitude, incohérence
et conflit . . . auxquelles peut s'ajouter le caractère variable et évolutif des informations
dans des scènes dynamiques. Ces imperfections, que l'on retrouve dans la plupart des
1 1 70 Panorama de l'intelligence artificielle. Volume 3
-
problèmes de traitement de l'information [Dubois et Prade, 2001] , sont dues aux phé
nomènes observés, aux limites des capteurs, aux algorithmes de reconstruction et de
traitement, au bruit, au manque de fiabilité (souvent dû aux limites précédentes) , au
mode de représentation, aux connaissances et concepts manipulés.
Il est particulièrement important d'inclure ces imperfections dans les représentations
et dans les modes de raisonnement.
La plupart des modèles numériques utilisés en image pour la représentation de
l'incertain sont les probabilités, les fonctions de croyances, les ensembles flous et les
possibilités. Ils ont été particulièrement développés en fusion d'informations [Bloch,
2008] , mais également pour représenter des informations structurelles telles que des
relations spatiales [Bloch, 2005] .
Dans les représentations probabilistes, le langage est constitué de distributions de
probabilités sur un référentiel. Elles permettent de prendre en compte de manière
rigoureuse des incertitudes aléatoires ou stochastiques. Il est plus difficile de rendre
compte des autres formes d'imperfections, à la fois formellement et sémantiquement.
L'inférence bayésienne, souvent utilisée, permet un raisonnement abductif.
La théorie des fonctions de croyances (ou théorie de Dempster-Shafer [Shafer, 1976])
repose sur un langage défini par des fonctions (appelées dans ce cadre fonctions de
masse, de croyance et de plausibilité) sur l'ensemble des parties du référentiel. Les re
présentations permettent de tenir compte à la fois de l'imprécision et de l'incertitude
(y compris sous sa forme subjective) , de l'ignorance, de l'incomplétude, et donnent
accès au conflit. L'inférence par la règle de Dempster réalise une agrégation de type
conjonctif des informations combinées. D 'autres règles ont été proposées plus récem
ment, permettant d'autres types de comportement [Denœux, 2008] .
Dans la théorie des ensembles flous et des possibilités [Dubois et Prade, 1980, 1988 ;
Zadeh, 1965] , le langage est formé de sous-ensembles flous du référentiel, ou de distribu
tions de possibilités sur celui-ci. Il permet de représenter des informations qualitatives,
imprécises, vagues. L'inférence se fait par des règles logiques (ou leur équivalent sous
forme numérique) , réalisant essentiellement un raisonnement de type déductif, pouvant
être qualitatif. L'intérêt des ensembles flous pour le traitement de l'information en
image et vision peut se décliner en particulier selon les quatre aspects suivants [Bloch,
2003, 2006] :
- la capacité des ensembles flous à représenter l'information spatiale dans les
images ainsi que son imprécision, à différents niveaux {local, régional ou global) ,
et sous différentes formes {numérique, symbolique, quantitative, qualitative) ,
- la possibilité de représenter des informations très hétérogènes, extraites directe
ment des images ou issues de connaissances externes, comme des connaissances
expertes ou génériques sur un domaine ou un problème,
- la possibilité de généraliser aux ensembles flous des opérations pour manipuler
l'information spatiale,
- la souplesse des opérateurs de combinaison permettant de fusionner des infor
mations de multiples natures dans des situations très variées.
Pour plus de détails sur les représentations de l'incertitude, voir le chapitre I.3.
Ces modèles ont été intégrés dans les modes de représentation des connaissances
décrits plus haut, dont les ontologies [Hudelot et al., 2008 ; Hudelot et al. , 2010] .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 171
priori [Fouquier et al. , 2008 ; Fouquier et al. , 2012) . Ce processus débute par l'extraction
des structures les plus simples à segmenter. Les relations spatiales du modèle struc
turel et ces segmentations permettent alors de contraindre l'espace de solutions des
structures anatomiques plus délicates à extraire. Plus le processus progresse, plus le
nombre de structures segmentées est important et plus l'espace de solutions des struc
tures restant à extraire est contraint. Cette approche bénéficie d'une représentation
ontologique des connaissances médicales et des relations spatiales, et les modèles flous
de ces relations permettent de passer aisément du domaine conceptuel au domaine
spatial, répondant ainsi aux questions du fossé sémantique [Hudelot et al. , 2008] .
(a) {b)
FIGURE 1 (a) Coupe axiale d'une IRM 3D d'un patient présentant une tumeur céré
-
brale. {b) Résultats de reconnaissance des structures internes [Nempont et al. , 2010] .
Un exemple de résultat dans un cas pathologique est illustré (sur une coupe) dans
la figure 1 .
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 73
I�
�I
cérébrales dans des images IRM par propagation de contraintes [Nempont et al. , 2010] .
1 1 74 Panorama de l'intelligence artificielle. Volume 3
-
Pour conclure sur ce point, on peut retenir que l'interprétation d'images à partir de
modèles connaît un regain d'intérêt en se situant au carrefour du domaine du traite
ment des images, de la vision par ordinateur et de la reconnaissance des formes d'une
part, et du domaine de l'intelligence artificielle d'autre part. L'association de modèles
structurels génériques et de spécifications propres au contexte, prenant en compte in
certitudes et variabilités, permet de répondre à la question du fossé sémantique. Ces
approches sont actuellement développées pour l'annotation d'images et de vidéos, la
segmentation et la reconnaissance d'objets et de structures, le raisonnement spatial
pour l'exploration d'images, ou encore la production de descriptions de haut niveau du
contenu des images et des séquences d'images.
leur permettant de construire leurs propres applications par exploitation d'une biblio
thèque d'algorithmes de traitement précodés. Les utilisateurs n'ont plus besoin d'être
des experts de traitement d'images ; leur rôle est centré sur la formulation des objec
tifs de traitement. C'est le système qui pilote la bibliothèque de codes pour construire
les programmes par enchaînement et paramétrage des codes en fonction des objectifs
formulés.
Fossé sMSOlfel
Sœne i---....
t...
I ' --�
imaoe ....---+"'
-
1
Desi;tlpteurs ;..
: ��----"IX�-�-
s.:
Il � llfJ<
.. . __
- d
L'intérêt d'une définition par extension est de limiter la charge cognitive des utilisa
teurs du système puisque la formulation ne nécessite aucun langage de représentation.
En revanche, le fait que la définition de la classe d'images soit assignée par le système
seul, à partir d'une liste prédéfinie de caractéristiques extraites des images, rend cette
définition peu adaptable aux particularités de chaque application.
Dans une définition par intension, les informations a priori sont représentées for
mellement par une description linguistique. L'intérêt de cette définition est de mieux
profiter de l'expertise de l'utilisateur sur la scène. Elle fournit un langage capable de
représenter la sémantique de la scène et permet ainsi de mieux capturer la variabilité
des applications. Les ontologies sont ici largement utilisées [Hunter, 2001 ; Bloehdorn
et al. , 2005 ; Town, 2006 ; Renouf et al. , 2007 ; Margret Anouncia et Saravanan, 2007 ;
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 77
Maillot et Thonnat, 2008 ; Neumann et Müller, 2008 ; Gurevich et al. , 2009] . Le lan
gage de description est généralement construit à partir d'une ontologie de domaine qui
fournit les primitives du langage. La description d'une classe d'images particulière est
une ontologie d 'application qui est obtenue par sélection et réification de primitives de
l'ontologie du domaine [Câmara et al. , 2001] . Par exemple, [Maillot et Thonnat, 2008]
proposent « l'Ontologie des Concepts Visuels » qui définit les concepts de texture, de
couleur, de géométrie et de relations topologiques. La figure 5 donne une représentation
textuelle de la définition d'un grain de pollen avec cette ontologie. Pour mieux rendre
compte de la variabilité des manifestations visuelles des objets dans la scène, le langage
accepte des valeurs qualitatives à partir de variables linguistiques, aussi bien pour les
caractéristiques comme par exemple « rose », « très circulaire », « fortement oblongue »,
etc., que pour les relations spatiales telles que « devant », « à côté de », etc.
Toutefois, la construction de la solution nécessite des valeurs quantitatives. De ce
fait, la définition intensionnelle doit aborder le problème de l' ancrage des symboles
dans le but de connecter les symboles linguistiques aux valeurs des données image.
L'enracinement des symboles peut être mené en utilisant des dictionnaires tels que le
« Color Naming System » [Berk et al. , 1982] , où l'espace HSL est divisé en 627 couleurs
distinctes, chacune étiquetée par un nom, ou le dictionnaire des textures « Texture
Naming System dictionary » [Rao et Lohse, 1993] .
Mais, le plus souvent, l'enracinement des symboles est appréhendé comme un pro
blème d'apprentissage à partir d'une base de masques. De ce fait, ce sont souvent des
approches mixtes qui sont utilisées. La définition par intension est complétée d'une
définition par extension qui permet ainsi un ancrage des concepts de l'ontologie dans
les données [Maillot et Thonnat, 2008 ; Hudelot et al. , 2008 ; Clouard et al. , 2010] .
Pai.r!J. . ""• -
•ü'iJ ""� � j:t}6($) lj1
Fuaœaa, gcaoo try : cR:ülir;. aUp:lc.;I'
.llm : lm�
1 huei : pln'k
IP&ttl.r1 1:1im � �i+i"
'�lijfi)· � ! Gf(UU,l l�d
1D;dunJ1 1CîC(llmi;,, : alglîf
5'!"11:1.ll rat.:btJM : .� 't!l.�nt:l.!i'�Pa.nV1 ooœ<JO , IF'oo..!.1 �
f11 n.r-"1'\'(i'11i' P'.it1P'>· J"�P"œ�, F'mJs.)
proches des images de référence. Trois représentations différentes des résultats ont été
proposées dans la littérature :
- Les images de référence contiennent des sketchs qui sont des tracés faits par
l'utilisateur sur des images tests qui donnent des exemples de contours ou de
régions attendus en sortie [Draper et al. , 1999] , comme dans l'exemple de la
figure 6.a.
- Les images de référence sont des segmentations manuelles qui donnent les ré
sultats exacts à obtenir pour les images tests [Martin et al. , 2006] , comme dans
l'exemple de la figure 6.b.
- Les images de référence contiennent des gribouillages qui pointent les régions
d'intérêt sans les détourer complètement [Protière et Sapiro, 2007] . Générale
ment, ces gribouillages sont des traits dessinés directement sur les régions d'in
térêt et sur la région du fond complémentaire des objets, comme dans l'exemple
de la figure 6.c.
L'avantage de cette spécification est qu'elle est par nature quantitative puisqu'elle
prend ses valeurs directement dans les données image. De plus, elle allège la charge
cognitive des utilisateurs parce qu'elle ne nécessite aucun vocabulaire spécialisé. Mais,
l'inconvénient de cette approche est qu'une image de référence n'est pas suffisante pour
formuler toutes les formes d'objectifs. Elle ne s'applique réellement que pour des buts
de segmentation, de détection d'images et éventuellement d'amélioration.
Dans la spécification par tâche, une tâche décrit une fonctionnalité du système,
comme « détecter l'objet 'véhicule' » ou « segmenter l'image ». Cette approche nécessite
un langage de représentation de l'objectif plus ou moins évolué.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 79
Il est ici possible d'associer des contraintes à la tâche pour en préciser sa portée.
De plus, la spécification par tâche présente l'avantage de couvrir tous les objectifs de
traitement d'images : il suffit pour cela de définir le nom d'une tâche.
L'inconvénient est que la formulation est qualitative, sans réel lien avec les données
image. Cela a deux conséquences importantes :
- premièrement, la spécification par tâche n'est pas assez enracinée dans les don
nées,
- deuxièmement, il n'existe qu'un nombre fini de formulations d'objectifs diffé
rentes.
C'est pourquoi là aussi, les approches récentes utilisent des approches mixtes qui
combinent une spécification par tâches et une spécification par l'exemple.
La figure 7 présente une ontologie (Clouard et al. , 2010] qui couvre la définition
de la classe d'images en mixant les approches par intension et par extension et la
spécification des buts mixant les approches par tâche et par l'exemple.
Supervision de codes
La mise à disposition d'une formulation des objectifs de l'application est le préalable
au développement d'une solution sous forme d'une chaîne de traitement.
Dans le paradigme de la supervision de codes [Thonnat et Moisan, 2000] , les tech
niques de traitement d'images sont implantées sous forme de codes exécutables indé
pendants et regroupés dans une bibliothèque. Un programme de traitement d'images
est alors représenté sous forme canonique par un graphe orienté de codes. Les liens
entre les codes décrivent le réseau d'images et de valeurs de paramètres échangées
1 1 80 Panorama de l'intelligence artificielle. Volume 3
-
entre ces codes. Par exemple, la figure 8 montre une chaîne de traitement qui effectue
une détection de contours par différence de deux gaussiennes.
Le problème de la supervision de codes a été abordé de différentes façons, dont les
plus abouties sont :
- la compétition de compétences ;
- l'instanciation de squelettes de plans ;
- la planification de chaînes de codes ;
- le raisonnement à partir de cas ;
- la construction incrémentale du résultat.
Compétition de compétences
L'idée de base de cette approche est d'exploiter la concurrence entre plusieurs stra
tégies de traitement prédéfinies. Par exemple, [Charroux et al. , 1996] proposent d'exé
cuter différentes chaînes de segmentation d'images en parallèle, puis de construire le
résultat final avec les régions les mieux segmentées par chacun de ces algorithmes. La
qualité d'une région est mesurée par son degré d'appartenance à une classe d'objets du
domaine, calculé par un classifieur entraîné pour reconnaître les objets du domaine à
partir de masques faits sur des images exemples.
Martin et al. [Martin et al., 2006] proposent de mettre en concurrence les chaînes
de segmentation d'images pour ensuite sélectionner la meilleure, avec le meilleur pa
ramétrage. La sélection se fait par apprentissage à partir d'exemples d'images pour
lesquelles on fournit la segmentation de référence « idéale » faite à la main. La chaîne
finalement sélectionnée, avec son paramétrage, est celle qui minimise une distance entre
la segmentation obtenue sur une image test et la segmentation de référence donnée pour
cette même image.
L'intérêt de cette approche est qu'elle ne requiert pas de modélisation explicite
d'une expertise. En revanche, elle utilise des chaînes de traitement qui sont figées et en
nombre fini, dont la seule adaptation repose sur les valeurs de paramètres.
L'expertise de traitement est codée dans des squelettes de plans hiérarchiques qui
associent en plusieurs niveaux de décomposition une tâche correspondant à un problème
à un ensemble de codes qui constituent les éléments d'une chaîne de traitement possible.
Les squelettes de plans sont codés par des arbres ET/OU qui indiquent comment une
tâche peut être décomposée en sous-tâches. À chaque nœud, des règles sont utilisées
pour choisir la branche de décomposition la plus adaptée et les valeurs de paramètres
en fonction des éléments de la formulation. La figure 9 présente une ontologie reprenant
les concepts impliqués dans cette approche.
ha.�Goal
\
\, �lriltil
Dans tous les cas, l'application finale est la chaîne de traitement construite opéra
teur par opérateur, qui peut ensuite être utilisée de façon autonome. Afin de limiter
l'impact des choix faits au moment de la construction de chaînes, [Draper et al. , 1999]
avec le système ADORE proposent de garder différentes alternatives de chaînes possibles
dans la représentation du programme. Ils utilisent un processus de décision markovien
pour choisir dynamiquement le bon chemin dans ces chaînes, à partir de caractéristiques
extraites automatiquement de chaque image traitée.
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 83
f ..
jOb}6ctDorect/on •sgrlcuHural 11<1/d"I
. . UOt<ldl
11 1
Tld>o
A
I1l C4Mo�� I 1 TOP-OOWN-OETECTION-KS
SOUAœ<JUONNAISSN<CEa j
------.
Reg/on ToObjoo/L ocaliullon
EDGE-SEGMENTATICJN.KS
......
EDGE-OISTANCE·BASED-CLO1�
1 EdgaCloslng
71"
EVALUATlON-KS
Watarshed
Sewnanration
WATERSHED-SEGMENTATION·KS
p-lnversloo 1
,___. ..___, 1,_'>..
....< ___....._ _
___,
p-watershed
des travaux proposés en France. L'enjeu de ces recherches est d'élaborer des solutions
pour concevoir des systèmes de vision à destination de spécialistes d'un domaine d'ap
plication particulier n'ayant aucune connaissance en traitement des images (géographes,
biologistes, documentalistes, truquistes de cinéma, etc. ) , afin de leur donner la possibi
lité de produire seuls des logiciels de traitement d'images. A plus court terme, il s'agit
de construire des systèmes configurables qui aident les ingénieurs en vision à déployer
rapidement des applications dédiées sans avoir à tout programmer.
Aujourd'hui, les résultats de ces travaux sont exploités dans le cadre de l'aide à
l'indexation sémantique d'images, de la recherche d'images par le contenu ou encore
de l'analyse vidéo. Ces problèmes sont par ailleurs abordés à l'aide des méthodes sta
tistiques avec des résultats spectaculaires pour la détection de visages, d'animaux ou
la reconnaissance d'émotions par exemple. Elles fonctionnent sur la base d'une défini
tion extensionnelle de la classe, par comparaison avec des images exemples apprises.
Mais ces méthodes statistiques restent insuffisantes dans le cas de scènes complexes
ou pour des problèmes autres que la détection. Ici, les méthodes et les techniques de
l'intelligence artificielle sont d'un apport indéniable. Elles permettent de s'attaquer à
des applications plus variées et surtout elles prennent mieux en compte les besoins des
utilisateurs. Dans cet environnement, les méthodes statistiques sont intégrées comme
des codes pilotables, permettant ainsi de bénéficier de leur efficacité dans les cas ciblés.
Cependant, la conception de systèmes couvrant un large spectre d'applications avec
une grande efficacité reste encore un challenge. Dans cette perspective, une partie des
recherches actuelles s'orientent vers le développement de solutions fondées sur l'in
teraction Homme-Machine, qui mettent en avant la collaboration pour converger en
commun vers la construction d'une chaîne de traitement idoine, chacun apportant ses
compétences, l'utilisateur sa connaissance du problème et le système sa connaissance
du traitement d'images.
rables dans les deux dernières décennies, le cadre robotique confronte ces méthodes
à des containtes spécifiques telles que la durée limitée des expériences, le coÎlt sou
vent prohibitif des échecs, la nécessité de fonctionner en temps réel ou le nombre de
dimensions très élevé des problèmes qu'il faut résoudre.
Par conséquent, aucun cadre théorique fédérateur ne s'est encore imposé pour for
maliser les problèmes d'apprentissage en robotique de façon définitive et il existe de
nombreuses tentatives de natures très variées pour doter les robots de capacités d'ap
prentissage.
Une partie des travaux s'appuie sur les différents cadres théoriques de l'apprentis
sage artificiel (voir les chapitres 1.9 et 11. 10) : apprentissage statistique, apprentissage
par renforcement, apprentissage inductif, etc. pour construire des outils spécifiquement
adaptés aux contraintes inhérentes au cadre robotique.
Une autre partie, en intersection importante avec la première, part plutôt de la com
préhension des phénomènes d'apprentissage dans les systèmes biologiques pour mettre
au point des méthodes inspirées par les connaissances tirées des sciences du vivant.
C'est le cas de l'apprentissage par imitation, de la robotique développementale ou de
la robotique évolutionniste, ou de diverses approches neuro-mimétiques de l'apprentis
sage, par exemple. L'intersection provient de ce que ces méthodes vont éventuellement
chercher leurs outils dans le cadre de la première approche.
veaux mouvements qui optimisent la même fonction de coût [Abbeel, 2008 ; Coates
et al. , 2008 ; Ratliff et al. , 2009] . Pour différentes synthèses ou travaux particulière
ment remarquables dans le cadre de l'apprentissage par imitation, nous encourageons
le lecteur à consulter [Atkeson et al. , 1997 ; Schaal, 1999 ; Ijspeert et al. , 2002 ; Abbeel,
2008 ; Calinon, 2009 ; Coates et al. , 2008 ; Ratliff et al. , 2009] .
L'apprentissage par imitation ne suffit pas à résoudre tous les problèmes posés par
la nécessité d'avoir des robots qui s'adaptent à leur environnement. En effet, dans le
cadre général d'utilisation que nous avons décrit plus haut, il n'est pas envisageable
de montrer au robot quel devrait être son comportement dans toutes les situations
qu'il serait susceptible de rencontrer. Pour aller plus loin, il faut que le robot soit
capable d'adapter son comportement à des situations non prévues par le concepteur.
Pour cela, il faut tout de même doter le robot d'une capacité à évaluer la qualité de
son comportement dans une situation donnée, ce qui peut se faire au travers d'une
fonction de coût. Apprendre à améliorer son comportement en cherchant à minimiser
une fonction de coût ( ou maximiser une fonction de performance) est un problème
qui se formalise dans le cadre de l'apprentissage par renforcement [Sutton et Barto,
1998] . La difficulté que l'on rencontre en robotique pour mettre en œuvre les méthodes
d'apprentissage par renforcement provient de ce que ces méthodes ont été initialement
mises au point dans le cadre de la résolution de problèmes où les situations et les actions
sont en nombre fini et limité, alors qu'en robotique les problèmes sont souvent continus
ou de très grande taille. Cependant, de nombreux progrès récents sur les algorithmes
permettent d'obtenir des résultats de plus en plus significatifs dans ce domaine [Peters
et al. , 2003 ; Peters et Schaal, 2008] .
Par ailleurs, la commande utilisée pour des robots complexes fait souvent appel à
des modèles de la géométrie, la cinématique ou la dynamique de ces robots, essentielle
ment pour planifier en déterminant la réponse immédiate du robot à telle ou telle com
mande. L'identification est l'activité qui consiste à déterminer ces modèles au moyen
d'un ensemble d'expériences élémentaires qui permettent d'extraire toutes les gran
deurs pertinentes. Les méthodes d'apprentissage supervisé qui permettent d'approcher
des fonctions à partir de données élémentaires fournissent une alternative intéressante
à l'identification paramétrique classique, dans la mesure où le modèle qu'il s'agit de
construire est une fonction qui relie des informations qui sont toutes accessibles par des
capteurs des robots. D'une part, ces méthodes n'ont besoin d'aucune hypothèse a priori
sur la forme des modèles. D'autre part, l'apprentissage des modèles peut se faire en
cours d'utilisation du robot, ce qui évite une phase préalable fastidieuse et, surtout, ce
qui permet d'adapter immédiatement le modèle en cas d'altération du fonctionnement
du robot ou de variation des conditions mécaniques de son utilisation. Si ces méthodes
d'apprentissage supervisé sont encore largement cantonnées à l'apprentissage de modè
les de robots dans un cadre d'utilisation standard [D'Souza et al. , 2001 ; Salaün et al.,
2009] , elles commencent à aborder des questions plus originales relatives à l'interaction
avec des objets inconnus a priori [Vijayakumar et al. , 2005] , ce qui entre bien dans le
contexte d'utilisation plus ambitieux que nous avons décrit en introduction de cette
section.
L'apprentissage pour la robotique trouve son contexte d'application le plus convain
cant dans l'interaction entre un robot et un humain. En effet, ce contexte requiert plus
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage 1 1 87
-
que les autres des propriétés d'adaptation rapide à un contexte changeant de la part du
rob ot et fournit le cadre dans lequel l'imitation s'inscrit le plus naturellement. L'imi
tation est d'ailleurs un type d'interaction homme-robot parmi d'autres, ce qui permet
de considérer ce dernier domaine comme plus général que les précédents. On y trouve
par ailleurs des travaux qui ne rentrent pas dans les cadres précédents, tels que des re
cherches sur l'acceptabilité sociale des comportements des robots [Kruse et al. , 2010] ou
l'interaction verbale entre l'homme et le robot dans un cadre de coopération [Dominey,
2007] .
L'interaction homme-robot peut être physique, quand l'un ou l'autre des protago
nistes exerce une force sur l'autre. C'est le cas par exemple dans le cadre de la robo
tique d'assistance et de rééducation, lorsqu'il s'agit d'aider des patients qui souffrent de
troubles moteurs [Saint-Bauzel et al. , 2009] . La mise en œuvre de techniques d'appren
tissage dans ce cadre est une toute nouvelle tendance [Pasqui et al. , 2010] . L'interaction
peut aussi être simplement communicative, que ce soit au travers du langage parlé ou
bien au travers d'autres modalités non verbales [Dominey et Warneken, 2009] . L'inter
action peut enfin être totalement implicite, lorsque l'homme et le robot adaptent leur
comportement l'un à l'autre sans aucune communication, juste par ajustement de leur
comportement au comportement observé chez l'autre.
7. 5 Conclusion
Loin d'être exhaustif, ce chapitre a illustré quelques points de convergence entre in
telligence artificielle, vision par ordinateur, reconnaissance des formes, apprentissage,
et robotique. Ces convergences se retrouvent également dans d'autres domaines, par
exemple pour la parole et le traitement automatique des langues, pour ne citer qu'un
exemple. L'association de théories et de méthodes de ces divers domaines connaît ac
tuellement un fort développement et suscite des recherches originales. En interprétation
d'images, des approches de haut niveau s'appuient de plus en plus sur des méthodes
de représentation des connaissances et des outils de raisonnement (raisonnements non
monotones, fusion multiagent raisonnement sous incertitude, etc.) . Par exemple des
7. Intelligence artificielle et reconnaissance des formes, vision, apprentissage - 1 1 89
Références
ABBEEL, P. (2008) . Apprenticeship Learning and Reinforcement Learning with Ap
plication to Robotic Control. Thèse de doctorat, Stanford University, Computer
Science.
AGARWAL, S., AWAN, A. et ROTH, D. (2004) . Learning to detect objects in images
via a sparse, part-based representation. IEEE Transactions on Pattern Analysis and
Machine Intelligence, 26(11) : 1475-1490.
ATIF, J., HUDELOT, C. et BLOCH, I. (2013) . Explanatory reasoning for image unders
tanding using formal concept analysis and description logics. IEEE Transactions on
Systems, Man and Cybernetics.
ATKESON, C. G., MOORE, A. W. et SCHAAL, S. (1997) . Locally weighted learning.
Artificial Intelligence Review, 1 1 (1) : 1 1-73.
BENGOETXEA, E. , LARRANAGA, P. , BLOCH, I. , PERCHANT, A. et BOERES, C. (2002) .
Inexact Graph Matching by Means of Estimation of Distribution Algorithms. Pattern
Recognition, 35(12) :2867-2880.
BENZ, U., HOFMANN, P. , WILLHAUCK, G . , LINGENFELDER, l. et HEYNEN, M. (2004) .
Multi-resolution, object-oriented fuzzy analysis of remote sensing data for GIS-ready
information. ISPRS Journal of Photogrammetry and Remote Sensing, 58(3-4) :239-
258.
BERK, T., BROWNSTON, L. et KAUFMAN, A. (1982) . A New Color-Naming System for
Graphies Languages. IEEE Computer Graphies and Applications, 2(3) :37-44.
BLOCH, I. (2003) . Traitement d'images. In BOUCHON-MEUNIER, B. et MARSALA, c.,
éditeurs : Traitement de données complexes et commande en logique floue, chapitre 3,
pages 95-152. Hermes, Paris, France.
BLOCH, I. (2005). Fuzzy Spatial Relationships for Image Processing and Interpretation :
A Review. Image and Vision Computing, 23(2) :89-1 10.
BLOCH, I. (2006) . Spatial Reasoning under Imprecision using Fuzzy Set Theory, For
mal Logics and Mathematical Morphology. International Journal of Approximate
Reasoning, 41 :77-95.
BLOCH, I. (2008) . Information Fusion in Signal and Image Processing. ISTE-Wiley,
London, UK.
BLOCH, I., GÉRAUD, T. et MAÎTRE, H. (2003) . Representation and Fusion of Hetero
geneous Fuzzy Information in the 3D Space for Model-Based Structural Recognition
- Application to 3D Brain Imaging. Artificial Intelligence, 148(1-2) : 141-175.
1 1 90 Panorama de l'intelligence artificielle. Volume 3
-
LANSKY, A., FRIEDMAN, M., GETOOR, L., ScHMIDLER, S. et SHORT JR. , N. (1995) .
The Collage/Khoros links : Planning for image processing tasks. In AAAI Spring
Symposium : Integrated Planning Applications, pages 67-76, Menlo Park, CA.
LE BER, F. et NAPOLI, A. (2002) . The design of an object-based system for representing
and classifying spatial structures and relations. Journal of Universal Computer
Science, 8(8) :751-773.
LEIBE, B., ETTLIN, A. et SCHIELE, B. (2008) . Learning semantic object parts for object
categorization. Image Vision Computing, 26(1) : 1 5-26.
LIEDTKE, C. et BLÔMER, A. ( 1992) . Architecture of the Knowledge Based Configu
ration System for Image Analysis "Conny". In IEEE International Conference on
Pattern Recognition {ICPR}, pages 375-378, The Hague, Netherlands.
LIGOZAT, G. (1998) . Reasoning about Cardinal Directions. Journal of Visual Languages
and Computing, 9 :23-44.
LUNGARELLA, M., METTA, G., PFEIFER, R. et SANDINI, G. (2003) . Developmental
robotics : a survey. Connection Science, 15 :151-190.
MAILLOT, N. et THONNAT, M. (2008) . Ontology-Based Complex Object Recognition.
Image and Vision Computing, 26(1) : 102-1 13.
MARGRET ANOUNCIA, S. et SARAVANAN, R. (2007) . Üntology-Based Process Plan
Generation for Image Processing. International Jouurnal of Metadata, Semantics
and Ontologies, 2(3) :21 1-222.
MARTIN, V. , MAILLOT, N. et THONNAT, M. (2006) . A Learning Approach for Adaptive
Image Segmentation. In 4th IEEE International Conference on Computer Vision
Systems {ICVS}, pages 40-47, New York.
MATSUYAMA, T. ( 1986) . Knowledge-based aerial image understanding systems and
expert systems for image processing. International Geoscience and Remote Sensing
Symposium {Zurich}, pages 1026-1038.
MATSUYAMA, T. ( 1989) . Expert Systems for Image Processing : Knowledge-Based
Composition of Image Analysis Processes. Computer Vision, Graphies and Image
Processing, 48(1) :22-49.
MATSUYAMA, T. et HWANG, V. S.-S. (1990) . SIGMA : a knowledge-based aerial image
understanding system. Plenum press.
McKEOWN, D. M., HARVEY, W. A. et McDERMOTT, J. (1985) . Rule-based inter
pretation of aerial imagery. IEEE Transactions on Pattern Analysis and Machine
Intelligence, PAMI-7(5) :570-585.
MEZARIS, V. , KOMPATSIARIS, I. et STRINTZIS, M. G. (2004) . Region-based image
retrieval using an object ontology and relevance feedback. Eurasip Journal on Applied
Signal Processing, 2004(6) :886-901 .
MINSKY, M . (1974) . A framework fo r representing knowledge. In WINSTON, P. , édi
teur : The Psychology of Computer Vision. McGraw Hill.
NAZIF, A. et LEVINE, M. (1984) . Low level image segmentation : an expert system.
IEEE Transactions on Pattern Analysis and Machine Intellligence, 6(5) :555-577.
NEMPONT, O., ATIF, J., ANGELINI, E. D. et BLOCH, I. (2010) . Propagation de
contraintes pour la segmentation et la reconnaissance de structures anatomiques
1 1 94 Panorama de l'intelligence artificielle. Volume 3
-
Chapitre 8
Intelligence artificielle et
robotique
tion 7) .
Chacune de ces sections détaille de façon plus didactique quelques techniques de base
et fournit les références principales pour plus d'approfondissement. Pour une bonne
compréhension des problèmes soulevés ici, le chapitre commence par une vision d'en
semble de la robotique, au-delà de sa seule jonction avec l'IA (section 2) . Il se conclut
par une courte prospective du domaine.
8. 1 Introduction
La robotique est un domaine essentiellement pluridisciplinaire. Ses réalisations
conjuguent naturellement l'automatique, l'informatique, la mécanique et l'électronique,
y compris dans leurs déclinaisons micro et nano. Ses liens plus récents avec les sciences
de la vie, les sciences de la matière, ou les sciences cognitives ont donné lieu à des
expérimentations très originales et ouvert de nouvelles perspectives. L'interdisciplina
rité applicative de la robotique concerne en particulier la médecine ou les sciences de
l'environnement et de l'espace, par exemple en océanographie, ou en planétologie.
La robotique est également un domaine fortement expérimental. La recherche y
nécessite des plates-formes et des validations empiriques. Elle donne lieu à des « re-
Auteurs : MALIK GHALLAB et FÉLIX INGRAND.
1 1 98 Panorama de l'intelligence artificielle. Volume 3
-
Le premier item est traité dans un autre chapitre de cet ouvrage (cf. chapitre III.7) .
Aussi nous ne mentionnerons que brièvement quelques aspects de la perception spéci
fiques à la robotique. Nous focaliserons ce chapitre principalement sur les trois derniers
items, que nous traiterons successivement en
• trois sections (8.3, 8.4 et 8.5) sur la planification et l'exécution de mouvements, de
(a) Rover martien Curiosity ( NASA/ JPL ) ( b ) D aVinci, robot d'assistance chirurgicale
( Intuitive Chirurgical)
(a) Stanley, Darpa challenge (b) Conduite autonome (c) Dorado, robot sous-marin
2005 (U. Stanford) (Google) (MBARI)
q dans �n compte tenu des contraintes cinématiques, par exemple les contraintes
de débattement de chaque articulation (ou positions angulaires extrêmes que l'ar
ticulation peut prendre) et de dépendances entre les paramètres de configuration ;
• Ci Ç C, l'espace de configuration libre qui donne l'ensemble des valeurs possibles
A 360" �---..,----�--�
a 1so·
( a) (b)
FIGURE 8 (a) Un robot plan à deux articulations angulaires, a et /3, avec un obstacle
-
les obstacles, i. e., si q E Ci , ou bien à vérifier si un chemin .C(q, q') entre deux
configurations est sans collision, i. e., s'il passe entièrement dans Ci . On s'appuie ici
sur les techniques de base de l'algorithmique géométrique.
Une carte g pour Ci est un graphe dont les sommets sont des configurations dans
C1 ; deux sommets q et q' sont adjacents dans g ssi il existe un chemin sans collision
C(q, q') dans C1 .
Si on connaît une carte g pour Ci alors la planification de chemin entre une confi
guration origine q0 et une configuration but Qb peut être résolue par les trois étapes
suivantes :
• trouver un sommet q dans g, q accessible à partir de q0, i. e., tel que .C (q0, q) E Ci ;
• trouver un sommet q' dans g, Qb accessible à partir q', i. e., tel que .C (q', qb) E Ci ;
dans Ci alors il existe aussi un chemin dans la carte Ç par les trois étapes qui précèdent.
L'algorithme en figure 9 [Siméon et al. , 2000] fournit un graphe Ç qui vérifie cette
propriété de couverture en probabilité. Cet algorithme élabore Ç incrémentalement à
partir d'une carte vide. Il rajoute à la carte en cours de construction une configurat ion
q tirée aléatoirement, si elle appartient à l'espace libre, dans les deux cas suivants :
• si q étend la couverture de Ç, en permettant d'atteindre des parties de Ci non encore
Carte-Probabiliste (Ç)
Itérer jusqu'à (condition d'arrêt)
Tirer aléatoirement une configuration q E C
Si q E Ci alors faire
Si \;;/q' E Ç : C(q, q') <!. Ci
alors ajouter q à Ç ; {i}
Sinon si 3qi , Q2 dans Ç telles que q1 et Q2 non connexes et
C(q, Q1 ) c Ci et C(q, q2 ) c Ci
alors ajouter q et les arêtes ( q, Q1 ) et (q, q2 ) à Ç ; {ii}
Fin itération
Retourner(Ç)
( a) (b) ( c)
L
(a) (b) (c) (d)
FIGURE 11 - Illustration du SLAM dans le cas d'un robot évoluant dans un plan.
(a) Trois amers ( coins des obstacles ) sont détectés et positionnés avec une impréci
sion due aux capteurs. ( b ) Le robot se déplace et estime son déplacement avec une
certaine erreur. ( c) Les amers sont de nouveau observés ; ils sont associés aux amers
préalablement perçus. ( d) La fusion de données permet de réduire les erreurs sur la po
sition courante du robot et sur les positions des amers. Le processus est itéré à chaque
nouvelle perception de l'environnement et déplacement du robot.
moyenne nulle et d'écart type caractéristique du capteur. Soient deux capteurs, ca
ractérisés respectivement par a 1 et a2 , qui mesurent la même quantité, la distance à
un amer, et retournent deux valeurs µ 1 et µ2 . On peut estimer la quantité mesurée en
pondérant µ 1 et µ2 de façon à accorder plus de confiance au capteur le plus précis, celui
qui a le plus petit ai : on pondère µi par 1/ai (à un coefficient près ) . Ainsi, l'estimation
µ associée à l'écart type a définis ci-dessous ( cf. 8 . 1) a de bonnes propriétés ( minimise
l'erreur quadratique moyenne) . L'erreur résultante de la combinaison des deux mesures
diminue relativement aux erreurs initiales (a < min {ai , a2 }).
µt = µ' + K( µz - µ' )
at = a' - Ka ' (8.2)
K = a' /(az + a' )
Introduisons maintenant le mouvement. Le robot se trouvait à l'instant t - 1
dans une position telle que la distance à l'amer qui nous intéresse était estimée par
(µt-i . at- d· Entre t - 1 et t le robot se déplace sous l'action d'une commande, connue
également avec une incertitude modélisée de la même manière. Soit (Ut , au ) !'estimée
de ce déplacement dans la direction robot-amer ( fournie par la consigne de commande
1 2 1 2 Panorama de l'intelligence artificielle. Volume 3
-
envoyée aux actionneurs et/ou par les capteurs odométriques) . La distance relative à
l'amer, après déplacement, est estimée par (µ', a') , en notant que l'erreur augmente du
fait du déplacement :
µ' = µt- 1 + ut
( 8 .3)
a' = at- 1 + au
Nous avons maintenant les ingrédients nécessaires à l'approche SLAM basée sur le
filtrage de Kalman : l'estimée de la position relative robot-amer est mise à jour entre
t - 1 et t en deux étapes :
(i) mise à jour liée au déplacement (par 8 .3 ) : (µt-i . at-1 ) --+ ( µ', a')
(ii} mise à jour liée à la perception (par 8 . 2 ) : (µ', a') --+ (µt , at )
Au lieu d'une simple valeur scalaire, intéressons-nous maintenant au processus de
mise à jour de la position du robot et de la carte de l'environnement dans l'espace
Euclidien, 2D ou 3D. La position du robot n'inclut pas nécessairement l'ensemble de
ses paramètres de configuration, mais uniquement la partie de q nécessaire pour le
localiser et positionner ses capteurs. La carte est caractérisée par un grand nombre
d'amers positionnés dans l'espace. L'estimation mise à jour porte maintenant sur un
vecteur µt dont les composantes sont l'ensemble des paramètres de positionnement du
robot et des amers de l'environnement. L'erreur n'est plus un scalaire at mais une
matrice de covariance E dont l'élément ai est la covariance des composantes i et j du
j
vecteur µ . L'erreur sur la position du robot induit en effet un couplage entre les erreurs
des éléments de la carte, et réciproquement. Autre difficulté : l'approche ci-dessus ne
s'applique qu'à des relations linéaires. Or le lien entre mouvement et déplacement n'est
pas linéaire. On approxime une solution à ce problème en linéarisant autour de petits
déplacements. On obtient finalement la formulation suivante pour le SLAM par filtrage
de Kalman étendue :
µ' = Aµt-1 + But
E' = E t-1 + E u
µt = µ' + Kt (µz - Cµ' ) (8.4)
E t = E' - Kt CE'
Kt = E' CT (CE'CT + Ez) -1
On reconnaît comme précédemment les deux étapes de mise à jour :
(i} (µt-1 , Et-1 ) --+ (µ', E') : vecteur Ut , matrices A et B pour le déplacement,
(ii} (µ', E') --+ (µt , E t ) : vecteur µz , matrice C pour les nouvelles mesures.
On prend également en compte les covariances liées à la commande et à la mesure ( Eu
et Ez) . Il faut souligner que la première étape tient compte du déplacement pour mettre
à jour aussi bien la position du robot que celles des amers. De même, la deuxième étape
intègre les nouvelles mesures à la fois pour la localisation et la cartographie.
Cette approche a été fréquemment implémentée avec succès car elle présente de
nombreux avantages [Thrun, 2002] . En particulier, elle permet de maintenir les estimées
a posteriori des positions et des erreurs, ces dernières étant très importantes pour
la navigation. Elle converge asymptotiquement sur la vraie carte, modulo une erreur
8. Intelligence artificielle et robotique - 1213
résiduelle due aux erreurs initiales. Enfin, elle est implémentable de façon incrémentale.
En pratique, le nombre d'amers augmente dynamiquement. On maintient une liste
d'amers candidats qui ne sont intégrés dans la carte (et le vecteur µ) qu'après un
nombre suffisant d'observations. Si n est la dimension du vecteur µ (i. e., du même
ordre que le nombre d'amers) , la complexité de la mise à jour par les équations 8.4 est
en O(n2 ) . On sait maintenir ce traitement en ligne et embarqué pour n de l'ordre de
10 3 , ce qui signifie une carte peu dense.
Les approches particulaires apportent un gain important sur ce point. Au lieu d'es
timer les paramètres (µ, E) d'une Gaussienne, on traite les distributions de probabilité
correspondantes par des tirages aléatoires. Ainsi, P(Xt l zi:t , Ui: t) = N(µt , Et), où Xt est
le vecteur des paramètres de position du robot et des amers à l'instant t, Zi: t et u1: t les
séquences des mesures et des commandes de 1 à t. De même P(zt lXt- 1 ) = N(µz , Ez) .
Décomposons le vecteur d'état Xt en deux composantes relatives au robot et aux
amers : Xt = (rt , <pi , ... , 'Pn ) T , où Tt est le vecteur de position du robot à l'instant t, et
cp = ( <p1 , .. ., 'Pn V le vecteur de position des amers, lequel ne dépend pas du temps car
l'environnement est supposé statique 4 • Les règles habituelles des probabilités conjointes
donnent :
P(Xt lzi:t, Ui: t) = P(rt lZi: t , Ui: t)P( cp1 , . . . , 'Pn lZi: t , Ui: t , Tt)
= P(rt lz 1: t , U 1: t) Il P( cpi lzi: t , rt)
(8.5)
i =l,n
La deuxième ligne résulte du fait que, sachant la position rt du robot, les positions des
amers ne dépendent pas de u et surtout sont conditionnellement indépendantes. On
ne connaît pas Tt précisément mais on va admettre que Tt E Rt = {rF> , . . . , d m ) } , un
ensemble de m hypothèses (ou particules) de positionnement. Chaque hypothèse r�j )
est associée à une pondération w�j ) . On détermine Rt et les pondérations à chaque
transition de t 1 à t par les trois étapes suivantes :
-
'
• Propagation : pour m positions dans Rt -1 tirées aléatoirement selon les pondéra
4. Noter que dans µt l'estimation de cp évolue avec t, mais pas la position des amers.
1 2 1 4 Panorama de l'intelligence artificielle. Volume 3
-
erreur d'association les amers dans le champ sensoriel du robot. Mais après un long
parcours, si le robot revient sur ses pas, on ne saura mettre en œuvre cette appro che
qu'avec un traitement robuste du problème d'association 5 . Dans l'approche particu
laire, la distribution de probabilité des hypothèses de Rt est très différente lorsque le
robot découvre un lieu nouveau (les hypothèses sont équiprobables) du cas où il re
tourne sur ses pas. Ceci donne lieu à des heuristiques qui robustifient l'approche et
conduisent à une méthode active de cartographie, laquelle privilégie le retour fréquent
du robot sur ses pas [Stachniss et Burgard, 2004] .
Dans le cas général, il y a besoin d'une étape explicite de mise en association des
données, étape intermédiaire entre les deux étapes (i) et (ii) qui précèdent. Cette étape
conduit à maintenir plusieurs hypothèses d'association. Les approches SLAM multi
hypothèses par réseaux bayésiens dynamiques (DBN) donnent de bons résultats. La
formulation DBN du SLAM est en effet très naturelle. Elle se traduit par le graphe (en
figure 12) et l'équation récursive suivante :
P(Xt lz1:t , Ui:t ) = aP(zt lXt )J P(Xt lUt , Xt-1 )P(Xt-1 lz1:t- i . Ui:t-1 ) dXt- 1 (8.6)
= aP(zt lXt) j P(rt l Ut , Tt-d P(Xt-1 lz1:t-i . U 1:t-1 ) drt- 1
5. Ceci est parfois désigné comme étant le problème de la boucle du SLAM.
8. Intelligence artificielle et robotique - 1 2 1 5
Il doit disposer d'autres types d e modèles qui permettent l a supervision et, éventuel
lement, le diagnostic. Il doit savoir quelles actions, en particulier sensorielles, sont né
cessaires au lancement d'une action planifiée et/ou à l'observation de ses effets, directs
ou indirects. Il doit être en mesure de mettre à jour l'état du monde nécessaire au suivi
du plan. Il doit connaître les conditions qui permettent de remettre en cause l'action
en cours, exprimant l'échec ou l'absence de réponse à temps, et celles qui invalident le
plan en cours. Par ailleurs, le contrôleur doit être en mesure de gérer les incertitudes
et le non-déterminisme à divers niveaux, depuis l'imprécision des données sensorielles
et l'incertitude sur leurs interprétations et sur les durées des actions mises en œuvre,
jusqu'au non-déterminisme inhérent aux exécutions. En effet, le lancement des actions
est maîtrisé par le contrôleur, mais leurs effets et leur déroulement précis dépendent de
conditions et d'événements contingents, partiellement modélisés. Enfin, le contrôleur
fonctionne par définition en ligne : il doit être réactif aux événements imprévus dans
le plan, et assurer les conditions de sûreté principales.
Le couplage planification-exécution est donc une question de compromis entre les
contraintes et les modèles nécessaires à la prédiction pour le premier et ceux nécessaires
à la supervision en ligne pour le second.
Une description du couplage planificateur-contrôleur et de la façon de réaliser ce
compromis pourrait être faite sur la base d'un système hiérarchisé de transition d'états
E = (S, A, E, 1) , où S, A et E sont des ensembles énumérables d' états, d'activités et
d' événements, et 'Y est une fonction qui décrit la dynamique du système : 'Y = S x A x
E --+ 2 8 . Les activités sont décidées et déclenchées par robot, alors que les événements
échappent à son contrôle ; ils donnent lieu à des changements dans l'environnement qui
sont observés, directement ou indirectement. E est décrit à deux niveaux d'abstraction :
• le planificateur dispose d'un modèle abstrait de E : ses macro-états sont des sous
ensembles de S, ses actions sont des sous-ensembles d'activités ; il prend en compte
rarement E ;
• le contrôleur dispose d'un modèle fin de E : il est en mesure d'affiner chaque action
planifiée en les activités correspondantes, lesquelles sont sous son contrôle ; il sait
lancer les activités et en suivre le déroulement ; il sait mettre en place des activités
(surveillances, alarmes) pour observer la dynamique de S, et d'autres pour réagir
aux événements.
et Mcdermott, 1997] permet de produire des plans suivant une approche HTN, mais
autorise aussi la modification/ réparation de ces plans lors de l'exécution ( planification
par transformation) .
ri:\_ r 1 [20.30]
.-V [O,oo] 3
0 1 mage
[5, 1 0]
Corn
4. [O,ooJ
....
0
�Ie' r t
[60 eo
à
[O,oo]
\
[O,ooJ
Aller [60,eo1
à
"""" � [70, 7 0]
;©
[80, 80]
----- [30,30]
Visibilité �
- �
(a) Graphe de contraintes temporelles (STN)
� :�: � �
·
·
.
-1Sf-·· I\ /\ 'O �
�
....,�
, ·
·
�� ·
- · 70 � 0
30 -70
�
1
7
�
.30
Ces approches ont été déployées avec succès dans de nombreuses expérimenta
tions robotiques ( e.g. , MBARI (Py et al. , 2010) , Willow Garage (McGann et al. , 2009) ,
NASA (Finzi et al. , 2004) et LAAS (Lemai-Chenevier et lngrand, 2004) ) , toutefois leur
développement est freiné par les difficultés suivantes :
• l'écriture des opérateurs formels de planification et leur « debugging » est difficile,
en particulier lorsque l'on veut prendre en compte les situations d'exécution non
nominales ( i. e., les échecs et la reprise d'erreur) .
• la recherche de solutions dans l'espace des plans partiels doit être guidée par des
heuristiques adaptées,
• la contrôlabilité temporelle du STN doit être prise en compte. En effet, ces STN
comportent des variables dites contrôlables et d'autres contingentes. Les valeurs des
premières sont choisies par le robot, alors que les valeurs des variables contingentes
sont fixées par l'environnement, dans leurs domaines admissibles 6• Un STN est
6. Par exemple, dans le graphe figure 8.13(c) , pour le déplacement entre ta et t i , l'instant de
1 222 Panorama de l'intelligence artificielle. Volwne 3
-
contrôlable s'il existe un choix des instants contrôlables en fonction des valeurs
possibles des instants contingents. La contrôlabilité forte garantit qu'il existe une
affectation de valeurs aux instants contrôlables pour toutes les valeurs possibles
des instants contingents. La contrôlabilité faible garantit qu'il existe une affectation
des dates des instants contrôlables pour toutes les dates des instants contingents
si ces derniers sont connus par avance (peu réaliste) . La contrôlabilité dynamique
garantit qu'il existe une affectation des dates des instants contrôlables pour les
valeurs des instants contingents passés. Cette dernière propriété permet de conserver
la flexibilité tout en gardant l'assurance qu'une solution existe.
Il existe également des approches ( e.g. , Aspen/Casper [Chien et al. , 2000] ) qui
reposent sur un modèle temporel mais qui produisent des plans complets et sans flexi
bilité. Si un échec temporel (ou logique) apparaît lors de l'exécution du plan, le plani
ficateur le répare alors avec des techniques de recherches locales.
La valeur optimale d'un état V* (s) est celle fournie par la politique optimale.
départ to est contrôlable, mais pas l'instant d'arrivée ti . La durée du déplacement a été réduite par
propagation de 90 à 85 {figure 8 . 1 3 {c )) , mais seule l'observation après exécution donnera de la valeur
exacte.
8. Intelligence artificielle et robotique - 1 223
Value-iteration(S, A, P, r)
Itérer jusqu'à un point fixe
Itérer pour tout B E S
Pour tout a applicable en B faire :
Q(B, a) +-- r(B, a) + y l: s' P(B' j B, a)V(B') ; {i)
V(B) +-- maxa{Q(B, a) }
Fin itération
Fin itération
Pour tout B E S faire : 7r( B) +-- Argmaxa { Q( B, a) }
La planification non déterministe par des approches hiérarchiques ( e.g., (Barry et al. ,
201 1]) et/ou génératives ( e.g. , [Teichteil-Kônigsbuch et al. , 2010]) évite d'expliciter S,
mais elle soulève encore de nombreux problèmes ouverts (cf. chapitre Il.9) .
Le contrôleur pour un MDP est extrêmement simple. Il suffit d'itérer sur deux
étapes :
• observer l'état s ,
• exécuter l'action 7r ( s ) ,
et cela jusqu'à l'obtention d'un état but ou d'une autre condition d'arrêt.
En théorie l'approche MDP présente plusieurs avantages du point de vue de l'exécu
tion. Elle gère explicitement le non-déterminisme et l'incertitude. Elle peut être étendue
à la prise en compte d'états partiellement observables (Buffet et Sigaud, 2008) . Enfin,
si la modélisation des actions n'est pas aisée, la mise en œuvre de techniques d'appren
tissage la simplifie considérablement (cf. 8.6) . Ceci explique le succès de ces approches
dans de nombreuses applications en robotique sur lesquelles nous reviendrons plus
loin, mais qui restent généralement proches des actionneurs et plutôt du niveau de la
commande.
Dans le cas de la planification et de l'exécution de missions plus complexes, ces
techniques soulèvent de nombreuses difficultés, dues en particulier à la représentation
homogène qui est mise en œuvre, sans prise en compte explicite du temps, et à leur
complexité computationnelle. Plusieurs approches reposant sur les MDP hiérarchisés
tentent de pallier en partie ces difficultés (cf. par exemple (Pineau et al. , 2003 ; Pineau
et Gordon, 2005 ; Teichteil-Kônigsbuch et Fabiani, 2005 ; Barry et al. , 201 1]) .
nation et la planification.
De nombreux travaux portent sur la planification multirobot de mouvements, avec
les représentations géométriques et cinématiques présentées en section 8.3, et des tech
niques de décomposition assez génériques qui se prêtent à des implémentations distri
buées [Erdmann et Lozano-Pérez, 1987] . Les résultats récents, par exemple [Bhatta
charya et al. , 2010] , permettent de prendre en compte efficacement des contraintes de
positionnement relatifs entre robots et des missions comportant plusieurs sites à visiter.
Le projet Martha illustre une approche pour la gestion d'une flotte de robots
dans des tâches plus générales de manutention de containers dans des ports ou aé
roports [Alami et al. , 1998] . L'allocation des missions aux robots est centralisée, mais
sur un horizon limité. La planification, l'exécution, l'affinement et la coordination né
cessaire à la navigation des robots et au partage des ressources dans le même environ
nement sont distribuées. Les robots négocient entre eux la navigation dans l'environ
nement, découpé en cellules ( e.g., traversée des carrefours, suivi en convoi, les dépasse
ments) , et négocient aussi leur trajectoire à l'intérieur des cellules. On fait l'hypothèse
d'une communication locale fiable. Un blocage entre plusieurs robots à l'exécution est
correctement détecté par l'algorithme de coordination, et l'un des robots prend la main
pour produire un plan qu'il redistribue aux autres robots avec qui il est en conflit.
D'autres travaux proposent une allocation des missions par un mécanisme d'en
chères [Dias et al. , 2006] pour l'affectation des tâches (des cellules à traverser/observer).
Dans [Tovey et al. , 2005] , les auteurs proposent un mécanisme de génération de règles
d'enchères adaptées à un objectif particulier d'un groupe de robots d'exploration (mini
misation de la somme des trajets, minimisation du trajet maximum de tous les robots,
minimisation du trajet moyen par cible, etc) . Dans [Zlot et Stentz, 2006 ; Cao et al.,
2010] , les auteurs appliquent une technique similaire à des tâches et sous-tâches d'un
plan HTN lors de son élaboration. Chaque robot peut remporter les enchères sur une
tâche, la décomposer en sous-tâches suivant une méthode HTN, et remettre aux en
chères tout ou partie de ces dernières. Après cette distribution de tâches initiales, les
robots conservent, durant l'exécution, la possibilité de remettre aux enchères les tâches
échouées ou qu'ils ne parviennent pas à réaliser. La communication dans ces systèmes
n'est pas permanente et totale, ainsi les phases de replanification/redistribution doivent
être elles-mêmes planifiées par avance.
8. Intelligence artificielle et robotique - 1227
e Task ta decompose
Q B o b aclion
Q Robot action
0 Common action
i
I
/
I
I
/
I
/ / /
/ !
I
/ ./
!
FIGURE 16 Plan produit par HATP avec interaction homme-robot : les tâches (en
-
noir) sont décomposées en les actions primitives du robot (cercle gris foncé, fil de
gauche) , celles de l'opérateur humain (cercle gris clair, fil de droite) , et action commune
(ovale gris foncé) qui impose une synchronisation (Alami et al. , 2006) .
8. Intelligence artificielle et robotique - 1 229
8.6 Apprentissage
L'apprentissage automatique connaît beaucoup de succès dans tous les domaines,
et en particulier en robotique. Pratiquement toutes les techniques d'apprentissage nu
mérique y sont mises en œuvre et développées à divers niveaux, depuis celui de la
commande des actionneurs jusqu'à l'acquisition de modèles de tâches, de comporte
ment ou de l'environnement, en prenant en compte les spécificités de la robotique. On
trouvera dans [Sigaud et Peters, 2010] une bonne couverture des techniques récentes
d'apprentissage en robotique. On ne reviendra pas sur les questions de cartographie
(cf. 8.3.2) , ni sur les techniques de base, présentées ailleurs dans cet ouvrage (cf. cha
pitres I.9 et II. 10) . On présente ci-dessous deux approches, relativement spécifiques à
la robotique : l'apprentissage par renforcement, basé sur les processus décisionnels de
Markov, et l'apprentissage par démonstration.
1
Q(a) t-- Q( a) + a frka + 1 ( a) - Q( a)] , avec a = ( 8 . 10)
ka + 1
1230 Panorama de l'intelligence artificielle. Volume 3
-
l'expérience, ou
• choisir aléatoirement une action selon une loi d'échantillonnage, par exemple selon
coûteuse. Il est souvent préférable de commencer à réaliser les tâches au mieux, compte
tenu de ce que l'on sait, tout en continuant à apprendre, i. e. , de combiner exploitation
et exploration tout au long du comportement. Les algorithmes du type Q-learning
répondent à cet objectif en évitant d'avoir à expliciter le modèle du MDP.
Reprenons les notions qui précèdent sur la moyenne des qualités dans le cas MDP.
Soit r(s, a) la récompense observée après avoir exécuté l'action a en l'état s à l'instant
courant, et Q(s, a) la qualité estimée de a en s à cet instant. L'équation 8.8 donne
Q* (s, a) , la qualité de a en s pour une politique optimale. Ne connaissant pas Q* (ni
la politique optimale) , nous allons estimer sa valeur pour la politique courante par
l'expression :
L'idée de base de l'algorithme Q-learning est d'effectuer une mise à jour incrémentale de
Q(s, a) , similaire à celle de l'équation 8. 10. Cette mise à jour n'utilise pas les probabilités
(inconnues) du modèle, mais plutôt les échantillons d'états successeurs s', observés
expérimentalement et donc tirés selon la distribution P(s' ls, a) . Cette mise à jour est
donnée par l'expression {i} dans l'algorithme ci-dessous.
Q-learning
Itérer sur tout état s rencontré
a +-- Choixa {Q(s, a) }
exécuter a, observer r(s, a) et l'état résultant s'
Q(s, a) +-- Q(s, a) + a[r(s, a) + maxa' { Q(s', a')} - Q(s, a)]
s +-- s'
Fin itération
la mise à jour précédente à chaque pas pour tous les états, avec une pondération en
fonction de la fréquence de rencontre de chaque état.
Enfin signalons l'algorithme DYNA et ses variantes qui combinent apprentis
sage et planification : on maintient et met à jour une estimation des probabili
tés P { s' l s, a) et des récompenses r(s, a) ; à chaque étape on effectue deux mises
à jour, une du type Q-learning de Q(s, a) pour le couple observé par Q(s, a) +
r(s, a) + 'Y :E s' P(s' l s, a)maxa' { Q(s' , a' ) } , et une du type Value-Iteration pour d'autres
couples (état, action) , choisies aléatoirement ou selon certaines règles de priorité, en
prenant en compte les nouvelles valeurs estimées. Ainsi, l'expérience permet d'estimer
le modèle et la politique courante (via Q) , et le modèle estimé permet à son tour d'amé
liorer la politique. Chaque étape est plus coûteuse que Q-Learning en temps de calcul,
mais la convergence se produit bien plus rapidement en nombre d'étapes expérimen
tales.
L'apprentissage par renforcement est largement utilisé en robotique, mais il est ra
rement mis en œuvre sous la forme d'un espace d'état explicite et de tables de valeurs
V(s) ou Q(s, a) explicites. L'espace d'état est généralement continu {il intègre l'espace
des configurations du robot et son environnement) . Même si on parvient à le discrétiser
de façon pertinente (par exemple, dans les approches du type grille pour l'environne
ment) , la dimension de S est telle qu'une représentation explicite serait impraticable.
Par ailleurs, les algorithmes qui précèdent permettent d'apprendre un bon comporte
ment pour les états rencontrés en cours d'apprentissage, mais ils ne disent rien sur
des états non rencontrés : ils ne permettent pas de généraliser. Si on dispose d'un
espace d'état continu ou muni d'une métrique, on peut faire l'hypothèse raisonnable
que des états proches seront généralement associés à des estimations de valeurs V ( s )
ou Q(s, a) proches, et donc à des politiques similaires. C'est ce que font les approches
paramétriques.
Ici les espaces S et A sont décrits par deux vecteurs de variables d'états et de com
mandes. Soit un vecteur de paramètres. On fait l'hypothèse que Q(s, a) est approximé
par fonction paramétrique en () = {Oi , . . . , On) · On se donne a priori la fonction Qe (s, a) ,
par exemple une fonction linéaire des variables d'état et de commande. L'apprentis
sage consiste à estimer les paramètres O. L'algorithme Q-Learning est le même que
précédemment, sauf que la mise à jour en {i} ne va pas porter sur une table de valeur,
mais sur les paramètres de Q e (s, a) . La démarche consiste généralement à minimiser
l'erreur quadratique moyenne de Q relativement à Q* ; ce dernier est estimé à chaque
itération par la dernière mise à jour observée. L'algorithme de gradient donne lien à la
formulation suivante :
Cette dernière expression remplace la ligne {i) dans l'algorithme précédent pour chacun
des paramètres ()i · Une formulation similaire peut être obtenue pour l'estimation de
Ve .
L'apprentissage par renforcement avec une approche paramétrique a eu et continue
d'avoir des succès en robotique {dont certains sont illustrés dans ·[Sigaud et Peters,
8. Intelligence artificielle et robotique - 1233
2010] ) . Il a été mis en œuvre dans des applications simples, par exemple pour la sta
bilisation d'un pendule inversé articulé, ou pour des jeux de fléchettes ou de balles, et
d'autres plus complexes telles que la commande de manœuvres acrobatiques pour un
hélicoptère [Abbeel et al. , 2006 ; Coates et al. , 2009] . Une des principales difficultés de
mise en œuvre de ces approches est la définition des récompenses.
En effet, l'algorithme précédent indique abusivement : « observer r(s, a) ». Mais la
récompense se prête rarement à une observation directe par les capteurs du robot. Il faut
fournir au robot un moyen d'estimer cette récompense en fonction de ce qu'il perçoit.
Parfois, cette fonction r (s, a) est facile à spécifier, par exemple par l'écart à l'équilibre
pour une tâche de stabilisation, ou l'écart à la cible pour une tâche de poursuite. Mais
souvent elle ne l'est pas. Comment par exemple spécifier la récompense pour une tâche
de conduite automobile, ou pour des tâches encore plus complexes ?
Cette difficulté conduit au problème dit de l'apprentissage par renforcement in
verse [Abbeel et Ng, 2010] : ayant le comportement optimal, fournit par un tuteur,
il s'agit de trouver la fonction de récompense qui permettrait de le générer. Dans le
cas d'un MDP fini explicite, on se ramène à la formulation suivante (issue directe
ment de l'équation 8.8) : on connaît Vs : 11'* (s) , on sait exprimer récursivement Q(s, a)
en fonction des valeurs inconnues de r(s, a) , et on veut que Q(s, a) soit maximal pour
a = 11'* ( s) . On étend cette formulation sous-spécifiée (admet une infinité de solutions qui
ne sont pas intéressantes) avec un critère à optimiser, par exemple maximiser l'expres
sion : L s [Q(s, 11'* (s)) - maxa 'i .,.. * ( s ) Q(s, a)] . Le problème se résout par programmation
linéaire.
Le cas plus intéressant en pratique est celui des approches paramétriques. Ici éga
lement on définit la récompense re comme une fonction (généralement linéaire) des
variables d'état et de commande dont on cherche à déterminer les paramètres. La for
mulation précédente n'est pas directement applicable, car on ne dispose de 11'* que
pour un petit nombre d'échantillons d'états. Cependant la contrainte principale que
la distribution des états engendrés par re doit être la même que celle fournie par le
tuteur conduit à une formulation que l'on sait résoudre itérativement ; chaque itéra
tion conjugue deux étapes, une de programmation quadratique pour l'optimisation du
critère et une de programmation dynamique du type Value-Iteration.
Les techniques d'apprentissage par renforcement inverse relèvent des méthodes gé
nérales d'estimation et de résolution des problèmes inverses, largement utilisées par
ailleurs, y compris en robotique, par exemple [Mombaur et al. , 2010] . On peut égale
ment faire le lien à une démarche plus générale : l'apprentissage par démonstration,
que nous examinons en section suivante.
complexité calculatoire. Or, les techniques par renforcement nécessitent un très grand
nombre d'expériences pour converger. Enfin, il est fréquent que la tâche à apprendre
ne puisse pas être traitée sous forme d'une simple suite de couples (état, action}, mais
nécessite un plan ou une structure de contrôle, par exemple répéter telles séquences
d'actions jusqu'à certaine condition. Pour toutes ces raisons, l'apprentissage par dé
monstration se présente comme une bonne alternative lorsque le robot peut bénéficier
des démonstrations d'un tuteur.
Dans l'apprentissage par démonstration ( cf. synthèse de [Argall et al. , 2009] ) , un
tuteur indique au robot les actions adéquates dans certains états bien choisis. Ceci
permet au tuteur de contrôler le processus d'apprentissage et de le focaliser progressi
vement sur les difficultés. Le robot généralise à partir des démonstrations du tuteur et
apprend le comportement requis, par exemple sous forme d'une politique au sens MDP
dans les cas simples, ou sous forme d'une correspondance états sensoriels - plans dans le
cas général. L'apprentissage par démonstration est un cas particulier de l'apprentissage
supervisé : certaines des techniques développées au chapitre II. 10 seront pertinentes ici
également. Cependant les techniques d'apprentissage supervisé portent principalement
sur les cas où les retours du tuteur sont des labels de classification. L'apprentissage
par démonstration soulève d'autres problèmes liés à la perception - dans quels états se
déroule la démonstration - et à l'action - quelles actions sont mises en œuvre par le
tuteur.
Dans le cas le plus simple, l'apprentissage par démonstration se réduit à une télé
opération où le tuteur agit directement dans l'espace des actionneurs et des capteurs
proprioceptifs du robot. Ce dernier apprend les actions directement au niveau de ses
propres commandes. Ces approches ont donné lieu à de nombreux succès, dont plusieurs
sont illustrés dans [Sigaud et Peters, 2010] ou [Peters et Ng, 2009] .
Dans le cas général, le tuteur agit sur ses propres actionneurs plutôt que sur ceux
du robot pour illustrer les mouvements et manipulations qu'il souhaite faire apprendre.
Le robot observe le tuteur de l'extérieur. Avant d'apprendre, il doit alors établir une
double correspondance :
• une correspondance sensorielle, pour interpréter les états et actions observés, et
Plus récemment, on a vu apparaître des architectures telles que IDEA [Finzi et al.,
2004] et T-ReX [Py et al. , 2010] qui proposent une décomposition en agents plutôt
qu'en couches. Chaque agent 7 se compose d'un tandem planificateur/contrôleur. Il
produit des plans en établissant des séquences de « tokens » sur des « timelines » re
présentant l'évolution de quelques variables d'état du système, et en assure l'exécution.
La planification est assurée par un planificateur temporel ( e.g. , Europa) à base d'in
tervalles. Ces agents sont organisés en fonction des variables d'état considérées et ont
des latences, périodes et horizons de planification adaptés. Ils communiquent entre eux
en partageant certaines « timelines » (avec des règles de priorité pour les modifications
des timelines partagées) avec un dispatcher chargé d'intégrer les nouvelles valeurs de
« token » en fonction de l'exécution.
Ces architectures présentent deux avantages certains. Elles ont un modèle d'agent
unifié sur toute l'architecture (même les modules fonctionnels sont censés être déve
loppés en suivant ce paradigme) . Elles utilisent le même langage de modélisation sur
l'ensemble de l'architecture, ce qui confère une cohérence d'ensemble au modèle. On
peut citer deux expérimentations utilisant ces architectures : [McGann et al. , 2008] sur
un robot d'exploration sous-marine autonome, et [McGann et al. , 2009] sur le robot
PR2 de Willow Garage.
Toutefois, le déploiement de ces approches est freiné par deux problèmes. Le premier
est celui des performances. Peu d'agents parviennent à descendre en dessous de la
seconde comme période de planification, ce qui les exclut des modules fonctionnels très
réactifs. Le second est celui du développement très difficile du modèle de compatibilités
et des contraintes, en particulier lorsqu'on commence à s'intéresser au cas non nominal.
Signalons enfin dans cette catégorie, les architectures réactives hybrides qui ra
joutent un ou plusieurs planificateurs aux modules réactifs. Le rôle des planificateurs
est de proposer des plans permettant de configurer, via un système de coordination,
7. Les agents sont appelés « réacteurs » dans la terminologie T-ReX.
8. Intelligence artificielle et robotique - 1 237
l'activité des modules réactifs. La difficulté est dans la réalisation de ce module de coor
dination. L'approche de [Beaudry et al. , 2008] illustre une proposition dans ce sens qui
conjugue un planificateur de mouvement et un planificateur HTN gérant explicitement
le temps ; cette approche semble prometteuse pour des applications non critiques.
( Behavior, Interaction, Priority IBasu et al. , 2006)) et exploite le fait que chaque mo dule
GenoM est une instance du module générique ( voir figure 18) .
1 •
Requests Reports
•
Control Task
Control &
Functional
IDS
utilisés pour la synchronisation avec les autres composants ; {ii} un ensemble d'états
S = {si , . . . , s k } qui représentent les états où le composant attend les synchronisations ;
{iii} un ensemble de variables locales V ; et {iv) un ensemble de transitions. Une tran
sition est un tuple de la forme ( s, p, gp, fp, s') , représentant un pas de l'état de contrôle
s à s'. Son exécution modifie les variables locales suivant la fonction fp : V � V. Une
transition est possible ssi la garde gp (condition booléenne sur V) est vraie et l'inter
action sur p est possible. Par exemple, la transition de empty vers full en figure 19 est
possible si 0 < x, et si une interaction sur in est possible. La variable y prend alors
la valeur f (x ) . La transition de full vers empty n'a pas de garde mais requiert une
interaction sur le port out.
Dans cette approche, tous les composants génériques d'un module GenoM sont
modélisés en BIP. L'ensemble des modules de la couche fonctionnelle est obtenu par
8. Intelligence artificielle et robotique - 1 239
'""'�� out, ,
recomposition de ces modèles de base en BIP. Il faut noter, que les codes exécutables as
sociés au traitement des modules sont maintenant sur les fonctions f (x) des transitions
du modèle BIP. Cette approche, étendue à l'ensemble de la couche fonctionnelle d'un
robot, permet d'avoir un modèle extrêmement fin du système considéré ( e.g. , l'état dans
lequel se trouve chaque composant, les interactions possibles à tout moment, etc) . Le
modèle global résultant est utilisé par le BIP Engine (un joueur d'automates qui vérifie
en ligne les gardes et interactions pour l'ensemble du modèle, et exécute celles qui sont
valides) pour contrôler l'exécution réelle sur le robot. Ce modèle est au préalable vérifié
et validé avec des outils formels comme D-Finder [Bensalem et al. , 2009a] . La vérifi
cation formelle compose les invariants des composants 'Pi, qui définissent pour chaque
composant une propriété logique qu'il satisfait, et les invariants des interactions \JI qui
définissent logiquement les interactions possibles entre les composants considérés. La
recherche et le calcul de ces invariants sont automatiques. Ainsi, la règle d'inférence :
8.8 Conclusion
Nous avons présenté dans ce chapitre quelques modèles et techniques utilisés en
robotique pour traiter les problèmes de planification et de contrôle d'exécution de
mouvements et de tâches, les problèmes d'interaction, les problèmes d'apprentissage,
1 240 Panorama de l'intelligence artificielle. Volume 3
-
ainsi que les problèmes liés aux architectures nécessaires pour développer les fonc
tions décisionnelles et les intégrer aux fonctions sensorielles et motrices d'un robot. La
plupart de ces techniques ont été évoquées très synthétiquement. Quelques unes ont
été détaillées de manière plus didactique pour fournir au lecteur des illustrations de
représentations et d'algorithmes fréquemment mentionnés en robotique.
Il n'est pas nécessaire de revenir ici sur les perspectives de recherche et les nom
breux problèmes ouverts évoqués tout au long des sections qui précèdent, mais il peut
être intéressant de soulever brièvement les perspectives plus globales du couplage IA
robotique.
Comme nous l'avons souligné en introduction, la robotique est un domaine essentiel
lement pluridisciplinaire. Des progrès importants en robotique peuvent être attendus
d'avancées majeures dans ses disciplines de base, et les motivations robotiques peuvent
être des catalyseurs de telles avancées. Par exemple un système mécanique de pré
hension, léger, rapide et de grande dextérité, un capteur proximètrique 3D, précis et
à faible coût, ou un algorithme de traitement d'images capable de reconnaître avec
de bonnes performances les objets ordinaires que l'on peut trouver dans un apparte
ment ou un supermarché, enrichiraient substantiellement les capacités fonctionnelles
des plates-formes actuelles.
Mais la recherche en robotique, comme nous l'avons également souligné, est avant
tout intégrative. On peut certes progresser au niveau des briques de base pour le
traitement de telle tâche, plus difficile, ou dans tel environnement, plus complexe. Mais
l'autonomie de la machine, face à la variabilité et à la diversité des environnements et
des tâches, nécessite de progresser dans la maîtrise intégrée de la boucle perception
décision-action.
Cette boucle est au cœur de la recherche en robotique. Elle nécessite des modèles
explicites des objets, à divers niveaux (de leur apparence physique à leurs fonctions) ,
ainsi que des modèles des activités, des événements et des processus qui constituent
l'environnement et ses acteurs, y compris le robot. Elle nécessite des représentations
des connaissances adéquates pour exprimer ces modèles, lesquelles seront mathémati
quement hétérogènes 8 (en robotique, « représentations des connaissances » se décline
nécessairement au pluriel) . Elle nécessite également des processus d'acquisition de ces
connaissances selon diverses modalités d'apprentissage. Tel est l'agenda de recherche
dont nous avons illustré quelques avancées au cours de ces deux ou trois dernières dé
cennies et sur lequel beaucoup reste à faire. Cet agenda est pertinent aussi bien pour
des robots « monolithiques », intégrant tous leurs organes sur une seule plate-forme,
que sur des robots distribués. La distribution constitue d'ailleurs un item important
de cet agenda, aussi bien au sens de la distribution des fonctions cognitives au niveau
des organes et fonctions d'un robot que la distribution du robot sur des systèmes de
systèmes, des réseaux de capteurs, d'actionneurs et de ressources de traitement à vaste
échelle.
Du point de vue de la recherche en IA, on peut prédire sans crainte que la robotique
continuera d'être une source d'inspiration fertile et un champ d'expérimentation et de
validation de nombreux travaux de la discipline. Les illustrations dans le domaine des
systèmes multiagents sont nombreuses (cf. par exemple le numéro spécial [Sonenberg
et al. , 2012)). Sont également illustratifs de la richesse des synergies !A-robotique les
travaux sur les systèmes cognitifs ou sur les systèmes sociaux et développementaux, en
particulier en robotique cognitive ou en robotique développementale voir par exemple
[Oudeyer, 2010, 201 1] .
Cependant, au-delà de la source d'inspiration et d'expérimentation, on peut ar
gumenter que la boucle perception-décision-action est aussi au cœur de la recherche
en IA. Certes, on continue à faire des progrès dans tous les champs de l'IA, avec ou
sans focalision particulière sur l'intelligence incorporée à des processus sensori-moteurs.
Ainsi, les techniques statistiques et hybrides ont donné lieu à des avancées spectacu
laires en apprentissage automatique ou en traitement automatique du langage naturel,
illustrées par exemple par la victoire du système WATSON de Questions/Réponses au
jeu « Jeopardy » [Ferrucci et al. , 2010] . Ainsi, les représentations couplant logique du
premier ordre et gestion de l'incertitude, telles que les logiques probabilistes du premier
ordre [Milch et Russell, 2007] , ouvrent des perspectives remarquables pour la représen
tation hybride de connaissances, en particulier pour les problèmes de planification et
d'apprentissage dont nous avons déjà parlé. De nombreux exemples de ces avancés de
la discipline sont illustrés tout au long des précédents volumes cet ouvrage.
Mais la quête de la discipline, à savoir comprendre, modéliser et implémenter l 'in
telligence, passe pour beaucoup de chercheurs via ce lien perception-décision-action.
Les problèmes fondamentaux d'association entre un symbole et des données sensorielles
relatifs au même objet physique [Coradeschi et Saffiotti, 2003] et ceux plus généraux
d' « ancrage des symboles » [Harnad, 1990] - ou comment associer au symbole, dans
son contexte, un contenu signifié, objet, concept ou propriété générique - nécessitent
de coupler tout mécanisme cognitif à un système sensori-moteur en mesure d'interagir
de façon autonome avec le monde auxquels les symboles réfèrent (le niveau T3 du test
de Turing selon [Harnad, 2001) ) .
L e couplage !A-robotique est certainement un champ fertile pour les deux domaines.
Références
ABBEEL, P. , COATES, A., QUIGLEY, M. et NG, A. Y. (2006) . An application of rein
forcement learning to aerobatic helicopter flight. In Neural Information Processing
Systems {NIPS}, pages 1-8.
ABBEEL, P. et NG, A. Y. (2010) . Inverse reinforcement learning. In SAMMUT, C. et
WEBB, G. 1., éditeurs : Encyclopedia of Machine Learning, pages 554-558. Springer.
ALAMI, R. , CLODIC, A., MONTREUIL, V. , SISBOT, E. et CHATILA, R. (2006) . Toward
human-aware robot task planning. In AAAI Spring Symposium : To boldly go where
no human-robot team has gone before, pages 39-46.
1 242 Panorama de l'intelligence artificielle. Volume 3
-
MINGUEZ, J., LAMIRAUX, F. et LAUMOND, J.-P. (2008) . Motion planning and obstacle
avoidance. In [Siciliano et Khatib, 2008] , pages 827-852.
MOMBAUR, K., TRUONG, A. et LAUMOND, J. (2010) . From human to humanoid loco
motion : an inverse optimal control approach. Autonomous Robots, 28(3) .
MONTEMERLO, M., THRUN, S . , KOLLER, D. et WEGBREIT, B. (2002). Fastslam : A
factored solution to the simultaneous localization and mapping problem. In National
Conference on Artificial Intelligence (AAAI}, pages 593-598.
MONTEMERLO, M. , THRUN, S . , KOLLER, D. et WEGBREIT, B. (2003) . Fastslam 2.0 :
An improved particle filtering algorithm for simultaneous localization and mapping
that provably converges. In International Joint Conference on Artificial intelligence
(IJCAI}, pages 1151-1156.
MORAVEC, H. P. (1983) . The Stanford Cart and the CMU Rover. Rapport technique,
CMU.
MORISSET, B. et GHALLAB, M. (2008) . Learning how to combine sensory-motor fonc
tions into a robust behavior. Artificial Intelligence, 172(4-5) :392-412.
MuSCETTOLA, N. (1994) . Hsts : Integrating planning and scheduling. In ZWEBEN, M.
et Fox, M., éditeurs : Intelligent scheduling. Morgan Kaufmann.
NEWCOMBE, R. A. et DAVISON, A. J. (2010) . Live dense reconstruction with a single
moving camera. In Computer Vision and Pattern Recognition {CVPR}, pages 1498-
1505.
NICOLESCU, M. N. et MATARIC, M. J. (2003) . Natural methods for robot task learning :
instructive demonstrations, generalization and practice. In Autonomous Agents and
Multi-Agent Systems (AAMAS}, pages 241-248.
ÜUDEYER, P.-Y. (2010) . On the impact of robotics in behavioral and cognitive sciences :
From insect navigation to human cognitive development. IEEE T. Autonomous
Mental Development, 2(1) :2-16.
ÜUDEYER, P.-Y. (201 1). Developmental robotics. In SEEL, N., éditeur : Encyclopedia
of the Sciences of Learning. Springer.
PETERS, J. et NG, A. Y. , éditeurs (2009) . Autonomous Robots, Special issue on robot
learning, volume 27(1-2) . Springer.
PINEAU, J. et GORDON, G. J. (2005) . POMDP planning for robust robot control. In
International Symposium on Robotics Research {ISRR}, pages 69-82.
PINEAU, J . , GORDON, G. J. et THRUN, S. (2003) . Policy-contingent abstraction for
robust robot control. In Uncertainty in Artificial Intelligence, pages 477-484.
PRASSLER, E. et KOSUGE, K. (2008) . Domestic robotics. In [Siciliano et Khatib, 2008] ,
pages 1253-1281.
PY, F. et INGRAND, F. (2004) . Dependable execution control fo r autonomous robots.
In IEEE/RSJ International Conference on Intelligent Robots and Systems {!ROS},
volume 2, pages 1136-1 141.
PY, F., RAJAN, K. et McGANN, C. (2010) . A systematic agent framework for situated
autonomous systems. In Autonomous Agents and Multi-Agent Systems {AAMAS},
pages 583-590.
ROSEN, C. A. et NILSSON, N. J. (1966) . Application of intelligent automata to recon-
1 248 Panorama de l'intelligence artificielle. Volume 3
-
Chapitre 9
Perspectives philosophiques et
épistémologiques ouvertes par
l'intelligence artificielle
Les travaux en intelligence artificielle (IA) ont conduit tout aussi bien à réviser les
défis du programme initial de l'IA qu'à nous rendre attentifs à des particularités et
limitations de la cognition humaine. Les deux sont liés, comme le montre une relec
ture attentive du test de Turing, de l'apologue de la chambre chinoise de Searle et des
suggestions de Dreyfus, et dans les deux cas, on a dû passer de l'idéal à l'opératoire.
Pour répondre à ces défis plus pragmatiques l'IA n'hésite pas à articuler entre elles des
opérations de niveaux et des fonctionnalités différentes, plus spécifiques ou plus géné
riques. Les défis ne sont pas relevés par un système formel opératoire qui posséderait
d'emblée toutes les capacités d'apprentissage, mais - par exemple dans les simulations
par la dynamique d'une succession de solutions ouvertes à des réajustements comme à
des reprises réflexives.
9.1 Introduction
La construction des premiers ordinateurs, dans la décennie 1940, a soudainement
donné une nouvelle actualité à des questions fondamentales ; celles-ci ont été abordées
de front par les pionniers de l'informatique : « les machines peuvent-elles penser ? »
est la première phrase d'un célèbre article d'Alan Turing (1950] . Sont évoquées vers la
même époque les possibilités de créativité (l'ordinateur peut-il découvrir des théorèmes
mathématiques ?) , de décision (peut-il trouver de meilleures solutions que les humains
aux problèmes de gouvernement ? (cf. chapitre 1.15) , d'apprentissage (peut-il améliorer
ses propres performances, acquérir par lui-même des connaissances sur son environne
ment ?) , etc. Le terme d'intelligence artificielle (IA) apparaît en 1956 pour regrouper
ces questions (cf. chapitre 1.1). Il est, volontairement, provocateur et provoque en effet
Auteurs : PIERRE LIVET et FRANCK VARENNE.
1 252 Panorama de l'intelligence artificielle. Volume 3
-
trer cette hypothèse : par définition, nous, humains, ne connaissons pas les limites de
la créativité humaine, si bien que nous sommes dans l'incapacité de démontrer qu'au
cune machine possible ne peut les atteindre. En revanche, si l'on considère les machines
que l'homme peut construire, on peut à la fois faire l'hypothèse qu'il pourra toujours
construire des machines qui pallieront les manques des précédentes, et envisager tou
jours hypothétiquement d'en conclure par récurrence que sa créativité sera supérieure
- ou simplement non comparable, les critères pouvant varier - à celle de la meilleure
machine qu'il vient de construire. Le test de Turing a l'avantage de ne pas exiger de
telles démonstrations impossibles, mais son résultat est forcément vague, puisqu'il est
lié aux approximations de notre cognition humaine.
savoir sélectionner les éléments pertinents dans chaque contexte. Finalement il n'a plus
à chercher la bonne décision, ce qu'il faut faire lui apparaît avec évidence - mais il n'est
pas capable alors de vraiment expliquer comment il s'y prend. Pour en arriver là, il ne
faut pas suivre une programmation externe, il faut être celui dans lequel s'incorpore
peu à peu, à la suite d'une multitude d'expériences, une sensibilité à des indices qui
ne prennent sens qu'en situation. Cette incorporation a fait croire que Hubert Dreyfus
pensait que, sans corps, on ne pouvait approcher l'intelligence humaine. Sa thèse était
plutôt que sans une histoire d'expériences progressivement intégrées dans un système
capable d'évoluer de manière autonome en interaction avec son environnement, aucun
dispositif ne pouvait passer le test de Turing, réduit à sa version en termes de duel.
A vrai dire, on ne voit pas comment on pourrait reconnaître qu'une machine suppo
sée intelligente aurait bien des expériences similaires à celles que nous avons en première
personne. La perspective phénoménologique rend donc d'emblée le test « duel » im
possible. Qu'en serait il du VTT ? Il faut mettre à la place de H1 des humains qui
disent avoir atteint différents stades (des novices, bons amateurs, experts, etc.) et faire
de même pour la place de H2 . Pour passer le test la machine devrait présenter par
exemple avec un humain novice les mêmes différences que présente avec le novice un
humain bon amateur, et ainsi de suite, en variant les stades d'un côté et de l'autre.
Il semble que les machines de l'IA actuelles passent paradoxalement le VTT quand
elles se comportent en novices, si H2 est un novice et que H1 est aux stades de bon
professionnel et d'expert. Elles vont alors révéler à ces acteurs compétents les limites
de leurs règles et ces limites sont similaires à celles du novice. Il se peut inversement
qu'un H1 novice comprenne aussi peu de choses à ces machines qu'à un H2 expert.
Elles passent aussi - chacune dans leur domaine - le VTT quand H2 et H1 sont des
novices, voire quand H2 et H1 sont des débutants avancés. Elles ne le passent pas (sauf
aux échecs et dans des jeux formels) quand H2 et H1 sont des experts, voire de bons
professionnels. Quand H1 est un bon amateur, il peut être bluffé par une machine qui
tient compte de statistiques très importantes et de nombreuses heuristiques, et qu'il
peut prendre pour un bon amateur. La question est ouverte de savoir s'il peut prendre
une machine qui dispose de très nombreuses heuristiques (cf. chapitre 11. 1) et possi
bilités d'évaluations pour un expert, et ceci parce qu'il ne s'attend pas à comprendre
l'expert H2 .
Les limitations de l'IA - si l'on prend pour pierre de touche le VTT - tiendraient
alors à deux facteurs :
1. Nous ne connaissons pas les processus par lesquels un humain qui devient un
expert intègre les nombreuses expériences qu'il a pu faire tout en en retirant
des capacités d'évaluation ou même de choix d'une méthode de traitement des
problèmes, qui soient pertinentes à chaque fois pour des situations variées.
2. Si nous connaissions ces processus, il serait probablement difficile de les accélérer ;
de surcroît nous ne fabriquons pas des machines pour qu'elles soient aussi lentes
à éduquer que les humains et aussi peu fiables (des auteurs ont noté que les
jugements des experts sont fort dépendants des limites de leur contexte culturel
d'éducation) .
Les limitations de l'IA tiendraient donc à nos propres limitations cognitives et au
fait que nous ne créons des machines qu'en complément de ces capacités. Mais ces
1256 Panorama de l'intelligence artificielle. Volume 3
-
conclusions ne nous avancent guère pour savoir comment dépasser ces limitations, ni,
inversement, pour savoir si elles sont indépassables.
Il est plus réaliste d'une part de comparer les résultats de l'IA avec les défis qu'elle
s'était elle-même adressés ; d'autre part de repérer comment les évolutions de l'IA ont
amené à des déplacements conceptuels, et à formuler autrement ses programmes de
recherche.
spécifique, ou existe-t-il une logique universelle qui préside à toutes ces combinaisons ?
Comment traiter les informations vagues ?
Sur la question de l'expression des connaissances, l'IA a semble-t-il apporté une
contribution passée relativement inaperçue malgré ses implications philosophiques (cf.
chapitres 1.19 et 1.20) . L'intelligence (humaine) ne consiste pas à tout exprimer pour
pouvoir tout calculer. Elle a une dimension pragmatique, puisqu'il faut aussi décider
à temps. Si un feu se déclare, il faut décider immédiatement si on a les moyens de
l'éteindre, ou s'il vaut mieux évacuer les lieux. Elle a décrit de façon fine le compromis
expressivité - efficacité des systèmes de représentation : si le langage de description
est « trop » expressif, le système de décision sera « trop » lent. L'IA a eu comme
premier effet de mettre en évidence tous ces compromis faits par l'intelligence humaine.
Ce problème est lié aux différentes variantes du problème du « cadre » : comment
déterminer ce qu'on se permettra de négliger ? La finesse de la description dépend donc
des différents rythmes imposés par les tâches, elle doit être à grain variable, chaque
niveau de granularité (cf. chapitre 1.3) - donc de langage de description - correspondant
à une rapidité d'obtention des inférences, donc à une capacité de décision. Quand le
système change de buts, de nouveaux éléments doivent être exprimés plus finement
et certains détails précédents peuvent être négligés. On doit aussi, quand on construit
des ontologies, se donner les moyens de pouvoir raccorder chaque ontologie régionale
à d'autres ontologies qui exigeraient des structurations quelque peu différentes (cf.
chapitre 1.5) .
Ces observations appellent à mettre en avant la dimension méta-cognitive [Proust,
2013] du comportement intelligent, dimension qui ne se réduit pas à la « réflexion » mais
qui consiste à savoir combiner différentes informations sur les capacités des traitements
en cours et l'accessibilité en mémoire. En effet, en vue d'obtenir une décision judicieuse,
il important de savoir combien de temps prendrait un raisonnement plus approfondi,
ou encore d'avoir une idée de la proportion des connaissances qu'on a mobilisées par
rapport à celles dont on disposerait avec plus de temps ou d'effort de mémoire. De plus il
faut savoir adapter sans cesse les computations en cours en fonction des informations qui
continuent à venir de l'environnement, ou avec celles dont les inférences déjà effectuées
révèlent la nécessité, ce qui exige d'avoir des connaissances sur la dynamique même
de la computation. Les développements de l'IA ont montré le rôle crucial de la méta
cognition dans le domaine de la résolution de problèmes. Il s'est avéré indispensable
de disposer d'une mesure de la proximité entre l'état d'un raisonnement et la solution
cherchée : si cette mesure décroît ou si elle stagne durablement, il faut interrompre
au moins momentanément le raisonnement en cours et effectuer un raisonnement de
nature différente sur la stratégie employée.
Avec la prise en compte de la granularité dans le comportement intelligent, l'acti
vité de raisonnement ne se réduit plus à sa version logique classique. Le raisonnement
logique est contraint par la préservation de la vérité : appliqué à des prémisses vraies,
il doit fournir des conclusions vraies. Or si les prémisses sont des descriptions à gra
nularité variable, leur caractère de vérité n'est pas absolu et ce qui importe n'est plus
d'obtenir des conclusions vraies, mais des conclusions pertinentes au même degré de
granularité. Ceci conduit ou bien à concevoir d'autres logiques, et l'IA n'a pas été avare
en production de logiques non classiques, ou bien à s'intéresser à la gestion de l'impré-
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 259
système intelligent doit savoir diagnostiquer les pannes, et donc se demander ce qui a pu
les causer ; un robot doit planifier ses actions, donc savoir quels effets ces actions vont
causer. Dans ces exemples aussi une liaison entre cause et norme semble se faire jour
(cf. chapitre III. 10) . En effet la perspective de l'IA amène à privilégier la conception
dite « interventionniste » (l'un des premiers à l'avoir proposée sous le nom de théorie
de la manipulation est Von Wright [1971] , et une de ses expressions formelles, ce sont
les réseaux bayésiens (cf. chapitre II.8)) : A est considéré comme cause de B dans le
contexte C, si A est une intervention exogène, et si dans le contexte C, B est perçu
comme une conséquence normale de cette intervention, alors qu'en l'absence de A, B
ne serait pas considéré comme une conséquence normale. Cette conception paraissait
initialement trop anthropomorphique aux philosophes, mais son utilisation par IA a
relativisé cette objection.
Un autre sujet de réflexion philosophique, celui du statut du langage et des signifi
cations, reçoit en IA un éclairage nouveau (cf. chapitre III.5) . La trichotomie syntaxe -
sémantique - pragmatique, qui a été fidèlement suivie au cours des premières décennies
de l'IA, n'a pas permis d'aller beaucoup plus loin que le traitement de phrases extraites
de leur contexte, ou au mieux de contextes limités. Les tentatives de la linguistique
formelle pour donner un contenu opérationnel à l'analyse syntaxique des langues natu
relles butent sur un problème analogue à celui de la granularité : au-delà d'un certain
niveau de finesse, ce qui fonde l'acceptabilité d'une phrase devient difficilement sépa
rable d'un contexte, et repose la plupart du temps sur des considérations sémantiques
ou pragmatiques. Les travaux plus récents des informaticiens sur la langue, travaux qui
s'appuient sur de grands corpus, n'ont qu'un rapport lointain avec une conception sim
plement syntaxique, ou avec une sémantique ancrée sur les modèles qui rendent vraie
une formule. Ils mettent plutôt en évidence les dépendances contextuelles, voire la sen
sibilité des significations à l'évolution du réseau des termes utilisés et de leurs usages.
Ils ont tendance à passer directement de régularités dans les occurrences de symboles
à des usages qui varient en fonction du réseau des usagers. L'outillage développé par
l'IA pour traiter de la normalité, et dans une certaine mesure de l'analogie, a déjà
influencé de nombreux travaux sur la langue. Ce ne sont pas seulement les concep
tions des rapports entre syntaxe et sémantique qui peuvent en être modifiées, mais
aussi les catégorisations pragmatiques d'abord développées dans l'analyse du langage
dit « ordinaire ».
On peut d'ailleurs réfléchir selon les perspectives de l'IA sur les conditions pragma
tiques de l'IA elle-même. Elle met en jeu des interactions entre des programmes et des
utilisateurs (humains ou non) de ces programmes (cf. chapitre I. 17) . Elle a donc besoin
d'analyser les conditions de ces interactions, et elle peut tenter de les formaliser ou
de les encadrer. Cela exige de penser la dynamique de ces interactions. On peut citer
la manière dont Sallantin [1999] propose de concevoir une preuve non plus seulement
comme une déduction formelle, mais comme donnant à celui qui la considère de nou
velles capacités de faire des inférences, et de surmonter des obstacles cognitifs, ce qui
implique de s'intéresser à la dynamique de la preuve et à ses capacités d'interaction
voire de transaction avec son public potentiel. Dans un tout autre esprit, on peut rester
au cœur de la logique, celle qui peut servir de référence de validité à des programmes, et
cependant concevoir les preuves comme interactions - cette fois avec des contre-preuves
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1261
périeure ou en les sélectionnant pour leur normativité, et cela en fait ce qu'on peut
appeler des propriétés-horizons. Ils n'indiquent pas comment trouver des processus
opératoires qui les satisfassent. Tentons alors de raisonner dans l'esprit du VTT. Il
nous faudrait alors comparer aux propriétés-horizons des philosophes des propriétés
horizon correspondantes dans l'IA : les propriétés que les réalisations actuelles de l'IA
seraient censées pouvoir satisfaire si nous leur donnions un développement idéalisé. Ce
serait une sorte d'horizon de l'opératoire. Ainsi la machine de Turing universelle peut
être considérée comme un développement idéalisé ( idéalement mais pas réellement ef
fectuable) d'une machine de Turing effectivement programmée. Nous pourrions aussi
tenter de trouver des versions opératoires des propriétés horizons philosophiques, mais
pour cela il faudrait sans doute que la philosophie de l'esprit et sa collaboration avec
la psychologie cognitive et les neurosciences soient plus avancées. On peut alors mon
trer que si nous supposons l'IA capable de résoudre partiellement le problème de la
capacité dynamique, qui est une propriété-horizon pour l'IA, elle peut répondre aux
défis philosophiques. Une réponse à ce problème exige qu'une structure de représenta
tion initialement construite puisse subir des changements (c'est la dynamique) , et que
ces changements tiennent à des variations dont la possibilité ( c'est la capacité) est au
moins partiellement inscrite dans les opérations associées à cette structure ( partielle
ment, parce que les modifications des capacités de ces opérations doivent pouvoir venir
aussi de leur interaction avec un nouveau contexte) .
L'exercice d'une capacité opératoire dynamique impliquerait donc :
1 . un fonctionnement computo-représentationnel avec ses régularités ;
2. l'insertion de ses opérations dans un environnement nouveau, ce qui le soumet à
des variations ;
3. la capacité du computo-représentationnel, en se reformant, de re-catégoriser les
modifications introduites par ce fonctionnement interactif- si nous nommons
re-catégorisation ce qui recalibre les opérations sur les normalités du nouveau
contexte.
L'intentionnalité au sens philosophique ( la capacité de renvoyer à des référents externes
ou internes en tant qu'ils sont visés sous un certain aspect et pas sous un autre) exige
ces trois étapes, mais ces trois étapes suffisent à la satisfaire. En effet, l'insertion dans
un environnement permet d'avoir des référents, qui donnent lieu à des représentations
sous un certain format - l'ersatz d'un aspect - par le computo-représentationnel ( cf. par
exemple la notion de « trace » , cf. chapitre I.19 ) . Ces représentations ne fournissent pas
elles-mêmes, évidemment, leurs référents exogènes, mais elles pourraient être capables
de se modifier en fonction du changement de référent. Si donc l'on ne raisonne pas sur
un état statique, mais sur une évolution dynamique ( cf. chapitres I. 1 1 , I.8, I. 10 et I. 16 ) ,
référent et mode de présentation seront alors indissolublement liés, ce qui est le critère
philosophique d'une véritable intentionnalité.
Les mêmes trois étapes aboutissent à la production de qualia ( d'expériences quali
tatives, « ce que cela fait » de percevoir comme un humain, etc. ) . Il faut pour cela que
le fonctionnement effectif d'une opérativité interactive produise dans chaque environ
nement particulier des particularisations des catégories canoniques de représentation.
En IA cela peut aller des contraintes propres à l'implémentation physique des opéra
tions, en passant par les spécificités propres à tel mode de saisie des données, tel mode
9. Perspectives philosophiques et épistémologiques ouvertes par l'IA - 1 263
et se voir par là dans la capacité d'interagir avec les aspects iconiques des premiers
éléments.
Comme la simulation implique, on l'a dit, la possibilité d'un aller-retour entre le
niveau du fonctionnement spécifique et celui du résultat doté d'une généricité symbo
lique, on peut envisager une simulation de la simulation : elle implique un dispositif
d'auto-observation des simulations intérieures au système, donc de ces allers-retours
qui donnent à des fonctionnements pris dans leur spécificité iconique des capacités
génériques, et qui, inversement, peuvent recharger en particularités spécifiques les ca
pacités symboliques. La sensibilité au contexte se manifestera alors d'abord par une
panne de généricité, qui conduira à une recherche en particularité, laquelle redonnera,
si tout se passe bien, une généricité réajustée, et donc une adaptation à de nouvelles
normalités. La possibilité de modifier le fonctionnement de base en fonction des pro
blèmes rencontrés au niveau générique doit être évidemment prévue par le programme
de manière à y exercer les heuristiques ou les modèles de cognition symbolique que l'on
se proposera. On peut penser ainsi que la simulation sur ordinateur des pratiques hu
maines de simulation (qui mettent en œuvre une capacité reconnue chez l'homme tant
pour la cognition pratique que théorique) pourrait d'abord jouer le rôle d'une recharge
en particularité, qui ensuite alterne ou s'enchevêtre pas à pas avec des procédures de
re-symbolisation par reconnaissance de formes, re-catégorisation, heuristiques frugales
ou autres.
Sous contrainte d'assurer un minimum de compatibilité et de co-fonctionnalité
(comme dans DEYS) mais aussi sous réserve de vérifier que la mise en œuvre de chaque
niveau sous-symbolique maintient l'iconicité qui rend la forme de ses résultats recon
naissable par les suivants et finalement par une reconnaissance externe, faute de quoi
une simulation ne reste qu'un « truc » computationnel permettant de résoudre un
calcul, on peut faire feu de tout bois pour simuler le rôle du contexte (recharge en par
ticularité, puis en généralité) . On peut utiliser des fonctionnements sub-symboliques
et des opérations sur des symboles iconiques. On peut s'assurer que des différences
syntaxiques fines (des différences d'implémentation) déclenchent des opérations qui re
viennent à modifier les catégories tout en conservant certains de leurs fonctionnements) .
Et cela au moins par accumulation au-delà d'un certain seuil, voire par émergence (une
émergence faible : c'est-à-dire qui vient uniquement du caractère computationnel de
la trajectoire) . On peut mettre au point des procédures de révision des catégories par
merging entre des hiérarchies de catégories différentes. On peut imaginer aussi que
s'automatisent et se modularisent les procédés d'alignement entre les ontologies (cf.
chapitre I. 15) [Livet et al. , 2009] que l'on peut extraire ex post des re-catégorisations.
Pour l'heure, il semble en tout cas que les conditions nécessaires pour traiter notre pro
blème comportent celle se donner les moyens computationnels de jouer sur au moins
deux niveaux (par exemple les réalisations particulières sub-symboliques et leur capa
cité à déclencher de nouvelles compositions symboliques) et sur au moins trois phases :
1. fonctionnement,
2. perturbation,
3. réajustement ou révision.
1 266 Panorama de l'intelligence artificielle. Volume 3
-
peuvent conduire à des simplifications du problème, dont il reste à voir en quoi elles
peuvent donner lieu à généralisations ou au contraire sont locales. Là encore, il semble
que l'IA doive abandonner une perspective générique statique pour une perspective
qui combine de manière dynamique particularité et généricité - la notion de normalité
révisable exprime aussi une telle perspective dynamique.
9. 7 Conclusion
Le programme de l'IA s'est donc modifié, mais aussi la conception de l'intelligence
humaine à laquelle elle peut se confronter. Nous étions tentés de prêter à l'intelligence
humaine des vertus dont elle était censée disposer de manière simultanée, en statique
en quelque sorte. Mais les développements de l'IA nous suggèrent que l'intelligence
humaine elle-même ne dispose pas de toutes ces vertus à la fois, qu'elle doit parfois
abandonner les unes pour disposer des autres, et réciproquement, ce qui garde sens
seulement dans une dynamique. Certes elle utilise la stratégie du bootstrapping uti -
liser ce qu'on sait déjà faire pour s'améliorer. Mais elle se révèle aussi devoir compter
sur ce qui lui résiste et lui pose problème, sur ce qui lui permet de repérer en quoi
elle était défaillante, pour construire des modes de réactions à ce que ses représenta
tions précédentes ne contrôlaient pas, en utilisant à la fois ses capacités initiales et
les variations que lui proposent par leur nouveauté les situations rencontrées. Ce sont
maintenant ces opérations de l'intelligence, plus limitées dans leurs ambitions mais
aussi plus évolutives, que l'IA se propose d'étudier en les simulant.
Références
COLLINS, H. M. {1996) . Embedded or embodied ? a review of hubert dreyfus' what
computers still can't do. Artif. Intell. , pages 99-1 17.
CooK, S. A. {1971). The complexity of theorem-proving procedures. In Proceedings of
the third annual ACM symposium on Theory of computing, pages 151-158.
DREYFUS, H. L. {1992). What computers still can't do - a critique of artificial reason.
MIT Press.
DREYFUS, H. L. et DREYFUS, S. E. {1988) . Mind over machine - the power of human
intuition and expertise in the era of the computer. Free Press.
GANASCIA, J. {1990) . L 'âme-machine : les enjeux de l 'intelligence artificielle. Science
ouverte. Éditions du Seuil.
GARBAY, C. et KAYSER, D. {2011). Informatique et sciences cognitives : Influences ou
confluence ?
GIRARD, J.-Y. {2001). Locus solum : From the rules of logic to the logic of rules.
Mathematical Structures in Computer Science, 1 1 {3) :301-506.
1 268 Panorama de l'intelligence artificielle. Volume 3
-
HUME, D . ( 1978). A Treatise of Human Nature. Oxford Clarendon Press. Book I, Part
III, section XIV, an edition with analytical index by Selby-Bigge, second edition with
text revised by Nidditch.
KAYSER, D . , MAGDA, F. A. et STEFAN-GHEORGHE, P. (2004) . Intelligence artificiel le
et agents intelligents. Printech.
LIVET, P. Emotions et rationalité morale. Presses Universitaires de France.
LIVET, P. Révision des Croyances. Hermès.
LIVET, P. (2007) . Towards an Epistemology of Multi-agent Simulation in Social Scien
ces. The Bardwell Press.
LIVET, P. , MÜLLER, J.-P. , PHAN, D. et SANDERS, L. (2009) . Ontology, a mediator
for agent-based modeling in social science. Journal of Artificial Societies and Social
Simulation.
PENROSE, R. (1989) . The Emperor 's New Mind : Concerning Computers, Minds, and
The Laws of Physics. Oxford University Press, Oxford.
PITRAT, J. ( 1995) . De la machine à l 'intelligence. Hermès.
PROUST, J. (2013) . The philosophy of Meta- Cognition, Mental agency and self
awareness. Oxford University Press, Oxford.
SALLANTIN, J. et SzCZECINIARZ, J. ( 1999) . Le concept de preuve à la lumière de
l 'intelligence artificielle. Nouvelle Encyclopédie Diderot. Presses Universitaires de
France.
SALLANTIN, J. et SZCZECINIARZ, J. J. (2007) . Il concetto di prova alla luce dell'intel
ligencia artificiale ( postface ) .
SAYGIN, A. P. , CICEKLI, I. et AKMAN, V. (2000) . Turing test : 50 years later. Minds
Mach. , 10(4) :463-518.
SEARLE, J. R. ( 1980) . Minds, brains and programs.
SELINGER, E. M. et CREASE, R. P. (2002). Dreyfus on expertise : The limits of phe
nomenological analysis. Continental Philosophy Review, 35(3) :245-279-279.
TURING, A. M. (1950) . Computing machinery and intelligence. Mind, 49 :433-460.
VARENNE, F. (2007) . Du Modele a La Simulation Informatique. Mathésis ( Paris) . J.
Vrin.
VARENNE, F. {2009) . Qu 'est-ce que l 'informatique ? Chemins Philosophiques. J. Vrin.
WEIZENBAUM, J. (1983) . Eliza - a computer program for the study of natural language
communication between man and machine ( reprint ) . Communications of the ACM,
26(1) :23-28.
WEIZENBAUM, J. ( January 1966) . Eliza - a computer program for the study of natural
language communication between man and machine. Communications of the ACM,
9(1) :36-45.
WRIGHT, G. (1971). Explanation and Understanding. Cornell Classics in Philosophy.
Cornell University Press.
ZEIGLER, B. (1976) . Theory of Modeling and Simulation (first ed.). Wiley Interscience.
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1269
Chapitre 1 0
Intelligence artificielle et
psychologie du raisonnement
et de la décision
10. 1 Introduction
L'intelligence est une caractéristique des organismes vivants supérieurs, et tout
spécialement humains, dont l'étude est en principe du ressort de la psychologie. La
constitution de l'intelligence artificielle comme discipline autonome par rapport à la
psychologie pouvait susciter l'espoir d'une interfécondité. Dans le domaine du raison
nement et de la décision, cet espoir a longtemps été déçu. En effet, même si certains
concepts importants, apparus en psychologie entre 1930 et 1960, ont pu être exploités
par les spécialistes de l'IA 1 , les théories fournies par les psychologues du raisonne
ment et de la décision sont longtemps demeurées trop peu élaborées pour guider les
investigations des chercheurs en IA.
Auteurs : JEAN-FRANÇOIS BONNEFON et Guy POLITZER.
1. Ainsi, le concept de traitement limité de l'information ( Miller, 1956] , la notion de stratégie de
résolution (Bruner et al. , 1956] , ou des notions plus anciennes telles que celle de schéma pour le
fonctionnement de la mémoire, ou bien ce qu'on appellera ultérieurement l'approche top-down dans
l'étude de la perception et de la résolution de problème, présente chez les théoriciens de la Gestalt.
1 270 Panorama de l'intelligence artificielle. Volume 3
-
Nous n'essaierons pas ici d'identifier les raisons de ce rendez-vous longtemps man
qué. Nous retiendrons plutôt que, ne trouvant dans les travaux psychologiques ce dont
ils avaient besoin, certains spécialistes de l'IA en sont parfois venus à effectuer leurs
recherches psychologiques eux-mêmes, à l'instar de Newell et Simon [Newell et Simon,
1972] observant le comportement humain en vue d'élaborer leur programme de réso
lution de problèmes. De fait, le caractère unidirectionnel de l'influence entre les deux
disciplines a perduré jusqu'à nos jours. En exploitant le sens commun, en usant d'in
trospection, et en sachant tirer profit de leurs échecs, ce sont les chercheurs en IA qui
ont repéré les faits ou phénomènes qu'il est indispensable de prendre en compte (par
exemple, l'étendue des bases de connaissances) , identifié des objets d'étude essentiels
(comme le raisonnement avec des données imparfaites, l'abduction) ou en ont renouvelé
l'approche (par exemple, la causalité) .
C'est sans doute durant le premier quart de siècle de son existence (du milieu des
années 1950 à la fin des années 1970) que l'IA a produit les réalisations les plus décisives
pour orienter la recherche psychologique. Nous nous limitons à mentionner celles qui
ont été les plus spectaculaires :
- Vient en premier, à la fois chronologiquement et peut-être par sa pertinence,
le Logic Theorist [Newell et al. , 1958] , un programme capable d'administrer
la preuve de théorèmes issus des Principia Mathematica. En utilisant quatre
règles d'inférence et une variété d'heuristiques, il réussit à démontrer 38 des 52
théorèmes qui lui furent soumis.
- Plus ambitieux:, le General Problem Solver [Newell et Simon, 1961, 1972]
fut conçu pour résoudre une assez grande variété de problèmes logico
mathématiques classiques (preuve de théorèmes, jeu d'échecs) , et de tâches de
laboratoire (tour de Hanoï, cryptarithmétique) . Il utilise donc des heuristiques
indépendantes des tâches. Pour cela, dans un but avoué de simulation, le pro
gramme applique les notions fondamentales d'analyse moyens-fins, de calcul
d'écart au but et de sa réduction, et l'identification de sous-buts.
- Quillian élabore le premier modèle de mémoire sémantique en réseau [Quillian,
1968] .
- Le premier système expert, DENDRAL [Feigenbaum et al. , 1971] , fut conçu pour
l'aide à l'analyse en chimie organique. Il contient un ensemble de règles simples
destinées à réduire le parcours de l'arbre. Dans MYCIN [Shortliffe, 1976] , conçu
pour le diagnostic médical, apparaît la séparation entre base de connaissance et
moteur d'inférence.
- La conversation en langage naturel fut réalisée par le programme SHRDLU [Wi
nograd, 1972] en référence à un micro-monde de blocs qu'il manipule virtuelle
ment pour constituer des configurations sur demande. Il répond aux questions
qu'on lui pose, en particulier pour justifier ses actions, et formule des questions
pour désambiguïser les instructions.
- Schank et Abelson modélisent la compréhension du langage naturel pour le
monde réel à partir de la théorie de la dépendance conceptuelle fondée sur
l'hypothèse de primitives conceptuelles, complétée par l'hypothèse de l'existence
de scripts [Schank et Abelson, 1977] . Le programmme forme une représentation
interne et peut, suite à des questions testant sa compréhension, donner des
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 127 1
10.3 Illustrations
10.3. 1 Raisonnement plausible
Le raisonnement plausible consiste à tirer des conclusions à partir de généralisa
tions abusives du type « Les oiseaux volent » ou « Les linguistes parlent plus de trois
langues ». La question se pose des règles permettant de manipuler correctement ce type
de généralisations afin de produire de nouvelles connaissances fiables. Dans un article
fondateur, Pelletier et Elio [Pelletier et Elio, 1997] ont argumenté avec force pour une
approche psychologiste de ce problème : la manipulation correcte de ces généralisations
ne peut être définie uniquement par l'intuition des chercheurs en IA, mais doit corres
pondre à la manipulation que les raisonneurs humains en font. En d'autres termes, le
comportement formel du modèle développé en IA se doit de refléter le comportement
humain tel qu'il peut être établi par des protocoles expérimentaux. Les données com
portementales obtenues par les psychologues sont le phénomène même que les modèles
formels se doivent de capturer.
Pour autant faut-il, bien entendu, que ces données comportementales soient dis
ponibles, ce qui était loin d'être le cas au moment de l'appel de Pelletier et Elio, en
dehors de résultats préliminaires obtenus par ces mêmes auteurs [Elio et Pelletier, 1993] .
Depuis lors, toutefois, un nombre respectable d e travaux empiriques ont été spécifique
ment consacrés à obtenir des résultats directement pertinents pour la modélisation du
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 273
raisonnement plausible (Benferhat et al. , 2005 ; Da Silva Neves et al. , 2002 ; Ford, 2004 ;
Ford et Billington, 2000 ; Pfeifer et Kleiter, 2005, 2009] . 3 Parmi les résultats issus de cet
ensemble de travaux, on pourra retenir la bonne performance descriptive de l'approche
du raisonnement plausible par le « Système P ». Le Système P (Kraus et al. , 1990] est un
ensemble d'axiomes régissant la combinaison de règles plausibles, formalisées au moyen
d'une relation de conséquence non monotone. Cet ensemble d'axiomes semble offrir une
bonne description de l'organisation des règles plausibles dans les bases de connaissances
des sujets humains, et, selon les travaux, une bonne description de la manipulation que
font les sujets humains de ces règles plausibles dans leurs raisonnements (cf. chapitre
1.2 et chapitre 1.3) .
10.3.2 Incertitude
La notion d'incertitude (cf. chapitre 1.3) joue un rôle primordial dans les activités
de raisonnement, de jugement, et de prise de décision, aussi bien dans leur approche
psychologique que dans le traitement qui en est fait en IA. Les deux discipines donnent
un rôle privilégié à la théorie et au calcul probabiliste pour ce qui est de représenter
l'incertitude et de la manipuler (en IA) , ou pour ce qui est de théoriser sur la façon dont
l'esprit humain représente et manipule l'incertitude (en psychologie) . Pour autant, de
nombreux formalismes alternatifs sont disponibles en IA, bien plus nombreux que les
modèles alternatifs disponibles en psychologie.
Dans la psychologie du jugement et de la décision en particulier, le rôle dominant
joué par le programme des biais et heuristiques (Kahneman et al. , 1982] et par la
Prospect Theory (Kahneman et Tversky, 1979] a centré l'attention des chercheurs sur
les ajustements à apporter à la théorie probabiliste, plutôt que sur le recours à un
formalisme alternatif de l'incertitude. De ce fait, l'influence de l'IA dans ce domaine
se fait davantage sentir par l'adoption par certains psychologues de cadres formels à
fondement probabiliste, comme les modèles psychologiques du jugement d'incertitude
fondés sur les réseaux causaux bayésiens (Krynski et Tenenbaum, 2007] .
Les approches bayésiennes ont également un impact important dans la psychologie
du raisonnement sous incertitude, dont elles fournissent le modèle « computationnel »
le plus connu (Oaksford et Chater, 2007) . Ce modèle est dit computationnel car son ob
jectif n'est pas de décrire les processus mentaux mis en œuvre lors d'un raisonnement
sous incertitude, mais de spécifier la solution optimale dont ils pourraient être l'ap
proximation. L'approche computationnelle fait l'hypothèse que tout se passe comme si
le système cognitif humain adoptait effectivement cette solution, en mettant en œuvre
des processus non spécifiés qui en constitueraient une approximation.
Le choix du calcul probabiliste (bayésien ou non) comme modèle computationnel
du raisonnement humain ne fait toutefois pas l'unanimité en psychologie (Politzer et
Bonnefon, 2009) . Certains psychologues prennent soin d'exprimer leur agnosticisme
quant à la question du choix du cadre probabiliste ou d'un autre cadre formel issu de
l'IA (Baratgin et Politzer, 2007 ; George, 1999 ; Politzer et Bourmeau, 2002] , d'autres
donnent à un formalisme alternatif le rôle de modèle computationnel (Da Silva Neves
3. D'autres travaux en psychologie [Stenning et van Lambalgen, 2005, 2008) ont été consacrés à
réinterpréter des résultats empiriques existants à la lumière des théories formelles disponibles en IA,
dans une perspective néologiciste donc plutôt que néopsychologiste.
1 274 Panorama de l'intelligence artificielle. Volume 3
-
et al. , 2002 ; Ford, 2004] , d'autres enfin adoptent des modèles non (strictement) proba
bilistes qui se veulent descriptifs plutôt que computationnels [Pfeifer et Kleiter, 2005 ,
2009 ; Raufaste et al. , 2003 ; Stenning et van Lambalgen, 2008] .
10.3.4 Argumentation
Les approches argumentatives du raisonnement et de la décision ont connu un essor
important en IA ces dernières années (cf. chapitre I. 10 ) , et ont fait l'objet de divers
ouvrages de synthèse et numéros spéciaux de revues scientifiques. L'idée principale des
approches argumentatives est de considérer les arguments qui soutiennent ou attaquent
une conclusion ou une décision, et de conclure ou de décider en fonction de l'agrégation
de ces arguments.
Cette approche argumentative n'a pas de réel équivalent en psychologie du raison
nement et de la décision. On en trouve un écho en psychologie de la décision, dans
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 275
les travaux de Shafir et collègues sur le reason-based choice [Shafir, 1993 ; Shafir et al. ,
1993] , sans que ces travaux aient directement inspiré semble-t-il la communauté IA. La
psychologie du raisonnement, de son côté, n'a pas donné une place centrale aux phé
nomènes ou modèles argumentatifs. Peu de travaux [Rips, 1998] se sont penchés sur
l'argumentation en tant que telle, et l'approche argumentative du raisonnement semble
très limitée, en dehors de la thèse selon laquelle le raisonnement dérive d'un module
mental dédié à l'argumentation, façonné par l'évolution [Mercier et Sperber, 2009] . De
façon générale, les phénomènes argumentatifs ont davantage intéressé des disciplines
moins expérimentales que la psychologie, liées au domaine de la communication, que
l'on désigne parfois sous le nom de critical thinking, voire informal logic.
Certains travaux dans le champ de l'IA elle-même ont proposé des expériences com
portementales directement inspirées des approches argumentatives formelles [Amgoud
et al. , 2005 ; Bonnefon et al. , 2008b ; Madakkatel et al. , 2009] . Du côté du raisonne
ment, Madakkatel et collègues [Madakkatel et al. , 2009] ont présenté des données préli
minaires validant comportementalement le concept de réinstanciation : les raisonneurs
perdent leur confiance en une conclusion x lorsqu'elle est attaquée par un argument
y, mais la retrouvent lorsque l'argument y est lui-même attaqué par un argument z ,
sans toutefois retrouver leur niveau de confiance initial [Mercier et Sperber, 2009] . Du
côté de la décision, Bonnefon et collègues ont testé la validité comportementale de sept
règles de décision argumentative [Bonnefon et al. , 2008b] , ayant par ailleurs fait l'objet
d'une axiomatisation [Dubois et al. , 2008] . Ces règles permettent d'agréger un ensemble
d'arguments pour ou contre une certaine action, qui varient en importance selon une
échelle qualitative. Leur capacité à prédire un ensemble d'environ 2000 décisions hu
maines recueillies en laboratoire varie du médiocre (moins de 15% des décisions) à
l'excellent (presque 80% des décisions) .
10.3.5 Causalité
De tous les domaines recensés dans ce chapitre, le jugement causal est celui pour
lequel l'influence de l'IA (cf. chapitres I.3 et I.8) sur la psychologie est la plus évidente.
Cette influence se traduit principalement par le recours aux réseaux causaux bayésiens
dans la théorisation psychologique, et par l'étude empirique de la notion d'intervention
[Pearl, 2000] .
Une littérature empirique récente et fournie [Hagmayer et al. , 2007 ; Sloman, 2005]
suggère que le raisonnement causal humain reflète le comportement d'un réseau causal
bayésien supportant un opérateur d'intervention. En d'autres termes, une large part
des inférences causales humaines se laisse capturer en supposant que les raisonneurs
(a) construisent un modèle de la situation, représentable sous forme d'un graphe d'in
fluence, (b) incorporent éventuellement à ce modèle des paramètres probabilistes, et
(c) altèrent ce graphe de façon appropriée lorsque la valeur d'une variable est fixée par
une intervention, plutôt que simplement observée. Un faisceau de résultats indique en
particulier que les adultes [Sloman et Lagnado, 2005 ; Waldmann et Hagmayer, 2005]
comme les jeunes enfants [Kushnir et Gopnik, 2005 ; Schultz et al. , 2007] comprennent
et utilisent la notion d'intervention dans leurs jugements causaux. Par ailleurs, d'autres
expériences dans le domaine de la décision pointent également vers un rôle particulier
de la notion d'intervention [Hagmayer et Sloman, 2009] : les décisions prises dans ces
1 276 Panorama de l'intelligence artificielle. Volume 3
-
expériences suggèrent que les participants se sont représenté la situation sous forme
d'un modèle causal, en considérant leurs choix possibles comme des interventions sur
ce modèle.
L'importance accordée en psychologie à l'approche par les réseaux causaux bayé
siens laisse peu de place aux approches formelles complémentaires ou alternatives déve
loppées en IA. Des collaborations existent pourtant dans ce domaine entre psychologues
et spécialistes de l'IA, qui examinent empiriquement la validité cognitive de modèles
logiques, non probabilistes du jugement causal ; mais ces collaborations sont davantage
diffusées dans la communauté IA que dans la communauté des psychologues. De fait,
les résultats des expériences comportementales sont souvent présentés à la suite même
du modèle formel [Bonnefon et al. , 2008a ; Kayser et Nouioua, 2009] , plutôt que dans
des publications centrées sur la contribution expérimentale. Ces résultats soulignent
l'intérêt psychologique de modèles logiques qualitatifs du jugement causal, mais aussi
leur intérêt applicatif, dans la mesure où ils permettent de calculer des jugements cau
saux cognitivement plausibles dans des situations où l'information disponible est trop
imparfaite pour faire l'objet d'une représentation probabiliste.
10.4 Conclusion
La psychologie du raisonnement et de la décision se donne comme objet d'étude
privilégié les processus mentaux qui permettent le comportement intelligent, dans le
même temps que l'IA s'efforce de formaliser et d'automatiser le trait�ment intelligent
des problèmes. Comment ces deux disciplines pourraient-elles rester étanches l'une à
l'autre ? Leur rendez-vous, pourtant, a longtemps été manqué, et le dialogue entre les
deux disciplines, pourrait-on penser, en est encore à ses balbutiements. Le panorama
que nous avons esquissé laisse toutefois augurer d'une évolution positive : la palette
des interactions entre les disciplines s'enrichit du point de vue méthodologique comme
thématique.
Les psychologues s'emparent plus facilement qu'auparavant de questions de re
cherches définies à l'origine par les spécialistes de l'IA (par exemple, le raisonnement
plausible, la révision des croyances) , et commencent à emprunter à l'IA ses outils théo
riques pour leurs besoins de modélisation (par exemple, dans le domaine de l'incerti
tude, ou de la causalité) . Dans le même temps, les spécialistes de l'IA s'ouvrent aux
pratiques expérimentales des psychologues afin de valider leurs postulats intuitifs, ou le
comportement de leurs modèles. Ces nouvelles pratiques restent pour autant menées de
façon essentiellement disjointe : Les expériences menées dans le cadre d'une recherche
en IA n'informent pas les débats en psychologie, et les travaux en psychologie inspirés
de l'IA n'y trouvent ensuite que peu d'écho. L'avenir dira si un réel dialogue entre les
deux disciplines pourra se substituer à ce simple processus d'influence mutuelle.
Références
AMGOUD, L . , BONNEFON, J. F. et PRADE, H. (2005) . An argumentation-based ap
proach for multiple criteria decision. Lecture Notes in Computer Science, 3571 :269-
10. Intelligence artificielle et psychologie du raisonnement et de la décision - 1 277
280.
BARATGIN, J. et POLITZER, G. (2007) . Is the mind Bayesian ? The case for agnosticism.
Mind and Society, 5 : 1-38.
BENFERHAT, S . , BONNEFON, J. F. et DA SILVA NEVES, R. M. (2005) . An overview
of possibilistic handling of default reasoning, with experimental studies. Synthese,
146 :53-70.
BONNEFON, J. F., DA SILVA NEVES, R. M., DUBOIS, D. et PRADE, H. (2008a) . Pre
dicting causality ascriptions from background knowledge : Model and experimental
validation. International Journal of Approximate Reasoning, 48 :752-765.
BONNEFON, J. F., DUBOIS, D . , FARGIER, H. et LEBLOIS, S. (2008b) . Qualitative
heuristics for balancing the pros and cons. Theory and Decision, 65 :71-95.
BRUNER, J., GOODNOW, J. et AUSTIN, A. ( 1956) . A study of thinking. Wiley, New
York.
DA SILVA NEVES, R. M., BONNEFON, J. F. et RAUFASTE, E. (2002) . An empirical
test for patterns of nonmonotonic inference. Annals of Mathematics and Artificial
Intelligence, 34 : 107-130.
DIEUSSAERT, K., SCHAEKEN, W., DE NEYS, W. et D'YDEWALLE, G. (2000) . Initial
belief state as a predictor of belief revision. Cahiers de Psychologie Cognitive, 19 :277-
288.
DUBOIS, D . , FARGIER, H. et BONNEFON, J. F. (2008) . On the qualitative comparison
of decisions having positive and negative features. Journal of Artificial Intelligence
Research, 32 :385-417.
ELIO, R. et PELLETIER, F. J. (1993) . Human benchmarks on AI's benchmark problems.
In Proceedings of the Fijteenth Annual Conference of the Cognitive Science Society,
pages 406-411. Lawrence Erlbaum.
ELIO, R. et PELLETIER, F. J. (1997) . Belief change as propositional update. Cognitive
Science, 21 :419-460.
FEIGENBAUM, E. A., BUCHANAN, B. G. et LEDERBERG, J. (1971 ) . On generality and ·
problem solving : A case study using the DENDRAL program. In MELTZER, D.
et MICHIE, D., éditeurs : Machine intelligence, volume 6, Edinburgh. Edinburgh
University Press.
FORD, M. (2004) . System LS : A three tiered nonmonotonic reasoning system. Com
putational Intelligence, 20 :89-108.
FORD, M. et BILLINGTON, D. (2000) . Strategies in human nonmonotonic reasoning.
Computational Intelligence, 16 :446-468.
GARDENFORS, P. (1988) . Knowledge in flux. Cambridge University Press.
GEORGE, C. (1999) . Evaluation of the plausibility of a conclusion derivable from several
arguments with uncertain premises. Thinking and Reasoning, 5 :245-281 .
HAGMAYER, Y . e t SLOMAN, S. A. (2009) . Decision makers conceive o f their choices as
interventions. Journal of Experimental Psychology : General, 138 :22-38.
HAGMAYER, Y., SLOMAN, S. A., LAGNADO, D. A. et WALDMANN, M. R. (2007) . Causal
reasoning through intervention. In G OPNICK, A. et SCHULTZ, L. E., éditeurs : Causal
learning : Psychology, philosophy, and computation, pages 86-100, Oxford University
1 278 Panorama de l'intelligence artificielle. Volume 3
-
Chapitre 1 1
11.1 Introduction
Ce chapitre a pour objectif d'étudier les interfaces entre interaction personne
système 1 et intelligence artificielle (IA) , mais peut aussi être vu comme un plaidoyer
Auteurs : CHRISTOPHE KOLSKI, GUY BOY, GUY MELANÇON, MAGALIE ÜCHS et JEAN VANDER
DONCKT.
1. Même si le terme communément employé dans la communauté francophone est encore plu
tôt « interaction homme-machine » (cf. http : //www . afihm . org/ , le site de l'Association Francophone
d'interaction Homme-Machine) , voire « interaction humain-machine », nous avons choisi d'utiliser
« interaction personne-système » dans ce chapitre.
1 282 Panorama de l'intelligence artificielle. Volume 3
-
d'association de ces deux domaines. L'objet principal de l'IA est de créer et dévelop
per des systèmes intelligents, c'est-à-dire capables de percevoir, de raisonner, d'agir et
d'apprendre par eux-mêmes. Cet objectif fondamental a permis de développer des mé
thodes, techniques et outils permettant, de manière limitée mais effective, de percevoir,
de raisonner, d'agir et d'apprendre. Cependant, l'objet initial de l'IA et l'ambition de
ce champ de recherche ont de facto inscrits ses travaux sur un calendrier à long terme.
Ainsi, la robotique a fait des progrès considérables ; le plus récent est certainement le
robot « Curiosity » actuellement en activité sur la planète Mars. L'interaction personne
système, de son côté, s'est centrée sur la facilité d'utilisation des nouvelles technologies
en promouvant la créativité et l'innovation. L'interaction personne-système a toujours
eu des objectifs à beaucoup plus court terme. Encore faut-il noter que les télé-opérations
avec Curiosity depuis la Terre ne peuvent pas se faire sans interfaces utilisateur basées
sur de solides notions d'interaction personne-système, en particulier en ce qui concerne
la planification de ses activités. En d'autres termes, les ingénieurs téléopérateurs de
la NASA doivent avoir la meilleure conscience de la situation possible sur comment
les instruments de Curiosity peuvent être utilisés et quelles sont les ressources que ses
diverses activités vont consommer 2 •
Il est utile de constater que l'IA et l'interaction personne-système ont en commun
la prise en compte de l'humain comme modèle. D'un côté, l'IA tente de mimer l'hu
main et rationnaliser ses comportements pour construire différents types de systèmes
intelligents, incluant des robots. D'un autre côté, l'interaction personne-système tente
de comprendre l'humain pour mieux adapter les machines pour une utilisation plus
facile, sûre, efficace et confortable. L'IA s'intéresse aux mécanismes internes d'une
intelligence rationnelle, alors que l'interaction personne-système se focalise sur les phé
nomènes fondamentaux de l'interaction entre les humains et les outils qu'ils ont créés
et qu'ils utilisent.
Force est de constater que, de nos jours, les spécialistes de l'interaction personne
système utilisent de plus en plus de techniques de l'IA pour améliorer l'interaction.
Ils utilisent des techniques d'apprentissage automatique pour la contextualisation des
recherches sur le Web par exemple. Les spécialistes de l'IA ont besoin d'interfaces
utilisateur adaptées afin de pouvoir utiliser les systèmes intelligents développés. L'in
teraction humain-robot est un excellent exemple de cette fusion des deux disciplines.
L'écrivain Isaac Asimov avait en 1941 très bien décrit les lois principales de l'interaction
humain-robot : « ( Loi 1) un robot ne peut blesser un être humain ni, restant passif,
laisser cet être humain être exposé au danger ; { Loi 2) un robot doit obéir aux ordres
donnés par les êtres humains, sauf si ces ordres sont en contradiction avec la Loi 1 ; et
(Loi 3) un robot doit protéger sa propre existence dans la mesure où cette protection
n'entre pas en conflit avec les Loi 1 et 2. » (Asimov, 2008] . Nous retrouvons ici des
notions de sécurité, efficacité et confort propres à l'interaction personne-système.
Cette association de l'interaction personne-système et de l'IA émerge progressive
ment autour des exigences sans cesse accrues de sens, de connaissances, de compétences,
d'expérience ... et finalement de bon sens. Le succès d'une nouvelle technologie vient du
fait qu'elle est le produit d'une intégration intelligente et pertinente de diverses mé
thodes, techniques et systèmes. L'IA offre des outils pour automatiser de façon externe
2. http : //hci . arc . nasa . gov/msl i c e . html
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1 283
des comportements humains, ainsi que de créer de nouvelles prothèses cognitives [Ford
et al. , 1997] . L'interaction personne-système offre des outils pour une interaction hu
maine plus sûre, plus efficace et plus confortable avec les technologies résultantes. Il
est certainement plus intéressant de se tourner vers une approche plus globale de la
conception de systèmes qui intègre à la fois l'intelligence et l'interaction, en considérant
de concert l'utilisation de l'informatique et des sciences humaines et sociales pour aller
vers une conception anthropocentrée (Boy, 2012] .
Dans la seconde partie du chapitre, un historique des interfaces entre interaction
personne-système et intelligence artificielle est dressé, en nous focalisant sur la genèse.
Les interfaces utilisateur intelligentes sont étudiées dans la troisième partie. Parmi les
avancées récentes du domaine on retrouve les agents conversationnels animés affec
tifs, faisant l'objet de la quatrième partie. Des travaux de capitalisation, formalisation
et exploitation de connaissances ergonomiques pour la conception et l'évaluation des
systèmes interactifs sont décrits en cinquième partie. La sixième est consacrée à la
visualisation et à la fouille de données (data-mining) . La dernière conclut ce chapitre
consacré à la fertilisation croisée entre interaction personne-système et intelligence ar
tificielle.
Activhè
physiqu�
A pp 1 i<:;1t i Otl
les systèmes dits sensibles au contexte. On trouve en fait dans la littérature les
qualificatifs suivants : Context-aware et Context-sensitive, qui dénotent le fait
d'utiliser le contexte ou celui de s'adapter à celui-ci. Les travaux sont nombreux
dans ce domaine [Boy, 1991b, 1992 ; Winograd, 2001 ; Coutaz et Rey, 2002 ;
Limbourg et al. , 2004 ; van den Bergh, 2006 ; Brossard et al. , 201 1] .
- Dans l'approche des interfaces dites plastiques, il s'agit pour celles-ci s'adapter
à leur contexte d'usage dans le respect de leur utilisabilité [Thevenin et Coutaz,
1999] . Le contexte d'usage concerne aussi bien les caractéristiques de l'utilisa
teur, de la plate-forme d'interaction que de l'environnement [Calvary et Coutaz,
2007 ; Coutaz et Calvary, 2007] .
- Une autre approche plus prospective consisterait à considérer l'interface uti
lisateur intelligente et son environnement socio-technique comme un système
multiagent, selon une approche distribuée de l'interaction personne-système,
celle-ci faisant l'objet, de manière générale, de plus en plus de travaux actuel
lement [Gallud et al. , 201 1 ] . Une telle interface, suggérée par [Mandiau et al. ,
1991 ; Kolski et Le Strugeon, 1998] , est composée d'agents, aussi bien réactifs
que cognitifs, travaillant en parallèle et/ou coopérant, dans le but de résoudre
différents problèmes relatifs aux tâches à effectuer. Le résultat de leurs traite
ments est transmis aux utilisateurs, grâce à des actes de communication, mais on
peut imaginer tout un ensemble d'autres actions, sur le système par exemple. Ce
principe a été mis en œuvre récemment dans le cadre d'une simulation de trafic
routier sur table interactive munie de la technologie RFID, les agents virtuels
représentant des véhicules réagissant à l'activation d'objets tangibles manipulés
par les utilisateurs [Kubicki et al. , 2013] .
Les domaines d'application des interfaces utilisateur utilisateurs sont multiples,
puisque ces dernières peuvent être d'un apport dès lors qu'une aide automatique ou
semi-automatique peut être mise en œuvre par le système interactif, tout en prenant
en compte différents critères, caractéristiques et/ou préférences centrées utilisateur.
Les recherches et développements ont porté aussi bien sur des tâches très ciblées (bu
reautique, recherche d'information, commerce électronique, etc.) que sur des tâches
complexes, voire critiques (transports, supervision, santé) .
contexte social déterminé. La représentation cognitive des émotions doit inclure une
représentation des conditions de déclenchement des émotions, i.e. ce qui peut amener
un individu à ressentir une émotion particulière dans une situation donnée. Ces in
formations pourront être utilisées par l' ACA pour identifier à la fois à quel moment
durant l'interaction il peut exprimer quelle {s ) émotion (s ) , et à la fois quelle { s) émo
tion {s) l'utilisateur peut potentiellement ressentir dans une situation d'interaction. Le
déclenchement d'une émotion étant étroitement liée à la réalisation ou l'échec d'un
but [Scherer, 2000] , une représentation de type BDI (Belief, Desire, Intention) des
émotions à travers une abréviation syntaxique d'une combinaison d'attitudes mentales
est particulièrement bien adaptée à cette problématique 6. Une telle formalisation a
par exemple permis de développer un ACA capable d'exprimer de l'empathie envers
l'utilisateur durant un dialogue [Ochs et al. , 2012b] ou encore un tuteur virtuel ca
pable d'adapter sa stratégie pédagogique aux émotions inférées de l'utilisateur [Jaques
et Viccari, 2004] . D'autres méthodes ont été proposées pour représenter les émotions.
Pour traduire l'aspect dynamique ·et le caractère non déterministe des émotions, une
représentation à partir de réseaux - réseau bayésien [de Melo et al. , 2012] ou réseau
dynamique de croyance [deRosis et al., 2003] par exemple - a été développée.
De plus, les émotions d'un agent peuvent être utilisées pour déterminer le comporte
ment approprié dans un environnement virtuel. Les émotions sont alors intégrées dans
le système de prise de décision pour la sélection d'actions [Canamero, 2003] . S'inspirant
de la théorie de coping selon laquelle les individus emploient des stratégies cognitives
pour faire face à leurs émotions [Lazarus, 1991 ] , l'impact des émotions sur le comporte
ment d'un ACA peut être modélisé via une modification de son état mental, i.e. , de ses
croyances, désirs et intentions au sens BDI du terme [Gratch et Marsella, 2004] . Par
exemple, face à une émotion négative, l'ACA peut adopter une stratégie d'acceptation
où il reconnaît l'évènement négatif comme inéluctable et choisit alors d'abandonner
l'intention qui, par son échec, a déclenché l'émotion négative.
En perpétuelle interaction avec l'utilisateur, les connaissances émotionnelles de
l'agent doivent être enrichies par le déroulement de l'interaction. En effet, même si
une formalisation des émotions peut permettre d'inférer les émotions de l'utilisateur,
un système de reconnaissance en temps réel des émotions exprimées par l'utilisateur
permet de valider, réfuter ou encore affiner ces connaissances, en particulier sur l'ef
fet des actions de l'agent sur les émotions de l'utilisateur. Durant une interaction,
l'utilisateur exprime ses émotions à travers son comportement non verbal (e.g. , les ex
pressions faciales et la tonalité de la voix) , son comportement verbal ( e.g. , l'utilisation
de mots empreints d'émotions ) et à travers des signaux physiologiques ( e.g. le rythme
cardiaque ou la conductivité de la peau) . Les systèmes de reconnaissance automatique
des émotions reposent sur un apprentissage préalable des caractéristiques non verbales,
verbales ou physiologiques des états affectifs à partir de données réelles d'individus res
sentant ou exprimant des émotions. Par exemple, des corpus audio-visuels peuvent être
collectés pour analyser les caractéristiques faciales, gestuelles et sonores des émotions
exprimées par des individus. Les corpus d'expressions d'émotions sont généralement
manuellement annotés avec des types d'émotions et éventuellement des valeurs d'in
tensités. Une méthode pour extraire les connaissances de ces corpus consiste à utiliser
6. Un exemple d'une formalisation BDI des émotions est proposé au chapitre 1. 16.
1 292 Panorama de l'intelligence artificielle. Volume 3
-
W3C produisent des résultats variables en fonction des outils sur un même site web. Il
y a plusieurs raisons possibles : les connaissances ergonomiques ne sont pas formalisées,
si elles le sont, elles le sont de manière variable, surtout en fonction d'interprétation et
de méthodes différentes.
Rien que pour la spécification (au sens large) , [Jambon et al. , 2001) recensent et
classifient plusieurs dizaines de méthodes et techniques à ce sujet, selon : une vision
psycho-ergonomique, une vision de l'ingénierie des systèmes interactifs, une vision du
génie logiciel. [Vanderdonckt et Coyette, 2007) , de même que [Beaudouin-Lafon et Mac
kay, 2003) , quant à eux, recensent de nombreuses techniques et outils contribuant au
maquettage et au prototypage des interfaces utilisateur (facilitant les évaluations pré
coces) . Depuis les années 80, les recherches se sont orientées sur la proposition de
premières approches de développement à base de modèles, dans laquelle une grande
partie du travail du concepteur consiste à décrire différents modèles (du domaine, des
tâches, de l'utilisateur ... ) servant de base à la génération semi-automatique du logiciel
interactif ou, tout au moins, au guidage rigoureux de son développement ; la littérature
est abondante à ce sujet [Szekely, 1996 ; Vanderdonckt et Puerta, 1999 ; Paterno, 1999 ;
Kolski et Vanderdonckt, 2002) , ... Par la suite, les recherches se sont orientées vers des
méthodes intégrées interaction personne-système alliant le génie logiciel, particulière
ment l'ingénierie dirigée par les modèles, (MDA - Model Driven Architecture) , dans la
lignée de travaux menés par l' Object Management Croup (www . omg . org) . La plupart
de ces travaux suivent une conception basée sur les modèles selon une approche descen
dante. Ainsi les modèles sont raffinés par transformations jusqu'au code. Le cadre de
référence Cameleon [Calvary et al. , 2003] a récolté un consensus dans la mesure où il en
donne un bon éclairage en répertoriant quatre niveaux d'abstraction pour les modèles
(niveau concernant les tâches et les concepts, l'interface abstraite, l'interface concrète,
l'interface finale) . Le cadre de référence Cameleon (en anglais, Cameleon Reference Pra
mework - CRF) est d'ailleurs devenu une recommandation du W3C en ce qui concerne
le développement d'interfaces web [Gonzalez Calleros et al. , 2010) . De nombreux docu
ments illustrent ce domaine, voir par exemple [Jacob et al. , 2004 ; Calvary et al. , 2008 ;
Seffah et al. , 2009 ; Hussmann et al. , 201 1] , etc.
L'évaluation des systèmes interactifs, sous l'angle particulièrement de l'utilité et
de l'utilisabilité [Nielsen, 1993 ; Bastien et Scapin, 2001) , mais aussi de l'acceptabilité
[Stephanidis, 2009] , foisonne également de méthodes, techniques et outils, que l'utilisa
teur et/ou le système interactif soient disponibles ou non, qu'il existe une expérience
d'utilisation ou non, que des approches automatiques ou semi-automatiques soient vi
sés ou non ; dans le cas où l'utilisateur et/ou le système ne sont pas présents (pour
des raisons de disponibilité ou parce que le projet est dans une étape très précoce par
exemple) , le recours à des modèles s'impose. Là encore le lecteur intéressé trouvera
de nombreux documents disponibles (Nielsen, 1993 ; Baccino et al. , 2005 ; Huart et al. ,
2008 ; Ezzedine et al. , 2012 ; Jacko, 2012) , etc.) .
En lien avec ces travaux en conception e t évaluation, un problème récurrent, va
lable pour tout domaine d'application, est celui de la mise à disposition des recomman
dations ergonomiques disponibles auprès des équipes projet, et ceci sous différentes
formes, aussi bien sous format papier que logiciel. On s'intéresse dans ce chapitre au
courant de recherche « Tools for working with guidelines » visant l'opérationalisation de
1 294 Panorama de l'intelligence artificielle. Volume 3
-
Çompil.atioru ofgui.deli.ne!I
Stylili guides
E.rg�ic�!l!���rrmu . --. -.
..,,..,....,,,...,.,,...,.
d'applicabilité.
Medium
Law Mi:.'>dium
plus à même d'aider l'utilisateur dans ses tâches de manipulations interactives des don
nées et de formulation d'hypothèses. La conduite d'expériences contrôlées, familières
au monde de l'interaction personne-système, s'est imposée comme mode de validation
1 298 Panorama de l'intelligence artificielle. Volume 3
-
B. Scliém;Jlhli
[Purchase, 2012) [Sedlmair et al. , 2012) . Or, ce mode de validation convient pour tester
l'utilisabilité des techniques de visualisation en ce qu'elles permettent d'effectuer des
tâches de bas niveau (des manipulations à fine granularité sur les données) [Amar et al.,
2005) [Lee et al. , 2006) .
Mais le processus de découverte est un processus cognitif de haut niveau. Aucune
expérience contrôlée ne saurait démontrer qu'une technique de visualisation (plus sou
vent un agencement de ces techniques) est plus à même de favoriser la découverte
de nouvelles connaissances. Une évaluation ici ne se formule pas en mesures psycho
métriques (temps et précision d'exécution d'une tâche) mais plutôt en principes de
conception et en bonnes pratiques d'ingénierie. [Munzner, 2009] a proposé un modèle
imbriqué présentant le design d'une visualisation depuis les questions telles qu'elles sont
formulées par les experts du domaine (voir aussi [Meyer et al. , 2012]). C'est seulement
lorsque les motivations sont claires, et exprimées à l'aide de questions ancrées dans le
domaine où seront formulées les hypothèses, que l'on doit chercher à cerner les données
qui permettront d'y répondre, et le cas échéant les transformations à apporter à ce
matériau de l'analyse. Viennent ensuite le choix d'un encodage visuel pertinent et des
interactions en phase avec les manipulations envisagées sur les données. Les questions
algorithmiques interviennent aussi en dernier essor - et ont leur importance surtout
lorsqu'il s'agit de proposer des représentations graphiques qui doivent se plier aux exi
gences d'une manipulation interactive. La validation d'une visualisation déclinée selon
ce modèle peut alors se faire à chacun des niveaux de ce modèle imbriqué. Les algo
rithmes sont évalués en termes de complexité algorithmique ou jaugés selon des jeux
de données de référence (benchmarks) . Les choix de représentations et les modes d'in
teraction peuvent se prêter aux expériences contrôlées. La visualisation (vue comme
1 1 . Fertilisation croisée entre interaction personne-système et IA - 1299
système d'aide à la décision, par exemple) pourra faire l'objet d'une enquête de ter
rain auprès d'utilisateurs ciblés de manière à rassembler des témoignages attestant de
son utilisabilité sur des cas réels. Enfin, l'adoption du système par une communauté
d'utilisateurs reste la preuve la plus tangible d'une bonne conception, à tous les étages.
La visualisation d'information agit comme révélateur des structures exhibées par les
techniques de fouille et d'analyse de données. Elle peut aussi être un lieu de synergie
avec l'intelligence artificielle précisément parce qu'elle engage par définition l'intelli
gence humaine. Et parce qu'il s'agit d'aborder la complexité de phénomènes en taille
réelle, en explorant des données au caractère incertain et changeant.
11.7 Conclusion
C'est sans souci d'exhaustivité et en se focalisant sur plusieurs grands domaines
de recherche très représentatifs et actuels que ce chapitre a donné un aperçu de la
fertilisation croisée entre interaction personne-système et intelligence artificielle.
Les travaux à l'intersection des deux domaines ont démarré il y a maintenant une
quarantaine d'années, les premiers systèmes combinant étroitement intelligence et in
teractivité ayant fait l'objet de premiers développements particulièrement dans le do
maine aéronautique, et se poursuivant actuellement dans différents domaines ( simula
tion, web sémantique, e-commerce, réseaux sociaux, systèmes dynamiques complexes,
intelligence ambiante ... ) .
Les interfaces utilisateur dites intelligentes ont tiré profit rapidement de la com
plémentarité entre l'interaction personne-système et l'IA pour devenir rapidement un
domaine de recherche à part entière aux multiples facettes. Parmi les nombreuses ap
proches d'interfaces utilisateur, les agents conversationnels animés affectifs, mis en
avant dans ce chapitre, présentent des perspectives particulièrement prometteuses.
La capitalisation, la formalisation et l'exploitation de connaissances ergonomiques
pour la conception et l'évaluation des systèmes interactifs ont fait l'objet de nombreux
travaux depuis le début des années 80. Ceux-ci se poursuivent de plus belle, les poten
tialités de fertilisation croisées entre interaction personne-système et IA continuant à
être énormes à ce sujet.
Enfin, visualisation et fouille de données, dont les liens étroits ont été passés en
revue dans la dernière partie de ce chapitre, sont aussi particulièrement représentatifs
des domaines où l'interaction personne-système et l'IA se rejoignent naturellement.
Références
ABED, M. , ANLI, A., KoLSKI, C. et GRISLIN-LE STRUGEON, E. (2011). A generic
method for personalizing interactive systems : application to traveler information.
In KOLSKI, C . , éditeur : Human- Computer Interactions in Transport, pages 51-91.
ISTE Ltd and John Wiley & Sons Inc.
Asowo, G. D., DEY, A. K., B ROWN, P. J . , DAvrns, N., SMITH, M. et STEGGLES, P.
(1999) . Towards a better understanding of context and context-awareness. In Pro-
1 300 Panorama de l'intelligence artificielle. Volume 3
-
cation Association, Makuhari, Chiba, Japan, September 26-30, 2010, pages 454-457.
ISCA.
HOFFMAN, P. E. et GRINSTEIN, G. G. {2002) . A survey of visualizations for high
dimensional data mining. In FAYYAD, U., GRINSTEIN, G. et WIERSE, A., éditeurs :
Information Visualization in Data Mining and Knowledge Discovery, pages 47-82.
Morgan Kaufmann Publishers.
HUART, J., KoLSKI, C. et BASTIEN, C. (2008) . L'évaluation de documents multimédias,
état de l'art. In S . , M. , éditeur : Objectiver l 'humain ?, volume 1 de Qualification,
quantification, pages 21 1-250. Hermes, Paris.
HussMANN, H., MEIXNER, G. et ZUEHLKE, D . , éditeurs (2011). Model-Driven De
velopment of Advanced User Interfaces, volume 340 de Studies in Computational
Intelligence. Springer.
HUTCHINS, E. (1995) . Cognition in the Wild. MIT Press, Cambridge, MA.
HôôK, K. (2000) . Steps to take before intelligent user interfaces become real. Inter
acting with computers, 12 :409-426.
IVORY, M. Y. et HEARST, M. A. (2001). The state of the art in automating usability
evaluation of user interfaces. ACM Computing Surveys, 33(4) :470-516.
JACKO, J. A. , éditeur (2012) . The Human Computer Handbook : Fundamentals, Evol
ving Technologies, and Emerging Applications. CRC Press, Boca Raton, FL, 3rd
édition.
JACOB, R. J. K., LIMBOURG, Q. et VANDERDONCKT, J., éditeurs (2004) . Computer
Aided Design of User Interfaces IV - Fifth International Conference of Computer
Aided Design of User Interfaces, Funchal, Portugal. Kluwer.
JAMBON, F., BRUN, P. et AIT-AMEUR, Y. (2001). Spécification des systèmes interac
tifs. In KOLSKI, C., éditeur : Analyse et Conception de l 'IHM. Interaction Homme
Machine pour les SI, volume 1, pages 175-206. Paris : Éditions Hermès.
JAMESON, A. (2007) . Adaptive interfaces and agents. In SEARS, A. et JACKO, J. A.,
éditeurs : The Human Computer Handbook : Fundamentals, Evolving Technologies,
and Emerging Applications, pages 433-458. CRC Press, Boca Raton, FL.
JAMESON, A. et GAJOS, K. Z. (2012) . Systems that adapt to their users. In JACKO,
J. A., éditeur : The Human Computer Handbook : Fundamentals, Evolving Techno
logies, and Emerging Applications, pages 431-456. CRC Press, Boca Raton, FL.
JAQUES, P. A. et VICCARI, R. M. {2004) . A BDI approach to infer student's emo
tions. In the Proceedings of the Ibero-American Conference on Artificial Intelligence
{IBERAMIA}, pages 901-911, Puebla, Mexique. Springer-Verlag.
KOLSKI, C. et LE STRUGEON, E. {1998) . A review of intelligent human-machine in
terfaces in the light of the arch model. International Journal of Human- Computer
Interaction, 10(3) : 193-231.
KOLSKI, C., TENDJAOUI, M. et MILLOT, P. {1992) . A process method fo r the de
sign of "intelligent" man-machine interfaces : case study : "the decisional module of
imagery". International Journal of Human Factors in Manufacturing, 2(2) : 155-175.
KOLSKI, c. et VANDERDONCKT, J., éditeurs (2002) . Computer-Aided Design of User
Interfaces III - Fourth International Conference of Computer-Aided Design of User
1 304 Panorama de l'intelligence artificielle. Volume 3
-
Postface
La machine en quête de sapience
FIGURE 1 Trenchard More, John McCarthy, Marvin Minsky, Oliver Selfridge, Ray
-
La banalisation
De nos jours, l'IA donne souvent l'impression de faire antichambre. Le grand pu
blic - celui qui imagine vaguement que l'ordinateur fut inventé aux alentours de 1980
Auteur : WILLIAM SKYVINGTON.
1 308 Panorama de l'intelligence artificielle. Volume 3
-
par Bill Gates - avant d'être enjolivé (rendu « smart » ) par Steve Jobs - considère
sûrement que les machines ingénieuses existent déjà depuis quelques années. On trouve
désormais banale l'habileté de sa voiture qui connaît par cœur toutes les routes de
France et de Navarre, sans parler de smartphones à qui l'on s'adresse à haute voix,
par exemple, pour savoir le temps qu'il fera demain. Sur le terrain pur des connais
sances, on vit quotidiennement avec Google qui, visiblement, sait tout. Bien entendu,
personne n'est dupe ; on se rend compte que, derrière les prouesses de Wikipédia, par
exemple, ce n'est pas le système informatique lui-même qui serait détenteur de sapience,
mais des rédacteurs humains. Au jeu d'échecs, l'ordinateur personnel finit par dominer
les grands maîtres. Récemment, aux Etats-Unis, un jeu télévisé nommé Jeopardy (va
riante anglo-saxonne de « Questions pour un champion » ) a permis au super-ordinateur
Watson d'IBM de gagner le grand prix d'un million de dollars . . . ce qui démontre prin
cipalement que les développeurs de logiciel maîtrisent désormais parfaitement l'accès
ultra-rapide aux bases de données. Quant aux robots, des constructeurs japonais ex
hibent depuis longtemps des animaux de compagnie artificiels, tandis que des robots
militaires mis au point par les Etats-Unis sont capables de circuler sur leurs quatre
pattes à travers des zones de combat. En ce moment même, un véhicule robotique
explore Mars. Entre temps, beaucoup d'entreprises ont investi massivement dans des
appareils dits « robotiques » afin de remplacer du personnel humain sur leurs chaînes
de montage. Il y a là, tout de même, un petit abus de langage. Malgré leur allure
spectaculaire, ces systèmes industriels ne manifestent aucune intelligence du type ani
mal. Ils sont programmés pour effectuer des tâches manuelles spécifiques ; un point,
c'est tout. Enfin, c'est surtout par le biais d'images de synthèse que l'on rencontre des
univers spectaculaires peuplés d'entités synthétiques capables de se comporter avec in
telligence et de ressentir des émotions. Au Japon, des fans se déchaînent dans les salles
de spectacle devant une manga girl qui chante et danse sur scène comme si elle était en
chair et en os. En Occident, on regarde en famille Avatar en 3D, et des larmes coulent
quand on voit la princesse Neytiri tomber sous le charme de Jake Sully. Comme si les
êtres humains rêvaient d'avoir des compagnons artificiels et intelligents . . . mais ce n'est
sûrement pas pour demain. Parfois, des accessoires permettent au spectateur humain
de participer activement et ludiquement à certains contextes artificiels. On parle alors
de réalité virtuelle. Mais c'est encore une fois un univers d'illusions, où les lueurs d'IA
sont parfaitement chimériques.
l'intelligence dite artificielle. Cette recherche aurait pu gagner ses lettres de noblesse en
1978, quand le grand pionnier Herbert Simon reçut le Prix Nobel, mais ce fut pour ses
travaux en sciences économiques plutôt qu'en informatique. Certes, il existe un « Nobel
de l'informatique », le prix Turing, qui a été attribué à Marvin Minsky (1969) , John
McCarthy (1971), Allen Newell et Herbert Simon (1975) , Edward Feigenbaum (1994)
et Judea Pearl (201 1) . Mais une telle récompense ne suffit pas à métamorphoser un
chercheur en savant célèbre.
Un long hiver
Les observateurs des recherches en IA (aficionados aussi bien que détracteurs) n'ont
pas dû patienter bien longtemps avant de sentir qu'il y avait quelque chose de pourri
dans le royaume du data processing. Les chroniqueurs évoquent un « hiver d'intelli
gence artificielle » qui aurait débuté très tôt, en 1966, lorsqu'on s'est rendu compte que
la belle idée de la traduction automatique des langues était sans doute une illusion. De
nos jours, certes, on peut faire appel à des logiciels impressionnants pour passer d'une
langue à une autre, mais le résultat final a toujours besoin d'un coup de pouce apporté
par un traducteur humain expérimenté. D'ailleurs, cet adjectif « expérimenté » sou
ligne la nature des problèmes fondamentaux de traduction. Aucune machine ne peut
avoir une expérience adéquate du monde réel dans lequel les traductions prennent leur
sens. C'est ce qu'on appelle, dans la terminologie de l'IA, le problème du cadre (frame
problem) . Aux Etats-Unis, l'organisme militaire DARPA (Defense Advanced Research
Projects Agency) faisait autrefois la pluie et le beau temps dans tous les domaines
de la recherche technologique d'avant garde, dont l'IA. Au milieu des années 1970,
les dirigeants de la DARPA n'arrivaient pas à comprendre pourquoi les chercheurs de
l'université Carnegie-Mellon à Pittsburgh avaient tant de mal à créer un ordinateur
capable de comprendre la parole des hommes. Entre temps, au Royaume Uni, un fonc-
1 3 1 0 Panorama de l'intelligence artificielle. Volume 3
-
Le syndrome de Colomb
Christophe Colomb pensait que le globe était assez petit, et il surestimait le vo
lume terrestre de l'Eurasie. C'est-à-dire qu'il ne pouvait pas imaginer, un seul instant,
l'existence de l'océan Pacifique. Du coup, pensant être tombé sur les rives orientales de
l'Eurasie, il se trompait d'un continent. Sans le vouloir, sans le savoir même, il avait
découvert l'Amérique ! La quête de l'IA s'apparente à l'aventure de Colomb en ce sens
que la terra incognita dont la silhouette émergea des brumes vers la fin du XXe siècle
ne correspondait guère aux buts que les chercheurs imaginaient naïvement devoir at
teindre tôt ou tard : alors leurs ordinateurs familiers seraient en mesure de méduser le
monde des humains par leur lucidité et leur ingéniosité. Les contrées où les chercheurs
en IA débarquèrent (peut-être ferait-on mieux de dire « échouèrent » ) n'avaient plus
rien à voir avec les grandes salles d'ordinateurs gris de Dartmouth College en 1956. Au
cours du demi-siècle, l'approfondissement de la pensée scientifique nous a plongés dans
un gigantesque bain numérique où la vieille dichotomie entre le monde vivant et les
« machines à calculer » est révolue. Désormais, tout est digital. Les organismes vivants
et les artefacts humains n'appartiennent pas à deux ordres de réalité fondamentalement
distincts. S'ils se présentent pourtant sous des aspects apparemment si différents, c'est
que l'évolution biologique et l'ingénieur humain ne travaillent ni à armes égales sur le
plan de la complexité, ni sur des échelles de temps comparables. Aujourd'hui, notre
conception même de ce que pourrait être l'IA du futur doit être profondément diffé
rente de ce que l'on pourrait appeler l'esprit de Dartmouth. Les quêteurs ne peuvent
plus se contenter d'appliquer les protocoles de recherche et d'expérimentation d'hier,
car le laboratoire lui-même s'est subtilement métamorphosé autour d'eux, parfois sans
qu'ils s'en rendent totalement compte. A l'époque de Dartmouth, on s'engagea sur
la voie nouvelle de l'ordinateur dans l'espoir de retomber sur les contrées familières
où les problèmes se résolvent au moyen d'un fonctionnement cérébral qu'on se plaît
à appeler « intelligence » - qu'elle soit humaine ou (pourquoi pas ?) artificielle. De
nos jours, nous avons abordé un continent inattendu, mais visiblement fabuleux, dont
l'exploration exige - c'est la moindre des choses - que les savants mettent au point
des protocoles d'investigation d'un nouvel ordre, tenant compte de la nature essen
tiellement numérique de toute chose : du cerveau humain aussi bien que de la puce
informatique.
1 3 1 2 Panorama de l'intelligence artificielle. Volume 3
-
Vivant numérique
Pour saisir ce qui s'est passé, il faut revenir à 1953, annus mirabilis dans l'histoire
de la connaissance scientifique : 1953, juste trois ans avant le colloque de Dartmouth
College. Le 25 avril 1953, la revue Nature publiait un article écrit par l'américain James
Watson et l'anglais Francis Crick sur la structure en double hélice d'une substance bio
chimique ésotérique : l'ADN. En 1966 ( une décennie après Dartmouth) , on se rendit
compte que la nouvelle science de la génétique était une vaste affaire de codage bio
logique basé sur quatre éléments désignés A, C, G, T ( adénine, cytosine, guanine et
thymine) . Dans l'Amérique primitive et inattendue que découvraient ces navigateurs
intrépides, une chose était certaine : les natifs, sûrement de bons sauvages, apparte
naient tous à la tribu de l'ADN, et parlaient tous cette langue unique. Dans le contexte
des premiers ordinateurs, les données destinées à être traitées par la machine étaient
souvent stockées sur des bandes enroulées : d'abord, sous forme de trous sur un support
de papier, puis sur des bandes magnétiques. Il est amusant de noter, à cet égard, que
la fameuse maquette d'un ordinateur théorique que l'on appelle la machine de Turing
était censée exploiter un support d'information sous la forme d'une bande. Eh bien,
dans la nature également, l'information vitale est disposée sur de longues bandes : les
brins complémentaires de la double-hélice de l'ADN. Aux yeux d'un informaticien, le
format de stockage de cette information est d'une simplicité étonnante : des triplets des
quatre bases, donnant lieu à un répertoire global de 64 mots distincts. Voilà, pour ainsi
dire, l'alphabet de la vie : moins riche, à première vue, que la codification exploitée par
n'importe quelle « puce » électronique. A partir de la compréhension des mécanismes
chimiques de l'ADN, on a pu entrevoir le monde vivant - les plantes et les bactéries
aussi bien que les bêtes et les hommes - comme un gigantesque système informatique,
élaboré fortuitement par la nature. Les biologistes moléculaires se préoccupaient alors
du séquençage de génomes, dont notamment celui de l'homme, achevé au tournant du
siècle. Or, qui dit système informatique dit challenges de programmation : l'idée sur
tout de programmer des structures biologiques comme si l'on développait un logiciel
d'IA. Ainsi, en 2007, Craig Venter annonça la création d'un chromosome artificiel. Ce
fut probablement un petit pas pour les adeptes de l'IA, mais un bond de géant pour
l'humanité numérique. Entre temps, un zoologiste d'Oxford, Richard Dawkins, publia
un ensemble de best-sellers sur le rôle primordial du gêne dans l'évolution darwinienne.
Et ce même scientifique, écrivain exceptionnel, devint le champion planétaire d'une
conception athée de l'existence. Il y a quelque chose de piquant dans le fait que la cé
lébration d'un univers rigoureusement scientifique voire numérique, où Dieu n'a pas sa
place, soit la vocation, non pas d'un gourou inspiré des mathématiques ou d'un adepte
de l'IA, mais d'un grand spécialiste de la vie animale.
De drôles d 'ordinateurs
L'auteur américain de science-fiction Terry Bisson a écrit une merveilleuse petite
nouvelle - à peine deux ou trois page - intitulée « Ils sont faits en viande ! » Des ex
traterrestres sont sidérés de découvrir que les créatures habitant la planète Terre sont
entièrement composées de matière organique : bref, de « viande ». Comme matières pre-
Postface - 1313
mières, les constructeurs d'ordinateurs emploient toujours des métaux, des polymères
synthétiques (plastiques) et diverses substances inorganiques (dont le silicium) . On
peut donc rester admiratif devant l'ingéniosité de la nature, qui ne s'est jamais écartée
de l'exploitation de la « viande » pour l'assemblage de son produit haut-de-gamme :
l'homme. Les prototypes de la macromolécule qui allait devenir l' ADN avaient sans
doute un comportement simple limité essentiellement à la réplication. Puis l'évolution
a tout doucement mis en place, au bout de processus immensément lents et complexes,
à peine croyables, les fonctions de développement d'un alphabet et d'un système de
traitement de l'information susceptible de gérer la synthèse des vingt protéines de la
vie. Cet « ordinateur » rustique, l'ADN, qui a créé tout seul le vaste royaume des êtres
vivants sur la planète Terre, a lui-même eu (et continue à avoir) une durée de vie et
un domaine d'application dont l'étendue impressionne sûrement les pauvres ingénieurs
humains qui construisent nos machines électroniques. Au commencement, la molécule
fabriquait (ou plutôt faisait fabriquer) les ingrédients élémentaires qui allaient per
mettre sa reproduction, puis elle se scindait en deux parties similaires, semblables à
l'originale . . . ce qui était déjà un acte procréatif quasi-miraculeux. Puis la machine ADN
eut le bon sens de se rendre compte (façon de parler) qu'elle avait déjà atteint un stade
opérationnel proche de la perfection, et qu'elle pourrait donc faire l'économie d'une
suite interminable de générations (si chères aux fabricants modernes) . Plutôt que de
poursuivre le développement de l'engin lui-même, la macromolécule laissait le champ
libre au traitement d'une variété de toutes sortes de données récupérées à tout moment
et partout sur la planète. Ainsi, les organismes biologiques proliféraient exponentiel
lement, tous exploitant exactement le même petit processeur, l'ADN, et tous étant
capables d'engendrer leurs semblables. Pour une entreprise de fabrication, quel rêve !
Au commencement, la famille des organismes était assez fruste : surtout des créatures
composées d'une seule cellule. Plus tard, le même vieil engin informatique et le même
langage de programmation (quatre éléments assemblés en triplets) permirent la fabrica
tion d'organismes multicellulaires, et ceux-ci se mirent à se comporter d'une multitude
de façons surprenantes. On nageait dans les eaux tièdes de la mer. On courait sur les
rives au moyen de jambes. On s'envolait dans l'air. On devint prédateur, n'hésitant
pas à dévorer d'autres organismes, tombés ainsi dans une nouvelle catégorie nommée
proie. Certains organismes évoluèrent simultanément dans deux directions : macrosco
piquement, par l'adjonction d'organes inédits de toute sorte (yeux, nez, ailes, etc) , et
microscopiquement, par l'insertion dans leur corps de dispositifs tels que, par exemple,
un système immunitaire. Enfin, un organe d'un type assez bizarre fit son apparition : le
cerveau. Equipé de composants puissants, des neurones, assemblés en un gigantesque
réseau, cet organe devint à sa façon une nouvelle couche informatique placée sur l'en
gin ADN primordial. Et ce cerveau se mit à rêver. Se proclamant « intelligent », il a
même fini par imaginer qu'il pourrait créer des dispositifs artificiels qui seraient, eux
aussi, intelligents. Entre temps, le processeur primitif, l'ADN, ne cesse jamais d'éton
ner - on dirait parfois « narguer » - son jeune frère, le super-ordinateur cérébral.
A cet égard, l'anecdote la plus récente concerne un phénomène déconcertant : la par
tie énorme de l' ADN qui ne participe apparemment pas à la synthèse de protéines.
On supposait qu'il s'agissait de séquences archaïques des nucléotides qui traînaient
inutilement dans la double-hélice, sans aucune raison, tout simplement parce que la
1 3 1 4 Panorama de l'intelligence artificielle. Volume 3
-
macromolécule n'avait pas appris à évacuer périodiquement toute cette matière qui ne
sert plus à rien. Bref, le nettoyage de printemps ne serait pas dans les habitudes de
l'ADN. Or, depuis la publication récente de résultats obtenus dans le cadre du projet
ENCODE, les biologistes vont être obligés de revoir d'un œil nouveau ces segments de la
double-hélice qu'on appelait autrefois « ADN poubelle ». Car il s'avère que le moindre
segment d' ADN non codant peut pourtant être conçu pour jouer un rôle essentiel dans
la régulation du processus de synthèse protéique. A ne pas jeter, donc . . .
plus simples (par exemple, ceux des vers de terre) et en visant les cerveaux de plus en
plus sophistiqués. En Australie, une jeune équipe en nanotechnologie de l'université de
Nouvelle-Galles du Sud vient d'annoncer la création d'un transistor opérationnel basé
sur un seul atome. En France, au CNRS , on tente de créer des dispositifs semblables
à l'échelle moléculaire. Grâce aux composants de cette nature, on pourrait désormais
imaginer qu'un vrai ordinateur quantique, grandeur naturelle, voie bientôt le jour. Et
ce type d'appareil - dont l'art de la programmation reste à inventer de fond en comble
- facilitera sûrement, enfin, la modélisation de systèmes nerveux du monde vivant.
Epilogue :
pour une défense de la
recherche en intelligence
artificielle
collègues qui ont bien voulu participer à cette aventure. Que chacun en soit ici remercié.
Le projet est né d'une proposition faite par le dernier des trois coordinateurs aux deux
premiers, il y a quelques années lors des premières « journées d'IA fondamentale »
à Grenoble. L'architecture de l'ouvrage a été ensuite travaillée et remodelée jusqu'à
fin 2008 avant de procéder l'année suivante aux invitations des auteurs. S'en est suivi
un long processus d'échanges de courriers, d'écritures, de relectures, d'ajouts pour
finalement aboutir à ces trois volumes.
Cet ouvrage est dédié à l'école française d'intelligence artificielle, et plus particu
lièrement à la mémoire de ceux de ses membres disparus prématurément, certains très
jeunes : Alain Bonnet [ 1984 ; 1986] , Martial Vivet [ 1996] , Jean-Louis Laurière [ 1978 ;
1987] , Thierry Castell [ 1997] , Elsa Pascual [ 1996] , Karine Liogier [ 1997] , Philippe Smets
[Smets et Kennes, 1994 ; Smets, 1997] , Rose Dieng-Kuntz [Dieng et al., 2001 ; Dieng
Kuntz et al. , 2006] , Pascal Nicolas [Nicolas et al. , 2001, 2006] , Paul Sabatier [ Guenthner
et Sabatier, 1987 ; Pasero et Sabatier, 2000] , et Jean Veronis [Véronis, 2004, 2008] .
chapitre précédent par William Skyvington, qui pose d'emblée la question : « que
sont devenues les promesses des pères fondateurs ? ». Il fait le constat qu'il n'y avait
« aucune machine intelligente susceptible d'apprécier la fête » du cinquantenaire de
l'IA ! Certes nous sommes encore loin d'une machine intelligente qui serait capable de
comprendre tous les ressorts d'une situation de ce genre, et qui plus est d'avoir une
forme de « conscience » { même si certains y pensent (Pitrat, 2009] sérieusement ) . Mais,
inversement, on ne doit pas tenir pour négligeables les avancées de l'IA (sans parler de
celles de la robotique ) depuis 50 ans. Par ailleurs, il faut garder à l'esprit que, même
si l'IA s'appuie sur un ensemble de disciplines scientifiques anciennes, elle a moins de
60 ans à ce jour et, à ce titre, fait figure de nouveau-né dans la famille des sciences. Il
faut donc prendre garde à ne pas jeter le bébé avec l'eau du bain . . . Pour ce qui est
des questions d'ordre philosophique nous renvoyons le lecteur au chapitre 3.9 et aux
discussions qui accompagnent (Dreyfus, 1984] ; voir aussi dans d'autres registres (Gorz,
2003 ; Borillo et al. , 2000] .
Les critiques de scientifiques sont d'une autre nature, quand elles ne sont pas sim
plement dues à une simple méconnaissance des recherches en IA. Ainsi l'IA a-t-elle
pu encourir le dénigrement de la part de logiciens, mathématiciens de la logique (Tu
ring et Girard, 1995] , qui se gaussent du manque de rigueur et du caractère, disons,
laborieux de certains travaux. Mais c'est oublier deux choses. La première c'est que
la problématique de la formalisation logique du raisonnement en IA n'est pas celle de
la logique comme fondement des mathématiques où tous les énoncés se doivent d'être
sans incertitude et universellement vrais ( c'est-à-dire sans exception ) . La seconde, nous
la dirons au travers de la citation d'une déclaration célèbre du physicien Oliver Hea
viside (1850-1925) qui, aux dires de certains des mathématiciens de son temps, sortait
des cadres classiques et connus ( il suffira au lecteur pour l'adapter à notre propos de
substituer à la physique, les sciences du traitement de l'information) : « Mathematics
is of two kinds, Rigorous and Physical. The former is Narrow : the latter Bold and
Broad. To have to stop to formulate rigorous demonstrations would put a stop to most
physico-mathematical inquiries. Am I to refuse to eat because I do not Jully understand
the mechanism of digestion ? » Notons cependant que des appels dès les années 1980
(McCarthy, 1984] pour une recherche de base en IA et des standards d'évaluation des
résultats plus exigeants se sont fait entendre dans la communauté, conduisant progres
sivement à un développement de plus en plus important de travaux théoriques. Une
autre critique émanant de scientifiques touche au nom même de la discipline, conduisant
aussi à l'expression de craintes de voir l'homme assimilé à la machine si l'IA devient le
référent de l'idée d'intelligence (Arsac, 1987] . Il faut d'ailleurs se souvenir que, dès les
débuts de l'IA, Herbert Simon préférait parler de « complex information processing »
et de « simulation of cognitive processes » (Simon, 1969] , reconnaissant cependant que
« "Artificial Intelligence " seems to be here to stay, and it may prove easier to cleanse
the phrase than to dispense with it », ajoutant que « In time it will become sufficiently
idiomatic that it will no longer be the target of cheap rhetoric ».
De fait, beaucoup des résultats dont l'IA peut être légitimement fière { nous ne
tenterons pas d'en dresser une liste ici, ce qui serait long et fastidieux, préférant sim
plement renvoyer le lecteur à la table des matières et à l'ensemble des chapitres de cet
ouvrage ) , sont d'abord des contributions au traitement avancé de l'information.
1 322 Panorama de l'intelligence artificielle. Volume 3
-
Où va l'IA ?
Il est vrai que le terme « intelligence artificielle » a pu causer quelques malentendus,
voire déplaire, et peut assurément être interprété de diverses manières, comme on l'a
rappelé plus haut. En effet, si chacun peut apprécier les capacités toujours plus grandes
des machines pour effectuer des calculs numériques ou des opérations symboliques, ou
traiter des documents, l'idée que la machine pourrait détenir ne serait-ce que quelques
onces d'intelligence provoque bien naturellement des questions, des craintes et des fan
tasmes. L'usage de l'expression « intelligence artificielle » s'est cependant largement
répandu dans le public, au fur et à mesure des progrès de la technologie informatique
et de sa propagation dans les activités humaines. Les plus jeunes, dans les jeux video,
rivalisent contre des adversaires, appelés intelligences artificielles. Pluriel assez singu
lier, mais qui s'explique vu la pluralité des formes que l'IA peut prendre et de la grande
variété des problèmes abordés, dont l'ensemble des chapitres de cet ouvrage témoigne.
Clairement, l'IA fait maintenant partie de notre culture comme le montre l'existence
de nombreux articles, livres, ou films s'y rapportant plus ou moins directement. L'IA
n'a cessé d'alimenter l'imaginaire collectif, comme par exemple, l'émergence du concept
(fantasme ?) de cyborg, créature à l'interface entre l'humain et la machine qui a suscité
une réflexion sur les aspects éthiques, politiques et sociaux de la science et de la tech
nologie [Haraway, 1991 ; de Pracontal, 2002 ; Hoquet, 201 1] et qui a donné naissance à
des mouvements artistiques comme la littérature cyberpunk [Chassay, 2010] (à laquelle
des informaticiens peuvent eux-mêmes participer [Bersini, 2012] ) .
Par ailleurs, l'IA entretient des échanges fructueux avec les sciences cognitives (cf.
le chapitre 10 de ce volume ; voir aussi [Garbay et Kayser, 201 1] ) , car, d'une part elle
fournit de nouveaux repères, points de comparaison pour la compréhension de l'intel
ligence, et d'autre part elle peut s'inspirer de ce que l'on sait du fonctionnement du
cerveau et de la façon dont l'homme raisonne, même si rien ne dit que l'IA doive copier
l'intelligence humaine dans toutes ses manières de procéder (ainsi les avions volent,
quoique différemment des oiseaux ! ) . De plus, puisque la machine doit échanger ses
conclusions avec des usagers, il importe qu'elle puisse s'exprimer en termes cogniti
vement significatifs pour eux. Les grands progrès des neurosciences [Changeux, 1983 ;
Eccles, 1989, 1994 ; Changeux, 2008] devraient aussi avoir un impact à terme sur l'IA.
Les recherches en IA tendent à rendre la machine capable d'acquérir de l'informa
tion, de raisonner sur une situation statique ou dynamique, de résoudre des problèmes
combinatoires, de faire un diagnostic, de proposer une décision ou un plan d'action,
d'expliquer et de communiquer les conclusions qu'elle obtient, de comprendre un texte
ou un dialogue en langage naturel, de résumer, d'apprendre, de découvrir. Pour ce faire,
la machine doit être munie de méthodes génériques susceptibles de s'adapter à de larges
classes de situations. Même si sur toutes ces questions de grands progrès restent cer
tainement à faire, notamment en développant des visions plus unifiées des approches,
de nombreux résultats ont déjà été obtenus montrant qu'au moins, dans une certaine
mesure, ce programme est réalisable. L'IA va vers une maîtrise toujours plus grande et
plus conviviale de l'exploitation de l'information. L'opportunité de grandes masses de
données et de connaissances maintenant disponibles sur le Web devrait ainsi permettre
d'envisager le programme de recherche ancien de Douglas Lenat [1990] sur de nouvelles
bases.
Épilogue - 1 323
Pour autant, une machine dotée de l'ensemble des fonctionnalités citées plus haut,
ces fonctionnalités ayant atteint leur meilleur niveau d'efficience, serait encore assez loin
de posséder les capacités de penser d'un être humain ( même si la machine se révélera
sans doute bien plus performante dans certains registres de tâches qu'un être humain ) .
Il lui manquerait encore une forme de conscience.
Pour conclure
L'IA a cinquante ans révolus. Elle occupe une place singulière dans le champ très
vaste de l'informatique et des sciences du traitement de l'information. Alors même que
l'IA n'a jamais connu autant de développements et d'applications variés, ses résul
tats restent largement méconnus dans leur ensemble, y compris dans la communauté
des chercheurs en informatique. Au-delà de quelques monographies introductives, il
n'existe pas de traités offrant une vue d'ensemble approfondie, et à jour, des recherches
dans ce domaine. C'est pourquoi il nous a paru indispensable de dresser l'état des
lieux des travaux en intelligence artificielle au plan international. Comme il s'agissait
d'une entreprise de grande ampleur, nous avons fait appel appel à l'ensemble de la
communauté française ( qui prend une part active au développement de l'intelligence
artificielle ) pour réaliser cet objectif. Chaque chapitre a été écrit par des spécialistes
français du domaine. Ce livre aura le mérite d'offrir à la communauté des chercheurs
en intelligence artificielle une image d'elle-même, et plus encore d'affirmer sa place
dans la communauté informatique auprès des collègues, comme des tutelles. Telle est
sa vocation principale.
Références
ARSAC, J. (1987) . Les Machines à Penser. Des Ordinateurs et des Hommes. Seuil,
Paris.
BELLMAN, R. (1978) . Artificial Intelligence. Can Computers Think ? Boyd & Fraser
Publ. Comp., Boston.
BERSINI, H. (2006) . De l 'Intelligence Humaine à l 'Intelligence Artificielle. Ellipse
éditions.
BERSINI, H. (2007) . Qu 'est-ce-que l 'Émergence ? Ellipse éditions.
BERSINI, H. (2012) . Le Tamagotchi de Mme Yen et Autres Histoires. Le Pommier,
Paris.
BERTHOZ, A. (2003) . La Décision. Odile Jacob, Paris.
BONABEAU, E. , DORIGO, M. et THERAULAZ, G., éditeurs (1999) . Swarm Intelligence :
Prom Natuml to Artificial Systems. Oxford Univ. Press, Cary, North Carolina.
BONNET, A. (1984) . L 'Intelligence Artificielle. Promesses et Réalités. InterEditions,
Paris. Trad. anglaise 'Artificial Intelligence : Promise and Performance' de J. Howlett,
Prentice Hall, 1986.
BONNET, A., HATON, J.-P. et TRUONG NGOC, J.-M. ( 1986) . Systèmes Experts - Vers
la Maîtrise Technique. InterEditions, Paris.
1 324 Panorama de l'intelligence artificielle. Volume 3
-
BORILLO, M., PRADE, H., SOUBIE, J.-L. et GADON, C. (2000) . Les Machines Pensent
elles ? Les livrets du Service Culture UPS n 1 , Université Paul Sabatier, Toulouse.
Propos autour du spectacle de J.-F. Peyret « Histoire naturelle de l'esprit (suite et
fin) ».
B RAFFORT, P. (1968) . L 'intelligence Artificielle. PUF, Paris.
BRAUNSCHWEIG, B . , TOURNIER, A. et KAMAGATE, A., éditeurs (2012) . Intelligence
Artificielle et Robotique - "Confluences de l 'Homme et des STIG". Agence Nationale
de la Recherche, Les cahiers de l' ANR, n. 4.
CASTELL, T. et C AYROL, M. ( 1997) . Hidden gold in random generation of sat satisfiable
instances. In Proc. of the 15th !nt. Joint Conf. on Artificial Intelligence (IJCAI '97),
Nagoya, August 23-29, pages 372-377. Morgan Kaufmann.
CHANGEUX, J.-P. (1983) . L 'Homme Neuronal. Fayard ; Hachette, Pluriel, 1989.
C HANGEUX, J.-P. (2008) . Du Vrai, du Beau, du Bien : Une Nouvelle Approche Neuro
nale. Odile Jacob.
CHARNIAK, E. et McDERMOTT, D. (1985) . Introduction to Artificial Intelligence.
Addison-Wesley, Reading, Ma.
CHASSAY, J.-F. (2010) . L 'imaginaire de l 'Être Artificiel. Presses Universitaires du
Québec.
COLLECTIF (2001) . L 'Intelligence Artificielle, Mais Enfin de Quoi s 'Agit-il ? Des Cher
cheurs de l 'IRIT répondent . . . Université Paul Sabatier, Toulouse. Les livrets du
Service Culture UPS n 3.
DAMASIO, A. (1999) . The Feeling of What Happens : Body and Emotion in the Making
of Consciousness. Houghton Miffiin Harcourt, New York.
DAVIS, R. ( 1998) . What are intelligence ? And why ? 1996 AAAI Presidential address.
The AI Magazine, 19(1) :91-1 1 1 .
D E PRACONTAL, M. (2002) . L 'Homme Artificiel : Golems, robots, clones, cyborgs.
Denoël.
DENNETT, D . (1996) . Kinds of Minds. Seuil, Paris. Trad. "La Diversité des Esprits.
Une Approche de la Conscience", par A. Abensour, Hachette, 1998.
DIENG, R. , C ORBY, o . , GANDON, F . , GIBOIN, A., GOLEBIOWSKA, J . , MATTA, N.
et RIBIÈRE, M. (2001) . Méthodes et Outils pour la Gestion des Connaissances :
Une Approche Pluridisciplinaire du Knowledge Management. Dunod. 3ième édition,
Knowledge Management : Méthodes et Outils pour la Gestion des Connaissances,
2005.
DIENG-KUNTZ, R. , MINIER, D . , RUZICKA, M., CORBY, F . , CORBY, 0. et ALAMARGUY,
L. (2006) . Building and using a medical ontology for knowledge management and
cooperative work in a health care network. Comp. in Bio. and Med. , 36(7-8) :871-892.
D REYFUS, H. L. (1984) . Intelligence artificielle - Mythes et limites. Flammarion.
Trad. de 'What Computers Can't Do : The Limits of Artificial Intelligence' (1979)
par R.-M. Vassallo-Villaneau et D. Andler ; avant-propos de D. Andler et J. Perriault,
discussions de J. Arsac, M. Borillo et J. Pitrat.
DUPUY, J.-P. (1982) . Ordres et Désordres. Enquête sur un Nouveau Paradigme. Seuil,
Paris.
Épilogue - 1 325
DUPUY, J.-P. (1994) . Aux Origines des Sciences Cognitives. Éditions La Découverte.
DUPUY, J.-P. (2000) . Les Savants Croient-ils en leurs Théories ? Une Lecture de
l 'Histoire des Sciences Cognitives. Inra Éditions, Paris.
ECCLES, J. C. (1989) . Evolution of the Brain : Creation of the Self Piper Verlag,
München / Zürich. Trad. "Evolution du cerveau et création de la conscience. A la
recherche de la vraie nature de l'homme", Fayard, Paris, 1992 ; Flammarion, Champ
n 294, Paris,1997.
ECCLES, J. C. (1994) . How the Self Controls Its Brain. Springer Verlag. Trad. "Com
ment la conscience contrôle le cerveau" , Paris, Fayard, 1997.
FARRENY, H. et GHALLAB, M. ( 1987) . Eléments d 'intelligence Artificielle. Hermes.
FEIGENBAUM, E. et McCORDUCK, P. ( 1983). The Fifth Generation. Artificial Intelli
gence and Japan's Computer Challenge to the World. New American Library, New
York. Revised paperback edition, 1984.
FEIGENBAUM, E., McCORDUCK, P. et Nn, H. P. (1988) . The Rise of the Expert Com
pany. How Visionary Companies are Using Artificial Intelligence to Achieve Higher
Productivity and Profits. Macmillan, London. Foreword by T. Peters ; Appendix :
Expert Systems in Use by P. Harmon.
FRÉCON, L. et KAZAR, O. (2009) . Manuel d 'intelligence Artificielle. Presses Polytech
niques et Universitaires Romandes.
GANASCIA, J.-G. (1993) . L 'intelligence Artificielle. Dominos, Flammarion.
GARBAY, C. et KAYSER, D . , éditeurs (201 1). Informatique et Sciences Cognitives :
Influences ou Confluence ? Éditions Ophrys, Éditions de la Maison des Sciences de
. l'Homme, Paris.
GoRz, A. (2003) . L 'Immatériel. Connaissance, Valeur et Capital. Galilée, Paris.
GUENTHNER, F. et SABATIER, P. (1987) . Sémantique formelle et représentation des
connaissances. Langages (Larousse}, 87 : 103-122.
HARAWAY, D. J. (1991 ) . Simians, Cyborgs and Women : The Reinvention of Nature.
Routledge, New York. Trad. "Des Singes, des Cyborgs et des Femmes : La Réin
vention de la Nature", par M.-H. Bourcier et C. Bonis, éd. Jacqueline Chambon,
2009.
HATON, J.-P. , Bouzm, N., CHARPILLET, F., HATON, M.-C. , LAASRI, B . , LAASRI, H. ,
MARQUIS, P. , MONDOT, T. et NAPOLI, A. (1991) . Le Raisonnement en Intelli
gence Artificielle. Modèles, Techniques et Architectures pour les Systèmes à Bases
de Connaissances. InterEditions, Paris.
HATON, J.-P. et HATON, M.-C. (1993). L 'Intelligence Artificielle. PUF. Que Sais-je ?
2444.
HOFSTADTER, D. R. (1979) . Godel, Escher, Bach : An Eternal Golden Braid. A
metaphorical fugue on minds and machines in the spirit of Lewis Carroll. Vintage
Books. Trad. "Gôdel, Escher, Bach : Les Brins d'une Guirlande Éternelle", par J.
Henry et R. French, InterEditions, 1987.
HOQUET, T. (2011). Cyborg Philosophie : Penser Contre les Dualismes. Seuil, Paris.
ImA, F., PFEIFER, R. , STEELS, L. et KUNIYOSHI, Y., éditeurs (2004) . Embodied Arti
ficial Intelligence, volume 3139 de LNCS. Springer.
1 326 Panorama de l'intelligence artificielle. Volume 3
-
Seuil, Paris.
VÉRONIS, J. {2004) . Hyperlex : lexical cartography for information retrieval. Computer
Speech Language, 18{3) :223-252.
f3
VÉRONIS, J. {2008) . Informatique et linguistique : Introduction, historique. Bulletin
d 'Informatique Approfondie et Applications {BIAA}, 80 :5-44.
VIVET, M. {1996) . The classroom as one learning environment of the future. J. of
Universal Computer Science, 2(10) :663-678.
WARWICK, K. {2011). Artificial Intelligence : The Basics. Routledge.
WINSTON, P.-H. {1977) . Artificial Intelligence. Addison-Wesley, Reading, Ma. 3 edi
tion, 1992.
Index
Préface xiii
6 Bioinformatique 1 141
6.1 Introduction . . . . . . . 1 141
6.2 Les macromolécules . . . 1 142
6.3 Les réseaux biologiques . 1 149
6.4 Formalisation et extraction des connaissances . . 1 151
6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . 1 155
Postface 1307
auteurs@cepadues.com
www. c e pa d u e s . c o m