Vous êtes sur la page 1sur 13

Trace et reconnaissance de l’activité humaine dans les

environnements virtuels
Cyrille Baudouin, Pierre Chevaillier
LISyC : Laboratoire des Systèmes Complexes
ENIB, Université Européenne de Bretagne
CERV, 25 rue Claude Chappe, 29280 Plouzané

12 septembre 2008

Résumé Pour pouvoir mener cette analyse, pendant ou à


l’issue d’une séance d’apprentissage, il est nécessaire
Ce travail de recherche s’inscrit dans le cadre d’un pro- de réifier l’ensemble du modèle de l’interface, c’est-
jet de création d’une paillasse virtuelle. Nous présentons à-dire expliciter la chaı̂ne d’interactions depuis le
brièvement les modèles utilisés ainsi qu’une première périphérique que l’utilisateur tient en main jus-
expérimentation avec des apprenants. La réalité vir- qu’à l’effet produit dans l’environnement. Une fois
tuelle permet une grande richesse d’activité entraı̂nant explicité, il est possible de surveiller l’activité du
un volume important d’observables. Nous proposons monde virtuel pour tracer les éléments observables
un environnement spécifique pour recueillir les traces de cette chaı̂ne. De plus, il devient possible d’ana-
nécessaires à l’analyse de l’activité des apprenants et une lyser cette trace pour détecter la réalisation d’ac-
modélisation pour l’identification de leurs procédures. tions humaines, matière première de notre analyse
[Baudouin et al. 07a]. Pour atteindre ces objectifs,
Mots-clés : environnement virtuel d’appren- il est nécessaire de modéliser deux activités : celle
tissage humain, intelligent tutoring system, du monde virtuel et celle de l’utilisateur humain.
réalité virtuelle, Système Multi-Agents. Pour lier les deux, nous proposons de nous appuyer
sur une typologie d’actions humaines permettant
de modéliser l’activité observable des utilisateurs de
1 Introduction façon explicite. Chaque action admet une formali-
sation évaluable. Il est ainsi possible de détectér la
Cet article se place dans le contexte du réalisation des actions dans les traces informatiques
développement et de l’utilisation des Environ- issue de nos environnement. Malheureusement, l’en-
nements Virtuels pour l’Apprentissage Humain semble des actions humaines dans le monde réel est
(Evah). Nous nous intéressons à l’utilisateur prin- potentiellement infini et reste très grand dans nos
cipal de ces systèmes de réalité virtuelle que nous mondes virtuels immersifs.
qualifierons d’apprenant. L’objectif de cet article est de proposer et d’évaluer
Nos recherches portent sur le suivi et l’analyse une formalisation d’un ensemble limité d’actions hu-
de l’activité de l’apprenant. Nous souhaitons pis- maines, génériques et spécifiques, réalisables dans nos
ter, si possible automatiquement, ce que fait l’uti- mondes virtuels.
lisateur dans le monde virtuel pour mieux faciliter Dans une première partie, nous présentons plus
l’apprentissage. L’objectif premier de notre analyse en détail le contexte d’application de cette étude,
est d’évaluer l’activité d’un apprenant par rapport les besoins et les choix opérés pour réaliser notre
à des procédures ou des plans d’actions liés aux do- modèle. Dans une seconde partie, nous étudions en-
maine d’apprentissage. Pour cela, Nous voulons pou- suite des systèmes interactifs (2D et 3D) existants
voir exprimer ces plans d’actions selon un référentiel pour en extraire une liste d’actions et nous propo-
explicite, puis fournir une méthode permettant de sons une typologie d’actions humaines et leur for-
comparer les actions réalisées par l’apprenant à ce malisation et les mécanismes de reconnaissance liés.
réferentiel. Dans une troisième partie, nous présentons un cas
– Une typologie d’actions humaines pour la RV –

d’étude expérimental mettant en oeuvre la typolgie 4. Les actions de l’apprenant devant son écran
et le système de reconnaissance. (écrire sur son cahier, poser une question orale
à son voisin, etc.) ne sont pas médiées par l’en-
vironnement et par conséquent, one ne peut en
2 Contexte de recherche et ob- rendre compte. Nous nous intéressons unique-
ment aux actions humaines détectables dans le
jectifs monde virtuel.
Notre travail s’inscrit dans le développement et
l’enrichissement de Mascaret1 dont les contours 2.1 Un monde structuré et informé :
ont été dessinés par [Chevaillier 06]. Il s’agit d’une VEHA
plate-forme logicielle et d’un ensemble de méta-
modèles, orientée evah, permettant à plusieurs uti- Dans Mascaret, le monde virtuel est entièrement
lisateurs, apprenants et formateurs, d’agir simul- décrit en utilisant un méta-modèle qui est une ex-
tanément dans un environnement virtuel. tension de celui d’uml [Chevaillier et al. 08] : veha
Nous proposons un modèle pour structurer les (Virtual Environment supporting Human Activities).
interactions humaines, afin de faciliter la mise en Ce méta-modèle permet de modéliser les classes d’ob-
place d’une interface Humain–Machine plus souple, jets qui constituent l’environnement physique de l’ap-
cohérente avec l’environnement virtuel et, dans le cas prenant. Il fournit une description de la composition
plus précis de la formation, en accord avec un do- de cet environnement ainsi que des comportements
maine d’apprentissage et un scénario pédagogique. des entités qui le composent. Il offre donc à la fois une
Nous proposons dans cet article une typologie d’ac- vue statique et dynamique de l’environnement d’ap-
tions humaines, orientée vers deux objectifs. D’une prentissage. Ce monde est considéré comme discret :
part, nous souhaitons proposer un modèle d’inter- il est composé d’objets identifiables et leur évolution
face explicite et exécutable, permettant à l’utilisa- se fait par des changements d’états instantanés.
teur d’interagir avec les objets du monde et avec Le tableau 1 illustre la comparaison de veha avec
d’autres agents. D’autre part, nous souhaitons définir uml : chacun des méta modèles (niveau M2) repose
une typologie exploitable pour l’expression et l’ana- sur le mof, Meta Object Facility (niveau M3) et peut
lyse de l’activité de l’utilisateur dans le monde, avec être instancié en un modèle utilisateur (niveau M1)
une visée principalement pédagogique. qui est lui même utilisé pour créer des applications
Ces deux vues de l’interaction portent bien sur les spécifiques (M0).
mêmes actions humaines, mais elles ne sont pas tou-
jours formellement liées. Elles doivent être mises en M3 MOF (restriction d’uml)
rapport de façon explicite pour permettre l’analyse. M2 modèle uml modèle veha
De plus, si l’on souhaite analyser les comportements M1 user model uml modèle EV1 ...
en temps réel, ces liaisons doivent être réifiées dans M0 user object EV1a EV1b ...
nos environnements. EV : environnement virtuel
Notre proposition repose sur plusieurs postulats.
1. Le monde virtuel est un environnement discret. Tab. 1 – Couches de modélisation (Mi) : positionne-
Le comportement des entités est déterminé par ment de veha dans le référentiel mof, parallèle avec
des machines à états explicites. uml.

2. Le monde virtuel ne prend pas en compte la phy-


sique. Il est possible de détecter les collisions, L’utilisation de veha implique les deux premièrs
mais nous ne calculons pas les forces imposées postulats : la non-continuité du monde et la non-
aux entités. prise en compte de la physique. Mais, en revanche,
un modèle construit à partir de veha montre des
3. L’interface est continue, avec éventuellement
propriétés intéressantes, en particulier pour conce-
un retour d’effort. Toutefois, nous ne nous
voir des environnements à visée pédagogique :
intéressons pas aux gestes de l’utilisateur.
1 Multi-AgentSystem for Collaborative, Adaptive and
1. Le monde est finement contrôlable : l’état du
Realistic Environment for Training, développé au LISyC monde reste cohérent, même avec des comporte-
(EA3883) ments pseudo-aléatoires.

LISyC, 2008 2 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

2. Le monde est informé et observable : il est pos- 3. il contraint les actions sur le monde vir-
sible de parler des objets, de leur comportement tuel (contraintes du contexte et du scénario
et de leurs propriétés. pédagogique) ;
4. il trace l’activité de l’utilisateur, en renseignant
sur les opérations réalisées et les périphériques
2.2 Un modèle d’interface pour les
associés.
environnement virtuels
La réalité virtuelle offre un grand nombre de pos- 2.3 Un modèle de l’activité humaine
sibilités pour réaliser l’interfaçage comportemental pour la RV : HAVE
d’un utilisateur avec un monde virtuel [Fuchs 96].
La conception d’une interface de réalité virtuelle est Le méta-modèle have (Human Activities in a Vir-
soumise à trois types de contraintes : celles liées tual Environment) de Mascaret, a pour objectif
aux tâches et actions possibles dans le monde vir- de formaliser les notions d’actions et de procédures
tuel, celles liées aux utilisateurs de l’environnement comportementales dans la simulation et de décrire
et celles liées aux périphériques d’interactions dis- les activités d’un collectif d’agents [Chevaillier 06].
ponibles. Nous nous intéressons dans cet article au Comme dans le cas de veha, l’utilisation de ce
premier point. méta modèle respecte les différents niveaux de
Notre modèle d’interface permet une commu- modélisation (cf. tableau 1).
nication uniforme avec plusieurs périphériques de Toute entité active dans l’environnement est
réalité virtuelle : gant de données, traqueur de considérée comme un agent, c’est-à-dire une entité
tête, souris 3D, Wiimote 2 . Chaque périphérique est capable de percevoir son environnement local, de
décrit comme un ensemble d’actionneurs paramétrés. choisir une action adaptée, éventuellement guidée par
Chaque actionneur a une valeur : binaire pour les un but explicite (principe de rationalité) et d’agir en
boutons, réelle pour les axes. Les paramètres peuvent conséquence par le biais d’interactions avec l’envi-
être quantitatifs (bornes, stabilité, etc.) ou quali- ronnement ou d’autres agents. Les agents sont donc
tatifs (prise en main, affordance, résistance, etc.). de diverses natures. Il s’agit tout d’abord des en-
Ce modèle est implémenté sous la forme d’une bi- tités représentées dans le monde virtuel et exhibant
bliothèque assez proche de la plate-forme d’interface un comportement autonome (non commandé par
VRPN 3 [Russell M. Taylor II et al. 01]. une autre entité). Les utilisateurs sont eux-mêmes
Du côté de l’environnement et des entités, les considérés comme des agents ; ils exercent une acti-
interactions possibles se ramènent soit à des acti- vité orientée vers un but et interagissent entre eux,
vations d’état ou des déclenchements d’opérations, via l’environnement virtuel.
qui peuvent être pilotées par des boutons, soit à la Notre approche est centrée sur les tâches effectives
réalisation d’opérations paramétrées, qui nécessitent et ne contient pas de modèle de l’utilisateur. Nous ne
l’usage de valeurs non binaires, et donc d’axes. faisons pas d’hypothèse forte sur les processus cog-
Cette description des périphériques est fournie pa- nitifs des utilisateurs. Nous cherchons à détecter et
rallèlement au modèle de l’environnement à un agent qualifier ses actions, pas à déduire ses intentions. Des
artificiel : l’avatar. Un avatar est associé à chaque modèles cognitifs existants tel SOAR [Newell 90],
utilisateur, pour qu’il puisse médier toutes ses inter- ACT-R [Anderson 93] ou GOMS [John et al. 96],
actions avec le monde. Cet agent est également le tous basés sur le modèle du processeur humain, pro-
dépositaire du profil de l’utilisateur, qui définit ses posé par Card, Newell et Moran, [Card et al. 83],
préférences en terme d’interface. peuvent être utilisés pour l’analyse des comporte-
ments cognitifs des utilisateurs.
Cet avatar a quatre responsabilités :
De même, chaque agent artificiel se doit de res-
1. il représente l’utilisateur dans le monde, sa po- pecter les contraintes d’interactions du monde, mais
sition, ses actions ; l’utilisation d’un modèle d’agent particulier n’est pas
imposée.
2. il associe les opérations possibles à des action-
Le modèle des activités est supporté par une
neurs (périphériques) disponibles ;
modélisation de la structure organisationnelle de ce
2 Manette de jeu de la console Wii (Nintendo), pourvue d’un collectif. Le modèle organisationnel permet de définir
dispositif de pointage par infrarouge et de trois accéléromètres le rôle des agents au sein du collectif. Cette notion
3 Virtual Reality Peripheral Network d’organisation liée aux rôles est l’une des bases de

LISyC, 2008 3 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

Mascaret et a été proposée par [Querrec 02] dans tions spécifiques tel que visser, plier ou enregis-
sa thèse. Elle est proche de celle mise en place dans le trer sous, il est plus difficile de donner une définition
modèle moise [Hannoun et al. 99]. Les activités sont valide pour plusieurs domaines. Il existe donc une on-
décrites comme un ensemble d’actions à réaliser par tologie d’actions pour chaque domaine d’application.
une structure organisationnelle afin d’atteindre un Notre typologie doit donc se baser sur le langage na-
objectif. Par exemple, une séance pédagogique est turel et permettre la description d’une activité hu-
structurée en exercices dont la réalisation est décrite maine attendue avec une sémantique non ambigue.
sous forme d’un modèle d’activités qui précise les ac-
tions de chacun des agents en fonction de leur rôle. 2.3.2 Une typologie d’actions pour analyser
Ceci permet de spécifier la tâche que doit réaliser l’activité
l’apprenant au cours de chaque exercice. Les activités
sont décrites sous forme d’enchaı̂nements possibles Par ailleurs, nous souhaitons analyser de façon
d’actions ; on parle alors de description procédurale. automatique et semi-automatique l’activité humaine
Une action est définie par des conditions de faisabilité observable dans un environnement virtuel. Pour pour
et des effets attendus ; ces conditions sont formalisées voir detecter et analyser ce que fait un utilisateur,
sous forme d’expressions logiques sur les entités veha il est necessaire que chaque action de notre typolo-
qui composent l’environnement des agents. gie soit exprimé dans un langage informatique in-
Du côté de l’environnement, la réalisation d’une terprétable dont la sémantique soit explicite.
action se traduit par une séquence d’opérations à
réaliser, définies dans les entités veha. Ces dernières
correspondent donc à l’atome de la description d’une 3 Proposition : une typologie
activité, du point de vue de l’exécution. Par exemple, d’actions pour HAVE
l’action placer sur l’entité NappeBlanche aura uni-
quement un effet sur sa position, alors que l’action Avant d’établir notre liste d’actions génériques,
Déplier sur cette entité aura un effet plus complexe nous avons cherché l’existence d’une telle typologie
et spécifique au domaine, qui modifiera l’état de l’en- dans la littérature scientifique. S’il existe des typo-
tité et son apparence, par l’activation d’opérations et logies de verbes d’actions en langage naturel ou des
le déclenchement d’animations. langages informatiques permettant de décrire une ac-
Du point de vue de l’analyse de l’activité humaine, tivité humaine attendue ou observable, nous n’avons
l’atome de l’activité est l’action. Une suite de trois pas trouvé de système qui fasse le lien entre nos
opérations peut avoir plusieurs sens, et peut traduire deux besoins. Nous nous sommes donc tournés vers
la réalisation d’actions très différentes (voir même des systèmes informatiques existants, où l’activité
opposées). Il n’est donc généralement pas possible de est définie spécifiquement. Nous nous sommes plus
se baser uniquement sur l’exécution de ces opérations particulièrement interessés aux logiciels et environ-
pour déterminer quelles actions ont été réalisées par nements où l’utilisateur manipule l’interface par des
un apprenant. verbes d’action explicites, ces verbes étant liés à une
sématique informatique. Ensuite, nous avons cherché
à synthétiser les points communs de ces environne-
2.3.1 Une typologie d’actions pour décrire
ments existants comme base de notre typologie.
l’activité

Pour pouvoir exprimer l’activité des utilisateurs 3.1 Modèles et environnements exis-
dans nos diagrammes d’activité have, nous utilisons tants
des verbes d’actions génériques et des verbes tirés
du domaine d’apprentissage. Un verbe générique tel Nous présentons tout de même les travaux sur la
que se déplacer a toujours le même sens pour tous définition du travil humain. Nous présentons ensuite
nos environnements virtuels : modifier l’attribut po- un panel de systèmes interactifs utilisant des actions
sition de son avatar. Bien que la réalisation de ces ac- explicites, depuis les jeux des années 70 en mode
tions puisse varier en terme d’interface (déplacement texte jusqu’au simulateur de réalité virtuelle pour
en position ou en vitesse) et de résultat (liberté l’apprentissage. Pour chaque système, nous donnons
de mouvement dans le monde, chemin prédéfini), il une brève description du système (type d’environne-
est possible assez simplement de définir cette action ment, contexte, objectif), une description de son in-
en dehors du domaine d’application. Pour des ac- terface (comment agit-on sur le monde ?). Le tableau

LISyC, 2008 4 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

??, donné en annexe, regroupe les actions principales R Atteindre


des systèmes cités précédemment, classées par famille L Mouvement de jambe
d’action. M Mouvoir
F Mouvement de pied
T Tourner
3.1.1 Définition du travail humain et
SS Pas de côté
méthode des temps prédéterminés
AP Appliquer Pression
Les méthodes des temps prédéterminés, utilisées TB Rotation du corps
dans l’industrie pour servir de base au calcul du G Saisir
temps de travail peuvent servir de base pour décrire W Marcher
l’activité humaine. Elles définissent des actions ba- P Placer
siques, liées à un temps nominal pour les accom- B Pencher
plir. Elle permettent donc de découper une activité RL Relâcher
en de nombreuses actions minutées précisément. Ces S Relever
méthodes existent depuis les débuts du Taylorisme D Désengager
et ont peu évolué dans le temps : révision des temps, ET Déplacement yeux
proposition de nouvelles actions. EF Focalisation yeux
Nous nous sommes intéressés à l’une de ces KOK S’agenouiller (1 genou)
méthodes, MTM4 [Maynard et al. 48], qui se dérive KBK S’agenouiller (2 genoux)
en plusieurs normes, proposant plusieurs niveaux de
description : MTM-1, MTM-2, MTM-3. Le niveau
Tab. 2 – Quelques actions de la norme MTM-1
MTM-1, qui constitue la norme historique est celui
qui correspond le plus à la granularité de nos ac-
tions humaines atomiques. La granularité de MTM- Pour la plupart des actions, MTM propose des
1 est fine et pour analyser une minute de temps déclinaisons, précisant l’action ou indiquant le niveau
de travail sur une chaı̂ne de production, il faut en de difficulté rencontré par l’exécutant. Par exemple,
moyenne une journée de travail à des experts de la l’action Atteindre (symbole R - Reach) accepte ces
méthode. Le niveau supérieur, MTM2, conçu pour cinq déclinaisons :
réduire ce temps d’analyse par dix, décrit des actions
1. RA : Objet toujours au même endroit, ou dans
d’un niveau plus élevé, que nous considérons comme
l’autre main ;
des activités. MTM-3 se veut plus efficace car plus
spécifique au domaine. Cette norme ne décrit pas pas 2. RB : L’emplacement de l’objet peut varier sen-
l’intégralité du travail à la chaı̂ne, mais permet de siblement d’un cycle à l’autre ;
définir, à partir de MTM-2, un ensemble d’actions 3. RC : Atteindre un objet mêlé à d’autres ;
spécifiques au métier. [Longo et al. 06] ont utilisé la 4. RD : Atteindre un objet petit ou à saisir avec
norme MTM pour décrire temporellement l’activité précision ou précaution ;
de travailleurs simulée sur une chaı̂ne de produc-
5. RE : Vers une position indéfinie.
tion. Une autre norme, se voulant plus simple que
MTM, a été produite par le même cabinet d’experts, Cette typologie ne possède pas de formalisation,
MOST5 [Zandin 03]. Elle a elle-même été dérivée et mais est une bonne indicatrice du nombre d’actions
découpée en plusieurs autres normes : BasicMOST, à définir si on veut pouvoir tout faire dans un monde
MiniMOST, MaxiMOST et AdminMOST. virtuel. En ne traitant pas toutes les déclinaisons et
MTM1 se veut plus exhaustive que générique et en regroupant les actions par ressemblance, on peut
décrit 350 actions de base, ce qui permet normale- réduire le nombre d’actions à moins de primitives.
ment de définir toutes les activités de travail possible. Nous pourrons aussi nous servir de MTM-1 pour
A chaque action, la norme MTM associe un code et évaluer notre modèle, en exprimant l’ensemble des
un temps standard. Le tableau 2 montre quelques actions définies par cette méthode grâce à notre for-
exemples d’actions définies dans MTM-1. La granu- malisation, et en se basant sur nos actions méta.
larité des actions est assez fine et décrit également
les mouvements du corps de l’opérateur. 3.1.2 Jeux vidéo textuels
4 Method Time Measurement Les systèmes informatiques les plus anciens utili-
5 Maynard Operation Sequence Technique sant une interface avec des actions explicites sont les

LISyC, 2008 5 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

jeux d’exploration de donjons (Dungeon crawler ou le contenu s’affiche à droite des verbes d’action. Cer-
Rogue-Like en anglais) tel que Rogue ou les MUD tains objets sont des outils utiles pour résoudre cer-
(Multi Users Dungeons) . Très simples visuellement, taines énigmes et il est possible d’assembler des ob-
ils consistent à explorer des pièces reliées les unes aux jets deux à deux ensemble pour créer de nouveaux ob-
autres, pour combattre des monstres et trouver des jets. L’utilisation d’un outil ou l’assemblage de deux
trésors. Affichés en mode texte, ils disposent d’une in- objets se fait grâce à l’action générique utiliser un
terface très simple, avec généralement peu d’actions objet sur un autre objet.
possibles, généralement associés à une touche du cla-
vier : Avancer, reculer, aller à droite, aller à gauche, 3.1.4 Jeux de rôles
ouvrir une porte, fouiller une pièce, combattre un
monstre, fuir, etc. Les jeux de rôle classiques sont des jeux d’aven-
Des actions spécifiques peuvent apparaı̂tre comme tures et de récits, classiquement joués à plusieurs.
ouvrir un coffre, fracturer un cadenas, etc. Les règles définissent un ensemble de compétences
Certains de ces jeux acceptent une entrée clavier et d’actions possibles en langage naturel avec, en
pour taper les verbes dans leur intégralité, permet- général, un moteur d’évaluation mathématique pour
tant ainsi plus de souplesse dans l’interface, tout en déterminer la réussite ou non d’une action : formules,
ralentissant fortement le jeu. tables, abaques et dés pour insérer de l’aléatoire. Le
jeu étant basé sur le récit, et le modèle d’évaluation
3.1.3 Jeux vidéo pointer-cliquer étant souple, il est possible de dériver et d’ajouter
des nouvelles actions par analogie.
A la mode dans les années 1980, ce type de jeu Leurs transpositions dans les jeux vidéo, tel que
met en scène un personnage contrôlable à la sou- Fallout ou Knight of the Old Republic, reprennent
ris dans un espace en deux dimensions (parfois en ces principes, mais cloisonnent les actions et les
3D isométrique) 6 . Ce concept est particulièrement compétences à une liste fixe et prédéfinie. L’interface
illustré par les jeux de Lucas Arts, basés sur le mo- est généralement assez complexe et hérite des deux
teur SCUMM7 , tels que Maniac Mansion, Sam and catégories de jeux citées précédemment. Il est pos-
Max, Indiana Jones ou Day Of The Tentacle. sible de réaliser un certain nombre d’actions de base
dans le monde (se déplacer, ouvrir les portes), plus
des actions spécifiques sur certains objets. La valeur
ajoutée ici est le profil du personnage qui octroie une
liste particulière de compétences, et donc d’actions :
modes de déplacements particuliers (courir, nager, se
cacher, etc.), actions spéciales sur les objets (briser,
cacher), utilisation d’outils (crocheter, réparer, etc.).

3.1.5 GVT
Generic Virtual Training 8 est une plate-forme
Fig. 1 – Capture d’écran du jeu Day of the Tentacle générique et modulaire pour le développement de
sessions de formations utilisant la réalité virtuelle
L’interface est constituée d’une liste de verbes [Gerbaud et al. 08]. Développé en partenariat par
d’action, affichée en permanence à l’écran (cf. 1. Pour le LISyC, l’Irisa et Nexter Systems9 , cette plate-
interagir avec un objet, il faut sélectionner l’action forme permet, entre autre, la formation à la main-
désirée sur l’interface, puis cliquer sur l’objet. Pour tenance mécanique de matériel industriele. L’ap-
se déplacer, il suffit de cliquer sur le sol pour que prenant évolue dans un environnement 3D où il
le personnage s’y rende automatiquement grâce à un déclenche des actions via un menu contextuel. Le
algorithme de Path-finding (l’action aller à étant système pédagogique de GVT supervise ces actions
sélectionnée par défaut). L’action prendre, sur un et les autorise ou pas selon leur validité et la stratégie
objet pointé qui peut être pris, ajoute cet objet dans pédagogique choisie. Le domaine d’application mili-
un sac virtuel, non représenté dans le jeu, mais dont taire impose des procédures prédéterminées avec peu
6 Point and Click en anglais 8 anciennement GIAT Virtual Training.
7 Script Creation Utility for Maniac Mansion 9 anciennement GIAT Industries

LISyC, 2008 6 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

de variantes possibles. De nombreuses opérations de chaque action méta en apportant une formalisation
maintenance nécessitent des outils précis (clé dyna- des conditions nécessaires à son exécution et ses ef-
mométrique par exemple) et GVT utilise des actions fets sur le monde, en se basant sur les propriétés
génériques, et des actions liées aux objets. génériques de nos entités de réalité virtuelle : posi-
tions, orientations, machine à états, propriétés.
3.1.6 Synthèse Nous classons les actions humaines et les activités
en quatre familles, proposées par [Fuchs et al. 06] :
L’étude de ces différents systèmes montre bien
d’un côté l’existence d’actions communes, telle que – la manipulation d’objets, qui regroupe toutes les
les déplacements dans l’environnement ou les actes interactions avec les entités du monde,
de communications, et de l’autre, le nombre impor- – la navigation, qui regroupe les actions visant à
tant d’actions spécifiques à chaque domaine d’ap- se déplacer dans le monde virtuel,
plication. Les actions communes, bien que liées à – l’observation, qui correspond aux changements
une interface différente (touche du clavier, souris, de point de vue et aux prises d’information dans
manette de jeu...), possèdent la même sémantique le monde,
et peuvent donc êtres regroupées dans notre typo- – la communication, qui regroupe les dialogues
logie comme des actions génériques, possédant la verbaux et non verbaux entre les agents humains
même définition quelque soit le domaine. C’est le cas et artificiels.
d’actions telles que prendre objet, parler ou al-
ler à. Les actions relatives aux différents systèmes Lors de la création d’un modèle en utilisant veha
doivent, au contraire, avoir une définition spécifique et have, nous pouvons instancier ces actions méta
pour chaque domaine. L’action appeler formateur en actions spécifiques au domaine d’application (cf.
(GVT) n’a pas de sens dans un jeu d’aventure, de figure 2). Ces actions spécifiques portent donc sur des
la même façon que l’action secret door (chercher entités du domaine et leur formalisation est dérivée
une porte secrète) (Rogue) n’a pas lieu d’être dans du niveau M2. Il est également possible de dériver les
un environnement de formation. Un seul verbe d’ac- actions pour rajouter des actions avec des contraintes
tion, tel que tirer, a également un sens différent en spécifiques au domaine d’application. Ensuite, une
fonction du domaine : tirer une manette, ou attirer action peut être instanciée dans l’environnement (ni-
un objet vers soi. Certaines actions sont proches bien veau M0) pour des exécutions attendues de cette ac-
que différentes mais peuvent être généralisées en par- tion, que l’on pourra comparer aux exécutions ob-
tie dans notre typologie, sous une forme commune. servées, disponibles dans les traces.
Par exemple, lire, regarder ou vérifier, définissent
des actions différentes, mais sont toutes des prises
d’information, qui impliquent l’affichage de données
particulières à l’écran.
Cela nous encourage à définir deux niveaux de des-
cription : d’une part un type d’action, générique,
apportant une description partielle de l’action, puis
l’action elle même, dont la définition est spécifique
au domaine.

3.2 Notre proposition : ajouter une


typologie d’action au modèle
HAVE
Nous cherchons à décrire formellement un en- Fig. 2 – Vue des actions pour les trois niveaux de
semble d’actions non spécifiques au domaine, et nous modélisation
proposons une méthode d’écriture pour les actions
spécifiques. Cette typologie a pour but d’enrichir
l’actuel modèle HAVE de Mascaret, en propo- En apportant cette formalisation, il devient pos-
sant un ensemble d’actions méta supportées par le sible de raisonner sur ces actions, pour pouvoir ana-
méta-modèle VEHA. Il est donc possible de définir lyser l’activité de l’utilisateur.

LISyC, 2008 7 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

3.2.1 Un langage pour la formalisation des de réaliser en parallèle des actions ou des activités
actions de familles différentes, par exemple se déplacer (na-
vigation) et retourner une entité (manipulation) ou
Nous cherchons donc un langage pour exprimer
déplacer une entité (manipulation) et changer son
formellement l’exécution d’une de ces actions hu-
point de vue (observation).
maines dans notre monde. Ce langage doit permettre
L’avatar de l’utilisateur, tel que défini par le méta-
d’exprimer les contraintes nécessaires à l’exécution
modèle have, n’est pas forcément un humanoı̈de
d’une action, et son effet sur le monde. Notre méta-
animé. Il possède néanmoins la caractéristique mi-
modèle étant proche de celui d’uml, nous nous
nimale suivante : pouvoir prendre et porter une ou
tournons naturellement vers le langage d’expression
deux entités en même temps et pouvoir exécuter pa-
de contraintes qui lui est associé : ocl, Object
rallèlement une action de manipulation sur chaque
Constraint Langage [OMG 06].
entité.
La définition formelle de chaque action précise le
D’un autre côté, chaque entité ne peut être tenue
contexte de l’action (context :) et les précondition
que par un et un seul utilisateur. Si l’on souhaite
(pre :) et postconditions (post :). Ces conditions
permettre la prise à plusieurs avatars, il convient de
portent sur le contexte d’exécution des actions, c’est-
modéliser l’objet avec plusieurs entités, en définissant
à-dire sur les propriétés des entités manipulées et de
explicitement les points ou les zones de prise.
l’avatar. Lorsque cela est nécessaire, des méthodes
des méta-classes du méta-modèle have et veha (cf.
figure 3) peuvent être utilisées pour évaluer les condi- 3.2.3 Navigation
tions (query ocl) et des méthodes peuvent être Le niveau de complexité de l’entité avatar dépend
définies localement (def :). des choix de conception de l’environnement final. On
pourra se contenter de déplacer la caméra dans le
monde, animer un personnage qui ne pourra que se
déplacer en marchant, ou permettre le contrôle fin
d’un pantin articulé. L’interface pour une même ac-
tion sera alors très différente : par exemple l’action
s’asseoir pourra être liée à une entité chaise, et
consister en un simple clic sur la surface de la chaise
lorsque l’avatar est à proximité, ou utiliser une modi-
fication de la posture de l’avatar pour plier les jambes
et lui donner une position assise, avec ou sans chaise.
Quelque soit l’interface, le point commun de la na-
vigation est le changement de position et d’orienta-
tion de l’avatar, qu’il soit représenté ou non dans le
monde.

3.2.4 Communication
Les opérations veha pour communiquer verbale-
ment entre agent humain et artificiel dans nos en-
vironnement sont l’envoi et la réception de mes-
sages verbaux (textuels ou vocaux). Dans cet article,
Fig. 3 – Diagramme de classe uml figurant les méta classes nous ne rentrons pas dans l’étude complexe des acti-
Avatar et EntityClass
vités de communication. Nous nous appuyons sur la
théorie des actes de langage pour la communication
verbale [Searle 69].
3.2.2 Manipulation d’entité
A cela s’ajoute la communication non-verbale :
Dans les environnements virtuels réalisé grâce à posture, regard, gestes, expressions du visage, etc.
Mascaret, un utilisateur peut utiliser plusieurs Selon [Lewis 00], on peut distinguer neuf canaux de
périphériques en même temps : un dans chaque main, communications : les expressions du visage (sourires,
mais aussi des périphériques de capture (position de signes de tête), les gestes (en particulier des mains
la tête, des bras, du regard). Il est donc à même et des bras), les mouvements du corps, la posture, la

LISyC, 2008 8 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

direction du regard (en particulier regarder dans les fisante pour exprimer les activités humaines médiées
yeux), les contacts physiques (poignée de main), l’oc- par nos interfaces dans nos mondes virtuels. Les ac-
cupation de l’espace (proximité, distance, positions), tivités prises en compte sont la navigation dans le
l’apparence (incluant les habits portés), les vocalisa- monde, la manipulation d’objets virtuels, les actions
tions non verbales (siffler, crier, pleurer, rire). explicites d’observations et la communication dans
Les actions de communication non verbale expli- l’environnement (avec des agents, humains ou artifi-
cites sont spécifiques à l’interface et au domaine cible, ciels).
et nous ne proposons pas d’action méta pour ce vec- Pour chaque action, nous donnons ces quatre in-
teur de communication. formations :
1. Sa dénomination, généralement un verbe d’ac-
3.2.5 Observation tion, parfois une expression ;
2. Sa définition en langue naturelle, tirée du TLFi
Les actions d’observation regroupent toutes les 10
[Bernard et al. 02] ;
perceptions actives, c’est-à-dire les actions mises en
œuvre par l’apprenant pour percevoir et s’informer 3. Notre définition, généralement équivalente à
de l’état du monde. Ces actions ne sont généralement celle du TLFi, ou plus restrictive ;
que partiellement médiées par l’environnement. En 4. Notre définition formelle, exprimée en ocl.
effet, il est possible de savoir quand un objet ou une Pour les actions spécifiques, nous précisons
situation est visible par l’apprenant, mais on ne peut le stéréotype (l’action méta correspondante), les
que supposer que l’apprenant effectue bien une prise éventuelles relations qu’elle partage avec les autres
d’informations. L’action de niveau méta de cette fa- actions (dérive de ou contraire de, par exemple) et
mille est l’action changer point de vue. L’action un ou plusieurs exemple(s) d’instruction portant sur
spécifique la plus évidente est regarder, qui corres- cette action (sauf actions méta). Le type de l’ac-
pond à un changement du point de vue dans l’envi- tion relations qu’elle partage avec les autres actions
ronnement, mais qui ne porte pas d’information sur (dérive de ou contraire de) (sauf pour les actions
la direction réelle du regard de l’utilisateur. D’autres méta).
actions spécifiques comme lire l’énoncé ou afficher
l’information pourront être définies dans l’inter-
3.3.1 Les actions méta
face, avec une définition propre en fonction du do-
maine. 3.3.2 Actions de manipulation
Pour une analyse plus précise des prises d’informa-
Prendre et lâcher sont les deux actions qui bornent
tions, deux choix peuvent être faits au niveau de l’in-
toutes les manipulations d’entités.
terface : expliciter les prises d’informations ou tenter
de les inférer. La première solution est utilisée dans Action : Prendre (entité)
GVT : lorsque l’apprenant doit lire une valeur sur Définition : Saisir quelque chose (ou quelqu’un),
un cadran ou regarder l’état d’un objet, on l’oblige à généralement avec une partie du corps ou avec un
déclencher l’action vérifier sur cet objet. La seconde instrument, à des fins diverses.
solution peut consister à déduire des autres actions Sémantique : Saisir l’objet sélectionné, dans le but
(manipulation, navigation) et des temps passés. Par de le manipuler ou de le modifier. L’objet est lié à
exemple, si l’apprenant a bien changé son point de l’avatar qui l’a saisi.
vue pour faire apparaı̂tre la situation intéressante
et qu’il n’agit pas pendant quelques secondes, on context: Avatar::PickUpEntity(in
considérera qu’il a bien regardé la situation. Ces ent:Entity)
choix sont dépendants de l’analyse de l’activité que pre: self^Selectionner(ent) and
l’on souhaite mettre en place. ent.isFree()
post: not ent.oclInState(Free) and
^createLinkAction(self.heldEntity,
3.3 Typologie des actions et entity.holder) and
définitions formelles self.heldEntities→includes(ent)
Nous présentons maintenant notre typologie d’ac-
tions. Elle n’est pas exhaustive et ne constitue pas un 10 Trésors de la Langue Française Informatisé, dictionnaire

modèle de l’activité en elle-même. Elle doit être suf- en ligne, http ://atilf.atilf.fr, ATILF, CNRS, Nancy 2

LISyC, 2008 9 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

Une entité est sélectionnée lorsque l’utilisateur


désigne l’objet avec l’un des curseurs de sélection (2D context: Avatar::OrientEntity(in
ou 3D). C’est l’interface finale qui spécifie comment ent:Entity)
l’utilisateur peut sélectionner les entités, mais cette post: self^ManipulateEntity(ent) and
primitive est un pré-requis à tous nos environne- ent.geometry.hasRotated()
ments. L’action prendre ajoute l’entité sélectionnée
dans l’ensemble des entités portées par l’avatar. Elle Changement d’état :
modifie aussi les valeurs de l’association entre entité
et avatar (heldEntities ↔ holder). Action : Faire changer l’état d’une (entité)
Définition : Changer : Faire autre, faire que quelque
Action : Lâcher (entité) chose ou quelqu’un soit autre. État : Manière d’être
Définition : Rendre moins serré, tenir moins tendu (soit stable, soit sujette à des variations) d’une
Sémantique : Détacher un objet pris par la main. personne ou d’une chose.
Sémantique : Changer l’état interne d’une entité,
context: Avatar::DropEntity(in ent:Entity) c’est-à-dire tirer l’une des transitions de sa machine
pre: self.heldEntities→includes(ent) à état
post: ent.isFree() and
context: Avatar::ChangeEntityState(in
^destroyLinkAction(self.heldEntity,
ent:Entity)
entity.holder) and not
pre: ent.stateMachine.transitions
self.heldEntities→includes(ent)
→exists(isActive())
post: self.stateMachines→exists(state |
Manipulation générique : hasChanged())

Action : Manipuler (entité) L’entité possède une machine à états veha avec au
Définition : Toucher, tenir, transporter avec les moins une transition tirable.
mains. Faire fonctionner ; utiliser avec les mains. Les modifications de propriétés (Feature) non
Sémantique : Manipuler une entité pour modifier géométriques et non liées aux états sont des actions
l’une de ses propriétés, faire changer son état ou du type Manipuler.
déclencher une opération.

context: Avatar::ManipulateEntity(in Actions de navigation Action : Bouger


ent:Entity) Définition : Faire un mouvement (le plus souvent
pre: self^PickUpEntity(ent) minime), remuer
post: self^DropEntity(ent) Sémantique : Avoir parcouru une certaine dis-
ent.features->exists(feat | hasChanged()) tance.

context: Avatar::MoveSelf()
Manipulations géométriques : post: self.geometry.hasMoved()

Action : Bouger (entité)


Définition : Déplacer. Action : Se Tourner
Sémantique : Modifier la position d’une entité. Définition : Se mettre dans un autre sens, en sens
inverse, dans une direction donnée.
context: Avatar::MoveEntity(in ent:Entity) Sémantique : Tourne le corps de l’avatar atour de
post: self^ManipulateEntity(ent) and son axe vertical (a priori identique à l’axe vertical
ent.geometry.hasMoved() du repère global).

context: Avatar::RotateSelf()
Action : Orienter (entité) post: not self.geometry.orientation.z =
Définition : Disposer, tourner dans telle ou telle self.geometry.orientation.z@pre or
direction favorable. self.geometry.hasRotated()
Sémantique : Modifier l’orientation d’un objet.

LISyC, 2008 10 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

Cette rotation du corps est distincte d’un change- 3.4 Perspectives sur la typologie
ment du point de vue (lié à l’orientation de la tête
et du regard). Néanmoins, il est possible de lier les Dans cette première partie, nous avons affirmé
deux actions dans l’interface (la tête ne tourne pas notre besoin d’une typologie d’actions pour décrire
par rapport au tronc). des activités. Nous avons défini le contexte de nos
environnements – finis, structurés et informés – et
de notre analyse, qui porte sur l’activité observable
des utilisateurs, c’est-à-dire l’enchaı̂nement d’actions
Actions d’observation Action : Changer son médiées par l’interface Humain–Machine.
point de vue Après avoir présenté quelques systèmes montrant
Définition : Changer : Faire autre, faire que la particularité d’une interface explicite, nous avons
quelque chose ou quelqu’un soit autre. Point de vue : proposé une typologie à plusieurs niveaux, s’ap-
lieu d’où l’on regarde. puyant sur des actions méta, portant sur des en-
Sémantique : Changer le point de vue sur la scène. tités génériques, et réalisées par un avatar générique.
Modifier l’orientation de la caméra qui filme la scène Nous avons montré comment exprimer des actions
3D. spécifiques, dépendantes du domaine à partir de ce
niveau méta.
context: Avatar::ChangeViewPoint() Notre modèle n’a pas été validé et doit l’être sur
post: not (self.viewPoint = les trois points suivants.
self.viewPoint@pre)
1. Le modèle et la typologie d’actions permettent-
ils l’expression de plan d’actions attendues ?
L’attribut viewpoint correspond à l’orientation de Sont-ils accessibles à un expert du domaine ? A
la caméra qui filme la scène, assimilé à la direction du un formateur ?
regard de l’avatar, et donc à ce que voit l’utilisateur.
2. Ce modèle permet-il de reconnaı̂tre l’activité ?
Suffit-il à un agent pour détecter l’exécution de
plans attendus dans une trace d’activité ?
Actions de communication Action : Informer 3. Ce modèle peut-il servir de base pour qu’un
(agent) de (connaissance) agent informatique cognitif construise des plans
Définition : Faire savoir quelque chose à quelqu’un, d’actions et les exécute dans un monde virtuel ?
porter quelque chose à la connaissance de quelqu’un.
Sémantique : Donner une connaissance à un autre
agent. 4 Evaluation expérimentale
context: Avatar::Inform(in klg:Knowledge, Afin d’évaluer la pertinence de la typologie d’ac-
in agt:Agent) tion, nous avons réalisé une expérimentation. Nous
pre: self→believe(klg) exprimons des tâches simples grâce à la typologie
post: agent→believe(klg) d’action (langage naturel), puis nous demandeons à
des sujets de réaliser ces tâches en manipulant un
environnement virtuel. obtenons alors un corpus de
Action : Demander (connaissance) à (agent) traces de manipulations, reflétant la réalisation de
Définition : Faire savoir que l’on souhaite connaı̂tre ces tâches de plusieurs manières, ainsi qu’un enregis-
quelque chose. trement vidéo de ces passations.
Sémantique : Demander une information à un La première phase expérimentale a pour objectif
agent et attendre une réponse de l’agent. principal de valider la typologie du point de vue in-
formatique, en fournissant la définition formelle des
context: Avatar::Request(in klg:Knowledge, actions à un agent observateur pour qu’il détecte l’oc-
in agt:Agent) currence des actions dans les traces. Nous comparons
pre: self→believe(agent→believe(klg)) les résultats de l’agent aux instructions données aux
or self→believe((agent→believe(not sujets.
klg)) ) La seconde phase expérimentale consiste à
post: self→waitAnwserFromAgent(agent) présenter un enregistrement vidéo des passations des
sujets à des juges, en leur demandant de déterminer

LISyC, 2008 11 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

quelles actions ont été réalisées par les sujets. Nous FRANTEXT, TLFi, Dictionnaires de l’Académie
compareons ces notes manuelles aux occurences et logiciel Stella, présentation et apprentissage de
leurs exploitations. Actes de TALN, 2 :3–36.
détéctées par l’agent afin de valider la cohérence de
[Card et al. 83] Card, S., Moran, T., et Newell, A. (1983). The
la typologie.
Psychology of Human-computer Interaction. Erl-
baum.
[Chevaillier 06] Chevaillier, P. (2006). Les systèmes multi-
5 Conclusion agents pour les environnements virtuels de forma-
tion. Habilitation à diriger des recherches, Univer-
La perspective à court terme de ces travaux est sité de Bretagne Occidentale, Brest.
l’utilisation de cette typologie pour exprimer et re- [Chevaillier et al. 08] Chevaillier, P., Querrec, R., et Sept-
connaı̂tre des activités, d’abord dans un environne- seault, C. (2008). Veha : un méta-modèle d’en-
ment très simple, puis sur un cas d’étude tel que vironnement virtuel informé et structuré. Revue
TSI : Technique et Science Informatiques, article
celui du TP de Physique, un environnement veha soumis.
qui reproduit une paillasse de travaux pratiques [Fuchs 96] Fuchs, P. (1996). Les interfaces de la réalité vir-
[Baudouin et al. 07b] [Baudouin et al. 07a]. tuelle. Les Presses de l’Ecole des Mines de Paris.
Par ailleurs, l’expression des contraintes liées aux [Fuchs et al. 06] Fuchs, P., Moreau, G., Burkhardt, J., et Co-
actions se limite à des concepts géométriques très quillart, S. (2006). L’interfaçage, l’immersion et
simples. Il n’est actuellement pas possible, ou as- l’interaction en environnement virtuel. In Le traité
de la réalité virtuelle (3e édition), volume 2. Les
sez difficile de dire qu’un objet se trouve sur ou presses de l’Ecole des Mines, Paris.
à l’intérieur d’un autre objet [Aurnague et al. 97],
[Gerbaud et al. 08] Gerbaud, S., Ganier, F., Mollet, N., Ar-
[Morales et al. 07]. Nous envisageons d’étendre le naldi, B., et Tisseau, J. (2008). Gvt : A platform
méta modèle pour définir formellement ces relations to create virtual environments for procedural trai-
pour pouvoir les appliquer dans des modèles veha et ning. In in proceedings of IEEE VR, Reno, Ne-
vada.
dans la description d’actions spécifiques.
Il est aussi possible d’améliorer l’expression de nos [Hannoun et al. 99] Hannoun, M., Boissier, O., Sichman,
J. S., et Sayettat, C. (1999). MOISE : un modèle
actions. Par exemple, il serait intéressant de définir organisationnel pour la conception de systèmes
formellement les relations entres les actions : pa- multi-agents. In Gleizes, M.-P. et Marcenac,
rallélisme possible, occupation des mains, etc. Pour P., editors, Ingénierie des systèmes multi-agents,
améliorer l’analyse de l’activité, nous voudrions aussi pages 105–118, Saint-Gilles, Ile de la Réunion,
France. Hermes Science.
pouvoir évaluer qualitativement l’exécution des ac-
[John et al. 96] John, B. et Kieras, D. (1996). The GOMS
tions. Une action est-elle bien exécutée, à la bonne Family of User Interface Analysis Techniques :
vitesse, présente-t-elle un danger ? Ces précisions Comparison and Contrast. ACM Transactions on
nécessitent des informations supplémentaires sur Computer-Human Interaction, 3(4) :320–351.
l’action, mais également dans l’interface. [Lewis 00] Lewis, H. (2000). Body Language : A Guide for
Professionals. Sage Publications.
[Longo et al. 06] Longo, F., Mirabelli, G., et Papoff, E.
Références (2006). Effective design of an assembly line using
modeling and simulation. In Proceedings of the
[Anderson 93] Anderson, J. (1993). Rules of the Mind. Law- 2006 Winter Simulation Conference.
rence Erlbaum Associates.
[Maynard et al. 48] Maynard, H. B., Stegemerten, G. J., et
[Aurnague et al. 97] Aurnague, M., Vieu, L., et Borillo, A. Schwab, J. L. (1948). Methods-time measurement.
(1997). Représentation formelle des concepts spa- McGraw Hill book company.
tiaux dans la langue, pages 69–102. Michel Denis.
[Morales et al. 07] Morales, A., Navarrete, I., et Sciavicco, G.
[Baudouin et al. 07a] Baudouin, C., Beney, M., Chevaillier,
(2007). A new modal logic for reasoning about
P., et Le Pallec, A. (2007a). Recueil de traces
space : spatial propositional neighborhood logic.
pour le suivi de l’activité d’apprenants en tra-
Ann Math Artif Intell, 51 :1–25.
vaux pratiques dans un environnement de réalité
virtuelle. Revue Sticef, Sciences et Technologies [Newell 90] Newell, A. (1990). Unified Theories of Cogni-
de l´Information et de la Communication pour tion. Cambridge, Massachusetts : Harvard Uni-
l’Éducation et la Formation, 14. ISSN : 1764-7223. versity Press.
[Baudouin et al. 07b] Baudouin, C., Beney, M., Chevaillier, [OMG 06] OMG, editor (2006). Object Constraint Language
P., et Pallec, A. L. (2007b). Analysis of virtual (OCL) specification. Object Management Group.
helps usage in a virtual environment for learning. formal 06-05-01.
In Intuition2007. [Querrec 02] Querrec, R. (2002). Les systèmes multi-agents
[Bernard et al. 02] Bernard, P., Dendien, J., Lecomte, J., et pour les environnements virtuels de formation.
Pierrel, J. (2002). Un ensemble de ressources in- Application à la sécurité civile. PhD thesis, UBO-
formatisées et intégrées pour l’étude du français : ENIB.

LISyC, 2008 12 Cyrille Baudouin et al.


– Une typologie d’actions humaines pour la RV –

[Russell M. Taylor II et al. 01] Russell M. Taylor II, Hudson,


T. C., Seeger, A., Weber, H., Juliano, J., et Hel-
ser, A. T. (2001). Vrpn : A device-independent,
network-transparent vr peripheral system. In Pro-
ceedings of the ACM Symposium on Virtual Rea-
lity Software and Technology 2001, VRST 2001.
[Searle 69] Searle, J. (1969). Speech Acts. Cambridge Univer-
sity Press.
[Zandin 03] Zandin, K. B. (2003). MOST Work Measurement
Systems. Marcel Dekker.

LISyC, 2008 13 Cyrille Baudouin et al.

Vous aimerez peut-être aussi