Vous êtes sur la page 1sur 22

Cours IHM

Interaction Homme Machine


Chapitre V:
Evaluation des IHM

1
Evaluer, Quoi?
• Fiabilité et qualité technique
• Utilisabilité
Les critères de l’utilisabilité sont :
• L’efficacité
• L’efficience
• La satisfaction
• Utilité
• Usages
2
Evaluer, Quand?

• En cours de conception
• En cours de réalisation
• En cours de diffusion
• Avant un achat

3
t o n
e p ati
nc lu
o v a
C ’é
d L’évaluation d’un système informatique consiste à
mesurer l’ utilité et l’utilisabilité du système.

L’ utilité concerne l’adéquation qui existe entre les


fonctions fournis par le système et celles
nécessaires à l’utilisateur pour mener à bien ses
tâches.
L’utilisabilité concerne l’adéquation entre la
manière dont une tâche est réalisée par un
utilisateur et le profil cognitif de cet utilisateur.

4
t o n
e p ati
nc lu
o v a
C ’é
d Mesurer les attributs de ces concepts :

Nielson et Schneiderman ont identifié 5 attributs :


- l’apprentissage,
- l’efficacité,
- la mémorisation,
- les erreurs,
- la satisfaction de l’utilisateur

Chaque méthode d’évaluation choisit de privilégier un ou


plusieurs attributs de l’utilité ou l’utilisabilité à travers la
mesure de différentes variables : la durée d’exécution, le
taux d’erreur, … ou à travers l’opinion ou les attitudes des
utilisateurs.
5
Classification des méthodes d’évaluation

Il y’a 3 classifications principales :


- Evaluation summative et formative
- Evaluation prédictive et expérimentale
- Evaluation empirique et analytique

6
Évaluation formative, évaluation summative

Cette classification propose comme critère de


distinction des différentes méthodes d’évaluation
le moment de réalisation de l’ évaluation.

L’évaluation formative est une évaluation réalisée


durant la conception de l’interface

L’évaluation summative est une évaluation réalisée


sur le système fini, à la fin du cycle de
développement.
7
e s
o d es
t h tiv
é a
M rm
fo Les évaluations formatives sont intégrées dans un cycle de
développement interactif, et ont pour objectif de détecter
les erreurs de conception identifiées comme pouvant
causer des difficultés aux utilisateurs pour améliorer
immédiatement l’utilisabilité de l’interface.

e s s
o d ive
t h at
é m
M m
su Les évaluations summatives impliquent l’utilisateur dans
l ’évaluation et de porter directement sur un système
implémenté. L’objectif est de vérifier la conformité du
produit fini à un modèle de référence.
8
Techniques prédictives, techniques expérimentales

Cette classification propose comme critère de


distinction l’objet de l’ évaluation.

L’évaluation prédictive : évaluation effectuée sur


une représentation théorique du système
(spécification, conception)

L’évaluation expérimentale est une évaluation


effectuée sur une représentation exécutable du
système (prototype, maquette, version exploitable
du logiciel).
9
e s
i qu es
h n tiv
e c ic
T réd Réalisées durant la conception du système, elles ne
p nécessitent ni système implémenté, ni les utilisateurs
finaux. L’objectif est de détecter les erreurs de conception
avant que le système ne soit réalisé (limiter les coûts des
modifications). Evaluations réalisées par le concepteur ou
par un expert. Prédire les difficultés que rencontrera le
futur utilisateur.
e s l es
qu ta
n i enRéalisées sur un système réel (prototype, maquette,
c h im
Te pér système en cours d’utilisation. Ces évaluations nécessitent
ex la présence des utilisateurs, leur objectif est d’observer et
d’analyser l’utilisation par ces utilisateurs. Il s’agit de
constater les problèmes au travers de l’utilisation du
système.
10
Évaluations empiriques, évaluations analytiques

Cette classification propose comme critère de distinction des


différentes méthodes d’évaluation suivant les données qui
servent à l’évaluation.

Les évaluations empiriques ont pour objectif de recueillir des


données comportementales sur l’utilisation du système. Tester le
produit fini à travers un ensemble de données recueillies pendant
son utilisation par des utilisateurs.

Les évaluations analytiques (contrôle de qualité) évaluent la


conception du système et non son utilisation. Les interfaces sont
évaluées au travers d’un ensemble de qualités que doit posséder
le système pour être utilisable. Comparer l’interface à un
ensemble de référence pour détecter les déviations.

11
Critères d’evaluation
ergonomique
• Meinadier

• Shneiderman(5 critères centraux d’évaluation)

• Ravdenet Johnson(8 critères)

• Coutaz(règles d’or)

• Bastien et Scapin (INRIA)

12
Critères d’evaluation-Meinadier
• Bonne IHM
 Facilité d’apprentissage
 Facilité, efficacité et sécurité d’utilisation
 Plaisir d’utilisation
 Acceptabilité du logiciel
 Satisfaction des utilisateurs
 Productivité satisfaisante du couple personne-machine
 Rentabilité pour l’entreprise

13
Critères d’evaluation-Meinadier
• Mauvaise IHM
Niveau individuel
 Confusion
 Frustration
 Panique
 Stress
 Ennui

14
Critères d’evaluation-Meinadier
Mauvaise IHM
Niveau entreprise / social
Rejet, erreurs graves (centrale nucléaire)
Mauvaise ou sous-utilisation,
Baisse des performances
Régression vers des tâches d’exécution
Coûts : modification des tâches,
Réécriture du système, détournement…

15
A vous de juger…

16
• Densité de l’information : par où
commencerA ?vous de juger…

17
Critères d’ évaluation de
Shneiderman

18
Critères d’ évaluation
Shneiderman
 1. Temps d'apprentissage des dispositifs nécessaires à
l'exécution d'une tâche :
la durée moyenne nécessaire pour qu’un utilisateur typique
maîtrise les fonctions pour lesquelles l’IHM a été développée

 2. rapidité d'exécution d'une tâche : la durée moyenne de


réalisation d’un ensemble de tâches par un groupe
d’utilisateurs de référence

19
Critères d’ évaluation
Shneiderman
 4. Période de rémanence durant laquelle un utilisateur
conserve la connaissance acquise : heures, jours, semaines,

C'est une fonction :
directe de l'effort cognitif requis pour planifier une
séquence d'actions qui réalisent une intention donnée
indirecte du temps d'apprentissage et de la fréquence
d'utilisation.

 5. Satisfaction subjective à utiliser le système. Elle peut se


traduire par un sentiment de confort, d'enrichissement.
20
Critères d’ évaluation Bastien &
• Guidage Scapin
• Charge de travail

• Contrôle explicite

• Adaptabilité

• Gestion des erreurs

• Homogénéité/cohérence

• Signifiance des codes et dénominations

• Compatibilité
21
Critères d’évaluation Joëlle
Coutaz
 Règles d’or
 Lutter pour la cohérence
 Lutter pour la concision
 Réduire la charge cognitive
 Mettre le contrôle entre les mains de l’utilisateur
 Souplesse d’utilisation
 Structurer le dialogue
 Prédire les erreurs

22

Vous aimerez peut-être aussi