Vous êtes sur la page 1sur 366

Même le plus brillant d’entre nous peut se sentir perdu face à l’inconnu et ne pas

réussir à régler la température de la douche d’un hôtel, à utiliser une télévision ou une
plaque de cuisson sans consulter la notice. À ce propos, dès la première publication de
cet ouvrage, en 1988, Don Norman expliquait avec un ton provocateur que le problème
n’est pas en nous et ne vient pas de nous, mais qu’il provient d’une conception qui
ignore les besoins et la psychologie des personnes.
Les mauvaises conceptions sont légion, mais on peut heureusement y remédier
aisément en créant des objets faciles à prendre en main. Cette édition, soigneusement
révisée et (enfin) traduite en français, rappelle les principes intemporels de la
psychologie qui vous donneront les clés pour élaborer des objets adaptés à leurs
utilisateurs. Vous comprendrez enfin pourquoi certains produits sont si satisfaisants
alors que d’autres ne peuvent que décevoir.

Note des éditions Eyrolles


Ce livre est la traduction du best-seller The design of everyday things. Nous avons
longuement hésité à nommer la version française de cet ouvrage « Le design des choses
du quotidien », traduction littérale du titre anglais, mais l’acception du terme « choses »,
ici un peu péjorative, nous semblait dénaturer son contenu. Nous avons donc finalement
choisi « Le design des objets du quotidien », plus proche des propos de l’auteur.

Spécialiste en sciences cognitives, DON NORMAN est directeur du Design Lab à


l’University of California, à San Diego. Diplômé en génie et en psychologie, il a écrit de
nombreux ouvrages et a également été vice-président d’Apple. Il habite à La Jolla
(Californie).
Don Norman

Le design des objets du


quotidien
ÉDITIONS EYROLLES
61, bd Saint-Germain
75240 Paris Cedex 05
www.editions-eyrolles.com

Traduction autorisée de l’ouvrage en langue anglaise intitulé


The design of everyday things
de Don Norman, ISBN : 978-0-465-05065-9,
publié par Basic Book.
All Rights Reserved.

Traduction française : Paul Durand-Desgranges


Validation technique : Guillaume Gronier

En application de la loi du 11 mars 1957, il est interdit de reproduire intégralement ou partiellement


le présent ouvrage, sur quelque support que ce soit, sans l’autorisation de l’Éditeur ou du Centre
Français d’exploitation du droit de copie, 20, rue des Grands Augustins, 75006 Paris.
© Éditions Eyrolles, 2021, ISBN : 978-2-212-67883-3
© Basic Book, 2013. This edition published by arrangement with Basic Book, an imprint of Perseus
Books, LLC, a subsidiary of Hachette Book Group, Inc., New York, New York, USA.
SUR LE MÊME THÈME

A. BOUCHER. – Ergonomie web & UX Design.


N°13736, 4e édition, 2020, 432 pages.
L. DANTHON LEFEBVRE. – 33 bonnes pratiques en UX Design.
N°67848, 2019, 176 pages.
C. LALLEMAND, G. GRONIER. – Méthodes de design UX.
N°67398, 2e édition, 2018, 712 pages.
A. MARTIN, M. CHARTIER. – Techniques de référencement web.
N°67607, 3e édition, 2018, 540 pages.
S. DAUMAL. – Design d’expérience utilisateur.
N°67456, 3e édition, 2018, 224 pages.
A. VISONNEAU. – Stratégies de design UX.
N°67519, 2017, 204 pages.
D. ROCH. – Optimiser son référencement WordPress.
N°67429, 3e édition, 2017, 370 pages.
I. CANIVET. – Bien rédiger pour le web.
N°14110, 4e édition, 2017, 730 pages.
A. MARTIN, E. DEMANGE. – Stratégie de contenu e-commerce.
N°14404, 2017, 360 pages.

Retrouvez nos bundles (livres papier + e-book) et livres numériques sur


http://izibook.eyrolles.com
Préface à l’édition révisée

La première édition de cet ouvrage, à l’époque appelée The Psychology of


Everyday Things, débutait par ces lignes : « J’ai toujours voulu écrire ce
livre, mais je ne le savais pas. » Aujourd’hui, je le sais, alors je dirais
simplement que j’ai toujours voulu l’écrire.
Il s’agit d’une base pour créer des designs mieux pensés, adaptée à la fois
aux techniciens, aux designers et même aux néophytes. L’objectif est de
les transformer en observateurs aguerris et attentifs aux designs absurdes
et mauvais, sources de nombreux problèmes quotidiens, en particulier
lorsqu’ils ont trait à la technologie moderne. Cette attention portée aux
détails les entraînera aussi à observer les designs réussis, les façons dont
les designers sérieux ont mis leurs idées en application pour rendre notre
vie plus simple. Le bon design est plus difficile à remarquer que le
mauvais, en partie parce qu’il correspond si bien à nos besoins qu’il
devient invisible. Il nous sert sans attirer l’attention. Le mauvais design,
cependant, et ses insuffisances criantes, sont faciles à repérer.
J’expliquerai au fur et à mesure les principes fondamentaux nécessaires
pour éliminer les problèmes, pour changer les objets de tous les jours en
produits agréables offrant plaisir et satisfaction.
Cette combinaison de capacités d’observation et de principes théoriques
forme un outil puissant dont tout le monde peut se servir, même les gens
qui ne sont pas designers professionnels. Après tout, d’une certaine façon,
nous sommes tous designers : on aménage nos chambres, nos bureaux et
nos vies en général. On contourne aussi les défauts présents dans les
appareils que l’on utilise déjà. Un des objectifs de ce livre est de nous
rendre le contrôle sur les objets de la vie courante en nous apprenant à
sélectionner ceux qui sont utilisables et compréhensibles et à réparer ceux
qui ne le sont pas.
La première édition du livre a prouvé son utilité pendant longtemps. Son
titre a rapidement été changé pour Design of Everyday Things (DOET),
Design des objets du quotidien en français, afin qu’il soit un peu moins
charmant et plus descriptif. DOET a été lu par le grand public et par les
concepteurs. Il a été étudié en école et en entreprise, et aujourd’hui, plus
de vingt ans après sa sortie, il est toujours populaire. Je suis ravi du
nombre de gens qui m’écrivent à propos de cet ouvrage, qui m’envoient
des exemples de designs insensés et, parfois, de magnifiques designs.
Beaucoup de lecteurs m’ont confié que le livre avait changé leur vie et les
avait rendus plus attentifs aux problèmes du quotidien et aux besoins des
gens. Grâce à lui, certains ont choisi la voie de la reconversion pour
devenir concepteurs. Les réactions ont été incroyables.

Pourquoi proposer une version corrigée ?


Dans les vingt-cinq ans qui se sont écoulés depuis la première édition, la
technologie a énormément changé. Les téléphones portables et Internet
n’étaient pas couramment utilisés lors de la rédaction du livre. Les réseaux
domestiques étaient inimaginables. D’après la loi de Moore, la puissance
des processeurs d’ordinateurs double tous les deux ans. Cela signifie que
les ordinateurs d’aujourd’hui sont cinq mille fois plus puissants que quand
ce livre a été écrit.
Même si les principes fondamentaux de Design des objets du quotidien se
vérifient toujours et restent aussi importants que lorsque la première
édition est parue, les exemples sont obsolètes. « Qu’est-ce que c’est, des
diapositives ? » demandent les élèves. Même si rien d’autre ne devait être
changé, les exemples devaient être actualisés, tout comme les principes de
design efficace. La conception centrée utilisateur (CCU) a fait son
apparition depuis la première édition, en partie inspirée par ce livre. Cette
édition a un chapitre entier dédié aux procédés de développement de CCU.
La première édition du livre se concentrait beaucoup sur la façon de rendre
les produits utilisables et compréhensibles. L’expérience complète d’un
produit dépasse largement son utilisabilité : l’esthétique, le plaisir et
l’amusement ont des rôles critiques à jouer. On ne parlait pas du plaisir ou
des émotions. Les émotions sont tellement importantes que j’ai écrit un
livre entier, Emotional Design, à propos de leur rôle fondamental en
conception. Cette édition révisée aborde maintenant aussi ces problèmes.
Mes expériences dans l’industrie m’ont appris la complexité du monde
réel : comment le coût et les impératifs du calendrier sont cruciaux,
l’attention permanente qu’il faut porter à la concurrence et l’importance de
travailler avec des équipes pluridisciplinaires. J’ai appris que le succès
d’un produit dépend de son attrait pour les consommateurs, et que les
critères qu’ils utilisent pour déterminer quoi acheter ont étonnamment peu
en commun avec ce qui compte pendant l’utilisation. Les meilleurs
produits ne sont pas toujours un succès commercial. Des technologies
brillantes peuvent mettre des années à être acceptées par le grand public. Il
n’est pas suffisant de comprendre les produits, la conception ou la
technologie : il est décisif de comprendre le monde des affaires.

Qu’est-ce qui a changé ?


Peu a changé, mais tout a changé. Quand j’ai commencé, je pensais que
les principes de bases étaient toujours vrais et que j’avais juste besoin de
mettre à jour les exemples. Mais j’ai fini par tout réécrire. Même si les
principes étaient toujours applicables, on a beaucoup appris durant les
vingt-cinq années écoulées depuis la première édition. Certaines parties
étaient difficiles et méritaient d’être expliquées plus en profondeur. Entre-
temps, j’ai aussi écrit de nombreux articles et six autres livres sur des
sujets proches, plusieurs d’entre eux ont leur place ici. Par exemple,
l’édition d’origine ne mentionnait pas ce qui est maintenant appelé
l’expérience utilisateur (un terme que j’ai été l’un des premiers à utiliser,
quand, au début des années 1990, le groupe que je dirigeais chez Apple
s’est appelé « le bureau d’architecture de l’expérience d’utilisateur »). Il
fallait donc impérativement l’inclure.
Grâce à mon expérience dans l’industrie, j’ai beaucoup appris sur le
développement des produits et j’ai de ce fait ajouté un grand nombre
d’informations sur l’impact du budget, des échéances et des pressions de
la concurrence. Quand j’ai écrit la première édition, j’étais un chercheur
universitaire. Aujourd’hui, j’ai l’expérience d’un cadre dans l’industrie
(Apple, HP et plusieurs start-up), de consultant pour de nombreuses
compagnies et d’un membre de conseil d’administration. J’ai donc inclus
ce que j’ai tiré de ces expériences.
Enfin, un élément important de l’édition d’origine était sa brièveté. Ce
livre pouvait être lu comme une introduction basique et générale au
design. Cette caractéristique me tenait à cœur. Même si j’ai échoué, j’ai
essayé autant que faire se peut de supprimer autant que j’ai ajouté pour
que le format reste similaire. Le livre est censé être une introduction à des
discussions plus avancées. Un grand nombre de sujets importants mais
plus poussés ont ainsi été laissés de côté pour maintenir le caractère
compact de l’ouvrage. L’édition précédente a duré de 1988 à 2013. Si la
prochaine doit durer aussi longtemps, de 2013 à 2038, je dois faire
attention et choisir des exemples qui n’auront pas vieilli dans vingt-cinq
ans. De ce fait, j’ai dû essayer de ne pas donner d’exemples spécifiques à
des compagnies. Après tout, qui se souvient des compagnies d’il y a un
quart de siècle ? Qui peut prédire les nouvelles qui apparaîtront et celles
qui disparaîtront dans les vingt-cinq prochaines années ? La seule chose
que je peux prédire de façon certaine est que les principes de la
psychologie humaine resteront les mêmes ; ce qui signifie que les
principes de conception expliqués ici, établis sur la psychologie, sur la
nature de la cognition, des émotions, des actions et des interactions
humaines avec le monde, resteront inchangés.
Voici un résumé des changements, chapitre par chapitre.

Chapitre 1 : Psychopathologie des objets du


quotidien
Les signifiants représentent l’apport le plus important de ce chapitre. Le
concept est apparu pour la première fois dans mon ouvrage Living with
Complexity. La première édition mettait en avant les affordances, et même
si ces dernières ont un sens lorsqu’elles entrent en interaction avec les
objets physiques, elles perturbent la compréhension quand on traite des
objets virtuels. Par conséquent, les affordances ont apporté de la confusion
dans le monde de la conception. Elles définissent les actions possibles et
les signifiants indiquent comment les personnes les découvrent à l’aide de
signes ou de signaux perceptibles. Pour les concepteurs, les signifiants
sont bien plus importants que les affordances, d’où un traitement plus
important dans ce chapitre révisé.
J’ai ajouté une petite section sur la CCU, un terme qui n’existait pas lors
de l’écriture de la première version, même si, avec le recul, l’ouvrage
entier en parlait déjà.
Ces éléments mis à part, et même si les photos et les dessins sont
nouveaux, les exemples restent pratiquement identiques.

Chapitre 2 : La psychologie des actions


quotidiennes
L’émotion est l’ajout principal de ce chapitre par rapport à la première
édition. Le modèle d’action en sept étapes a démontré son influence, il en
est de même pour le modèle du traitement à trois niveaux (introduit avec
l’ouvrage Emotional Design). Dans ce chapitre, je mets en avant les
interactions entre ces deux modèles et je montre comment différentes
émotions se produisent à chacune des étapes. Je présente également
comment chacune se situe dans les trois domaines d’action (viscéral pour
le niveau de base avec la performance et la perception, comportemental
avec la spécification et l’interprétation initiale du résultat et réflexif pour
le développement d’objectifs, de plans et, le dernier niveau, l’évaluation
du résultat).

Chapitre 3 : Le savoir dans notre mémoire et


dans le monde
En plus d’avoir amélioré et mis à jour les exemples, l’ajout le plus
important dans cette nouvelle version est une section sur la culture, dans
laquelle je parle du mapping naturel. On peut y voir que ce qui semble
naturel dans une culture ne l’est pas dans une autre. La section présente la
manière dont différentes sociétés appréhendent le temps, et cela pourrait
vous surprendre.
Chapitre 4 : Savoir quoi faire : contraintes,
découvrabilité et feedback
Quelques modifications substantielles et de meilleurs exemples ont été
apportés à ce chapitre, dont l’élaboration de deux types de fonction de
forçage : lock-in et lockout. On trouve aussi une section sur les
commandes des ascenseurs pour illustrer en quoi le changement peut être
déroutant, même pour les professionnels, et même si, suite à ce
changement, le résultat est meilleur.

Chapitre 5 : Erreur humaine ? Non, mauvaise


conception
Les bases de ce chapitre restent identiques au précédent mais le chapitre
en luimême a été revu. J’ai modifié la classification des erreurs pour
prendre en compte les changements survenus depuis la première édition.
Par exemple, je classe maintenant les ratés dans deux catégories
principales, les actions et les défaillances de la mémoire, et les méprises en
trois catégories : celles fondées sur les règles, sur les connaissances et sur
les défaillances de la mémoire. Ces différentiations sont maintenant
monnaie courante, mais ma méthode pour prendre en compte les
défaillances de la mémoire varie légèrement.
Même si les multiples classifications de ratés décrites dans la première
édition sont toujours valides, un grand nombre a peu, voire aucune,
implication dans la conception. Elles ont donc disparu de cette mise à jour
au profit d’exemples plus en rapport avec la conception. J’indique
également les relations entre la classification des erreurs, des ratés et des
méprises et le modèle d’action en sept étapes, ce qui est une nouveauté.
Le chapitre se termine avec un rapide débat sur les difficultés posées par
l’automatisation (à partir de mon livre The Design of Future Things) et
d’une présentation de l’ingénierie de la résilience, que je considère comme
étant la meilleure approche pour gérer la conception afin d’éliminer ou de
minimiser l’erreur humaine.
Chapitre 6 : Design Thinking
Ce chapitre est entièrement nouveau. J’y présente deux types de
conceptions centrées utilisateur, le modèle double diamant du British
Design Council et la CCU traditionnelle avec ses itérations d’observation,
d’idéation, de prototypage et de tests. Le premier diamant est la
divergence suivie par la convergence des possibilités pour déterminer le
problème approprié. Le deuxième diamant est une divergence/convergence
pour déterminer la bonne solution. J’y introduis également la conception
centrée sur l’activité comme étant une meilleure alternative, dans de
nombreux cas, à la conception centrée utilisateur. Ces sections se
concentrent sur la théorie.
Ce chapitre prend ensuite une direction radicalement différente avec une
section nommée « Qu’est-ce que je viens de dire ? Cela ne fonctionne pas
de cette façon ». C’est là que je présente la loi de Norman : le jour où
l’équipe de production est annoncée, elle est déjà hors délai et hors budget.
Je souligne les difficultés à concevoir dans une entreprise où les délais, les
budgets et les besoins des différents services créent de nombreuses
contraintes. Les lecteurs provenant du monde de l’industrie m’ont indiqué
qu’ils appréciaient ces sections qui mettent en avant les pressions réelles
auxquelles ils sont confrontés.
Le chapitre se termine avec une réflexion autour du rôle des standards
ainsi que quelques règles plus générales au sujet de la conception.

Chapitre 7 : Conception dans le monde de


l’entreprise
Ce chapitre est également nouveau et prolonge le thème entamé au
chapitre précédent, la conception dans le monde réel. Il est ici question de
« fontionnalitite », du changement qui nous est imposé à cause de
l’invention de nouvelles technologies et de la distinction entre les
innovations incrémentielles et radicales. Tout le monde souhaite des
innovations radicales, mais ces dernières sont souvent vouées à l’échec.
Quand elles fonctionnent, il faut souvent des décennies avant qu’elles
soient acceptées. Par conséquent, elles sont rares tandis que les
innovations incrémentielles sont fréquentes.
Les techniques de conception centrée utilisateur sont en accord avec les
innovations incrémentales : elles ne permettent pas d’aller vers des
innovations radicales.
Le chapitre se termine par une réflexion autour des tendances à venir, sur
le futur des livres, des obligations morales de la conception. Il est
également question de l’arrivée des petits bricoleurs qui révolutionnent la
façon de concevoir les idées et leur introduction sur le marché : c’est ce
que j’appelle « l’ascension des petits ».

Résumé
Avec le temps, la psychologie des gens reste la même, mais les objets et
les outils autour changent. Les cultures changent. Les technologies
changent. Les principes de conception tiennent toujours, mais la façon
dont ils sont appliqués doit être modifiée pour prendre en compte les
nouvelles activités, technologies et méthodes de communication et
d’interaction. The Psychology of Everyday Things était appropriée pour le
XXe siècle : Design des objets du quotidien l’est pour le XXIe.
Don Norman
Silicon Valley, Californie
www.jnd.org
Table des matières

Préface à l’édition révisée

CHAPITRE 1
Psychopathologie des objets du quotidien
La complexité des appareils modernes
Conception centrée utilisateur
Principes fondamentaux de l’interaction
Affordances
Signifiants
Affordances et signifiants : une conversation
Mapping
Feedbacks
Modèles conceptuels
L’image système
Le paradoxe de la technologie
Le défi de la conception

CHAPITRE 2
La psychologie des actions quotidiennes
Le fossé entre l’exécution et l’évaluation
Les sept étapes de l’action
La pensée humaine : essentiellement subconsciente
Cognition humaine et émotion
Le niveau viscéral
Le niveau comportemental
Le niveau réflexif
La conception doit prendre en compte tous les niveaux : viscéral,
comportemental et réflexif
Les sept niveaux d’action et les trois niveaux de traitement
Se raconter des histoires
Accuser à tort
Impuissance acquise
Psychologie positive
Se blâmer faussement
Comment accommoder la technologie au comportement humain
Fournir un modèle conceptuel pour un thermostat
Saisir des dates, des horaires et des numéros de téléphone
Les sept principes fondamentaux de la conception

CHAPITRE 3
Le savoir dans notre mémoire et dans le monde
Comportement précis et savoir imprécis
Connaissance extérieure
Quand la précision est nécessaire de façon inattendue
Les contraintes simplifient la mémoire
La structure de la mémoire
Mémoire à court terme ou mémoire de travail
Mémoire à long terme
Les souvenirs pour les choses arbitraires et les choses importantes
Modèles approximatifs : la mémoire dans le monde réel
Exemple 1 – Convertir des températures entre degrés Fahrenheit et
Celsius
Exemple 2 – Modèle de la mémoire à court terme
Exemple 3 – Diriger une moto
Exemple 4 – Arithmétique « suffisante »
La théorie scientifique contre la pratique quotidienne
La connaissance intérieure
Comment les pilotes se souviennent de ce que leur disent les
contrôleurs aériens
Se rappeler : la mémoire prospective
L’échange entre les connaissances extérieure et intérieure
La mémoire dans plusieurs esprits, plusieurs appareils
Le mapping naturel
Le mapping varie en fonction de la culture

CHAPITRE 4
Savoir quoi faire : contraintes, découvrabilité et
feedback
Quatre types de contraintes : physiques, culturelles, sémantiques
et logiques
Contraintes physiques
Contraintes culturelles
Contraintes sémantiques
Contraintes logiques
Normes culturelles, conventions et standards
Appliquer des affordances, des signifiants et des contraintes aux
objets du quotidien
Le problème avec les portes
Le problème des interrupteurs
Commandes centrées sur l’activité
Contraintes qui forcent le comportement souhaité
Systèmes anti-erreur
Interlock
Lock-in
Lockout
Conventions, contraintes et affordances
Les conventions sont des contraintes culturelles
Quand les conventions changent : le cas des ascenseurs à gestion
de destination
Réactions aux changements de convention
Le robinet : un cas de conception
Utiliser le son comme signifiant
Quand le silence tue
CHAPITRE 5
Erreur humaine ? Non, mauvaise conception
Comprendre l’origine des erreurs
Analyse de la cause originelle
Les cinq pourquoi
Dépassements délibérés
Deux types d’erreurs : les ratés et les méprises
Définitions : erreurs, ratés et méprises
Ratés
Méprises
L’erreur et les sept étapes de l’action
La classification des ratés
Ratés de capture
Ratés de description similaire
Ratés dus à une défaillance de la mémoire
Ratés dus à une erreur de mode
La classification des méprises
Méprises fondées sur la règle
Méprises dues à la connaissance
Méprises dues à des défaillances de la mémoire
Pressions sociales et institutionnelles
Checklist
Rapporter les erreurs
Étude de cas : Jidoka, comment Toyota gère les erreurs
Poka-yoke : protection contre les erreurs
Système de rapport de la NASA
Détecter les erreurs
Expliquer les méprises
Le cas d’une erreur sur l’autoroute
Après coup, les événements semblent logiques
Concevoir pour l’erreur
Tirer des leçons de l’étude des erreurs
Ajouter des contraintes aux erreurs de blocage
Annuler
Confirmation et message d’erreur
Contrôle de la sensibilité
Minimiser les ratés
Le Swiss cheese model ou comment les erreurs conduisent aux
accidents
Quand une bonne conception ne suffit pas
Quand les personnes sont vraiment fautives
Ingénierie de la résilience
Le paradoxe de l’automatisation
Principes de conception pour traiter les erreurs

CHAPITRE 6
Design Thinking
Résoudre le bon problème
Le modèle de conception à double-diamant
Le processus centré utilisateur
Observation
Conception vs marketing
Génération d’idées
Prototypage
Test
Itérations
Conception centrée sur l’activité vs centrée utilisateur
La différence entre les tâches et les activités
Conception itérative vs étapes linéaires
Qu’est-ce que je viens de dire ? Cela ne fonctionne pas vraiment de
cette façon
La loi Don Norman de développement de produit
Le défi de la conception
Les produits ont des besoins conflictuels
Conception pour des personnes spéciales
Le problème de la stigmatisation
La complexité est bonne, c’est la confusion qui est mauvaise
Normalisation et technologie
Établir des normes
Illustration de la nécessité d’une norme
Une norme trop longue à venir, la technologie l’écrase
Une norme jamais adoptée : l’heure décimale
Rendre délibérément les choses difficiles
Conception : développer la technologie pour les gens

CHAPITRE 7
Conception dans le monde de l’entreprise
Forces en compétition
Fontionnalitite : une mortelle tentation
Les nouvelles technologies forcent le changement
Quel est le délai pour introduire un nouveau produit ?
Vidéophone : créé en 1879, toujours inexistant
Le long processus du développement du clavier de machine à
écrire
Deux formes d’innovation : incrémentale et radicale
Innovation incrémentale
Innovation radicale
Le design des objets du quotidien : 1988-2038
Avec le changement technologique, les personnes restent-elles
identiques ?
Ce qui nous rend intelligent
Le futur du livre
L’obligation morale de la conception
Fonctions inutiles, modèles inutiles : bon pour les affaires, mauvais
pour l’environnement
Design Thinking and Thinking about design
L’ascension des petits
Le monde change, alors qu’est-ce qui reste immuable ?

Notes générales
Lectures générales
Chapitre 1 – Étude des objets du quotidien
Chapitre 2 – La psychologie des actions quotidiennes
Chapitre 3 – Le savoir dans notre mémoire et dans le monde
Chapitre 4 – Savoir quoi faire : contraintes, découvrabilité et
feedback
Chapitre 5 – Erreur humaine ? Non, mauvaise conception
Chapitre 6 – Design Thinking
Chapitre 7 – Conception dans le monde de l’entreprise

Index
1
Psychopathologie des objets
du quotidien

Si je me retrouvais dans le cockpit d’un avion de ligne, mon incapacité à le


piloter ni ne me surprendrait ni ne me dérangerait. En revanche, je me
demande pourquoi je rencontre des problèmes avec les portes, les
interrupteurs, les robinets et les cuisinières. « Les portes ? Vous avez des
problèmes pour ouvrir les portes ? » Oui : je pousse celles qu’il faut tirer,
tire celles qu’il faut pousser et je me cogne dans celles qu’il ne faut ni
pousser, ni tirer mais faire glisser. D’ailleurs, je vois souvent d’autres
personnes faire face aux mêmes difficultés – qui n’en sont pas forcément.
Mon problème est tellement connu que les portes mal conçues sont
souvent appelées Norman doors (« les portes de Norman »). Imaginez être
célèbre grâce à des portes qui ne fonctionnent pas correctement. Je suis
certain que mes parents n’avaient pas prévu cela pour moi.

Faites une recherche sur le Web avec les mots-clés « Norman doors » en utilisant
les guillemets.

Comment un objet si simple peut-il être aussi déroutant ? Normalement,


l’utilisation d’une porte est enfantine : on l’ouvre ou on la ferme. Imaginez
que vous êtes dans un immeuble de bureaux et que vous marchez vers la
sortie. Vous arrivez devant une porte : comment l’ouvrez-vous ? Devez-
vous la pousser, la tirer ? Vers la gauche ou vers la droite ? Peut-être faut-il
la faire glisser et, dans ce cas, dans quelle direction ? J’ai vu des portes qui
glissent vers la droite, vers la gauche et même vers le haut dans le plafond.
Figure 1–1 Cafetière pour masochiste. Dans son ouvrage Catalogue d’objets
introuvables, l’artiste français Jacques Carelman montre d’excellents exemples d’objets
du quotidien qui sont intentionnellement non-fonctionnels, extravagants ou malformés.
L’un de mes préférés est la cafetière pour masochiste. La photo montre une copie,
offerte par mes collègues de l’université de Californie à San Diego. Elle fait partie de
ma collection d’objets d’art.
Photographie par Aymin Shamma pour l’auteur.

La conception d’une porte doit indiquer comment l’utiliser sans qu’il soit
nécessaire d’ajouter des explications pour éviter de multiples tentatives
d’ouverture.
Un ami m’a raconté qu’il s’est retrouvé coincé dans l’entrée d’un bureau
de poste d’une ville européenne. Cette entrée était composée de deux
séries successives de six imposantes portes battantes. C’est une installation
standard pour réduire la quantité d’air qui entre dans le bâtiment et ainsi en
maintenir la température. Il n’y avait pas d’huisserie visible et il paraissait
évident que les portes pouvaient s’ouvrir dans les deux sens ; il suffisait de
pousser le côté de l’une d’elles pour entrer.
Mon ami est entré dans le bâtiment en poussant l’une des portes, mais
avant qu’il atteigne la deuxième série, il a été distrait et s’est retourné un
instant. Il ne l’a pas réalisé sur le coup, mais il s’est légèrement déplacé
vers la droite. Quand il est arrivé à la porte suivante, il l’a poussée et rien
ne s’est produit. Il a alors pensé qu’elle était verrouillée et a poussé le bord
de la porte adjacente. Rien. Intrigué, il a décidé de ressortir ; il s’est encore
retourné et a poussé devant lui. Rien ; la porte par laquelle il était entré ne
fonctionnait plus. Il s’est retourné pour essayer à nouveau la porte
intérieure ; toujours rien. Il commençait à s’inquiéter et à sentir la panique
arriver. Il était enfermé. C’est alors qu’un groupe est sorti du bâtiment et a
passé les deux rangées de portes. Mon ami s’est empressé de le suivre.
Comment cela peut-il se produire ? Une porte battante a deux côtés : un
qui est supporté par le pilier et les gonds et l’autre qui n’est pas rattaché.
Pour ouvrir la porte, vous poussez ou tirez le côté libre. Si vous le faites du
côté des gonds, rien ne se passe. En ce qui concerne mon ami, le
concepteur des portes préférait la beauté à l’utilité. Il n’y avait aucune
ligne, aucun pilier et aucun gond visible. Par conséquent, comment un
utilisateur lambda peut-il savoir quel est le côté à pousser ? Quand il a été
distrait, mon ami s’est déplacé devant le pilier (invisible) et, donc, il
poussait les portes du côté des gonds. De jolies portes stylées qui ont sans
doute obtenu un prix pour leur design.
Les deux plus importantes caractéristiques d’une bonne conception sont la
découverte et la compréhension. On doit pouvoir découvrir quelles actions
sont possibles et comment les réaliser. On doit également comprendre la
fonction du produit, comment l’utiliser et comment se servir des
différentes commandes et des différents paramètres.
Les portes citées en exemple illustrent le problème de la découverte. Qu’il
s’agisse d’une porte, d’une cuisinière, d’un téléphone mobile ou d’une
centrale nucléaire, les éléments essentiels doivent être visibles et
communiquer le bon message : quelles sont les actions possibles et
où/comment doit-on les effectuer ? En ce qui concerne des portes
battantes, le concepteur doit indiquer, de façon naturelle, où pousser. Cela
ne signifie pas qu’il faut sacrifier l’esthétique. Il suffit d’installer un
plateau vertical sur le côté à pousser. On peut aussi rendre les piliers
visibles. Les plateaux verticaux et les piliers sont des indications
naturelles, facilement interprétables ; il n’est pas nécessaire d’ajouter de
label.
Avec les produits complexes, la découverte et la compréhension de ces
derniers nécessitent un apprentissage personnel ou l’utilisation de
manuels. C’est acceptable si le produit est vraiment complexe, mais ça ne
l’est pas pour des objets simples du quotidien. Certains produits sont
difficilement compréhensibles parce qu’il y a trop de fonctions et de
commandes. Je ne pense pas que les produits de la maison (cuisinière,
lave-linge, téléviseur et HI-FI) doivent ressembler au poste de commande
d’un vaisseau tout droit sorti des studios d’Hollywood. Ce qui, hélas, est
déjà le cas. Devant un ensemble déroutant de commandes et d’afficheurs,
nous mémorisons seulement un ou deux réglages prédéfinis qui
s’approchent de ce que l’on souhaite.
En Angleterre, j’ai visité une maison équipée d’un nouveau lave-
linge/sèchelinge italien. Il était équipé de commandes arborant de
nombreux symboles et il était capable de faire tout ce que l’on peut
imaginer avec un appareil qui lave et sèche le linge. Le mari (un
ergonome) disait qu’il refusait de s’en approcher. La femme (une
physicienne) disait qu’elle avait simplement mémorisé un réglage et
ignorait tout le reste. J’ai demandé à voir le manuel et il était aussi
déroutant que l’appareil. L’objectif principal de la conception est anéanti.

La complexité des appareils modernes


Tout ce qui est artificiel est conçu, que ce soit l’aspect d’un meuble, les
chemins dans un jardin ou une forêt, les appareils électroniques, etc. Des
personnes ont décidé de la forme, des fonctions et des mécanismes. Toutes
les conceptions ne nécessitent pas de structure physique. Les services, les
cours, les règles et les procédures, les structures des entreprises et des
gouvernements ne possèdent pas de mécanisme physique. Toutefois, les
règles de fonctionnement ont été conçues, parfois de manière informelle et
parfois parfaitement définies et écrites.
Même si l’on conçoit des choses depuis la préhistoire, le design est une
notion récente. Il est divisé en un nombre immense de champs : vêtements,
meubles, salles de contrôle complexes, ponts… Ce livre traite de toutes les
choses du quotidien en se concentrant sur l’interaction entre la technologie
et les personnes afin de vérifier que le produit correspond parfaitement à
nos besoins en étant compréhensible et utile. Dans le meilleur des cas, le
produit sera également beau et agréable, ce qui signifie que non seulement
les exigences en ingénierie, en fabrication et en ergonomie doivent être
atteintes, mais il est également nécessaire de se préoccuper de l’expérience
dans sa globalité, soit l’esthétique de la forme et la qualité de l’interaction.
Les champs traités dans cet ouvrage sont le design industriel, le design
d’interaction et le design d’expérience. Ces parties ne sont pas clairement
définies et les points sur lesquels se concentrer varient. Le designer
industriel met en avant la forme et le matériau, le designer d’interaction se
concentre sur la compréhensibilité et l’utilisation, le designer d’expérience
travaille autour de l’impact émotionnel. Par conséquent :
Design industriel. Il s’agit de la partie qui s’occupe de créer et de
développer des concepts et des spécifications afin d’optimiser une
fonction, une valeur et l’apparence des produits et des systèmes, pour
un bénéfice mutuel de l’utilisateur et du fabricant.
Design d’interaction. L’accent est porté sur la manière dont les
personnes interagissent avec la technologie. L’objectif est d’améliorer
la compréhension afin que l’usager sache ce qui peut être fait, ce qui
se produit et ce qui vient juste de se passer. Le design d’interaction va
au-delà des principes de la psychologie, de l’art et de l’émotion pour
engendrer une expérience positive et plaisante.
Design d’expérience. Il s’agit de produire des produits, des processus,
des événements et des environnements qui se concentrent sur la
qualité et le plaisir de l’expérience globale.
Le design définit les processus, la façon de les contrôler et l’interaction
entre les personnes et la technologie. Lorsqu’il est bien pensé, on obtient
des produits ingénieux et plaisants ; à l’inverse, lorsqu’il est mal pensé, les
produits sont inutilisables et sont sources de frustration et d’énervement.
Ils peuvent également être utilisables, mais en forçant l’utilisateur à agir
comme le prévoit l’objet et non pas comme lui-même le voudrait.
Après tout, les machines sont conçues et construites par des personnes.
D’après les standards humains, les machines sont plutôt limitées. Elles ne
partagent pas avec les hommes l’expérience qui permet aux personnes
d’interagir parce qu’elles se comprennent. Au lieu de cela, les machines
ont un comportement défini par de simples règles et des comportements
rigides. Si l’on s’écarte des règles, même légèrement, la machine fait ce
qu’on lui dit de faire, même si cela paraît inadapté et illogique. Les
personnes ont de l’imagination et sont créatives, pleines de bon sens, c’est-
à-dire qu’elles utilisent un savoir extraordinaire provenant d’années
d’expérience. Les machines, quant à elles, demandent que l’on soit précis,
ce qui n’est pas notre fort. Elles n’ont pas de bon sens. De plus, de
nombreuses règles suivies par les machines sont uniquement connues par
le concepteur et la machine elle-même.
Lorsque quelqu’un ne suit pas ces règles secrètes et obscures et que la
machine ne fait pas ce qui a été prévu, on reproche à l’utilisateur de ne pas
la comprendre en ne suivant pas avec précision les spécifications. Avec les
objets du quotidien, il en résulte de la frustration. Avec des appareils
complexes et des processus commerciaux ou industriels, les difficultés
risquent d’engendrer des accidents, des blessures, voire des décès. Il est
temps de renverser la situation : accuser les machines et leurs concepteurs.
Ce sont eux qui sont en faute. C’est le rôle des machines et de leurs
concepteurs de comprendre les personnes. Ce n’est pas à nous de
comprendre les règles arbitraires et incompréhensibles des machines.
Il existe de nombreuses raisons pour expliquer les problèmes dans
l’interaction homme-machine, dont une partie vient des limites de la
technologie actuelle. Parmi les causes, on trouve aussi des restrictions
imposées par les concepteurs, généralement pour réduire les coûts.
Toutefois, pour la majorité, les problèmes proviennent d’une absence de
compréhension des principes même de la conception afin d’obtenir une
interaction homme-machine efficace. Pourquoi cette absence de
compréhension ? Parce que, dans l’ensemble, la conception est réalisée par
des experts qui ont une excellente connaissance de la technologie mais
sont limités dans la compréhension des personnes : ils se contentent de
créer des machines pour des personnes qui leur ressemblent, sans prendre
en compte la pluralité et la complexité de l’être humain. Ceux qui n’ont
jamais étudié le comportement humain s’imaginent que c’est simple. De
plus, les ingénieurs se trompent en pensant que, si les personnes lisent les
instructions, tout ira bien, alors que cela ne suffit pas toujours.
Les ingénieurs sont formatés pour penser de façon logique. Par
conséquent, ils en arrivent à imaginer que toutes les personnes pensent de
la même manière et ils conçoivent leur machine sur cette idée. Lorsque les
personnes rencontrent des problèmes, les ingénieurs ne sont pas contents,
mais souvent pour de mauvaises raisons. Ils se demandent : « que font ces
gens ? », « pourquoi font-ils cela de cette façon ? » Le problème avec les
conceptions de la plupart des ingénieurs, c’est qu’elles sont trop logiques.
Or, nous devons accepter le comportement humain tel qu’il est – pas aussi
logique qu’une machine – et non pas comme on voudrait qu’il soit.
Lorsque j’étais ingénieur, je m’occupais des besoins techniques, donc sans
liaison avec des personnes. Même après m’être orienté vers la psychologie
et les sciences cognitives, mon côté ingénieur – comprenant la logique et
la mécanique – a toujours pris le dessus. Cela m’a pris du temps pour
réaliser que ma compréhension du comportement humain devait être liée à
mon intérêt pour la conception de technologie. En observant les personnes
qui se battaient avec la technologie, il m’est clairement apparu que les
difficultés provenaient de cette dernière et non pas des personnes.
J’ai été mandaté pour analyser l’accident de la centrale nucléaire de Three
Mile Island. Un simple défaut mécanique a été mal diagnostiqué. Cela a
engendré plusieurs jours de problèmes et de confusions, ainsi que la
destruction totale du réacteur, et on est passé tout près d’une sévère fuite
de radiations. Tout cela a mis à l’arrêt la totalité de l’industrie nucléaire
aux États-Unis. Pour les opérateurs, en première analyse, ces problèmes
provenaient d’une erreur humaine. Cependant, le comité dont je faisais
partie a découvert que la salle de contrôle était tellement mal conçue que
l’erreur était inévitable : la faute venait de la conception et non pas des
opérateurs. L’enseignement est simple : nous concevons des choses pour
des personnes, il est donc nécessaire de comprendre à la fois la
technologie et les personnes. C’est toutefois une marche un peu haute à
passer pour de nombreux ingénieurs : les machines sont tellement logiques
et si bien ordonnées, selon eux. S’il n’y avait pas l’élément humain, tout
fonctionnerait bien mieux. Eh oui, c’est aussi ce que je pensais.
Mon travail dans ce comité a changé mon point de vue sur la conception.
Aujourd’hui, je pense que le design est un enchevêtrement de technologie
et de psychologie et que les concepteurs doivent maîtriser ces deux
notions. Les ingénieurs m’expliquent souvent que leurs conceptions sont
bonnes, puissantes et magnifiques. Ils se demandent alors pourquoi les
utilisateurs rencontrent des problèmes. Je leur réponds qu’ils sont trop
dans la logique, qu’ils conçoivent pour les utilisateurs en ne considérant
que ce qu’ils voudraient qu’ils soient et non pas ce qu’ils sont réellement.
Si les ingénieurs ne sont pas d’accord, je leur demande s’ils n’ont jamais
commis d’erreur, par exemple allumer ou éteindre la mauvaise lumière, ou
la mauvaise plaque de la cuisinière. Ils répondent : « Bien sûr, mais ce sont
des erreurs. » Tout le propos est là : même les experts commettent des
erreurs. Il faut donc concevoir les machines en gardant en tête que les
utilisateurs vont en faire aussi.

Le chapitre 5 propose une analyse détaillée de l’erreur humaine.

Conception centrée utilisateur


Les gens peuvent être frustrés par de nombreux éléments du quotidien, que
ce soit la complexité toujours plus importante des tableaux de bord des
voitures ou l’automatisation croissante des maisons avec le développement
de la domotique, les systèmes pour écouter de la musique, regarder des
vidéos, pour jouer ou communiquer, sans oublier l’automatisation des
cuisines. La vie quotidienne semble être devenue un combat permanent
contre la confusion, les erreurs et la frustration, sans oublier la mise à jour
et la maintenance de tous ces appareils.
Il s’est passé des dizaines d’années depuis la première édition de cet
ouvrage et, depuis, le design s’est amélioré. Il existe maintenant de
nombreux livres et cours sur le sujet. Toutefois, malgré cette amélioration,
les changements rapides de la technologie finissent par réduire l’avance
prise dans le design. De nouvelles technologies, applications et méthodes
d’interaction voient constamment le jour et évoluent. De nouvelles
industries apparaissent. Chaque évolution semble répéter les erreurs des
versions précédentes ; chaque nouveau champ du design a besoin, lui
aussi, de temps pour adopter les principes d’une bonne conception.
Chaque nouvelle invention technologique ou interaction technique
nécessite des expérimentations et des études avant que les principes d’une
bonne conception puissent être mis en pratique. Par conséquent, il est vrai
que les choses s’améliorent, mais les défis sont toujours présents.
La conception centrée utilisateur ou CCU (HCD, Human Centered
Design) est la solution : il s’agit d’une approche qui place en premier les
besoins, les capacités et le comportement de l’humain. Une conception
intelligente commence par la compréhension de la psychologie et de la
technologie. Elle nécessite également une bonne communication, surtout
entre la machine et l’homme, par l’indication des actions possibles et de ce
qui va se produire. Cette communication est particulièrement importante
lorsque quelque chose va mal. Il est relativement simple de concevoir des
choses qui fonctionnent parfaitement tant que tout se déroule
normalement. Toutefois, dès qu’on se trouve face à un problème ou à une
incompréhension, les difficultés apparaissent. C’est là qu’il est essentiel
d’avoir une conception parfaite. Les concepteurs doivent autant se
concentrer sur les cas problématiques que sur ceux où tout se passe
comme prévu. En fait, c’est là que le meilleur peut se produire : quand
quelque chose ne se déroule pas comme prévu, et que la machine le
signale. Dès lors, la personne comprend le défaut, agit en conséquence et
le problème est résolu. Quand cela se produit de façon homogène, la
collaboration homme-machine est magnifique.
Tableau 1–1 Le rôle de la conception orientée sur l’humain et les spécialisations de
conception

Design d’expérience
Design industriel Il s’agit des zones de concentration.
Design d’interaction
Conception centrée utilisateur Le processus qui assure que la conception
respecte les besoins et les capacités des
personnes concernées.

La conception centrée utilisateur est une philosophie. Elle implique de


démarrer avec une bonne compréhension des personnes et des impératifs
qui doivent guider la conception. La compréhension passe en priorité par
l’observation. Généralement, les gens ne savent pas de quoi ils ont
réellement besoin, ni même qu’ils rencontrent des difficultés. La partie la
plus dure de la conception consiste à définir les spécifications. Le principe
de la CCU est d’éviter de s’occuper du problème le plus longtemps
possible et, à la place, de répéter des approximations. On fait cela à l’aide
de rapides tests d’idées ; après chaque test, il convient de modifier
l’approche et la définition du problème. Utiliser la CCU avec un délai
court, un budget serré et d’autres contraintes peut être un véritable défi.

Le chapitre 6 traite de ces difficultés.


Où placer la CCU par rapport aux différentes formes de design que nous
avons décrites précédemment (industriel, d’interaction et d’expérience) ?
En fait, tout est compatible. La CCU est une philosophie et un ensemble
de procédures alors que les autres sont des zones sur lesquelles on doit se
concentrer. La philosophie et les procédures de la CCU nécessitent de
prendre en compte de nombreux facteurs et d’étudier les besoins humains
pour concevoir le processus, qu’il s’agisse d’un produit ou d’un service et
quelles que soient les zones de concentration.

Principes fondamentaux de l’interaction


Les grands concepteurs produisent des expériences plaisantes. Notez le
mot expérience. Les ingénieurs ont tendance à ne pas l’aimer parce que
c’est trop suggestif. Lorsque je leur demande de me parler de leur voiture
préférée, ils sourient de plaisir et parlent de la forme et de la finition, de la
sensation de puissance à l’accélération, de la facilité de contrôle pour
changer de vitesse ou pour tourner, ou du toucher remarquable des boutons
et des interrupteurs. Il s’agit d’expérience.
L’expérience est essentielle puisqu’elle détermine la manière dont les gens
se souviennent des interactions. Est-ce que l’expérience, dans sa globalité,
était positive ou confuse et frustrante ? Lorsque la technologie utilisée
dans la maison sombre dans une mode incompréhensible, on peut être
confus, frustré et même en colère.
C’est un ensemble d’émotions négatives. Lorsqu’il y a de la
compréhension, on peut obtenir une sensation de maîtrise, de satisfaction,
voire de fierté. Ce sont, cette fois, des émotions positives. La cognition et
l’émotion sont intimement liées, ce qui implique que les concepteurs
doivent avoir les deux en tête.
Lorsque l’on interagit avec un objet, il est nécessaire de trouver comment
il fonctionne. Cela signifie qu’il faut découvrir ce qu’il fait, comment
l’utiliser et quelles sont les actions possibles : c’est la découvrabilité. Cette
dernière s’obtient en appliquant correctement cinq concepts
psychologiques fondamentaux, que nous traiterons dans les chapitres
suivants : l’affordance, les signifiants, les contraintes, les mappings et le
feedback. Toutefois, il existe un sixième principe, sans doute le plus
important, le modèle conceptuel du système. C’est ce dernier qui fournit
une véritable compréhension. Je vais maintenant parler des principes
fondamentaux en commençant par affordances, signifiants, mappings et
feedback, nous passerons ensuite aux modèles conceptuels. Les
contraintes sont traitées dans les chapitres 3 et 4.

Affordances
Nous vivons dans un monde rempli d’objets ; beaucoup sont naturels,
d’autres artificiels. Tous les jours, nous voyons des milliers d’objets et
nous en découvrons beaucoup. Certains se ressemblent, mais d’autres sont
uniques et nous parvenons tout de même à les maîtriser. Comment faisons-
nous ? Pourquoi estce courant avec de nombreux objets fabriqués par
l’homme ? La réponse est assez simple : grâce à certains principes de
bases et en particulier à l’affordance.
L’affordance fait référence à la relation entre un objet physique et une
personne (ou, en ce qui nous concerne, n’importe quel agent qui interagit,
qu’il s’agisse d’un animal, d’un humain, d’une machine ou d’un robot).
L’affordance décrit la relation entre les propriétés d’un objet et les
capacités de l’agent à déterminer comment l’objet peut être utilisé. Une
chaise permet de soutenir (elle a l’affordance) ; par conséquent, elle
permet de s’asseoir. Pour la plupart, les chaises peuvent être transportées
par une seule personne (elles permettent le transport) ; toutefois, certaines
chaises ne peuvent l’être que par une personne musclée ou par un groupe.
Si une personne frêle n’est pas capable de déplacer une chaise, alors, pour
cette personne, la chaise n’offre pas l’affordance d’être déplacée.
L’affordance est directement liée à la qualité de l’objet et aux capacités de
l’agent qui interagit. Cette définition relationnelle pose des problèmes à de
nombreuses personnes. Nous avons l’habitude de penser que les propriétés
sont associées aux objets, mais l’affordance n’est pas une propriété ; il
s’agit d’une relation. Le fait que l’affordance existe dépend aussi bien de
l’objet que de l’agent.
Une vitre offre la transparence. En même temps, sa structure physique
empêche le passage d’un grand nombre d’objets. Par conséquent, le verre
a l’affordance de laisser voir à travers tout en empêchant le passage de
l’air ou d’objets physiques (hormis les particules). Ce dernier point
pourrait être considéré comme une anti-affordance, l’empêchement de
l’interaction. Pour être efficaces, les affordances et les anti-affordances
doivent être « découvrables » et perceptibles. Cela pose un problème avec
le verre. Si nous aimons ce matériau, c’est qu’il offre une relative
invisibilité. Toutefois, cet aspect très utile pour une fenêtre cache aussi
l’anti-affordance du passage ; par conséquent, les oiseaux tentent parfois
de passer à travers les fenêtres. De plus, tous les ans, de nombreuses
personnes se blessent en se cognant dans des portes en verre. Si une
affordance ou une anti-affordance n’est pas perçue, il est nécessaire de
signaler sa présence par ce que j’appelle les signifiants (présentés dans la
section suivante).
J.J. Gibson est à l’origine de la notion d’affordance et des informations
qu’elle fournit. Cet éminent psychologue a permis de nombreuses
avancées sur la compréhension de la perception humaine. J’ai été en
contact avec lui pendant de nombreuses années, parfois de manière
formelle dans des séminaires mais, la plupart du temps, de façon
fructueuse autour de bouteilles de bière, tard le soir, simplement à discuter.
Nous n’étions pratiquement jamais d’accord. J’étais un ingénieur devenu
psychologue cognitif et j’essayais de comprendre le fonctionnement du
cerveau. Lui a commencé comme psychologue gestaltiste, puis a
développé une méthode qui porte aujourd’hui son nom, une approche
écologique de la perception. Selon lui, le monde contient des pistes que les
gens peuvent suivre à l’aide de la « perception directe ». Pour moi, au
contraire, rien ne peut être direct : le cerveau doit traiter l’information qui
arrive aux organes sensoriels afin d’obtenir une interprétation cohérente.
« Non-sens », me rétorque-t-il, « il n’est pas nécessaire d’interpréter ; la
perception est directe ». Puis il porte ses mains à ses oreilles, la mine
triomphante, déconnecte ses appareils auditifs et mes contre-arguments
tombent, au sens propre, dans l’oreille d’un sourd.
Lorsque je réfléchis à ma question – de quelle manière les gens savent
comment agir face à une situation nouvelle –, je réalise qu’une grande
partie de la réponse se trouve dans le travail de Gibson. Il a mis en avant le
fait que tous les sens fonctionnent ensemble et que nous récupérons
l’information sur le monde en combinant leurs résultats. Gibson pensait
que la récupération d’informations combinées de tous nos sens (vue, ouïe,
odorat, toucher, équilibre, kinesthésie, accélération, position du corps)
détermine nos perceptions sans qu’un traitement interne ou une
connaissance soit nécessaire. Même si nous n’étions pas d’accord sur le
rôle du traitement par le cerveau, son génie a été de porter l’attention sur la
grande quantité d’informations présentes dans le monde. De plus, les
objets physiques transmettent de nombreuses informations sur la manière
dont on peut interagir avec eux ; c’est une propriété que l’on appelle
affordance.
Les affordances existent même si elles ne sont pas visibles. Pour les
concepteurs, la visibilité est essentielle puisque des affordances visibles
donnent des pistes solides pour le bon fonctionnement d’un objet. Les
boutons de porte peuvent être tournés, poussés et tirés. Les fentes
permettent d’insérer quelque chose. Les balles se jettent et rebondissent.
La perception des affordances aide les gens à découvrir les actions
possibles sans qu’il soit nécessaire d’afficher des consignes d’utilisation.
Les affordances sont signalées par ce que je nomme les signifiants.

Signifiants
Est-ce que les affordances sont importantes pour les concepteurs ? La
première édition de cet ouvrage a introduit le terme affordance dans le
monde du design. La communauté des designers a aimé le concept au
point qu’il s’est diffusé dans les cours et les articles traitant de design. J’ai
rapidement vu le terme mentionné partout, hélas, pas toujours à bon
escient.
De nombreuses personnes ont du mal à comprendre le concept
d’affordance parce qu’il définit des relations et non des propriétés. Les
concepteurs gèrent des propriétés bien définies et sont tentés de dire
qu’une propriété est une affordance. Toutefois, ce n’est pas le seul
problème.
Les concepteurs font face à des problèmes pratiques. En effet, ils doivent
concevoir un élément en faisant en sorte qu’il soit compris par tout le
monde. Ils ont par exemple découvert que lorsqu’ils travaillaient sur la
conception graphique d’un écran, il était nécessaire de trouver comment
indiquer les parties qui pouvaient être touchées, qui pouvaient glisser vers
le haut, le bas ou sur les côtés ou sur lesquelles on pouvait appuyer, toutes
ces actions étant réalisables avec une souris, un stylet ou les doigts.
Certains systèmes répondaient au mouvement du corps, aux gestes ou à la
parole, sans qu’il soit nécessaire de toucher l’appareil. Comment les
concepteurs pouvaient-ils décrire ce qu’ils faisaient ? Il n’y avait pas de
mot pour expliquer leur démarche, d’où le choix du mot existant le plus
proche : « affordance ». Sauf que non, pour moi, il ne s’agit pas
d’affordance mais d’un moyen d’indiquer où l’on peut toucher.
L’affordance de toucher existe sur la totalité de l’écran alors qu’ici on se
contente d’indiquer où il faut toucher, et non pas quelle action est possible.
Non seulement mon explication ne convenait pas à la communauté de
concepteurs, mais je n’en étais moi-même pas satisfait. J’ai fini par
abandonner : les concepteurs voulaient un mot pour décrire ce qu’ils
faisaient, et ils ont choisi le mot « affordance ». Quelle autre option
avaient-ils ? J’ai donc décidé d’offrir une meilleure réponse :
« signifiants » (signifiers). Les affordances déterminent les actions
possibles tandis que les signifiants indiquent à quel endroit l’action doit
être réalisée. Nous avons besoin des deux termes.
Il est nécessaire d’avoir un moyen de comprendre le produit ou le service
que l’on souhaite utiliser, d’avoir une indication sur son utilité, ce qu’il
produit et les actions qui sont réalisables. On recherche toujours des
indices, des indications qui permettraient de se débrouiller et de
comprendre. Le travail des concepteurs est de les mettre en place. Ce qu’il
nous faut et que les concepteurs doivent nous donner, ce sont des
signifiants car leur rôle est, entre autres, de communiquer correctement la
finalité, la structure et le fonctionnement de l’appareil.
Le terme « signifiant » a un long et illustre passé dans le champ de la
sémiotique, l’étude des signes et des symboles. De la même manière que
je me suis approprié « affordance » pour l’utiliser dans le domaine du
design – en lui donnant une signification autre que celle prévue par son
créateur –, j’emploie « signifiant » d’une manière différente de celle
adoptée en sémiotique. Pour moi, ce terme fait référence à n’importe
quelle marque ou son, à n’importe quel indicateur visible qui communique
le comportement correct.
Les signifiants sont souvent ajoutés délibérément, comme avec
l’indication « Poussez » sur une porte. Ils sont également parfois
accidentels, par exemple lorsque le meilleur chemin à suivre sur un terrain
enneigé est indiqué par les traces laissées par des passages précédents. On
peut également s’appuyer sur la présence ou l’absence de personnes
attendant sur un quai de gare pour savoir si nous avons raté le train.

Figure 1–2 Problème de porte : des signifiants sont nécessaires. Le matériel qui
soutient la porte peut indiquer s’il faut pousser ou tirer, sans ajouter d’indication.
Toutefois, la conception des deux portes montrées dans la photo A les rend identiques,
même si l’une doit être poussée et l’autre tirée. La barre horizontale laisse penser qu’il
faut pousser les portes. En revanche, la signalisation indique que celle de gauche se
tire et celle de droite se pousse. Dans les photos B et C, il n’y a ni matériau, ni
affordances de visibles. Comment savoir quel côté pousser ? En testant et en se
trompant. Lorsque des signifiants externes (des indications) doivent être ajoutés à
quelque chose d’aussi simple qu’une porte, on peut dire que la conception est
mauvaise. Photographies de l’auteur.

Le signifiant est un élément de communication important ; peu importe si


cette dernière est souhaitée ou involontaire, du moment qu’elle est utile.
Qu’importe si un drapeau a été placé délibérément pour connaître la
direction du vent (sur un aérodrome ou sur le mât des bateaux, par
exemple) ou s’il s’agit d’un drapeau publicitaire ou d’un pays. On
interprète son mouvement comme étant la direction du vent sans
s’intéresser à la raison de son existence.
Prenons l’exemple d’un marque-page placé intentionnellement dans un
livre. La nature physique du livre fait que ce marque-page est également
un signifiant accidentel, parce que son emplacement indique le nombre de
pages restant à lire. Pour la plupart, les lecteurs ont appris à utiliser ce
signifiant accidentel pour le plaisir de la lecture. Lorsqu’il reste quelques
pages, nous savons que la fin est proche. Si la lecture est une torture,
comme c’est parfois le cas à l’école, on se console en sachant qu’il ne
reste plus que quelques pages à lire. Le livre électronique ne possède pas
la structure physique d’un livre papier ; par conséquent, sauf si le
concepteur du logiciel fournit un indice, il ne donne aucune indication sur
la quantité de texte restant.
Figure 1–3 Portes coulissantes : rarement fait correctement. Les deux photos en haut
montrent la porte coulissante d’un train aux États-Unis. La poignée laisse clairement
penser qu’il faut tirer alors qu’il faut la faire pivoter et glisser vers la droite. Le
propriétaire d’un magasin à Shanghai, en Chine, a résolu le problème avec une
indication, comme le montre la photo C. Il est indiqué de ne pas pousser (en anglais et
en chinois). Les toilettes du train pourraient utiliser une signalisation similaire.
Photographies de l’auteur.

Qu’il soit planifié ou accidentel, le signifiant fournit un indice important


sur la nature du monde et des activités sociales. Pour que cela fonctionne
dans ce monde social et technologique, nous avons besoin de développer
des modèles internes afin que l’on sache ce que sont les choses et
comment elles fonctionnent. Nous recherchons tous les indices possibles
pour avoir de l’aide dans cette entreprise et cela fait de nous des détectives
à la recherche de conseils. Si nous avons de la chance, des concepteurs
bien intentionnés nous les offrent d’office. Dans le cas contraire, nous
devons utiliser notre propre créativité et notre imagination.
Figure 1–4 Le lavabo qui ne veut pas se vider ou l’échec des signifiants. Je me suis
lavé les mains dans le lavabo de mon hôtel à Londres, mais comme le montre la photo
A, je me suis demandé comment faire pour vider l’eau. J’ai cherché partout un
mécanisme : rien. J’ai essayé d’ouvrir la bonde avec une petite cuillère (photo B), mais
rien à faire. Je suis finalement sorti de ma chambre et j’ai demandé les instructions à
l’accueil (oui, je l’ai vraiment fait). On m’a indiqué qu’il fallait appuyer sur la bonde. Ça a
fonctionné (photos C et D). Comment quelqu’un peut-il trouver cela ? Pourquoi est-ce
qu’il faut que je mette mes mains propres dans l’eau sale pour vider le lavabo ? Le
problème ici n’est pas uniquement l’absence de signifiant ; il s’agit d’une mauvaise
conception qui oblige à se salir les mains pour manœuvrer la bonde. Photographies de
l’auteur.

Les affordances, celles que l’on perçoit, et les signifiants ont beaucoup en
commun. Faisons le point pour être certain que tout est clair pour vous.
Les affordances représentent toutes les possibilités permettant à un agent
(une personne, un animal ou une machine) d’interagir avec quelque chose.
Certaines affordances sont perçues et d’autres sont invisibles. Les
signifiants sont des indications qui prennent la forme d’étiquettes ou de
dessins (par exemple avec les instructions « Pousser », « Tirer » ou
« Sortie » sur les portes). On trouve aussi des flèches et des dessins
indiquant ce qui doit être manœuvré et dans quelle direction. N’importe
quelle autre instruction est possible. Certains signifiants sont tout
simplement les affordances que l’on perçoit, comme la poignée d’une
porte ou la nature physique d’un interrupteur. Notez que les affordances
peuvent ne pas être vraies : elles ressemblent par exemple à des portes ou
à des endroits où pousser, mais en réalité ce n’est pas le cas. Il s’agit
d’affordances trompeuses, parfois accidentelles, parfois intentionnelles,
par exemple pour éviter que certaines personnes fassent des actions pour
lesquelles elles ne sont pas qualifiées ou, dans les jeux, lorsque l’un des
défis est de trouver ce qui est réel et ce qui ne l’est pas.

Figure 1–5 Les affordances accidentelles deviennent parfois de forts signifiants. Ce


mur du département Industrial Design de Kaist (Corée), prévu pour éviter que des
personnes tombent accidentellement dans les escaliers, offre une anti-affordance. Le
dessus du mur est plat et les surfaces plates donnent la possibilité de supporter des
objets. Dès qu’une personne se rend compte qu’il est possible de déposer des
gobelets et autres canettes, on transforme le haut du mur en signifiant, indiquant aux
autres qu’ils peuvent y déposer leurs déchets. Photographies de l’auteur.
En ce qui concerne les signifiants trompeurs, un de mes exemples favoris
est une ligne de tuyaux en travers d’une voie de service, que j’ai vue dans
un jardin public. Les tuyaux étaient visiblement là pour empêcher les
voitures et les camions de circuler sur la voie ; il s’agissait d’un bon
exemple d’anti-affordance. Pourtant, à ma grande surprise, j’ai vu un
véhicule du parc passer malgré tout. Je me suis approché et j’ai découvert
que les tuyaux étaient en caoutchouc et n’empêchaient absolument pas les
véhicules de les franchir. Voilà un signifiant très intelligent, qui indique
une route fermée pour la plupart des gens (à l’aide d’une anti-affordance
visible), mais qui autorise le passage à ceux qui connaissent.
Pour résumer :
les affordances sont les interactions possibles entre des agents
(personnes, animaux, machines) et l’environnement. Certaines sont
visibles, d’autres non ;
les affordances visibles servent souvent de signifiants, mais cela peut
s’avérer ambigu ;
les signifiants sont des indications pour préciser quelles sont les
actions possibles et comment les réaliser. Ils doivent être visibles,
sinon ils sont inutiles.
En conception, les signifiants sont plus importants que les affordances,
parce qu’ils indiquent comment utiliser l’objet. Il s’agit par exemple de
mots, d’une illustration ou d’un appareil dont les affordances offrent, sans
ambiguïté, des signifiants visibles. Les concepteurs créatifs placent les
signifiants de sorte à obtenir une expérience cohésive. Dans l’ensemble,
les concepteurs doivent se concentrer sur les signifiants.
Les affordances et les signifiants étant des principes fondamentaux pour la
réalisation d’une bonne conception, ils apparaissent souvent tout au long
de cet ouvrage. Chaque fois que vous voyez des indications manuscrites
sur des portes, des interrupteurs ou tout autre produit pour vous en
indiquer le fonctionnement, vous êtes en face d’une mauvaise conception.

Affordances et signifiants : une conversation


Un concepteur va voir son mentor. Il travaille sur un système qui
recommande des restaurants à des gens, en fonction de leurs préférences et
des choix de leurs amis. Toutefois, lors de tests, il s’est aperçu que les
utilisateurs ne se servaient pas de toutes les fonctionnalités.
« Pourquoi ? », demande-t-il à son mentor. (Toutes mes excuses à
Socrate.)
– Je suis déçu, les utilisateurs ne se servent pas correctement de
l’application.
– Peux-tu m’en dire plus ?
– L’écran affiche le restaurant recommandé. Il correspond aux préférences
de la personne et ses amis l’aiment aussi. Si l’utilisateur veut voir d’autres
recommandations, il lui suffit de balayer vers la droite ou la gauche. Pour
avoir plus d’informations sur un établissement, il faut balayer vers le haut
pour avoir le menu, et vers le bas pour savoir si des amis s’y trouvent. Les
utilisateurs semblent trouver les autres recommandations, mais pas les
menus ou leurs amis. Je ne comprends pas.
– Où penses-tu que se trouve le problème ?
– Je ne sais pas. Est-ce que je dois ajouter des affordances ? Placer des
flèches en haut et en bas et de quoi indiquer les différentes fonctions ?
– Ce sont de bonnes idées, mais pourquoi appelles-tu cela des
« affordances » alors qu’il est déjà possible de réaliser ces actions ? Les
affordances n’existent-elles pas déjà ?
– Effectivement, mais elles ne sont pas visibles. Je les rendrais visibles.
– C’est vrai, tu ajouterais des indications expliquant ce qu’il est possible
de faire.
– Oui, n’est-ce pas ce que je viens de dire ?
– Pas tout à fait ; tu les as appelées « affordances » alors qu’elles
n’ajoutent aucune nouvelle affordance : elles indiquent ce qu’il faut faire
et où le faire. Donc, nomme-les correctement : ce sont des signifiants.
– Je vois, mais pourquoi les concepteurs se préoccupent-ils des
affordances ? Ils devraient plutôt porter leur attention sur les signifiants,
non ?
– Tu as raison. La communication est la clé d’une bonne conception et
cela passe par les signifiants.
– Maintenant, je comprends ma méprise. Un signifiant est un indicateur.
– Les bonnes idées sont claires une fois qu’on les comprend.

Figure 1–6 Signifiants sur un écran tactile. Les flèches et les icônes sont des
signifiants. Elles indiquent les actions possibles avec ce guide de restaurant. En
balayant vers la gauche ou la droite, on affiche de nouvelles recommandations. En
allant vers le haut, on obtient le menu du restaurant affiché et, en allant vers le bas, on
voit les amis qui ont recommandé le restaurant.

Mapping
Le mapping est un terme technique, emprunté aux mathématiques, qui
indique la relation entre deux éléments. Supposons de nombreuses lampes
au plafond d’une classe ou d’un auditorium, ainsi qu’une rangée
d’interrupteurs sur le mur de la pièce. Le mapping de ces interrupteurs
indique quel bouton contrôle quelle lampe.
Le mapping est une notion importante pour la conception et la disposition
des commandes et affichages. Lorsqu’il fait correspondre la disposition
des commandes et des appareils, il est facile de comprendre comment
utiliser ces derniers. Avec une voiture, on tourne le volant à droite pour
aller à droite et les roues de devant tournent dans la même direction, ainsi
que la voiture. Notez que l’on aurait pu faire d’autres choix. Au début de
l’automobile, la direction était manœuvrée par de nombreux dispositifs,
dont des barres, des guidons ou des rênes. Aujourd’hui, certains véhicules
utilisent des joysticks, comme dans les jeux vidéo. Avec les véhicules
équipés de barres, la direction fonctionne comme sur les bateaux : il faut
pousser la barre à gauche pour tourner à droite. Les tracteurs, certains
équipements de chantier et les chars militaires utilisent des commandes
séparées pour la vitesse et la direction de chaque chenille ; pour tourner à
droite, la chenille de gauche doit accélérer et celle de droite ralentir, voire
être inversée. C’est aussi de cette manière que l’on dirige un fauteuil
roulant.
Ces mappings pour manœuvrer les véhicules fonctionnent parce qu’ils
imposent un modèle conceptuel indiquant comment les commandes
affectent le déplacement. Par conséquent, il est facile d’imaginer comment
le fauteuil roulant pivote vers la droite, lorsque l’on bloque la roue droite
et que l’on actionne la gauche. Sur un petit bateau, il est simple de
comprendre qu’en poussant la barre vers la gauche, le gouvernail va vers
la droite et que la force de l’eau ralentit le bateau du côté droit, ce qui le
fait pivoter dans cette direction. Peu importe si ces modèles conceptuels
sont précis ; ce qui est important, c’est qu’ils fournissent une méthode
simple pour comprendre le mapping. La relation entre une commande et
son résultat est plus simple à apprendre lorsqu’il y a un véritable mapping
entre les commandes, les actions et le résultat attendu.
Le mapping naturel, c’est-à-dire qui utilise une correspondance spatiale,
aide à comprendre immédiatement. Il s’agit par exemple de presser le
bouton du haut pour déplacer l’objet vers le haut. Pour qu’il soit simple de
déterminer quelle commande correspond à quelle lampe (dans une grande
pièce ou un auditorium), il suffit de placer les interrupteurs en suivant le
même schéma que les lampes. Le mapping naturel peut être culturel ou
biologique, comme avec le standard universel où, lorsque l’on lève la
main, on dit « plus » et, quand on la baisse, on dit « moins ». C’est pour
cela que l’on utilise le déplacement vertical pour représenter l’intensité ou
la quantité. D’autres mappings naturels tirent profit des principes de la
perception en groupant ou en créant un motif avec les commandes et le
résultat. Le regroupement et la proximité sont des principes importants de
la psychologie Gestalt que l’on peut utiliser pour mapper les commandes
par rapport à leurs fonctions : les commandes avec des fonctions
identiques doivent être regroupées et les commandes doivent être proches
des éléments qu’elles contrôlent.

Figure 1–7 Un excellent mappage des commandes de réglage du siège sur une
voiture. Les commandes ont la forme du siège et le mappage est évident. Pour
déplacer vers le haut, le bord avant du siège, il suffit de pousser vers le haut la partie
avant du bouton. Pour régler l’inclinaison du dossier, il suffit de bouger le bouton
représentant le dossier. Le même principe peut s’appliquer à de nombreux objets du
quotidien. Les commandes de la photographie sont de Mercedes-Benz, mais de
nombreux autres constructeurs utilisent maintenant ce type de mapping. Photographies
de l’auteur.

Notez qu’il existe de nombreux mappings qui semblent « naturels » mais


qui, en fait, sont particuliers à une culture : ce qui est naturel dans une
culture ne l’est pas forcément dans une autre. Au chapitre 3, je présente
différentes cultures et les implications pour certains types de mappings.
Un appareil est facile à utiliser lorsque toutes les actions possibles sont
visibles, lorsque les commandes et les résultats utilisent un mapping
naturel. Les principes sont simples, mais rarement utilisés dans les
conceptions. Une bonne conception a besoin d’être planifiée, réfléchie et
doit prendre en compte le comportement des utilisateurs.

Feedbacks
Vous avez déjà vu des gens dans un ascenseur qui appuient
continuellement sur le bouton de leur étage, ou qui appuient de manière
répétée sur le bouton à un passage piéton. Vous vous êtes peut-être déjà
arrêté à un feu rouge équipé d’une détection de véhicule et avez attendu en
vous demandant si vous aviez suffisamment avancé pour être détecté. Un
feedback est l’élément manquant dans toutes ces situations. Il faut indiquer
que le système fonctionne et traite votre demande.
Le feedback – qui communique le résultat d’une action – est un concept
bien connu en science du contrôle et en théorie de l’information. Imaginez
que vous devez toucher avec une balle une cible que vous ne voyez pas.
Même une tâche simple, comme prendre un verre en main, demande des
feedbacks pour effectuer le mouvement correctement ; si la main est mal
placée, on renverse le contenu, si on serre trop fort, le verre risque de
casser et, avec une prise trop faible, le verre risque de glisser et tomber. Le
système nerveux humain est équipé de plusieurs mécanismes de
feedbacks : la vue, l’ouïe et le toucher, mais aussi les systèmes vestibulaire
et proprioceptif qui surveillent la position et les mouvements du corps.
Quand on voit l’importance du feedback, il est étonnant de voir à quel
point certains produits n’en tiennent pas compte.
Le feedback doit être immédiat. Même un délai d’un dixième de seconde
peut être perturbant. Lorsque le délai est trop long, les utilisateurs
abandonnent et passe à une autre activité. Si c’est ennuyeux pour les
utilisateurs, c’est également un gaspillage de ressources quand le système
passe un temps considérable et produit beaucoup d’efforts pour satisfaire
la demande alors que le destinataire n’est plus là. Le feedback doit,
comme son nom l’indique, fournir des informations. De nombreuses
sociétés essaient d’économiser en utilisant des voyants ou des avertisseurs
sonores premier prix. Ces voyants clignotent et les avertisseurs bipent et
ils sont souvent plus dérangeants qu’utiles. Ils indiquent qu’il se passe
quelque chose, mais pas ce qui se passe réellement, ni ce qu’il faut faire en
retour. Avec un signal audio, il est même souvent difficile de savoir quelle
machine produit le son. On risque aussi de ne pas voir les voyants, sauf à
avoir le regard dessus au bon moment. Un mauvais feedback peut être pire
qu’aucun feedback, parce que c’est perturbant, désinformant et, dans de
nombreux cas, irritant et déclencheur de stress.
Trop de feedbacks peut aussi être gênant. Mon lave-vaisselle bipe à trois
heures du matin pour me dire que le lavage est terminé, alors que je le
mets en marche la nuit pour ne pas être embêté par le bruit (et pour payer
moins cher l’électricité). Les feedbacks inadaptés ou incompréhensibles
sont encore pires que tout. On a tous été agacé par un « donneur de leçon »
et c’est souvent l’origine de nombreuses blagues. Les donneurs de leçon
ont souvent raison, mais leurs remarques et leurs commentaires sont
tellement nombreux que, au lieu d’aider, ils irritent et perturbent. Les
machines qui renvoient trop d’informations sont comme des donneurs de
leçon. Non seulement il est perturbant de supporter de nombreuses
lumières clignotantes, des indications textuelles, des voix ou des bips et
des bops, mais cela peut être dangereux. Lorsqu’il y a trop
d’avertissements, les utilisateurs ont tendance à les ignorer, à les
désactiver et les informations essentielles risquent de ne pas être vues. Le
feedback est essentiel, mais pas quand il est écrasé par d’autres éléments,
voire par un environnement calme et relaxant.
Une mauvaise conception du feedback vient parfois du souhait de réduire
les coûts, même si cela complique la tâche des utilisateurs. Plutôt que
d’utiliser plusieurs types de voyants, des affichages d’information ou des
sonneries avec plusieurs sonorités, la réduction des coûts conduit à
l’utilisation d’un seul voyant ou un seul son pour donner plusieurs types
d’information. Lorsque le choix se porte sur un voyant, il s’allume une
fois pour signifier une chose, deux fois pour autre chose, longtemps pour
encore autre chose. Si le choix se porte sur un avertisseur sonore, c’est
souvent le périphérique le moins cher qui est utilisé, un modèle qui n’émet
que des bips à haute fréquence. Comme avec les voyants, la seule manière
de donner différentes informations consiste à moduler les sons. À quoi
correspondent tous les motifs sonores ? Comment peut-on apprendre à les
reconnaître et les apprendre ? C’est plus compliqué quand les différentes
machines utilisent différents types de sonnerie, pire quand deux machines
utilisent les mêmes sonneries mais pour des informations contradictoires.
Tous les bips se ressemblent et il est parfois difficile de savoir quelle
machine nous interpelle.
Le feedback doit être pensé. Toutes les actions doivent être confirmées.
Une information peu importante doit être discrète ; en revanche, lorsqu’il
y a une urgence, même les signaux importants doivent avoir des priorités.
Lorsque tous les appareils signalent un problème majeur, une cacophonie
n’arrange pas la situation. Les bips et les alarmes continuelles des
équipements risquent d’être dangereux. Lors d’urgence, les travailleurs
perdent du temps à couper les alarmes parce que le bruit empêche la
concentration. Pensez aux salles d’opération, aux urgences, aux centrales
atomiques et aux cabines de pilotage des avions. La surabondance
d’alarmes peut mettre des gens en danger. Le feedback est essentiel mais il
doit être correctement mis en place.

Modèles conceptuels
Un modèle conceptuel explique, généralement de façon très simplifiée, le
fonctionnement de quelque chose. Cela n’a besoin d’être ni long, ni précis
dès lors que c’est utile. Les fichiers, les dossiers et les icônes que vous
voyez sur l’écran d’un ordinateur nous permettent de créer un modèle
conceptuel de documents et de dossiers dans l’ordinateur ou d’applications
qui se trouvent sur l’écran. En fait, il n’existe aucun dossier dans
l’ordinateur, il s’agit de conceptualisations très efficaces qui facilitent
l’utilisation. Il arrive que des représentations soient perturbantes.
Lorsqu’on lit un courriel ou que l’on visite un site web, le contenu semble
être sur l’écran, là où il est affiché et manipulé. Toutefois, dans de
nombreux cas, il se trouve sur le cloud, dans un ordinateur distant. Le
modèle conceptuel utilise une image cohérente alors que le contenu peut
se trouver réparti dans plusieurs machines du monde entier. Ce modèle
simplifié est cohérent lors d’une utilisation normale mais, si la connexion
au serveur cloud est interrompue, le résultat est troublant : l’information se
trouve à l’écran alors que l’utilisateur ne peut plus enregistrer, ni charger
de nouvelles informations. Le modèle conceptuel ne fournit pas
d’explications. Les modèles simplifiés fonctionnent tant que les
hypothèses sont vérifiées.
On trouve souvent plusieurs modèles conceptuels pour un produit ou un
appareil. Les modèles conceptuels du freinage régénératif, des voitures
électriques ou hybrides, vont être différents pour le conducteur moyen,
pour le conducteur techniquement au fait et pour toute personne faisant
l’entretien du système.
Les modèles conceptuels que l’on trouve dans les manuels techniques sont
souvent détaillés et complexes. Ici, ceux qui nous intéressent sont les
modèles conceptuels plus simples, qui restent dans la mémoire de
l’utilisateur et sont nommés des modèles mentaux. Comme le nom
l’indique, il s’agit de modèles dans l’esprit des utilisateurs et qui
représentent ce que ces derniers comprennent du fonctionnement de
l’objet. Différentes personnes auront des modèles mentaux différents pour
un même élément. De plus, une personne peut avoir plusieurs modèles
différents pour un même élément, chacune des versions traitant un aspect
de l’utilisation et entrant même parfois en conflit avec les autres.
Les modèles conceptuels dérivent souvent des appareils eux-mêmes.
Certains modèles sont transmis de personne à personne et d’autres
proviennent de manuels. Généralement, l’appareil lui-même offre peu
d’aide ; par conséquent, le modèle est créé par expérience. Assez souvent,
ces modèles sont erronés, ce qui est source de difficultés lors de
l’utilisation de l’appareil.

Figure 1–8 Montre Junghans Mega 1000 radio-pilotée. Il n’y a pas de bon modèle
conceptuel pour comprendre le mode opératoire de ma montre. Elle possède cinq
boutons sans aucune indication sur leur fonction. Oui, les boutons ont différentes
fonctions selon les modes. Néanmoins, c’est une belle montre et elle est toujours à
l’heure parce qu’elle est radio-pilotée. Photographies de l’auteur.

La structure que l’on perçoit d’un objet (provenant des signifiants, des
affordances, des contraintes et du mapping) est l’élément essentiel pour
comprendre son fonctionnement. Les outils pour le jardinage ou la maison
ont généralement les parties essentielles suffisamment visibles pour qu’on
comprenne instantanément la manière de s’en servir. Par exemple, avec
une paire de ciseaux, on remarque rapidement que le nombre d’opérations
est limité. Les trous sont clairement là pour qu’on y mette quelque chose
et en toute logique, c’est adapté pour les doigts. Les trous sont à la fois des
affordances (ils permettent d’insérer les doigts) et des signifiants (ils
indiquent où doivent se placer les doigts). Leur taille est une contrainte
pour limiter le nombre de doigts utilisés : un grand trou suggère plusieurs
doigts, un petit trou seulement un. Le mapping entre les trous et les doigts
(l’ensemble des opérations possibles) est signifié et contraint par les trous.
De plus, la manipulation ne limite pas le placement des doigts : si on
utilise les mauvais doigts (ou l’autre main), les ciseaux fonctionnent quand
même, même si ce n’est pas aussi facile à manipuler. On peut imaginer
comment utiliser les ciseaux parce que les parties servant à la
manipulation sont visibles et les implications sont claires. Le modèle
conceptuel est évident avec une parfaite utilisation des signifiants, des
affordances et des contraintes.
Que se passe-t-il lorsque l’appareil ne propose pas un bon modèle
conceptuel ? Prenons l’exemple de ma montre équipée de cinq boutons ;
deux en haut, deux en bas et un sur le côté gauche (figure 1-8). À quoi
servent-ils ? Comment régler l’heure ? Il n’y a aucun moyen de le savoir
parce qu’il n’existe pas de lien évident entre les boutons et les
fonctionnalités. On ne trouve aucune contrainte et aucun mapping évident.
De plus, les boutons ont chacun plusieurs fonctions. Deux d’entre eux ne
donnent pas le même résultat si on appuie rapidement ou si on appuie
pendant quelques secondes. Certaines opérations nécessitent d’appuyer
simultanément sur plusieurs boutons. Pour savoir comment utiliser la
montre, il est nécessaire de consulter le manuel à chaque fois. Avec les
ciseaux, en bougeant les poignées, les lames bougent. La montre n’offre
aucune relation visible entre les boutons et les actions possibles, aucune
relation visible entre les actions et les résultats finaux. J’aime vraiment
cette montre ; dommage que je ne me souvienne jamais de toutes ses
fonctions.
Les modèles conceptuels servent à comprendre comment les éléments vont
se comporter et à savoir ce qu’il faut faire quand les choses ne se passent
pas comme prévu. Un bon modèle conceptuel prévoit le résultat des
actions. Sans modèle conceptuel, on opère à l’aveugle, en respectant les
consignes sans vraiment comprendre pourquoi, sans savoir quels seront les
effets et sans pouvoir agir si rien ne se passe comme prévu. Lorsque tout
se déroule normalement, on peut gérer. Quand rien ne se passe comme
prévu, nous nous trouvons devant une situation nouvelle et nous avons
besoin de bien comprendre et d’avoir un bon modèle.
Pour les choses du quotidien, les modèles conceptuels n’ont pas à être
complexes. Après tout, les ciseaux, les stylos et les interrupteurs sont des
appareils assez simples. Il n’est pas nécessaire de comprendre la physique
ou la chimie mise en œuvre par les appareils que nous possédons ; il suffit
de connaître la relation entre les commandes et les résultats produits.
Lorsque le modèle que l’on nous présente est inexact ou mauvais (voire
inexistant), on est en difficulté. Je vais vous parler de mon réfrigérateur.
Je possédais un réfrigérateur/congélateur tout à fait ordinaire. En revanche,
régler la température correctement était un véritable problème. Il fallait
faire deux manipulations : une pour la partie réfrigérateur et une autre pour
la partie congélateur. Pour cela, on utilisait deux boutons qui indiquaient la
partie qu’ils réglaient.

Figure 1–9 Commandes du réfrigérateur. Il y a un réfrigérateur et un congélateur, avec


deux boutons de réglage (placés dans la partie réfrigérateur). Supposons que le
congélateur est trop froid alors que le réfrigérateur est à la bonne température.
Comment régleriez-vous les boutons pour que le premier appareil soit moins froid sans
toucher à la température du second ? Photographies de l’auteur.

Il faut savoir que les deux commandes n’étaient pas indépendantes. Celle
du congélateur avait une influence sur la température du réfrigérateur et
inversement. De plus, le manuel indiquait qu’il fallait attendre vingt-quatre
heures pour que la température se stabilise après modification des
réglages.
Il était très difficile de réguler la température de cet appareil, parce que les
boutons indiquaient un modèle conceptuel erroné. Il y a deux
compartiments, deux boutons, on peut donc penser que les boutons règlent
la température du compartiment dont ils portent le nom. Ce modèle
conceptuel est illustré figure 1-10A. En fait, il n’y a qu’un thermostat et
qu’un seul système de réfrigération. Un bouton règle le thermostat et
l’autre commande la répartition relative du froid dans chacun des
compartiments. Les deux commandes interagissent ; le modèle conceptuel
est montré figure 1-10B. De plus, il doit y avoir un capteur de température,
mais il n’existe aucun moyen de savoir où il se trouve. Avec le modèle
conceptuel suggéré par les commandes, il est impossible de régler la
température. Avec le bon modèle, c’est beaucoup plus simple.
On ne saura jamais pourquoi le constructeur a suggéré le mauvais modèle
conceptuel. Depuis la première édition de cet ouvrage, il y a plus d’une
vingtaine d’années, j’ai reçu de nombreux courriers de personnes me
remerciant de les avoir éclairées sur les fonctionnements étranges de leur
réfrigérateur. En revanche, il n’y a eu aucune réaction du constructeur
(General Electric). Sans doute les concepteurs ont-ils estimé que le bon
modèle était trop complexe et que celui qu’ils fournissaient était plus
simple à comprendre. Toutefois, avec le mauvais modèle conceptuel, il
était impossible de régler le réfrigérateur. Même si je pense avoir trouvé le
modèle conceptuel correct, je ne suis pas parvenu à ajuster correctement
les températures parce que la conception ne permettait pas de savoir quelle
commande pilotait le thermostat, laquelle pilotait la quantité d’air froid, ni
de savoir dans quel compartiment se trouvait le thermostat.
Figure 1–10 Deux modèles conceptuels pour le réfrigérateur. Le modèle A est suggéré
par les commandes de l’appareil, car chacune porte le nom de la partie qu’elle
contrôle. Cela suggère que chaque compartiment possède son propre thermostat et
son propre système de refroidissement. Le véritable modèle conceptuel est celui
illustré en B. Il est impossible de savoir où se trouve le thermostat, il est donc dessiné
en dehors du réfrigérateur. La commande du congélateur règle la température du
congélateur. La commande du réfrigérateur détermine la quantité d’air qui va dans
chaque partie de l’appareil.

L’absence de feedback immédiat pour les actions réalisées n’aidait pas ; il


fallait attendre vingt-quatre heures pour savoir si la modification était la
bonne. Je ne devrais pas avoir à tenir un carnet de tests pour réussir à
obtenir la température souhaitée.
C’est avec joie que je vous annonce que je ne possède plus cet appareil.
J’ai maintenant un modèle avec deux commandes séparées pour le
réfrigérateur et le congélateur. Elles sont indépendantes, contrôlent
chacune un compartiment et utilisent des indications en degrés pour les
réglages. Avec les compresseurs et les thermostats actuels, peu onéreux, il
doit être possible de prévoir un seul compresseur et une valve pour
contrôler la distribution de froid dans les compartiments. Un simple circuit
électronique peut s’occuper de réguler les deux parties. Évidemment, cela
demande un peu plus de travail pour les ingénieurs, mais le résultat en
vaut la peine. Hélas, General Electric continue de vendre des réfrigérateurs
avec les mêmes commandes et les mêmes mécanismes qui sont toujours
aussi perturbants. La figure 1-9 montre un réfrigérateur actuel,
photographié dans un magasin lors de l’écriture de cet ouvrage.
L’image système
On crée des modèles mentaux de soi-même, des autres, de
l’environnement et des éléments avec lesquels on interagit. Il s’agit de
modèles conceptuels formés par l’expérience, l’entraînement et
l’instruction. Ils servent de guides pour nous aider à atteindre nos objectifs
et à comprendre le monde.
Comment créons-nous le modèle conceptuel adapté aux appareils avec
lesquels nous interagissons ? Nous ne pouvons pas parler aux concepteurs,
donc nous utilisons les informations qui nous sont accessibles : l’aspect de
l’appareil, ce que nous avons appris en utilisant des appareils similaires, ce
qui est indiqué dans les prospectus, ce que les vendeurs ont dit, ce que
nous avons lu dans des avis clients, ce que nous avons vu sur le site web
du produit et ce qu’indique le manuel utilisateur. Je nomme image système
la combinaison de toutes ces informations. Lorsque l’image système est
incohérente ou inappropriée, comme c’est le cas avec le réfrigérateur, les
utilisateurs ne peuvent pas se servir facilement de l’appareil. Si l’image
système est incomplète ou contradictoire, cela pose des problèmes.
Comme le montre la figure 1-11, le concepteur du produit et la personne
qui l’utilise forment des sommets déconnectés d’un triangle. Le modèle
conceptuel du concepteur correspond à son idée du produit et il occupe un
sommet du triangle. Le produit lui-même n’appartient plus au concepteur
et il occupe un autre sommet, par exemple sur le plan de travail de la
cuisine de l’utilisateur. L’image système correspond à ce que l’on perçoit
de la structure physique du produit (cela comprend la documentation, les
instructions, les signifiants et toutes les informations disponibles sur le
Web et l’aide utilisateur). Le modèle conceptuel de l’utilisateur se
construit à partir de l’image système au travers de l’interaction avec le
produit, des lectures, des recherches en ligne et de tous les manuels
fournis. Le concepteur s’attend à ce que le modèle de l’utilisateur soit
identique au sien, mais toute la communication entre eux passe par
l’image système.
Figure 1–11 Le modèle du concepteur, celui de l’utilisateur et l’image système. Le
modèle conceptuel du concepteur correspond à l’aspect, au ressenti et à la
manipulation d’un objet. L’image système est ce qui découle de la structure physique (y
compris la documentation). Le modèle mental de l’utilisateur provient de l’interaction
avec le produit et de l’image système. Le concepteur s’attend à ce que le modèle de
l’utilisateur soit identique au sien, mais toute la communication passe par l’image
système.

La figure 1-11 montre pourquoi la communication est un élément


important pour une bonne conception. Peu importe si le produit est génial :
s’il est inutilisable, il ne sert à rien et il recevra de mauvaises critiques. Il
appartient au concepteur de fournir l’information nécessaire pour que l’on
comprenne le produit et que ce dernier soit utilisable. Le plus important
reste d’avoir un excellent modèle conceptuel qui aide à trouver ce qui se
passe et ce qu’il faut faire quand cela ne va pas comme prévu. Sans
modèle, on se bat avec le produit et on peut empirer les choses.
De bons modèles conceptuels sont les clés pour comprendre et profiter des
produits, et une bonne communication est la clé pour de bons modèles
conceptuels.

Le paradoxe de la technologie
La technologie a pour but de faciliter la vie et chaque avancée
technologique apporte son lot de bénéfices. Toutefois, en même temps,
l’ajout de complexité augmente nos problèmes et nos frustrations face à la
technologie. Le problème de conception posé par les avancées
technologiques est énorme. Prenons l’exemple d’une montre. Il y a
quelques dizaines d’années, les montres étaient simples. Il suffisait de les
mettre à l’heure et de les porter au poignet. Le remontoir sur le côté de la
montre était la commande standard. En tournant le bouton, on fournissait
l’énergie nécessaire au fonctionnement du mécanisme. En tirant sur le
remontoir et en le tournant, on faisait bouger les aiguilles. Les opérations
étaient simples à apprendre. Il y avait une relation entre le fait de tourner
le remontoir et celui de faire tourner les aiguilles. La conception prenait
même en compte l’erreur humaine. Dans la position normale, en tournant
le remontoir, on agissait sur le ressort de la montre. Le remontoir devait
être tiré pour faire tourner les aiguilles. Si l’on tournait accidentellement le
remontoir, cela ne posait pas de problème.
Il y a très longtemps, les montres étaient chères parce que fabriquées à la
main. Elles s’achetaient dans les bijouteries. Avec le temps et l’arrivée de
la technologie numérique, leur coût a fortement baissé alors que la
précision et la fiabilité augmentaient. Les montres sont devenues des
outils, proposées dans différents styles, différentes formes et avec de plus
en plus de fonctions. Les montres sont vendues partout, dans les magasins
locaux, de sport ou de matériel électronique. De plus, des montres sont
maintenant installées dans de nombreux produits, du téléphone jusqu’au
clavier musical, ce qui ne rend plus nécessaire d’en porter. Leur prix a
également fortement baissé et il n’est pas rare qu’une personne en possède
plusieurs. Les montres sont devenues des accessoires de mode que l’on
change en fonction de l’activité ou de sa tenue vestimentaire.
Avec les montres numériques actuelles, plutôt que de remonter un ressort,
on charge la batterie ou, dans le cas d’une montre solaire, on l’expose à la
lumière. La technologie permet l’ajout de fonctions : la montre donne le
jour de la semaine, le mois et l’année, elle sert de chronomètre, de
minuteur et d’alarme, elle affiche l’heure dans différents fuseaux horaires.
Ma montre (figure 1-8) possède même un récepteur radio pour la régler
avec l’heure officielle des stations du monde entier. Certains modèles
intègrent des boussoles, des baromètres, des accéléromètres et des capteurs
de température. D’autres sont équipés de récepteurs GPS et Internet afin
d’afficher la météo, les actualités, les messages ou de suivre l’activité sur
les réseaux sociaux. Certaines possèdent des caméras. Ces montres
peuvent fonctionner à l’aide de boutons, de remontoirs, de mouvements ou
de la voix. On en trouve qui utilisent les gestes. La montre n’est plus un
instrument pour donner l’heure ; c’est une plate-forme pour améliorer les
différentes activités.
L’ajout de fonctions pose un problème : comment peuvent-elles entrer
dans un objet aussi petit que l’on porte au poignet ? Il n’existe pas de
réponse simple. De nombreuses personnes ne portent plus de montre et
utilisent plutôt leur téléphone. Ce dernier offre de meilleures conditions
que celles d’une petite montre et, de plus, il donne l’heure.
Maintenant, imaginez un futur où, à la place du téléphone qui remplace la
montre, les deux éléments fusionnent. Le nouveau produit pourrait se
porter au poignet ou comme des lunettes. Nous aurons des écrans flexibles
qui n’affichent qu’une petite partie de l’information dans la position
normale et qu’on déroule pour avoir un écran de grande taille. Les
projecteurs seront si lumineux et si petits qu’ils seront intégrés aux
montres, aux téléphones, aux bagues ou à tout autre bijou afin de projeter
des images sur n’importe quelle surface. Peut-être que les appareils
n’auront pas d’écran et nous chuchoteront les informations dans l’oreille.
Ils pourraient aussi utiliser les écrans à disposition comme ceux que l’on
trouve sur le dossier d’un siège de voiture ou d’avion, dans les hôtels ou
n’importe où ailleurs. Les appareils seront en mesure de réaliser de
nombreuses tâches, mais je crains qu’ils soient aussi des sources
d’énervement : il y aura tant d’éléments à régler avec peu d’espace pour
les commandes et les signifiants ! La solution évidente consiste à utiliser
des gestes exotiques ou à commander avec la voix, mais comment
apprendre et retenir les commandes ? Le mieux consiste à utiliser des
standards afin que l’on apprenne les commandes une seule fois.
Néanmoins, j’en conviens, c’est un processus complexe mettant en œuvre
des forces rivales qui empêchent de trouver rapidement une solution.
La technologie qui simplifie la vie en fournissant plus de fonctions dans
chaque appareil est aussi celle qui complique la vie en rendant
l’apprentissage et l’utilisation plus difficiles. C’est le paradoxe de la
technologie et le défi pour le concepteur.

Le défi de la conception
La conception demande de réunir plusieurs disciplines. Pour produire un
excellent produit, le nombre est impressionnant. Les grandes conceptions
exigent un grand concepteur, mais ce n’est pas suffisant. Il faut également
une excellente gestion car la partie la plus difficile est de coordonner
toutes les disciplines, sachant que chacune possède son propre objectif et
sa propre priorité. Chacune des disciplines voit de manière différente les
divers éléments qui composent un produit. L’une va dire que le produit
doit se comprendre et être utile, une autre qu’il faut que le produit soit
beau et une autre qu’il soit abordable. De plus, le produit doit être fiable,
facile à produire et à réparer. Il doit être différent des produits concurrents
et meilleur en ce qui concerne le prix, la fiabilité, l’aspect et les fonctions
qu’il offre. Enfin, il doit se vendre. Peu importe la qualité d’un produit s’il
ne se vend pas.
Assez souvent, chaque discipline pense que sa contribution est la plus
importante. « Le prix » dit le service commercial, « le prix avec ces
fonctionnalités ». « Fiable » insistent les ingénieurs. « Nous devons
pouvoir le fabriquer dans nos usines existantes », dit le service fabrication.
« Nous recevons des appels de clients », dit le service client, « nous
devons régler les problèmes de conception ». « Vous ne pouvez pas
assembler tout cela et avoir un produit raisonnable » dit l’équipe de
concepteurs. Qui a raison ? Tout le monde. Un produit réussi doit répondre
à tous ces impératifs.
Le plus dur reste de convaincre les gens de comprendre le point de vue de
chacun, de ne plus regarder avec les œillères de leur discipline et de penser
la conception en prenant en compte les acheteurs et les utilisateurs du
produit (souvent, il s’agit de personnes différentes). Le point de vue des
commerciaux est également important ; en effet, si la société ne vend pas
assez, il faut arrêter la fabrication, même s’il s’agit d’un excellent produit.
Quelques sociétés peuvent se permettre le coût important du maintien en
vie d’un produit qui ne rapporte rien. En général, cela se compte en année
ou, dans le cas par exemple de la télévision haute définition, en dizaines
d’années.
Il n’est pas simple de concevoir correctement. Le fabricant souhaite un
produit peu coûteux à produire. Les commerçants veulent un produit
attrayant pour leurs clients. Les acheteurs ont de nombreuses attentes.
Dans la boutique, ils se focalisent sur le prix, l’aspect et peut-être sur le
prestige social. Chez eux, ces mêmes acheteurs font plus attention à la
fonctionnalité et la facilité d’utilisation. Le service après-vente se soucie
de la maintenance et de la facilité avec laquelle on peut intervenir sur le
produit. Tous ces besoins sont différents et souvent contradictoires. Quoi
qu’il en soit, si l’équipe de concepteurs intègre des personnes de toutes les
disciplines, il est souvent possible de trouver un compromis satisfaisant.
C’est essentiellement quand les disciplines fonctionnent de façon
indépendante que les problèmes se produisent. Le défi consiste à utiliser la
conception centrée utilisateur pour obtenir des résultats positifs, des
produits qui facilitent la vie et apportent de la satisfaction. L’objectif est de
produire un excellent produit, qui rencontre le succès et que les
consommateurs adorent. Ce qui est réalisable.
2
La psychologie des actions
quotidiennes

Durant un séjour familial en Angleterre, nous avons loué une maison


meublée, pendant que les propriétaires étaient absents. Un jour, la
propriétaire est revenue pour récupérer des papiers personnels. Elle a
essayé, en vain, d’ouvrir le tiroir supérieur d’un classeur en métal. Elle le
poussait d’avant en arrière, de gauche à droite et de haut en bas, sans
succès. J’ai proposé mon aide. J’ai remué le tiroir, j’ai tordu le panneau
frontal, poussé fortement vers le bas et tapé avec la paume d’une main. Le
classeur s’est ouvert. La propriétaire était désolée, disant qu’elle n’était
pas douée avec la mécanique, mais elle se trompait : c’était à la
mécanique de s’excuser.

La propriétaire avait deux problèmes, même si elle possédait un objectif


clair (récupérer des papiers personnels) et un plan pour y arriver (ouvrir le
tiroir supérieur du classeur). Une fois que le plan a échoué, elle ne savait
plus quoi faire. Toutefois, elle avait aussi un autre problème : elle
imaginait que la difficulté venait de son manque d’aptitude et elle s’est
accusée à tort.
Comment ai-je pu l’aider ? D’abord, je n’ai pas accepté que ce soit sa
faute alors que ce n’était pas le cas. Pour moi, il s’agissait clairement d’un
problème lié au mécanisme de fermeture de la porte. Je pensais que celui-
ci n’était pas correctement aligné. Ce modèle conceptuel m’a fourni un
plan pour y remédier (remuer le tiroir), mais cela n’a pas fonctionné. J’ai
donc changé de plan ; secouer le tiroir était peut-être la solution, mais
toujours pas. J’ai donc essayé de forcer le tiroir en le faisant pivoter. Cela
me paraissait une bonne idée, mais il ne voulait toujours pas s’ouvrir. En
dernier recours, j’ai fait appel à l’outil le plus puissant utilisé par les
experts du monde entier : j’ai donné un grand coup sur le classeur. Et là, le
tiroir s’est ouvert. Je pense (sans en avoir la preuve) que mon coup violent
a remis le mécanisme en place afin de permettre l’ouverture du tiroir.
Cet exemple décrit les thèmes de ce chapitre : comment nous faisons les
choses. Il est facile d’apprendre les bases pour effectuer des manipulations
avec nos technologies (oui, un classeur à tiroir est un objet technologique).
Cependant, que se passe-t-il lorsque quelque chose ne va pas ? Comment
sait-on que cela ne fonctionne pas et comment savons-nous ce qu’il faut
faire ? Pour répondre à ces questions, je me plonge dans la psychologie
humaine et utilise un modèle conceptuel simple décrivant la manière dont
on choisit et évalue nos actions. Cela conduit à discuter du rôle de la
compréhension (à l’aide d’un modèle conceptuel) et des émotions (le
plaisir quand ça fonctionne correctement et la frustration quand on
n’obtient pas ce qui est prévu). Enfin, je conclus en indiquant comment
lier les leçons de ce chapitre avec les principes de la conception.

Le fossé entre l’exécution et l’évaluation


Lorsqu’on utilise quelque chose, on se trouve face à deux fossés : celui de
l’exécution, où on détermine le fonctionnement, et celui de l’évaluation,
où on essaie de comprendre ce qui se passe (figure 2-1). Le rôle du
concepteur est de combler ces fossés.
Dans le cas du classeur à tiroirs, des éléments visibles permettent, lorsque
tout se passe correctement, de combler le fossé de l’exécution. La poignée
du tiroir indique clairement qu’il faut la tirer et le bouton indique où
appuyer pour déverrouiller le mécanisme qui maintient le tiroir en place.
Toutefois, quand rien ne se passe comme prévu, le fossé s’élargit : que
faire pour ouvrir le tiroir ?
Au départ, le fossé de l’évaluation a été facile à combler. Pourtant, une
fois le loquet libéré, j’ai tiré sur la poignée du tiroir mais rien ne s’est
produit. L’absence d’action signale un problème pour atteindre le résultat.
Lorsque j’ai tenté d’autres opérations, par exemple en tournant en même
temps que je tirais, le classeur à tiroirs n’a fourni aucune information
m’indiquant que j’approchais du but.
Le fossé de l’évaluation indique l’effort nécessaire pour interpréter l’état
physique de l’appareil et pour déterminer si les attentes et les intentions
ont été atteintes. Le fossé est petit lorsque l’appareil fournit des
informations sur son état de manière claire et facile à comprendre et qu’il
correspond aux attentes de l’utilisateur. Un bon modèle conceptuel permet
de construire un pont au-dessus du fossé.

Figure 2–1 Les fossés de l’exécution et de l’évaluation. Lorsque l’on est confronté à un
appareil, on est face à deux fossés : celui de l’exécution, où on essaie de comprendre
le fonctionnement, et celui de l’évaluation, où on se demande dans quel état est l’objet
et si les actions vont produire le résultat souhaité.

Les fossés existent avec beaucoup d’appareils. Étrangement, de


nombreuses personnes rencontrent des difficultés et les expliquent en
s’accusant. En parlant d’appareils qu’elles devraient être capables de
manipuler (bonde de lavabo, contrôle de la température d’un réfrigérateur,
cuisinière), elles pensent « je suis stupide ». En ce qui concerne les
appareils plus complexes (machine à coudre, lave-linge et la majorité des
commandes numériques), elles abandonnent en décidant qu’elles sont
incapables de les comprendre. Les deux explications sont évidemment
fausses. Il s’agit d’appareils du quotidien qui ne devraient pas présenter de
complexité particulière. Les difficultés proviennent de la conception et non
pas des utilisateurs.
Comment le concepteur peut-il proposer des passerelles ? Pour y répondre,
il est nécessaire d’explorer plus profondément la psychologie humaine.
Nous avons déjà découvert les outils de base. Nous avons installé un pont
sur le fossé de l’exécution à l’aide de signifiants, de contraintes, de
mappings et d’un modèle conceptuel, et un autre sur celui de l’évaluation
grâce à l’utilisation du feedback et d’un modèle conceptuel.

Les sept étapes de l’action


Une action se découpe en deux parties : l’exécution et l’évaluation des
résultats. Pour cela, il est nécessaire de comprendre comment fonctionne
l’élément et quel est le résultat qu’il doit produire. L’exécution et
l’évaluation influencent notre état émotionnel.
Supposons que je sois assis dans un fauteuil en train de lire. C’est le soir et
la lumière devient de plus en plus faible. La lecture est l’activité que je
suis en train de pratiquer, mais j’ai du mal à la réaliser car la luminosité
baisse, d’où un objectif supplémentaire : obtenir plus de lumière.
Comment procéder ? Plusieurs possibilités s’offrent à moi. Je peux ouvrir
les rideaux, me déplacer pour m’asseoir là où il y a plus de lumière ou
éclairer la pièce. Il s’agit de l’étape de la planification, où l’on détermine
quelle action choisir parmi toutes les possibilités. Cependant, si je choisis
d’allumer la lumière, je dois déterminer comment procéder. Je peux
demander à quelqu’un de le faire ou bien utiliser ma main gauche ou ma
main droite. Même après avoir établi un plan, il me faut encore préciser
comment procéder. Enfin, je dois effectuer l’action. Lorsque je réalise une
action pour laquelle j’ai de l’expérience et de la technique, toutes ces
étapes sont subconscientes. Au contraire, lorsque je suis en phase
d’apprentissage, la détermination du plan, la spécification de la séquence
et l’interprétation des résultats se font de façon consciente.
Supposons que je conduise ma voiture et que l’action planifiée consiste à
tourner à gauche à un carrefour. Si je suis un conducteur aguerri, je n’ai
pas vraiment besoin d’être conscient de la séquence nécessaire. Je pense
« gauche » et j’effectue toutes les actions nécessaires en séquence. En
revanche, si je suis un apprenti conducteur, je dois penser à chacune des
actions à réaliser : ralentir, vérifier où se trouvent les voitures, les piétons,
vérifier la signalisation routière, déplacer mes pieds sur les pédales, mes
mains sur la commande du clignotant et sur le volant (tout en me rappelant
ce que m’a enseigné le moniteur pour la position des mains). Mon
attention visuelle se porte sur tous les éléments devant et autour de ma
voiture ; parfois je regarde droit devant, parfois je dois tourner la tête et
d’autres fois je regarde dans les rétroviseurs. Pour le conducteur aguerri,
c’est assez simple ; pour un débutant, la tâche semble impossible.
Les actions précises comblent le fossé qui nous sépare de ce que nous
souhaitons obtenir (notre objectif). Après avoir spécifié les actions à
réaliser, il faut passer à l’acte, aux étapes de l’exécution qui se
décomposent en trois parties : planifier, préciser et effectuer (à gauche,
figure 2-2). Enfin, on compare le résultat avec ce que l’on attendait (à
droite, figure 2-2).
Figure 2–2 Les sept étapes de l’action. En plaçant toutes les étapes ensemble, on
obtient les trois étapes de l’exécution (planifier, préciser et effectuer), les trois de
l’évaluation (percevoir, interpréter et comparer) et, bien entendu, l’objectif.

Nous avons nos sept étapes, dont une pour l’objectif, trois pour la
réalisation et trois pour l’évaluation (figure 2-2) :
1 objectif (le but à atteindre) ;
2 planifier (l’action) ;
3 préciser (la séquence des actions) ;
4 effectuer (la séquence des actions) ;
5 percevoir (l’état du monde) ;
6 interpréter (la perception) ;
7 comparer (le résultat avec l’objectif).
Le cycle en sept étapes est une simplification, mais il fournit un cadre pour
comprendre l’action humaine et sert aussi de guide à la conception.
Chaque étape n’est pas obligatoirement consciente. Les objectifs ont plutôt
tendance à l’être mais on peut réaliser des actions en répétant les étapes
sans être vraiment conscient de ce que l’on fait. Ce n’est que lorsque l’on
rencontre quelque chose de nouveau ou un problème qui trouble le cours
normal de l’activité qu’il est nécessaire d’être attentif.
Pour la plupart, les comportements ne nécessitent pas d’effectuer toutes les
étapes en séquence. Toutefois, les activités ne se satisfont généralement
pas d’une action unique. Il doit y avoir un grand nombre de séquences et
l’activité complète peut durer des heures, voire des jours. Il y a plusieurs
retours pour une seule action, qui conduisent à déterminer une nouvelle
activité et à en déclencher d’autres. L’objectif est décomposé en sous-
objectifs et le plan en sous-plans. Il existe des activités où les objectifs
sont oubliés, abandonnés ou reformulés.
Revenons à mon exemple : allumer la lumière. Il s’agit d’un cas de
comportement causé par un événement : la séquence commence par le
monde qui produit une évaluation de l’état et formule un objectif. Le
déclencheur est un événement environnemental : le manque de lumière qui
rend la lecture difficile. Cela va à l’encontre de l’objectif qui est de lire et,
par conséquent, fait apparaître un nouvel objectif qui est d’avoir plus de
lumière. Pour autant, la lecture n’était pas un objectif au plus haut niveau.
Pour chaque objectif, on doit s’interroger. Pourquoi est-ce un objectif ?
Pourquoi lisais-je ? J’essayais de préparer un repas en suivant une recette
et il était nécessaire que je la relise avant de commencer. La lecture était
donc un sous-objectif. Cependant, cuisiner était aussi un sousobjectif. Je
cuisinais afin de manger, ce qui avait pour objectif de satisfaire ma faim.
Voici donc l’ordre des objectifs : satisfaire la faim, manger, cuisiner, lire
une recette, obtenir plus de lumière. Cela s’appelle l’analyse de la cause
originelle : se demander pourquoi jusqu’à atteindre la cause ultime et
fondamentale de l’activité.
Le cycle des actions peut démarrer par le haut, en établissant un nouvel
objectif, ce que nous appelons dans ce cas un comportement centré sur
l’objectif. Dans cette situation, le cycle commence par l’objectif et passe
par les trois étapes de l’exécution. Toutefois, le cycle d’actions peut
également démarrer par le bas, déclenché par un événement dans le monde
et, dans ce cas, on parle de comportement centré sur les données ou de
comportement centré sur les événements. Dans cette situation, le cycle
démarre avec l’environnement, le monde, et passe par les trois étapes de
l’évaluation.
Pour de nombreuses tâches quotidiennes, les objectifs et les intentions ne
sont pas spécifiés ; ils sont plus opportunistes que planifiés. Les actions
opportunistes sont celles dont le comportement utilise les circonstances.
Plutôt que de nous engager dans de longues planifications et analyses,
nous vaquons à nos activités quotidiennes et réalisons d’autres choses
lorsque les opportunités se présentent. Nous n’avons sans doute pas
planifié d’essayer un nouveau café ou de poser une question à un ami. À la
place, nous réalisons notre routine quotidienne et il se trouve que nous
passons devant le café ou croisons notre ami. Nous permettons alors à
l’opportunité de déclencher l’activité appropriée. Dans le cas contraire,
nous n’aurons pas la possibilité d’essayer le café ou de parler à notre ami.
En ce qui concerne les tâches essentielles, nous nous efforçons de les
réaliser. Les actions opportunistes sont moins précises et plus incertaines
que celles dont on a spécifié l’objectif et les intentions, mais elles
demandent moins d’effort mental, posent moins de problèmes et, peut-être,
sont plus intéressantes. Certaines personnes organisent leur vie autour des
opportunités. Parfois, pour le comportement centré sur l’objectif, nous
essayons de créer des événements afin de nous assurer que la séquence se
déroule jusqu’au bout. Par exemple, quand je dois réaliser une tâche
importante, je demande à quelqu’un de me donner une date butoir. J’utilise
l’approche de cette date pour faire le travail. Il arrive que je ne m’y mette
que quelques heures avant la date butoir, mais le plus important, c’est de
faire le travail. Ce déclencheur extérieur est parfaitement compatible avec
l’analyse en sept étapes.
Les sept étapes sont un guide pour le développement de nouveaux produits
ou services. Il paraît évident de commencer à partir des fossés, qu’ils
soient de l’exécution ou de l’évaluation ; c’est excellent pour améliorer un
produit. Pour la plupart, les innovations proviennent de l’amélioration de
produits existants. Qu’en est-il des idées neuves qui amènent de nouveaux
produits sur le marché ? Ils prennent vie en reconsidérant les objectifs et
en se demandant en permanence quel est le véritable objectif. C’est ce que
l’on appelle l’analyse de la cause originelle.
Theodore Levitt, de l’école de commerce d’Harvard, a dit un jour, « Les
bricoleurs ne veulent pas acheter un foret de 6 mm ; ils veulent un trou de
6 mm. » Toutefois, cet exemple, qui implique que le trou est l’objectif,
n’est pas tout à fait juste. Il s’agit clairement d’un objectif intermédiaire.
Peut-être les bricoleurs veulent-ils accrocher des étagères sur un mur.
Levitt n’a pas poussé assez loin son raisonnement.
Une fois que vous comprenez qu’ils ne veulent pas le foret, vous réalisez
qu’ils ne veulent pas non plus vraiment le trou. Au lieu de cela, ils
cherchent à installer leurs étagères. Pourquoi ne pas développer des
méthodes ne nécessitant pas de trou ? Pourquoi pas des livres qui ne
nécessitent pas d’étagères (des livres électroniques, par exemple) ?

La pensée humaine : essentiellement


subconsciente
Pourquoi devons-nous connaître l’esprit humain ? Parce que les éléments
sont conçus pour être utilisés par des personnes. Si l’on ne comprend pas
parfaitement ces dernières, les conceptions risquent d’être difficiles à
utiliser et à appréhender. C’est pour cela qu’il est utile d’utiliser les sept
étapes de l’action. Il est plus difficile de comprendre l’esprit que les
actions. Nous pensons généralement que nous comprenons déjà le
comportement humain ainsi que l’esprit humain. Après tout, nous sommes
tous humains. Nous passons nos vies ensemble et nous aimons à penser
que nous nous comprenons. En vérité pourtant, ce n’est pas le cas. Dans
l’ensemble, le comportement humain est le résultat d’un processus
subconscient. Nous ne nous en apercevons pas. Par conséquent, ce que
nous pensons du comportement des autres (mais aussi du nôtre) est faux.
C’est pour cela qu’il existe de nombreuses sciences sociales et du
comportement : mathématiques, économie, informatique, sciences de
l’information et neurosciences.
Effectuez l’expérience suivante, en réalisant ces trois étapes :
1 bougez le second doigt d’une de vos mains ;
2 bougez le troisième doigt de la même main ;
3 décrivez ce que vous avez fait de différent les deux fois.
À première vue, la réponse est simple : vous avez pensé à bouger les
doigts et ils ont bougé. La différence, c’est que vous avez pensé à un doigt
différent à chaque fois. Comment cette pensée est-elle transmise en action,
en commande qui provoque le mouvement des muscles afin de bouger les
doigts ? C’est une opération totalement masquée par la conscience.
De par son évolution sur une longue période de temps et ses structures
spécifiques, le cerveau humain est très complexe. Il est le sujet d’étude de
nombreuses disciplines comme les sciences du comportement et les
sciences sociales, les sciences cognitives, les neurosciences, la
philosophie, l’informatique et les sciences de l’information. Malgré les
progrès effectués dans ces différents domaines, il reste encore de
nombreuses zones d’ombre. L’une d’elles concerne la distinction entre ce
qui est conscient et ce qui ne l’est pas. Les opérations du cerveau sont pour
la plupart subconscientes, cachées sous notre conscience. Seul le plus haut
niveau, que j’appelle réflexif (reflective) est conscient.
Une attention consciente est nécessaire pour l’apprentissage mais, une fois
l’apprentissage initial passé, la pratique continue et les études, parfois
pendant des milliers d’heures sur une période de plusieurs années,
produisent ce que les psychologues appellent le surapprentissage. Une fois
que les techniques ont été surapprises, le travail semble se faire sans effort,
automatiquement, sans s’en rendre compte (ou si peu). Par exemple,
répondez aux questions suivantes :
Quel est le numéro de téléphone d’un ami ?
Quel est le numéro de téléphone de Beethoven ?
Quelle est la capitale :
du Brésil ?
du Pays de Galles ?
des États-Unis ?
de l’Estonie ?
Pensez à la manière dont vous répondez aux questions. Les réponses que
vous connaissez viennent immédiatement à l’esprit, sans que vous vous
rendiez compte de ce qui s’est passé. Vous « connaissez » la réponse.
Même les réponses fausses viennent à l’esprit sans que vous vous en
rendiez compte. Vous avez probablement remarqué que vous aviez un
doute, mais pas la manière dont le nom est apparu à votre esprit. Pour les
pays dont vous ne connaissez pas la capitale, vous vous êtes sans doute
aperçu, sans effort, que vous ne connaissiez pas la réponse. Même en
sachant que vous avez retenu cette information un jour sans pouvoir
maintenant vous en souvenir, vous ne savez pas comment vous en êtes
conscient, ni ce qui se passe quand vous essayez de vous en rappeler.
Vous avez peut-être eu du mal avec le numéro de téléphone d’un ami parce
que pour ce genre de choses on se repose sur la technologie. Je ne connais
aucun numéro de téléphone et j’ai du mal à me souvenir du mien. Lorsque
je veux appeler quelqu’un, je recherche dans mes contacts puis je lance
l’appel. Sinon, j’appuie quelques secondes sur le bouton 2 pour appeler la
maison. Dans ma voiture, je dis simplement « appelle la maison ». Je ne
sais pas quel est le numéro, mais la technologie le sait. Considérons-nous
la technologie comme une extension de notre mémoire ? De notre façon de
penser ? De notre esprit ?
En ce qui concerne la deuxième question, si je demande à l’ordinateur,
cela va prendre du temps parce qu’il va passer en revue toutes les
personnes que je connais pour voir si l’une d’elles s’appelle Beethoven.
En ce qui nous concerne, on élimine immédiatement la question parce
qu’elle est insensée. On ne connaît pas Beethoven, qui, de toute façon, est
décédé. De plus, il est mort au début du XIXe siècle et le téléphone
n’existait pas encore. Comment savons-nous aussi rapidement que nous ne
savons pas ? En fait, certaines choses que nous savons peuvent prendre du
temps à nous revenir en mémoire. Par exemple, répondez à ceci : dans la
maison que vous occupiez, trois déménagements en arrière, lorsque vous
entriez par la porte principale, le bouton de la porte était-il à droite ou à
gauche ?
Maintenant vous devez consciemment réfléchir à la résolution du
problème. Déjà, vous devez essayer de comprendre de quelle maison il est
question, puis vous répondez à la question. En général, on arrive à
déterminer de quelle maison il s’agit, mais on a du mal à répondre parce
que l’on imagine instantanément le bouton des deux côtés de la porte. La
façon de résoudre le problème consiste à s’imaginer marchant vers la porte
avec des paquets dans chaque main. Comment ouvrez-vous la porte ? On
peut aussi s’imaginer à l’intérieur de la maison, courant vers la porte pour
ouvrir à un visiteur.
En général, en imaginant un de ces deux scénarios, on obtient la réponse.
Notez la différence entre la manière de retrouver la mémoire pour cette
question et les questions précédentes. Toutes ces questions mettent en jeu
la mémoire à long terme, mais de façon différente. Les questions
précédentes étaient des souvenirs explicites ; c’est ce que l’on appelle la
mémoire déclarative. On pourrait répondre avec des souvenirs explicites à
la dernière question, mais il est en général plus simple de se souvenir des
activités réalisées lors de l’ouverture de la porte. C’est ce que l’on appelle
la mémoire procédurale. Je reviendrai sur le sujet de la mémoire humaine
au chapitre 3.
Marcher, parler, chanter, lire, pédaler, conduire une voiture sont des
aptitudes qui demandent de l’apprentissage et du temps pour être
maîtrisées mais, une fois acquises, qui se font automatiquement. Pour les
experts, seules les situations particulièrement difficiles ou inattendues
demandent une attention consciente.
Comme nous sommes conscients uniquement au niveau réflexif, nous
avons tendance à croire que toute la pensée humaine est consciente. Ce
n’est pas le cas. Nous avons également tendance à croire que la pensée
peut être séparée de l’émotion. La cognition et l’émotion ne peuvent être
séparées. Les pensées cognitives conduisent aux émotions et ces dernières
régissent les pensées cognitives. Le cerveau est structuré de manière à
fonctionner avec le monde ; chaque action possède sa propre attente et ces
attentes dirigent les émotions. C’est pour cela que le langage est dans
l’ensemble fondé sur des métaphores physiques, pour cela que le corps et
son interaction avec l’environnement sont des composantes essentielles de
la pensée humaine.
L’émotion est largement sous-estimée alors que c’est un système de
traitement des informations qui fonctionne en tandem avec la cognition.
La cognition sert à donner un sens au monde et l’émotion donne une
évaluation. C’est le système émotionnel qui détermine si une situation est
sans danger, si ce qui se produit est bon ou mauvais, souhaitable ou pas.
La cognition fournit une compréhension et l’émotion un jugement de
valeur. Un homme avec un système émotionnel qui ne fonctionne pas
correctement éprouve des difficultés à faire des choix. Un homme sans
système cognitif ne peut pas fonctionner correctement.
Comme le comportement humain est en majorité subconscient, c’est-à-dire
qu’il se produit sans que l’on s’en rende compte, il est fréquent de ne pas
savoir ce que l’on doit faire, dire ou penser. C’est comme si l’on possédait
deux cerveaux, le subconscient et le conscient, qui ne communiquent pas
toujours entre eux. Ce n’est pas ce que l’on vous a appris ? Quoi qu’il en
soit, c’est la vérité. De plus en plus de preuves montrent que nous utilisons
la logique et la raison après les faits, pour justifier nos décisions, à nous-
mêmes (à notre conscience) et aux autres. C’est étrange, non ? Ne vous en
plaignez pas, profitez-en.
La pensée subconsciente utilise des images et tente de trouver, dans
l’expérience passée, l’image qui correspond le plus à la situation actuelle.
Le traitement est rapide et ne demande pas d’effort ; c’est ce qui fait l’une
de nos forces. Cela permet de détecter des tendances et de faire des
prévisions, à l’aide de quelques exemples. Toutefois, les comparaisons
donnent parfois des résultats inappropriés et ne sont pas toujours capables
de différencier ce qui est occasionnel de ce qui est habituel. La pensée
subconsciente est biaisée par la régularité et la structure et sa puissance est
limitée. Elle n’est pas toujours en mesure de raisonner de façon prudente
face à une série d’étapes.
La pensée consciente est différente ; elle est lente et travaillée. C’est à ce
moment que l’on évalue lentement les décisions, que l’on envisage les
alternatives et que l’on compare les différents choix. La pensée consciente
compare, rationalise et cherche des explications. La logique, les
mathématiques et la théorie de la décision sont des outils de la pensée
consciente. Les deux modes de pensée (conscient et subconscient) sont des
aspects puissants et essentiels de la vie humaine. Ils offrent des avancées
et des moments créatifs. Ces deux modes sont aussi sujets aux erreurs, aux
mauvaises conceptions et aux échecs.
L’émotion interagit biochimiquement avec la cognition en remplissant le
cerveau d’hormones, transmises soit par le flux sanguin soit par des
canaux dans le cerveau. Elles exercent de puissantes modifications dans le
fonctionnement du cerveau. Dans des situations stressantes, le système
émotionnel déclenche l’arrivée d’hormones qui forcent le cerveau à se
concentrer sur les éléments essentiels de l’environnement ; les muscles se
tendent, prêts à l’action. Dans des situations calmes, d’autres hormones
détendent les muscles et conduisent le cerveau à l’exploration et à la
créativité. Dans cet état, le cerveau est apte à remarquer les modifications
de l’environnement, à se laisser distraire par des événements et à
assembler ces derniers et la connaissance qui n’avait aucun sens
précédemment.
Tableau 2–1 Les systèmes de cognition subconscient et conscient.

Subconscient Conscient
Rapide Lent
Automatique Contrôlé
Multiples ressources Ressources limitées
Comportement contrôlé par l’expérience Utilisé dans de nouvelles situations, lors
d’apprentissage, en cas de danger ou
quand tout va de travers.

Un état émotionnel positif est idéal pour la créativité, mais pas pour
réaliser des choses. Quand il y a trop d’émotions, la personne passe d’un
sujet à l’autre, incapable de terminer une pensée avant d’en attaquer une
nouvelle. Un esprit dans un état émotionnel négatif produit de la
concentration ; c’est ce que l’on recherche pour maintenir l’attention sur
une tâche et la terminer. Si l’état émotionnel négatif est trop fort, la
personne est incapable de voir autre chose que son point de vue restreint.
L’état positif et relaxé ainsi que l’état anxieux et négatif sont tous deux des
outils puissants pour la créativité et l’action ; toutefois, poussés à
l’extrême, ils peuvent être dangereux.

Cognition humaine et émotion


L’esprit et le cerveau sont des entités complexes. Une bonne explication
des traitements dans le cerveau, applicable au travail cognitif et
émotionnel, consiste à penser à trois niveaux distincts : viscéral,
comportemental et réflexif. Chaque niveau est différent des autres mais ils
travaillent de concert. Même s’il s’agit d’une grossière simplification du
véritable traitement, c’est une approximation suffisamment correcte pour
fournir une base à la compréhension du comportement humain.

L’approche que j’utilise ici vient de mon ouvrage Emotional design.


Trois niveaux de traitement

Figure 2–3 Les trois niveaux de traitement : viscéral, comportemental et réflexif. Les
niveaux viscéral et comportemental sont dans le subconscient et le siège des émotions
de base. Le niveau réflexif est l’endroit où se trouvent la pensée consciente et la prise
de décision ; il correspond au plus haut niveau des émotions.

Le niveau viscéral
Dans le traitement, la partie de base s’appelle le traitement viscéral,
parfois nommé cerveau reptilien. Tout le monde possède des réponses de
base viscérales. Il s’agit du mécanisme fondamental de protection du
système affectif humain, qui réalise des jugements rapides sur
l’environnement : bon, mauvais, sûr, dangereux. Le système viscéral
répond rapidement et inconsciemment. Sa biologie de base réduit sa
faculté à apprendre, qui fonctionne essentiellement par sensibilisation et
désensibilisation à l’aide de mécanismes tels que l’adaptation et le
conditionnement. Les réponses viscérales sont rapides et automatiques.
Elles suscitent le réflexe de surprise lors d’événements nouveaux et
inattendus. Elles gèrent aussi le comportement génétiquement programmé,
par exemple la peur de la hauteur, l’inconfort dans les environnements
sombres ou très bruyants, l’aversion pour les goûts amers et l’attirance
pour le sucré. Notez que le niveau viscéral répond immédiatement à un
événement et produit un état affectif relativement peu influencé par le
contexte ou le passé. Il évalue simplement la situation sans attribuer de
cause, de jugement, ni de responsabilité.
Le niveau viscéral est étroitement lié à la musculature du corps, le système
moteur. C’est ce qui permet aux animaux de combattre, de fuir ou de se
relaxer. L’état viscéral d’un animal (ou d’une personne) se voit souvent en
analysant le corps : une tension indique un état négatif alors qu’un corps
détendu indique un état positif. Notez que l’on détermine souvent l’état de
notre propre corps en regardant la musculature. On dit souvent en parlant
de son corps : « J’étais tendu, les poings serrés et je transpirais. »
Les réponses viscérales sont rapides et totalement inconscientes. Elles sont
uniquement sensibles à l’état actuel de l’environnement. De nombreux
scientifiques ne les appellent pas des émotions, mais des précurseurs aux
émotions. Placezvous au bord d’un ravin et vous expérimenterez une
réponse viscérale. Vous pouvez aussi essayer de profiter de la luminosité
chaude et réconfortante après une expérience agréable, comme un bon
repas.
Pour les concepteurs, la réponse viscérale correspond à la perception
immédiate : admirer une prairie, savourer l’écoute d’une musique
harmonieuse ou subir les sons irritants des ongles sur une surface
rugueuse. À ce niveau, le style est important. Les apparences sonores,
visuelles, tactiles ou odorantes pilotent la réponse viscérale. Cela n’a rien à
voir avec la manière dont le produit est utilisable, efficace et
compréhensible. C’est simplement une question d’attraction ou de
répulsion. Les excellents designers utilisent leur sensibilité esthétique pour
gérer ces réponses viscérales.
Les ingénieurs, et d’autres personnes purement logiques, ont tendance à
écarter la réponse viscérale parce qu’elle n’est pas pertinente. Les
ingénieurs sont fiers des qualités intrinsèques de leur travail et sont
consternés lorsque des produits inférieurs se vendent mieux parce qu’ils
sont plus jolis. Nous faisons tous ce type de jugement, même eux. C’est
pour cela qu’ils aiment certains de leurs outils et d’autres non. La réponse
viscérale est pertinente.

Le niveau comportemental
Le niveau comportemental est le siège des techniques que l’on a apprises,
déclenchées par des situations qui correspondent à des schémas précis. À
ce stade, les actions et les analyses se font dans le subconscient. Même si
nous sommes généralement conscients de nos actions, nous ne le sommes
pas des détails. Lorsque nous parlons, souvent nous ne savons pas ce que
nous allons dire jusqu’à ce que notre esprit conscient (la partie réflexive)
nous entende prononcer des mots. Lorsque nous faisons du sport, nous
sommes prêts pour l’action, mais les réponses sont trop rapides pour être
consciemment contrôlées ; c’est le niveau comportemental qui prend le
contrôle.
Lorsque nous effectuons une tâche parfaitement maîtrisée, il suffit de
penser à l’objectif et le niveau comportemental s’occupe de tous les
détails. L’esprit conscient ne sait rien sur la réalisation de l’acte. Bougez le
bras droit, puis le gauche, tirez la langue ou ouvrez la bouche. Qu’avez-
vous fait ? Vous n’en savez rien. Tout ce que vous savez, c’est que vous
avez voulu l’action et qu’elle s’est produite. Vous pouvez même réaliser
des actions plus complexes. Prenez une tasse puis, avec la même main,
attrapez-en d’autres. Vous ajustez automatiquement les doigts et
l’orientation de la main pour que la tâche soit possible. Vous devez le faire
consciemment, si la tasse contient du liquide, pour ne pas le renverser.
Cependant, même dans ce cas, le contrôle des muscles se fait
inconsciemment. Il suffit de se concentrer pour ne pas renverser de liquide
et les mains s’adaptent immédiatement.
Pour les concepteurs, l’aspect essentiel du niveau comportemental, c’est
que chacune des actions est associée à une attente. Vous attendez un
résultat positif et vous obtenez une réponse positive (on parle de valence
positive dans la littérature scientifique). Vous espérez un résultat négatif et
vous obtenez une réponse négative (on parle de valence positive). Les
informations en retour confirment ou infirment les attentes et impliquent
une satisfaction ou un soulagement, une déception ou une frustration.
Les états comportementaux sont appris et donnent naissance à une
impression de contrôle lorsque l’on comprend et connaît les résultats. En
revanche, cela produit de la colère et de la frustration quand rien ne se
passe comme prévu et tout particulièrement quand il n’y a aucune raison
ou remède connu. Une absence de retour d’information donne
l’impression d’un manque de contrôle. Le retour d’information est
essentiel pour gérer les attentes et les objets bien conçus fournissent cela.
La connaissance des résultats résout les attentes et est importante pour
l’apprentissage et le développement des techniques comportementales.
Les attentes ont un rôle important dans nos vies émotionnelles. C’est pour
cela que les conducteurs deviennent tendus quand ils essaient de passer à
un carrefour avant que les feux ne passent au rouge, ou que les étudiants
sont stressés avant un examen. Le relâchement de la tension créée par
l’attente donne une impression de soulagement. Le système émotionnel est
tout particulièrement sensible aux changements d’états. Par conséquent, un
changement ascendant est considéré comme positif, même si on passe de
l’état « très mauvais » à l’état « pas si mauvais ». De même, un
changement est interprété négativement, même d’un état « extrêmement
positif » vers un état « un peu moins positif ».

Le niveau réflexif
Le niveau réflexif est le lieu de la cognition consciente. Par conséquent,
c’est l’endroit où se développe la compréhension profonde et où la prise
de décision consciente et réfléchie prend place. Les niveaux viscéral et
comportemental sont dans le subconscient ; par conséquent, la réponse est
rapide mais sans analyse. La réflexivité est cognitive, profonde et lente.
Elle se produit souvent une fois que l’événement est passé. C’est une
réflexion ou un retour en arrière sur ce qui s’est passé pour analyser les
circonstances, les actions et souvent pour blâmer ou chercher une
responsabilité. Les plus grandes émotions se produisent dans le niveau
réflexif ; c’est là que l’on attribue les causes et que l’on fait des prévisions
pour le futur. En ajoutant des éléments à des événements déjà vécus, on
obtient des états émotionnels tels que la culpabilité ou la fierté (lorsque
l’on en est à l’origine) et le reproche ou le compliment (lorsqu’une autre
personne en est à l’origine). Dans l’ensemble, nous avons tous
expérimenté les hauts et les bas, extrêmes, en pensant à un événement à
venir. Toute l’imagination provient d’un système cognitif réflexif, mais
suffisamment intense pour créer des réponses physiologiques associées à
la colère ou au plaisir extrêmes. L’émotion et la cognition sont intiment
liées.
La conception doit prendre en compte tous les niveaux :
viscéral, comportemental et réflexif
Pour le concepteur, le niveau de traitement le plus haut est certainement le
niveau réflexif. La réflexion y est consciente et les émotions produites y
sont les plus longues, ce sont elles qui déterminent les éléments tels que la
culpabilité, le reproche, la fierté ou le compliment. Les réponses réflexives
font partie de nos souvenirs des événements. Les souvenirs durent plus
longtemps que l’expérience immédiate ou le temps d’utilisation. C’est la
réflexivité qui nous conduit à recommander ou à dire d’éviter un produit.
Les souvenirs réflexifs sont souvent plus importants que la réalité. Si nous
éprouvons une forte réponse viscérale positive, mais rencontrons des
problèmes d’utilisation au niveau comportemental, lorsque nous repensons
au produit, le niveau réflexif peut très bien donner suffisamment de poids
à la réponse positive pour faire oublier les difficultés d’utilisation (d’où
l’idée que les choses attrayantes fonctionnent mieux). De même, trop de
frustrations, en particulier au dernier niveau d’utilisation, couplées à nos
réflexivités sur l’expérience, sont capables de faire oublier les qualités
viscérales positives. Les publicitaires espèrent qu’une forte valeur
réflexive associée à une marque réputée nous fera oublier notre jugement,
même si l’utilisation du produit était frustrante. On se souvient des
vacances avec bonheur, même si au quotidien c’était un manque de confort
et des angoisses.
Les trois niveaux de traitement fonctionnent ensemble. Ils jouent tous un
rôle essentiel pour déterminer ce qu’une personne aime ou n’aime pas
concernant un produit ou un service. Une mauvaise expérience avec un
fournisseur de service peut ruiner toutes les expériences futures. Une
excellente expérience peut compenser les mauvaises expériences du passé.
Le niveau comportemental est le siège de l’interaction, mais aussi de
toutes les émotions liées à l’attente, l’espoir et la joie ou la frustration et la
colère. La compréhension se produit grâce à une combinaison du niveau
comportemental et du niveau réflexif. La joie met en jeu les trois niveaux.
Concevoir en tenant compte des trois niveaux est tellement important que
j’ai réalisé un ouvrage complet sur le sujet : Emotional design.
En psychologie, un long débat s’est tenu pour savoir ce qui apparaît en
premier : l’émotion ou la cognition. Est-ce que l’on court et s’enfuit parce
que quelque chose nous a effrayés ou est-ce que l’on a peur parce que
notre esprit, conscient et réfléchi, s’aperçoit que l’on court ? L’analyse des
trois niveaux indique que ces deux idées peuvent être correctes.
Parfois l’émotion arrive en premier. Un bruit fort inattendu peut provoquer
automatiquement des réponses viscérales et comportementales qui nous
font fuir. Ensuite, le système réflexif s’observe en train de courir et en
déduit qu’il est effrayé. L’action de courir et de fuir se produit en premier
et enclenche l’interprétation de la peur.
Parfois, la cognition apparaît en premier. Supposez que vous marchez dans
une rue qui devient sombre et qui se rétrécit. Notre système réflexif
imagine toutes les menaces que l’on peut y rencontrer. À un certain stade,
ce que l’on imagine est suffisamment fort et nous fait nous retourner,
courir et nous enfuir. C’est ainsi que la cognition déclenche la peur et
l’action.
Pour la plupart, les produits ne suscitent pas la peur, ni la fuite en courant.
Cependant, des appareils mal conçus provoquent des frustrations, des
colères, l’impression de ne pas être aidé, du désespoir, voire de la haine.
Les appareils bien conçus provoquent de la fierté, de la joie, la sensation
de contrôler et du plaisir. Cela va parfois jusqu’à de l’amour et de
l’attachement. Les parcs d’attractions sont experts pour trouver un
équilibre entre les réponses opposées des niveaux émotionnels qui
déclenchent la peur à l’aide des niveaux viscéral et comportemental, tout
en recevant le réconfort du niveau réflexif qui dit que le parc ne met
personne en danger.
Les trois niveaux de traitement fonctionnent ensemble pour déterminer
l’état cognitif et l’état émotionnel. Un fort niveau de cognition réflexive
peut déclencher des émotions à un bas niveau. Un bas niveau d’émotion
peut déclencher un haut niveau de réflexivité cognitive.

Les sept niveaux d’action et les trois niveaux


de traitement
Les niveaux d’action s’associent facilement avec ceux de traitement
(figure 2-4). Au plus bas niveau, on trouve le niveau viscéral du calme ou
de l’anxiété lorsque l’on approche d’une tâche ou que l’on évalue l’état du
monde. Ensuite, au centre, on trouve les niveaux comportementaux gérés
par les attentes de l’exécution (par exemple, l’espoir et la peur) ou les
émotions provoquées par l’évaluation de l’exécution (soulagement ou
déception). Au plus haut niveau se trouvent les émotions réflexives, celles
qui analysent les résultats, trouvent les causes et définissent les
conséquences immédiates et sur le long terme. C’est à ce niveau que la
satisfaction et la fierté se produisent, à moins que ce ne soit les reproches
et la colère.

Figure 2–4 Niveaux de traitement et étapes du cycle de l’action. La réponse viscérale


est au niveau le plus bas : le contrôle des muscles et la sensation de l’état du monde et
du corps. Le niveau comportemental est lié aux attentes ; il est donc sensible à la
séquence de l’action, puis à l’interprétation des feedbacks. Le niveau réflexif fait partie
de l’objectif et il est également régi par la comparaison de l’objectif avec ce qui s’est
réellement produit.
Un des états émotionnels importants est celui qui accompagne la complète
immersion dans l’activité, un état que Mihaly Csikszentmihalyi nomme le
flow. Ce sociologue a longtemps étudié comment les gens interagissent
avec leur travail et leurs jeux, pour déterminer comment leur vie reflète ce
mélange d’activités. Lorsqu’ils sont dans le flow, ils perdent la notion du
temps et de l’environnement extérieur car ils sont totalement dans la tâche
en cours. Toutefois, la tâche a été choisie pour être suffisamment difficile
en demandant une attention constante, mais pas au point de provoquer de
la frustration et de l’anxiété.
Le travail de Csikszentmihalyi montre comment le niveau comportemental
crée un puissant ensemble de réponses émotionnelles. Ici, les attentes
inconscientes, créées par le côté exécution du cycle d’action, provoquent
des états émotionnels dépendants de ces attentes. Lorsque l’on compare le
résultat de nos actions avec ce que l’on attendait, les émotions qui en
résultent affectent notre ressenti à mesure que l’on continue le cycle de
l’action. Avec une tâche facile, bien en dessous de notre niveau de
compétence, il est facile d’atteindre les attentes. Peu, ou pas, d’effort est
nécessaire pour traiter la tâche, ce qui provoque de l’ennui. Une tâche
difficile, bien au-delà de nos aptitudes, ne permet pas d’atteindre toutes les
attentes, ce qui provoque de la frustration, de l’anxiété et de l’impuissance.
Le flow apparaît lorsque l’activité est juste au-dessus de notre niveau de
compétence ; dans ce cas, une totale attention est nécessaire. Le flow
nécessite une activité qui n’est ni trop facile, ni trop complexe par rapport
à nos aptitudes. La tension permanente associée aux progrès et aux succès
constants apporte une expérience immergée qui peut parfois durer des
heures.

Se raconter des histoires


Maintenant que nous avons exploré la manière de réaliser les actions et les
trois niveaux de traitement qui contiennent la cognition et l’émotion, nous
sommes en mesure de découvrir quelques implications.
Nous sommes par nature disposés à rechercher les causes d’événements,
pour donner des explications et créer des histoires. C’est la raison pour
laquelle les narrations forment un puissant média. Les histoires résonnent
avec notre propre expérience. Grâce à notre expérience et aux histoires des
autres, nous avons tendance à généraliser sur la manière dont on se
comporte et dont les choses fonctionnent. Nous attribuons des causes à des
effets et, à partir du moment où cette paire cause/effet a du sens, nous
l’acceptons et nous l’utilisons pour la compréhension de futurs
événements. Toutefois, ce processus est souvent erroné car l’attribution
des causes est fréquemment fausse et, pour certaines choses qui se
produisent, on rencontre plusieurs causes. En effet, une série d’événements
contribue à créer le résultat. Si l’un de ces événements ne s’était pas
produit, le résultat aurait été différent. Toutefois, même s’il n’y a pas
qu’une seule cause, cela n’empêche pas qu’on le pense.
Les modèles conceptuels sont une forme d’histoire qui vient de notre
prédisposition à chercher des explications. Ils nous sont nécessaires pour
comprendre nos expériences, pour prévoir les résultats de nos actions et
gérer les imprévus. Nous créons nos modèles à partir de n’importe quelle
connaissance que nous possédons, qu’elle soit réelle ou imaginaire, naïve
ou complexe.
Les modèles conceptuels sont souvent construits à partir de fragments de
témoignages, avec une faible compréhension de ce qui se produit, mais
aussi avec une sorte de psychologie naïve qui établit les causes, les
mécanismes et les relations, même lorsqu’il n’y en a pas. Certains mauvais
modèles conduisent à la frustration pour la vie quotidienne, comme c’est
le cas avec mon réfrigérateur (figure 1–10). Les mauvais modèles,
lorsqu’ils sont destinés à être utilisés dans des usines ou à bord des avions
commerciaux, sont bien plus graves : une incompréhension risque de
provoquer de graves accidents.
Prenons par exemple les thermostats qui gèrent la température des pièces.
Comment fonctionnent-ils ? En majorité, ils donnent uniquement une vue
d’ensemble de leur fonctionnement. Tout ce que nous savons, c’est que, si
la pièce est trop froide, on augmente la température sur le thermostat.
Notez que le principe est identique avec n’importe quel appareil de
régulation de la température ; par exemple, si vous souhaitez cuire un
gâteau, il suffit de régler le thermostat et le four chauffe à la température
souhaitée.
Si vous pensez que la pièce ou le four chauffera plus vite lorsque le
thermostat est réglé au maximum, vous avez tort. Vous colportez une
fausse théorie selon laquelle le thermostat fonctionne comme une valve
contrôlant la quantité de chaleur (ou de froid) qui sort de l’appareil. L’idée
est intéressante et il est vrai que certains appareils fonctionnent de la sorte.
Néanmoins, ce n’est jamais le cas pour le système de chauffage, de
climatisation ou de cuisson d’une maison standard.
Dans la plupart des maisons, le thermostat est un simple interrupteur. Les
systèmes de chauffage ou de climatisation sont en général soit en marche,
soit arrêtés, sans état intermédiaire. Le thermostat met en fonction le
chauffage, le four ou le climatiseur à pleine puissance jusqu’à atteindre la
température indiquée. Ensuite, le système s’arrête. Par conséquent, en
réglant au maximum le thermostat, on ne diminue pas le temps de chauffe.
Pire, si la température réglée n’est pas celle souhaitée, on va dépasser la
valeur désirée ; si vous aviez trop froid ou trop chaud, vous risquez, au
contraire, d’avoir trop chaud ou trop froid. Il faut aussi tenir compte de la
perte d’énergie.
Quelles sont les informations qui vous aident à comprendre comment
fonctionne le thermostat ? Le problème de conception avec le
réfrigérateur, c’est qu’il n’y a aucune indication, aucun moyen de créer un
modèle conceptuel correct. En fait, les informations fournies conduisent
les utilisateurs à créer un mauvais modèle conceptuel.
Ces exemples sont là pour montrer que le problème ne vient pas du fait
que des personnes ont de fausses croyances, mais du fait qu’elles créent
des histoires pour expliquer ce qu’elles ont vu. En l’absence d’information
externe, on peut laisser libre cours à son imagination, à partir du moment
où les modèles conceptuels que l’on crée sont en rapport avec ce que l’on
voit. Par conséquent, on utilise les thermostats de la mauvaise façon, ce
qui fait fournir des efforts inutiles, crée de larges amplitudes de
température et engendre un gaspillage d’énergie.

Accuser à tort
Nous avons tendance à attribuer une relation de cause à effet lorsque deux
événements se succèdent. Si quelque chose d’inhabituel se produit chez
moi, immédiatement après que j’ai effectué une action, je suis en position
de conclure que j’ai provoqué l’événement, même si les deux ne sont pas
liés. De même, lorsqu’une action doit provoquer un résultat et que rien ne
se passe, je tends à en conclure que ce manque de retour d’information se
produit parce que j’ai fait quelque chose de travers. Dans ce cas, la plupart
du temps, je pense qu’il faut recommencer en y allant plus fort. On pousse
une porte pour l’ouvrir et elle ne s’ouvre pas ; on la pousse alors plus fort.
Avec les appareils électroniques, si le feedback n’est pas immédiat, on a
tendance à imaginer que l’appui n’a pas été pris en compte. Par
conséquent, on recommence l’opération en appuyant plus fort, souvent à
plusieurs reprises, sans se rendre compte que toutes les actions ont été
prises en compte. On obtient souvent des résultats inattendus. En répétant
les appuis, on peut intensifier la réponse de façon non souhaitée. Il est
possible aussi qu’une deuxième pression annule la précédente ; par
conséquent, un nombre pair d’appuis donne le résultat souhaité alors qu’un
nombre impair ne donne aucun résultat.
Répéter l’action à la suite d’un échec est parfois catastrophique. Cela a
provoqué la mort de nombreuses personnes qui essayaient de fuir un
incendie et ont tenté de sortir par des portes qui s’ouvraient vers l’intérieur
et non vers l’extérieur. Par conséquent, dans de nombreux pays, les portes
doivent être poussées et, de plus, être ouvertes à l’aide de ce que l’on
appelle une barre antipanique. Il s’agit d’un excellent exemple d’un bon
usage des affordances (figure 2-5).
Figure 2–5 Barre antipanique. Les personnes qui fuient un incendie risquent de
mourir si elles rencontrent des portes s’ouvrant vers l’intérieur, parce qu’elles vont
essayer de les pousser, de plus en plus fort puisque cela ne fonctionne pas. Selon la
loi de plusieurs pays, il convient d’adopter une conception où la porte se pousse. Voici
un exemple qui met en jeu un bon usage des affordances. La barre noire indique où
pousser.
Photographie de l’auteur au Ford Design Center, Northwestern University.

Les systèmes modernes donnent en majorité un feedback dans les 0,1 s


pour indiquer à l’utilisateur que la commande a été prise en compte. Ceci
est particulièrement important lorsque le traitement de la demande prend
du temps. La présence d’un sablier ou d’une horloge qui tourne est un
signe rassurant indiquant que le traitement est en cours. Lorsque le délai
est calculable, certains systèmes indiquent le temps restant avant la fin de
l’opération. De plus en plus de systèmes devraient adopter une telle
technique.
De nombreuses études indiquent qu’il est préférable de surévaluer le
temps pour la tâche. Il est souhaitable d’indiquer la vitesse la moins élevée
ou le délai le plus long. Ainsi, si l’opération prend moins de temps,
l’usager sera content.
Lorsqu’il est difficile de déterminer la cause du problème, les utilisateurs
se servent de leur propre modèle conceptuel pour percevoir une relation
entre le responsable et le résultat. Le mot « percevoir » est important, car
la relation causale n’a pas besoin d’exister ; il suffit que la personne
imagine qu’elle existe. Parfois, on attribue des causes à des éléments qui
n’ont aucun lien avec l’action.
Supposons que j’essaie d’utiliser un objet du quotidien mais que je n’y
parvienne pas. Qui est responsable : l’objet ou moi ? Nous avons tendance
à nous auto-accuser, surtout lorsque d’autres personnes parviennent à
utiliser l’objet. Même si d’autres rencontrent le même problème, comme
nous percevons que le problème vient de nous, nous ne voudrons pas
admettre que nous avons des soucis. Cela crée une sorte de conspiration du
silence où les utilisateurs cachent un sentiment de culpabilité et
d’impuissance.
Il est intéressant de noter que la tendance à se croire responsable des
échecs avec les objets du quotidien va à l’encontre de ce que nous pensons
des autres et de nous-mêmes. Parfois, on agit de manière étrange ou fausse
et inappropriée. Lorsque nous sommes dans cet état, nous avons tendance
à penser que cela vient de notre environnement. Quand les autres agissent
ainsi, nous pensons que cela vient de leur personnalité.
Prenons un exemple, avec Tom la terreur du bureau. Aujourd’hui, il est
arrivé tard et a crié sur tout le monde parce que la machine à café était
vide ; ensuite, il a couru vers son bureau et a claqué la porte. Ces collègues
se sont dit « Et le voilà qui recommence ! »
Prenons maintenant le point de vue de Tom. « J’ai vraiment une mauvaise
journée. Je me suis réveillé en retard parce que le réveil n’a pas sonné et je
n’ai pas eu le temps de boire mon café du matin. Ensuite, j’ai eu du mal à
trouver une place de stationnement parce que j’étais en retard. Puis il n’y
avait plus de café dans la machine du bureau. Ce n’est pas de ma faute, j’ai
eu une série de mauvais événements. J’ai été un peu rude, mais qui ne le
serait pas en pareilles circonstances ? »
Les collègues de Tom ne connaissent ni ses pensées, ni son activité
matinale. Tout ce qu’ils ont vu, c’est que Tom a crié parce que la machine
à café était vide. Comme cela leur rappelle un épisode similaire, ils
concluent qu’il fait cela tout le temps et qu’il explose pour la moindre des
choses. Qui a raison ? Tom ou ses collègues ? Les événements peuvent se
voir des deux côtés et donner lieu à deux interprétations : les réponses aux
difficultés de la vie ou le résultat d’un caractère explosif et irascible.
Il semble naturel d’attribuer ses malheurs à l’environnement. Il semble
tout aussi naturel de tenir la personnalité des autres pour responsable de
leurs malheurs. L’opposé est vrai également : quand les choses vont bien,
on pense que c’est parce que l’on a des capacités et que l’on est intelligent.
Quand on voit que tout va bien pour quelqu’un, on pense qu’il a de la
chance.
Dans tous les cas, que l’on soit incapable d’utiliser un objet ou que le
comportement soit influencé par la personnalité ou par l’environnement, le
modèle conceptuel n’est pas correct.

Impuissance acquise
Le phénomène appelé impuissance acquise (impuissance apprise ou
résignation acquise) explique le fait de se culpabiliser. Ce phénomène fait
référence à une situation dans laquelle on essuie des échecs répétés pour
une tâche. On estime alors que la tâche ne peut pas être accomplie ; tout
du moins, on ne peut pas l’accomplir et on est impuissant. On finit par
arrêter d’essayer. Si ce sentiment concerne un ensemble de tâches, il en
résulte parfois de sévères difficultés tout au long de la vie. Dans des cas
extrêmes, cela conduit à la dépression et au sentiment que l’on est
incapable de gérer la vie au quotidien. Parfois, un tel sentiment
d’impuissance naît à la suite de quelques mauvaises expériences
accidentelles. Le phénomène a été le plus souvent étudié en tant que
précurseur du problème clinique de la dépression, mais je l’ai vu se
produire après quelques mauvaises expériences avec des objets de la vie
quotidienne.
Est-ce que les phobies des technologies sont le résultat d’une sorte
d’impuissance acquise ? Est-ce que quelques cas d’échecs dans ce qui
semble être des situations simples se généraliseraient à tout ce qui est
technologique et tout ce qui est problème de mathématiques ? Peut-être.
En fait, la conception des objets du quotidien (et des cours de
mathématiques) semble pratiquement garantir les problèmes. On devrait
appeler cela le phénomène d’impuissance enseignée.
Quand on a du mal à utiliser la technologie, surtout quand on pense
(généralement à tort) que personne d’autre ne rencontre ce problème, on a
tendance à se blâmer. Pire encore, plus on rencontre de problèmes, plus on
se sent impuissant et on croit que l’on est techniquement incompétent. On
est à l’opposé de la réaction normale où l’on tient l’environnement
responsable de nos difficultés. Cette fausse accusation est ironique parce
que le coupable est généralement la mauvaise conception de la
technologie. Il serait donc parfaitement adapté d’accuser l’environnement
(la technologie).
Prenez un cursus normal pour l’enseignement des mathématiques. Les
cours progressent invariablement en considérant que, à chaque nouvelle
leçon, on a compris et on maîtrise tout ce que l’on a appris précédemment.
Même si chaque point est simple, une fois que l’on prend du retard, il est
difficile de se rattraper. C’est là que naît la phobie des mathématiques :
non pas parce que les cours sont difficiles, mais parce qu’ils sont
enseignés de manière qu’une difficulté à un moment précis empêche tout
progrès ultérieur. Des processus similaires existent avec la technologie. Le
cercle vicieux démarre : si on rate quelque chose, on pense que c’est notre
faute. Par conséquent, on imagine que l’on ne peut pas réaliser la tâche.
Donc, lorsque l’on doit de nouveau la réaliser, on ne tente même pas
d’essayer parce que l’on pense qu’on n’en est pas capable. Et comme on le
pense, on ne parvient pas à accomplir la tâche et on entre dans une boucle
sans fin que l’on crée soi-même.

Psychologie positive
De la même manière que l’on apprend à abandonner après de multiples
échecs, on peut apprendre des réponses optimistes et positives. Pendant
des années, les psychologues se sont penchés sur le sombre récit de
l’échec, sur les capacités humaines et les psychopathologies (dépression,
manie, paranoïa). Toutefois, le XXIe siècle voit une nouvelle approche qui
consiste à se concentrer sur une culture de la pensée positive et de se sentir
bien dans sa peau. En fait, l’état émotionnel normal de la plupart des gens
est positif. Lorsque quelque chose ne fonctionne pas, on le prend comme
un défi intéressant ou comme une expérience d’apprentissage positive.
Nous devons supprimer le mot échec de notre vocabulaire et le remplacer
par l’expérience d’apprentissage. Échouer, c’est apprendre : nous
apprenons plus de nos échecs que de nos succès. Avec le succès, nous
sommes certes ravis, mais souvent nous ne savons pas pourquoi nous
avons réussi. Avec l’échec, il est souvent possible de comprendre
pourquoi, afin de s’assurer que cela ne se reproduira plus.
Les scientifiques savent cela. Ils font des expériences pour connaître le
fonctionnement du monde. Parfois, leurs expériences fonctionnent comme
prévu, mais souvent ce n’est pas le cas. S’agit-il d’échecs ? Non, ils
apprennent de leurs expériences. Un grand nombre de découvertes
scientifiques parmi les plus importantes proviennent de ces soi-disant
échecs.
L’échec peut devenir un outil d’apprentissage si puissant que de nombreux
concepteurs sont fiers des échecs qui surviennent lorsqu’un produit est
encore en développement. Une entreprise de conception, IDEO, a pour
credo « échouons souvent, échouons vite ». Ils savent que chaque échec
leur apprend beaucoup sur la manière de bien faire. Les concepteurs
doivent échouer, tout comme les chercheurs. Depuis longtemps, j’ai la
conviction que les échecs sont un élément essentiel de l’exploration et de
la créativité. Si les concepteurs et les chercheurs n’échouent pas parfois,
c’est un signe qu’ils ne font pas assez d’efforts. Ils ne pensent pas aux
grandes idées créatives qui apporteront des percées dans la façon dont
nous faisons les choses. Il est possible d’éviter les échecs, d’être toujours
en sécurité, mais c’est aussi la voie vers une vie terne et sans intérêt.
La conception de nos produits et services doit suivre cette philosophie.
Pour les concepteurs qui lisent ces lignes, voici quelques conseils :
Ne blâmez pas les personnes qui n’arrivent pas à utiliser correctement
vos produits.
Servez-vous des difficultés des gens comme indications des points à
améliorer sur vos produits.
Éliminez les messages d’erreur sur tout produit électronique ou
informatique. Fournissez plutôt de l’aide et de l’assistance.
Essayez autant que possible de corriger correctement les problèmes
avec des messages d’aide et d’assistance. Permettez aux utilisateurs de
continuer leur tâche. N’empêchez pas leur progression, ne les obligez
pas à recommencer au début.
Supposez que ce que font les utilisateurs n’est pas totalement correct
et fournissez l’aide suffisante pour corriger le problème et continuer.
Pensez positif pour vous et les personnes avec qui vous êtes en
interaction.
Se blâmer faussement
J’ai étudié des personnes commettant des erreurs (parfois graves) avec des
appareils mécaniques, des interrupteurs, des fusibles, des systèmes
d’exploitation et des traitements de texte, même des avions et des centrales
nucléaires. Invariablement, elles se sentent coupables et soit elles
cherchent à cacher leur erreur, soit elles s’accusent d’être stupides ou
maladroites. J’ai souvent des difficultés à obtenir la permission de les
regarder. Les gens n’aiment être observés quand ils ne font pas
correctement quelque chose. Je mets en avant le fait que la conception est
en faute et que d’autres personnes font les mêmes erreurs. Toutefois, si la
tâche est simple ou banale, les gens continuent de se sentir coupable. On a
l’impression qu’ils sont « fiers » d’être incompétents.
Un jour, une grande société d’informatique m’a demandé d’évaluer un
nouveau produit. J’ai passé une journée à apprendre comment l’utiliser et
à l’essayer sur divers problèmes. Lors de la saisie au clavier, il était
nécessaire de différencier la touche Retour de la touche Entrée. Si on
appuyait sur cette dernière, les dernières minutes de travail étaient
irrémédiablement perdues.
J’ai fait part de ce problème au concepteur, en expliquant que je faisais
fréquemment l’erreur et que mon analyse indiquait que les utilisateurs en
feraient autant. Sa réponse fut la suivante : « Pourquoi avez-vous fait cette
erreur ? Vous n’avez pas lu le manuel ? » Il continua en expliquant les
différentes fonctions de ces deux touches.
Je lui expliquai que je comprenais les deux touches mais que je les
confondais. Elles ont une fonction similaire et sont placées dans des
emplacements similaires. En tant qu’utilisateur expérimenté du clavier,
j’appuie souvent sur Retour de façon automatique, sans y penser. D’autres
ont certainement des problèmes semblables.
« Pas du tout » dit le concepteur. Pour lui, j’étais la seule personne à m’en
plaindre et les employés de la société utilisaient le système depuis des
mois sans problème. J’étais sceptique et nous sommes donc partis
interroger des salariés pour savoir s’ils confondaient les deux touches et
s’ils avaient déjà perdu leur travail.
Elles répondirent « Oh, oui, souvent ».
Pourquoi personne ne s’en était-il plaint ? Après tout, ces personnes
étaient encouragées à informer de tous les problèmes rencontrés avec le
système. La raison en était simple : lorsque le système cessait de
fonctionner ou faisait quelque chose d’étrange, elles signalaient
consciemment le problème, mais quand elles confondaient Retour et Entrée,
elles se tenaient pour responsables. Après tout, on leur avait dit quoi faire
et elles s’étaient tout simplement trompées.
Penser qu’une personne est fautive lorsque quelque chose ne va pas est
profondément ancré dans la société. C’est pourquoi nous accusons les
autres, voire nousmême. Malheureusement, le système judiciaire intègre
l’idée selon laquelle une personne est responsable. En cas d’accident
majeur, des tribunaux sont mis en place pour évaluer la faute. De plus en
plus souvent, la faute est attribuée à une « erreur humaine ». La personne
impliquée peut être condamnée à une amende, être punie ou renvoyée.
Peut-être que l’on en profite pour revoir les procédures de formation.
Pourtant, selon mon expérience, l’erreur humaine est généralement le
résultat d’une mauvaise conception. Il faudrait parler d’erreur système.
Les humains se trompent continuellement ; c’est dans notre nature. La
conception du système devrait en tenir compte. Faire porter l’erreur à une
personne est une façon de procéder, mais pourquoi le système a-t-il été
conçu de manière qu’un seul acte d’une seule personne puisse causer une
catastrophe ? Pire, blâmer la personne sans réparer la cause sous-jacente
ne résout pas le problème. La même erreur est susceptible d’être répétée
par quelqu’un d’autre.

Je reviendrai sur le sujet de l’erreur humaine au chapitre 5.

Bien entendu, les gens font des erreurs. Les appareils complexes
demandent toujours de prendre connaissance d’instructions et ceux qui les
utilisent sans connaître ces instructions doivent s’attendre à commettre des
erreurs. Toutefois, les concepteurs doivent suffisamment travailler pour
réduire les erreurs autant que possible.
Éliminez le terme d’« erreur humaine ». Ce que nous appelons une erreur
est généralement une mauvaise communication ou interaction. Lorsque
des gens collaborent, le mot « erreur » n’est jamais utilisé pour caractériser
ce que dit une autre personne, parce que chacun essaie de comprendre
l’autre et de réagir. Lorsque quelque chose n’est pas compris ou semble
inapproprié, on s’interroge et on clarifie ; ainsi, la collaboration se
poursuit. Pourquoi l’interaction entre une personne et une machine ne
peut-elle pas être considérée comme une collaboration ?
Les machines ne sont pas des personnes. Elles ne peuvent pas
communiquer et comprendre de la même manière que nous le faisons.
Cela signifie que les concepteurs doivent absolument s’assurer que le
comportement de la machine est compréhensible par les personnes qui
l’utilisent. La collaboration demande que chaque partie fasse des efforts
pour se comprendre. Lorsque nous utilisons des machines, c’est à nous, et
uniquement à nous, de nous adapter. Pourquoi les machines ne seraient-
elles pas plus conviviales ? Elles doivent accepter le comportement
humain normal. De la même façon que les personnes évaluent
inconsciemment la justesse des propos tenus, les machines doivent être en
mesure de juger de la qualité des informations qui leur sont fournies. Dans
notre cas, il s’agit d’aider les opérateurs à éviter les erreurs (chapitre 5).
Aujourd’hui, les gens doivent accomplir leurs tâches de manière anormale,
afin de s’adapter aux exigences des machines, ce qui implique de toujours
fournir des informations précises et exactes. Or, les humains sont
particulièrement mauvais en la matière et, quand ils ne répondent pas aux
exigences arbitraires et inhumaines des machines, nous appelons cela une
erreur humaine. Non, c’est une erreur de conception.
Les concepteurs doivent tout d’abord s’efforcer de minimiser les risques
d’actions inappropriées en utilisant des affordances, des signifiants, un bon
mapping et des contraintes pour guider les actions. Si une personne
effectue une action inappropriée, la conception doit maximiser les chances
que cela soit découvert et rectifié. Cela nécessite un feedback intelligible
associé à un modèle conceptuel simple et clair. Lorsque les gens
comprennent ce qui s’est passé, dans quel état se trouve le système et
quelle est la série d’actions la plus appropriée, ils sont plus efficaces.
Les gens ne sont pas des machines. Les machines n’ont pas à
s’interrompre continuellement, contrairement aux humains. Nous sommes
souvent contraints de passer d’une tâche à l’autre, nous obligeant à nous
adapter. Il n’est donc pas étonnant que nous oubliions où nous en étions
lorsque nous revenons à la tâche initiale.
Lorsque les gens interagissent avec des machines, les choses ne se passent
pas toujours bien. Les concepteurs doivent en tenir compte. Il est facile de
concevoir des appareils qui fonctionnent bien lorsque tout se passe comme
prévu. La partie difficile, mais nécessaire, est de faire en sorte que tout
fonctionne bien même lorsque les choses ne se passent pas comme prévu.

Comment accommoder la technologie au


comportement humain
Par le passé, les coûts empêchaient de nombreux fabricants de fournir des
feedbacks utiles afin que les utilisateurs créent des modèles conceptuels
précis. Le coût des écrans en couleurs suffisamment grands et
suffisamment souples pour fournir les informations nécessaires était
prohibitif pour de petits appareils peu coûteux. Cependant, comme le coût
des capteurs et des écrans a diminué, il est maintenant possible de faire
beaucoup plus.
Grâce aux écrans, les téléphones sont plus simples à utiliser que jamais.
Par conséquent, je retire toutes les critiques que je formulais à leur égard
dans la précédente édition de ce livre. Je suis impatient de voir les progrès
qui seront réalisés dans tous nos appareils, maintenant que l’importance de
ces principes de conception est reconnue et que l’évolution de la
technologie permet de les mettre en œuvre.

Fournir un modèle conceptuel pour un thermostat


Mon thermostat (conçu par Nest Labs) offre un écran couleur qui est
normalement éteint et s’allume uniquement quand il détecte que je
m’approche. Il m’indique alors la température pour laquelle il est réglé,
celle de la pièce et s’il est en train de refroidir ou de réchauffer cette
dernière (la couleur de fond est noire quand la température correspond à la
consigne, orange quand il chauffe et bleue quand il refroidit). Il apprend
mes habitudes quotidiennes pour diminuer automatiquement la
température à l’heure du coucher et l’augmenter le matin ; il passe
également en mode « absent » quand il détecte que personne n’est dans la
maison. Il indique en permanence ce qu’il est en train de faire. Par
conséquent, quand il doit changer la température d’une pièce (parce que
quelqu’un a modifié le réglage ou parce que c’est l’heure de changer), il
donne une estimation « Maintenant 24 °C, 22 °C dans 20 minutes ». De
plus, on peut le connecter sans fil aux appareils intelligents afin de le
commander sur un plus grand écran. Ce dernier fournit en plus des
informations détaillées sur les performances, grâce auxquelles les
habitants de la maison créent un modèle conceptuel du thermostat mais
également de l’énergie consommée. Est-ce que cet appareil est parfait ?
Non, mais il marque une amélioration dans l’interaction entre les gens et
les objets du quotidien.

Figure 2–6 Un thermostat avec un modèle contextuel explicite. La photo A montre le


thermostat. L’arrière-plan bleu indique que l’appareil est en train de refroidir la maison.
La température actuelle est de 75 °F (24 °C), celle à atteindre est de 72 °F (22 °C), qui
devrait être atteinte en 20 minutes. La photo B montre l’utilisation d’un smartphone
pour fournir un résumé des réglages et de la consommation d’énergie par la maison.
Photo Nest Labs, Inc.
Saisir des dates, des horaires et des numéros de
téléphone
Beaucoup de machines sont programmées pour être très pointilleuses
quant à la forme des saisies dont elles ont besoin. Une telle complexité
n’est pas due à une exigence de la machine mais à un manque de
considération des concepteurs du logiciel. En d’autres termes, la
programmation est inappropriée. Considérez les exemples suivants.
Nous sommes nombreux à passer des heures sur ordinateur à remplir des
formulaires qui nécessitent des noms, dates, adresses, numéros de
téléphone, sommes d’argent et toute autre information à saisir dans un
format fixe et rigide. Pire, souvent, on ne nous renseigne même pas sur le
format à utiliser, jusqu’à ce que nous nous trompions. Pourquoi ne pas
indiquer les différents formats disponibles ? Certaines entreprises ont
réalisé de l’excellent travail dans ce domaine.
Regardons le programme de calendrier de Microsoft. Il est possible de
spécifier les dates comme vous le souhaitez : 23 novembre 2020, 23 novembre
20 ou 11/23/20. Il accepte même des phrases telles que : une semaine à partir de
jeudi, demain, une semaine à partir d’hier. Il en va de même avec l’heure : 15h45,
une heure, deux heures et demie. C’est encore identique avec les numéros de
téléphone : il est possible de commencer par un signe + (pour indiquer le
code de composition internationale) comme de séparer les champs
numériques par des espaces, des tirets, des parenthèses, des barres
obliques ou des points. Tant que le programme est capable de déchiffrer la
date, l’heure ou le numéro de téléphone dans un format légal, c’est
accepté. J’espère que l’équipe qui a travaillé là-dessus a obtenu une
promotion.
Même si j’ai pris Microsoft en exemple, ce n’est pas la seule société qui
facilite la saisie d’informations. Il faut reconnaître que la tâche est
grandement facilitée, sauf, peut-être encore, avec des applications de petits
développeurs.

Les sept principes fondamentaux de la


conception
Le modèle en sept étapes pour le cycle d’action est un excellent outil parce
qu’il fournit une liste de base des questions à poser. En général, chaque
étape nécessite sa propre stratégie de conception, mais offre également sa
propre opportunité de désastre (figure 2-7) :
1 Qu’est-ce que je souhaite réaliser ?
2 Quelles sont les alternatives aux séquences de l’action ?
3 Quelle est l’action que je peux réaliser ?
4 Comment dois-je m’y prendre ?
5 Que s’est-il passé ?
6 Qu’est-ce que cela signifie ?
7 Est-ce bon ? Ai-je atteint mon objectif ?
Toute personne utilisant un produit devrait pouvoir déterminer les
réponses aux sept questions. C’est le concepteur qui doit s’assurer, à
chacun des niveaux, que le produit fournit les informations nécessaires
pour répondre à la question.
L’information qui permet de répondre aux questions de l’exécution est dite
anticipée (feedforward) ; celle qui aide à comprendre ce qui s’est passé est
le feedback. Tout le monde connaît ce qu’est le feedback, qui renseigne sur
ce qui s’est passé, mais comment savez-vous ce que vous pouvez faire ?
C’est le rôle de l’information anticipée, terme emprunté à la théorie du
contrôle.
Figure 2–7 Les sept étapes de l’action comme aide à la conception. Chacune
correspond à une question de la personne utilisant le système et à un thème de
conception. Comment la conception transmet-elle l’information nécessaire pour
répondre à la question de l’utilisateur ? À l’aide des différents mappings, contraintes,
signifiants, modèles conceptuels, feedbacks et visibilités. L’information qui permet de
répondre à la question est dite anticipée (feedforward) ; celle qui aide à comprendre ce
qui s’est passé est le feedback.

L’information anticipée s’obtient grâce au bon usage des signifiants, des


contraintes et des mappings. Le feedback s’accomplit à l’aide
d’informations précises sur l’effet d’une action. Une fois de plus, le
modèle conceptuel joue un rôle important.
Le feedback et le feedforward doivent être facilement interprétables par
les personnes se servant du système. Leur présentation doit correspondre à
la façon dont les utilisateurs voient le résultat qu’ils essaient d’obtenir et
aussi à leurs attentes. L’information doit correspondre aux besoins
humains.
Les informations des sept niveaux d’action nous donnent les principes
fondamentaux de la conception :
1 « Découvrabilité ». On peut déterminer les actions possibles et l’état
actuel de l’appareil.
2 Feedback. Le système renvoie des informations complètes et continue
sur le résultat des actions ainsi que sur son état actuel.
3 Modèle conceptuel. La conception projette toute l’information
nécessaire pour la création d’un bon modèle conceptuel du système,
ce qui conduit à la compréhension des commandes. Le modèle
conceptuel améliore la « découvrabilité » et l’évaluation des résultats.
4 Affordances. Les affordances correctes sont présentes pour rendre
possible la réalisation de l’action souhaitée.
5 Signifiants. Une utilisation correcte des signifiants améliore la
« découvrabilité » et assure que l’information en retour est
correctement transmise.
6 Mapping. La relation entre les commandes et les actions qu’elles
déclenchent suit les principes d’un bon mapping, amélioré, si
possible, par une spatialisation.
7 Contraintes. On fournit des contraintes physiques, logiques,
sémantiques et culturelles pour guider les actions et faciliter
l’interprétation.
La prochaine fois que vous ne comprendrez pas immédiatement comment
fonctionne le robinet de la douche d’un hôtel, que vous aurez des
problèmes avec un nouveau téléviseur ou avec des appareils de cuisine,
gardez à l’esprit que le problème vient de la conception. Demandez-vous
où se situe le problème. À quel niveau des sept étapes l’action ne s’est-elle
pas déroulée correctement ? Quel est le principe de la conception qui fait
défaut ?
Il est facile de trouver l’erreur ; la clé est de pouvoir mieux faire les
choses. Demandez-vous comment la difficulté est née. Imaginez que
plusieurs groupes de personnes sont impliqués, chacun d’entre eux ayant
des raisons intelligentes et sensées pour ses actions. Par exemple, une
douche gênante a été conçue par des personnes qui ne savaient pas
comment elle serait installée. Ses commandes ont pu être sélectionnées par
un entrepreneur en bâtiment pour s’adapter aux plans de la maison. Enfin,
un plombier a effectué l’installation et a éventuellement adapté les plans
en fonction de contraintes techniques imprévues. Où sont apparus les
problèmes ? Cela aurait pu être à n’importe laquelle (ou plusieurs) de ces
étapes. Le résultat semble de piètre conception, mais il provient en réalité
d’une mauvaise communication.
Une des règles que je me suis imposée est la suivante : « ne critiquez pas
si vous ne savez pas faire mieux ». Essayez de comprendre pourquoi la
conception est mauvaise et comment faire autrement. En réfléchissant aux
causes d’une mauvaise conception et aux solutions possibles, vous devriez
mieux apprécier les bonnes conceptions. Ainsi, la prochaine fois que vous
rencontrerez un objet bien conçu, à utiliser sans effort du premier coup,
arrêtez-vous et examinez-le. Considérez à quel point il maîtrise les sept
étapes de l’action et les principes de conception. Reconnaissez que, pour la
plupart, nos interactions avec les produits sont réellement des interactions
avec un système complexe : une bonne conception nécessite de prendre en
compte l’ensemble du système afin de garantir que les exigences, les
intentions et les désirs de chaque étape soient fidèlement compris et
respectés à toutes les autres étapes.
3
Le savoir dans notre mémoire
et dans le monde

Un ami m’a gentiment prêté sa voiture, un vieux modèle classique de


Saab. Juste avant de partir, j’ai trouvé un papier de sa part m’expliquant
que, pour retirer les clés du contact, le levier de vitesse devait être sur la
marche arrière. Sur la marche arrière ! Sans ses instructions, je n’aurais
jamais trouvé comment faire. Il n’y avait aucune indication particulière
dans la voiture ; il fallait connaître cette astuce. Si l’on ne sait pas ce qu’il
faut faire, la clé reste sur le contact à tout jamais.

Tous les jours, nous sommes confrontés à de nombreux objets, engins et


services, chacun d’entre eux nécessitant de se comporter d’une façon
précise. La plupart du temps, on arrive à s’en sortir. Notre savoir est
souvent incomplet, ambigu, ou même erroné, mais ce n’est pas un
problème : notre journée se passe sans accrocs. Comment fait-on pour se
débrouiller ? On combine le savoir dans notre mémoire et celui présent
dans le monde autour de nous ; seul, aucun des deux n’est suffisant.
Il est facile de montrer les failles de l’être humain et de sa mémoire. Les
psychologues Ray Nickerson et Marilyn Adams ont démontré que les gens
ne se souviennent pas à quoi les pièces de monnaie les plus communes
ressemblent (figure 3-1). Même si l’exemple en question concerne la pièce
américaine d’un centime, le penny, cette découverte reste vraie peu
importe le pays et la monnaie. Malgré cette incapacité à se souvenir de
l’apparence d’une pièce, on parvient à l’utiliser sans problème.
La précision du comportement et l’imprécision du savoir ne sont-elles pas
en contradiction ? Non, car tout le savoir n’est pas nécessaire pour que le
comportement soit précis. Il combine les connaissances présentes dans
notre mémoire, le savoir extérieur et les contraintes du monde autour de
nous.

Figure 3–1 Quelle est la pièce de un centime américain ? Des étudiants à qui on a
posé la question se sont trompés. En revanche, ils n’ont aucun mal à utiliser cette
monnaie. Dans la vraie vie, on doit choisir entre un centime et d’autres pièces et non
pas entre plusieurs versions d’une même pièce. Même si le test date de plusieurs
années, il est facile à reproduire avec n’importe quelle pièce de n’importe quel montant.

Comportement précis et savoir imprécis


Un comportement précis peut résulter d’un savoir imprécis de quatre
manières :
Le savoir est dans notre mémoire et dans le monde autour de
nous. Techniquement, le savoir ne peut être que dans notre tête, car il
nécessite une compréhension et une interprétation des faits mais, une
fois que la structure du monde a été comprise et interprétée, il est
possible de considérer cela comme du savoir. Pour effectuer une tâche,
les connaissances nécessaires viennent souvent de notre interprétation
du monde. Le comportement est déterminé en combinant le savoir
intérieur et extérieur. Dans ce chapitre, j’utiliserai « savoir » pour les
deux concepts. Même si le terme est imprécis, cela simplifie la
discussion et la compréhension.
Il n’y a pas besoin d’une précision excellente. La précision,
l’exactitude et la quantité du savoir sont rarement nécessaires. Un
comportement parfait résulte d’un savoir intérieur et extérieur
suffisant, combinés de façon à distinguer les choix appropriés de tous
les autres.
Les contraintes naturelles existent dans le monde. Le monde a
beaucoup de contraintes naturelles et physiques qui restreignent le
comportement possible : l’ordre dans lequel les pièces s’emboîtent
tout comme les directions dans lesquelles un objet peut bouger ou être
manipulé. Ceci est le savoir extérieur. Chaque objet a des
caractéristiques physiques (bosses, creux, vis, parties supplémentaires)
qui limitent ses interactions avec d’autres objets, ce qu’il est possible
de faire avec, à quoi il peut être attaché, etc.
Le savoir des contraintes culturelles et des conventions existe dans
la tête. Les contraintes culturelles et les conventions sont des
restrictions artificielles du comportement que l’on apprend et qui
réduisent le nombre d’actions possibles, ne laissant dans la plupart des
cas qu’une possibilité ou deux. Ceci est le savoir intérieur. Une fois
apprises, ces contraintes s’appliquent à un grand nombre de
circonstances.
Parce que le comportement est guidé en combinant les contraintes aux
savoirs intérieur et extérieur, on minimise la quantité d’éléments à
apprendre, ainsi que la précision, la justesse et la profondeur de
l’apprentissage. Il est aussi possible d’organiser délibérément
l’environnement pour guider le comportement. C’est ainsi qu’un illettré
saura dissimuler son handicap, même dans des situations où son travail
nécessite de lire. Quelqu’un avec des difficultés d’audition (ou avec une
audition normale, mais se trouvant dans un environnement bruyant)
apprend à utiliser d’autres signaux. On s’en sort plutôt bien dans des
situations nouvelles ou déroutantes quand on ne sait pas ce qui est attendu
de nous. Comment fait-on ? On se débrouille pour ne pas avoir besoin
d’une connaissance complète ou pour s’appuyer sur le savoir des gens
autour de nous, en copiant leur comportement ou en leur faisant exécuter
les actions nécessaires. Il est même étonnant de constater à quel point on
peut dissimuler sa propre ignorance et s’en sortir sans compréhension ou
intérêt pour quelque chose.
Le concepteur, même en l’absence d’un savoir préexistant (savoir
intérieur), met souvent suffisamment d’indices dans le design (savoir
extérieur) d’un produit pour que son utilisation soit facile et les résultats
probants. En combinant les deux, savoirs intérieur et extérieur, la
performance est même améliorée. Mais comment le concepteur peut-il
mettre des connaissances dans l’appareil lui-même ?
Les chapitres 1 et 2 ont présenté une large sélection de principes
fondamentaux de conception dérivés de la recherche sur la cognition et
l’émotion humaines. Le présent chapitre montre comment le savoir
extérieur se mélange au savoir intérieur. Ce dernier se compose des
connaissances dans notre mémoire. Ainsi, ce chapitre contient un aperçu
des aspects importants de la mémoire nécessaires pour la conception de
produits utilisables. Je préciserai que, pour des raisons pratiques, il n’est
pas nécessaire de connaître les détails scientifiques des théories, mais
plutôt des approximations plus simples et générales. Je discuterai enfin de
comment la nature présente l’information dans le monde de façon
interprétable et utilisable.

Connaissance extérieure
Quand la connaissance nécessaire pour réaliser une tâche est directement
accessible dans le monde, la nécessité de l’intégrer diminue. Par exemple,
on ne mémorise pas les détails des pièces les plus communes, même si on
les reconnaît sans problème (figure 3-1). On ne se rappelle pas tous les
détails, mais uniquement ceux nécessaires pour différencier les valeurs les
unes des autres. Peu nombreuses sont les personnes qui doivent
suffisamment connaître les pièces pour identifier les contrefaçons.
Un autre exemple est d’écrire sur un clavier. Pour la plupart, les gens ne
mémorisent pas l’ordre des touches, mais chacune d’elles est étiquetée
pour que ceux qui n’ont pas l’habitude de taper sur un clavier puissent
écrire lettre par lettre. En se basant sur les connaissances extérieures, on
réduit le temps nécessaire pour apprendre. Le problème est qu’écrire lettre
par lettre en cherchant la suivante est lent et difficile. Avec de
l’entraînement, les gens apprennent la position des lettres, même sans
instructions, et la vitesse de dactylographie augmente considérablement.
Elle dépassera même souvent la vitesse d’écriture manuscrite et, pour
certaines personnes, atteindra des vitesses respectables. La vision
périphérique et la sensation du clavier donnent des indices quant à la
position des touches. Celles utilisées le plus fréquemment sont apprises
complètement. En revanche, celles utilisées moins fréquemment ne sont
pas très bien apprises et les autres ne le sont que peu. De toute façon, tant
qu’on a besoin de garder un œil sur le clavier, la vitesse est limitée. Dans
ce cas, la connaissance est principalement extérieure, plutôt qu’intérieure.
Si quelqu’un écrit beaucoup au clavier, et de façon régulière, des
investissements deviennent intéressants : un cours, un livre ou un
programme interactif. Le plus important est d’apprendre où placer ses
doigts sur le clavier, d’écrire sans regarder, d’intégrer la connaissance du
clavier dans sa mémoire. Apprendre le système prend plusieurs semaines
et il y a besoin de plusieurs mois de pratique pour devenir un expert.
Toutefois, cet investissement paye à la fin avec une plus grande vitesse
d’écriture, une plus grande précision et un effort mental moindre pour
écrire au clavier.
On n’a pas besoin de retenir plus de connaissances que ce qui nous est
nécessaire pour accomplir nos tâches. Il y a tant de connaissances
disponibles autour de nous qu’on apprend étonnamment peu. C’est une des
raisons pour lesquelles les gens parviennent à fonctionner sans problème
dans leur environnement sans être capables de décrire ce qu’ils font.
Les gens utilisent deux types de connaissance : celle du quoi et celle du
comment. La connaissance du quoi (ce que les psychologues appellent la
connaissance déclarative) contient tous les faits et toutes les règles. « Il
faut s’arrêter au feu rouge. » « New York est plus au nord que Rome. »
« La Chine compte deux fois plus d’habitants que l’Inde. » « Pour sortir
les clés du contact d’une voiture Saab, le levier de vitesse doit être sur la
marche arrière. » La connaissance déclarative est facile à écrire et à
apprendre. Il faut noter que la connaissance des règles ne veut pas
forcément dire qu’on les respecte. Les conducteurs de beaucoup de villes
connaissent souvent suffisamment le Code de la route, mais ne s’y tiennent
pas toujours. De plus, les connaissances ne sont pas toujours correctes.
New York est en réalité légèrement plus au sud que Rome. La Chine
compte à peine plus d’habitants que l’Inde (autour des 10 %). On peut
savoir beaucoup de choses, mais ces choses ne sont pas forcément vraies.
La connaissance du comment (ce que les psychologues appellent la
connaissance procédurale) est celle qui permet à quelqu’un d’être un
musicien talentueux, de renvoyer un service au tennis ou de ne pas
s’embrouiller en récitant des virelangues. Elle est difficile voire impossible
à écrire et difficile à enseigner. Il est plus simple de l’enseigner par
démonstration et elle s’apprend surtout avec la pratique. Même les
meilleurs professeurs ne savent le plus souvent pas décrire ce qu’ils font.
La connaissance procédurale est principalement subconsciente et traitée
par le cerveau comme un comportement.
La connaissance externe est en général facile à trouver. Les signifiants, les
contraintes physiques et le mapping naturel sont tous des signaux
perceptibles qui servent de connaissances externes. Ces connaissances sont
si communes qu’on les croit acquises. Elles sont partout : la position des
lettres sur le clavier, les lumières et les étiquettes sur les boutons qui nous
rappellent leur utilité et nous donnent des informations sur l’état de
l’appareil. L’équipement industriel est rempli de signaux lumineux,
d’indicateurs et d’autres rappels. On fait un usage intensif de pense-bêtes.
On place certains objets à des endroits précis pour servir de rappels. En
général, les gens organisent leur environnement pour se donner une grande
quantité de connaissance nécessaire à l’exécution d’une tâche.
Beaucoup organisent leurs vies de façon spatiale, faisant une pile ici et une
autre là, chacune indiquant quelque activité à réaliser ou un événement en
cours. Il est probable que tout le monde utilise une stratégie similaire, à
divers degrés. De nombreux styles sont possibles mais, invariablement,
l’agencement et la visibilité des objets transmettent un degré d’importance
relative à chaque chose.

Quand la précision est nécessaire de façon


inattendue
Normalement, nous n’avons pas besoin de précision pour un jugement.
Tout ce qui est nécessaire est la combinaison des connaissances externe et
interne, enlevant toute ambiguïté à la décision. Tout fonctionne très bien
jusqu’au moment où l’environnement change et où la combinaison des
deux types de connaissance n’est plus suffisante : cela peut créer de la
confusion. Au moins trois pays ont découvert cela « à la dure » : les États-
Unis lorsqu’ils ont introduit la pièce d’un dollar Susan B. Anthony, la
Grande-Bretagne et la pièce d’une livre (avant le changement pour le
système décimal) et la France avec la pièce de dix francs. La pièce
américaine était confondue avec une autre existante, le quarter, et la
britannique avec une pièce de 5 pence qui, à l’époque, avaient le même
diamètre. Voici ce qui s’est passé en France :
PARIS Le gouvernement français a créé une nouvelle pièce de 10 francs en
fanfare, le 22 octobre [1986]. Le public l’a observée, soupesée et a
commencé à la confondre avec le demi-franc, si souvent que la colère est
montée, ridiculisant le gouvernement et la pièce.
Cinq semaines plus tard, le ministre des Finances Édouard Balladur a
suspendu la circulation de la pièce. Dans les quatre semaines qui ont
suivi, elle a été complètement retirée.
En y repensant, l’erreur du gouvernement paraît si bête qu’on se demande
comment elle a pu être commise. Après un long travail, les créateurs ont
conçu une pièce argentée en nickel décorée par l’artiste Joaquim Jimenez
avec, d’un côté, un dessin du coq gaulois et, de l’autre, Marianne,
symbole de la République française.
La pièce était légère, crantée pour faciliter la lecture par les distributeurs
automatiques et semblait difficile à contrefaire.
Malheureusement, les créateurs et les bureaucrates étaient de toute
évidence tellement ravis de leur pièce qu’ils ont ignoré ou refusé
d’accepter que la nouvelle pièce fût similaire aux centaines de millions de
pièces d’un demi-franc, elles aussi argentées et en nickel, et trop similaires
en poids.
Stanley Meilser. Copyright © 1986, Los Angeles Times.
(Réimprimé avec autorisation.)
Les confusions se sont probablement produites parce que les utilisateurs
avaient déjà formé dans leur mémoire une représentation suffisamment
précise pour distinguer les pièces qu’ils avaient l’habitude d’utiliser. Selon
les chercheurs en psychologie, on ne garde en mémoire qu’une description
partielle des choses dont on se souvient. Dans ces trois exemples, les
descriptions formées pour différencier les pièces de la monnaie locale
n’étaient pas assez précises pour distinguer une nouvelle pièce et au moins
une des anciennes.
Imaginez que je prenne toutes mes notes dans un petit carnet rouge. Si
c’est mon seul carnet, je peux simplement le décrire comme « mon
carnet ». Si j’ai acheté plusieurs carnets, la description précédente ne sera
pas suffisante. Il faut maintenant que j’identifie le premier comme étant
petit ou rouge, ou même petit et rouge, de façon à le différencier des
autres. Et que se passe-t-il si je me procure plusieurs petits carnets
rouges ? Il faut maintenant que je trouve une autre façon de décrire le
premier, une description plus riche de façon à faire la différence entre les
objets. La description ne sert qu’à faire la différence entre les choix devant
moi, mais ce qui fonctionne pour un cas de figure ne marchera pas
forcément pour un autre.
On ne confond pourtant pas tous les objets qui se ressemblent. En mettant
à jour cette édition du livre, j’ai cherché à savoir s’il y avait d’autres
exemples de confusion de pièces. J’ai trouvé un article intéressant sur le
site web Wikicoins :
Un jour, un chercheur en psychologie pourra peut-être répondre à une
question d’actualité : si le public américain confondait constamment le
dollar Susan B. Anthony avec le quarter de taille similaire, comment se
fait-il qu’ils n’aient pas constamment confondu le billet de 20 $ avec celui
de 1 $ de taille identique ?
James A. Capp, « Susan B. Anthony Dollar, » sur www.wikicoins.com.
Recopié le 29 mai 2012.
Comment cela se fait-il ? Voici la réponse. On apprend à distinguer les
objets en cherchant des caractéristiques particulières. Aux États-Unis, la
taille est un moyen de différencier les pièces, mais pas les billets car ils ont
tous la même taille, ce qui fait que les Américains ignorent ce critère et
cherchent le chiffre imprimé, ainsi que l’image. Dans d’autres pays
(comme la Grande-Bretagne et les pays qui utilisent l’euro), les gens ont
appris à utiliser à la fois la taille et la couleur pour distinguer leurs billets,
ce qui rend compliqué le passage, par exemple, aux dollars américains.
Voici une preuve supplémentaire : en Grande-Bretagne, les habitants étant
installés là-bas depuis de nombreuses années se plaignaient de confondre
les pièces d’une livre et de cinq pence, alors que les nouveaux arrivants (et
les enfants) ne commettaient pas ces erreurs. C’est parce que les résidents
de longue durée s’étaient forgé des descriptions insuffisantes pour
distinguer ces deux pièces. Les nouveaux arrivants, eux, commençaient
sans préconceptions et formaient des descriptions distinguant facilement
toutes les pièces. Dans cette situation, la pièce d’une livre ne posait pas de
problème. Aux États-Unis, le dollar Susan B. Anthony n’est jamais devenu
populaire et n’est plus fabriqué, ce qui fait que le même constat ne peut
pas être fait.
Les confusions dépendent grandement de l’histoire, des aspects qui nous
ont permis de distinguer des objets dans le passé. Quand les règles pour
différencier des choses changent, les gens commettent des erreurs. Avec le
temps, ils s’adapteront ; ils oublieront peut-être même la période de
confusion initiale. Le problème est que, dans de nombreuses
circonstances, surtout celles aussi chargées politiquement que la taille, la
forme et la couleur de la monnaie, la colère du public empêche une
discussion calme et ne laisse pas aux gens le temps de s’adapter.
Prenez cela comme un exemple de principes de conception interagissant
avec le désordre du monde réel. Ce qui paraît bien en principe échoue
parfois quand on l’introduit dans le monde réel. Il arrive que les mauvais
produits réussissent là où les bons échouent.

Les contraintes simplifient la mémoire


Avant que l’alphabétisation et les enregistrements sonores se soient
répandus, les orateurs voyageaient de village en village, récitant des
épopées de plusieurs milliers de vers. Cette tradition existe toujours dans
certaines sociétés. Comment font ces gens pour mémoriser tant de texte ?
Est-ce que certaines personnes ont une quantité énorme de connaissances
dans leur tête ? Pas vraiment. Les contraintes sur le nombre de mots
réduisent grandement le poids sur la mémoire. L’astuce vient des
contraintes de la poésie.
Prenez les contraintes des rimes. Si vous voulez faire rimer un mot avec
un autre, il y a généralement beaucoup d’options. Cependant, si vous
cherchez un mot avec une signification bien précise qui rime avec un
autre, la combinaison de ces deux contraintes réduit grandement le nombre
de candidats, ne laissant quelquefois qu’un unique choix au lieu d’un large
éventail. Parfois, il n’y a pas de choix du tout. C’est pourquoi il est
beaucoup plus simple de mémoriser un poème que de l’écrire. Les poèmes
existent sous de nombreuses formes, mais toutes ont des contraintes quant
à leur écriture ; les ballades et les légendes récitées par les orateurs
ambulants devaient notamment respecter les rimes, le rythme, le mètre, les
assonances, les allitérations et les onomatopées tout en gardant le sens de
l’histoire.
Prenez les deux exemples suivants :
Petit un. Je pense à trois mots : le premier signifie « créature
fantastique », le deuxième est « le nom d’un matériau de construction » et
le troisième « une mesure de temps ». Quels mots ai-je en tête ?
Petit deux. Cette fois, je cherche des mots qui riment. J’en cherche trois :
un qui rime avec « dôme », un qui rime avec « glacier » et un autre qui
rime avec « nez ». À quels mots est-ce que je pense ?
Rubin et Wallace, 1989.
Dans les deux exemples, même si on a trouvé une réponse facilement, il
est peu probable que vous et moi ayons les mêmes trois mots en tête. Il n’y
a simplement pas assez de contraintes. Maintenant, précisons que les mots
que l’on cherche sont les mêmes dans les deux exercices. Quelle est la
créature fantastique qui rime avec « dôme » ? Quel est le matériau de
construction qui rime avec « glacier » ? Quelle est la mesure de temps qui
rime avec « nez » ? C’est beaucoup plus simple : les deux contraintes
combinées sont suffisantes pour réduire la sélection. Quand les
psychologues David Rubin et Wanda Wallace ont étudié ces exemples, les
gens ne trouvaient généralement pas les bons mots dans chacun des
exercices isolément, mais surtout ne répondaient avec « fantôme »,
« acier » et « année » que quand on combinait les deux.
Albert Bates Lord a étudié la mémoire des poètes ambulants. Au milieu du
XXe siècle, il a parcouru l’ex-Yougoslavie et a trouvé des gens qui
continuaient cette tradition de transmission orale. Il a montré que les
singer of tales comme il les appelle (chanteurs de contes), ceux qui
apprennent ces épopées et vont de village en village pour les réciter, les
réinterprètent en réalité, composant le poème à mesure qu’ils avancent
d’une façon qui respecte le rythme, le thème, l’histoire, la structure mais
aussi toutes les autres caractéristiques d’un poème. C’est une prouesse
incroyable, mais ce n’est pas un exemple d'apprentissage par cœur.
Grâce aux multiples contraintes, un chanteur peut en entendre un autre
narrer une longue histoire et, après plusieurs heures ou une journée, réciter
« la même chanson, mot pour mot et ligne pour ligne ». En fait, comme le
fait remarquer Lord, la version originale et la nouvelle ne sont pas
similaires mot pour mot, mais le narrateur et le public les perçoivent
comme telles, même si la seconde est deux fois plus longue. Elles sont
identiques dans ce qui compte pour le public : elles racontent la même
histoire, expriment les mêmes idées et suivent le même rythme et le même
mètre. Ce sont tous les détails significatifs culturellement. Lord explique
que combiner la mémoire pour la poésie, le thème et le style s’ajoute aussi
à des structures culturelles qu’il appelle « formules » pour reproduire un
poème de façon qu’il paraisse identique à une récitation précédente.
L’idée qu’il est nécessaire de réciter exactement, mot par mot, est
relativement moderne. Comment une telle notion pourrait-elle exister
avant que l’imprimerie ne soit disponible ? Sans texte de référence, qui
pourrait s’assurer de l’exactitude du texte ? De plus, pourquoi est-ce que
cela importerait ?
N’oublions pas que, même en réinterprétant le texte, apprendre et réciter
L’Iliade ou L’Odyssée d’Homère restent des exploits : il y a vingt-sept
mille vers dans les deux épopées combinées. Lord ajoute que cette
longueur est excessive et qu’elle était probablement réservée pour des
circonstances spéciales, ajoutant qu’Homère (ou un autre aède) l’aura
dictée lentement, et en se répétant, à la première personne qui rédigea le
manuscrit. Le plus souvent, la longueur variera en fonction du public et
aucun auditoire ne pourrait écouter sagement vingt-sept mille vers. Même
à un tiers de cette longueur, neuf mille vers, être capable de réciter ce
poème reste impressionnant : à un rythme d’une seconde par ligne, il
faudrait deux heures et demie pour tout réciter. Et même si on considère
que le poème est réinventé plutôt qu’appris par cœur, cela reste
impressionnant. Ni le narrateur, ni le public ne s’attendent à une exactitude
au mot près de toute façon (et ils n’auraient aucun moyen de vérifier).
Nous n’apprenons généralement pas d’épopées, mais nous utilisons des
contraintes pour simplifier ce que l’on doit apprendre. Prenez par exemple,
dans un tout autre domaine, le fait de démonter et de réassembler une
machine ou un mécanisme, ce que la personne lambda essaiera de réparer
elle-même, comme le verrou d’une porte, un grille-pain ou une machine à
laver. Il est probable que l’objet aura des dizaines de pièces. Il n’est pas
nécessaire de se souvenir de tout pour pouvoir le réassembler, comme on
pourrait le croire à première vue. Dans un cas extrême, un objet avec 10
pièces aura 10 (factorielle de dix) combinaisons possibles, soit un peu plus
de 3,5 millions de possibilités.
Néanmoins, peu de ces possibilités sont viables à cause des contraintes
physiques de l’objet. Certaines pièces doivent être assemblées avant
d’autres, certaines ne peuvent pas s’emboîter ; les vis doivent être
associées à des trous et des écrous de taille correspondante et les rondelles
doivent toujours être ajoutées avant les écrous. Il y a même des contraintes
culturelles : les vis se serrent dans le sens des aiguilles d’une montre et se
desserrent dans le sens inverse, la tête des vis se place sur la partie visible
(le haut ou l’avant) de l’objet et les écrous sur la partie la moins visible (le
bas, le côté ou l’intérieur), les vis à bois et à métaux ne se ressemblent pas
et ne vont pas dans les mêmes matériaux. Finalement, le grand nombre de
choix est réduit à quelques-uns qu’il fallait apprendre ou noter pendant le
démontage de l’objet. Les contraintes en elles-mêmes ne suffisent pas à
déterminer la façon de réassembler l’objet – il arrive de commettre des
erreurs – mais elles réduisent ce qu’il est nécessaire d’apprendre à quelque
chose de possible. Les contraintes sont des outils très utiles pour un
concepteur (nous y reviendrons en détail au chapitre 4).
Une vieille légende perse, Ali Baba et les quarante voleurs, raconte
l’histoire d’un bûcheron pauvre qui découvre l’entrée d’une grotte où des
voleurs gardent leur trésor. Il entend un des voleurs prononcer la formule
pour ouvrir la grotte « Sésame, ouvre-toi. » Le beau-frère d’Ali Baba,
Kassim, le force à lui révéler la phrase secrète avant de se rendre à son
tour dans la grotte.
Le lendemain, de bon matin, Kassim quitta sa maison avec toute une
troupe de mulets chargés de grands coffres pour s’emparer du trésor.
« Sésame, ouvre-toi ! » prononça-t-il quand il eut trouvé la porte. Elle
s’ouvrit, puis se referma dès qu’il fut entré.
Kassim tomba dans une profonde admiration, en face des richesses
accumulées en ce lieu. Puis s’emparant d’autant de sacs d’or monnayé
qu’il put en porter, il se dirigea vers la porte pour sortir, mais il ne se
souvint plus de la phrase exacte et dit : « Orge, ouvre-toi ! »
La porte ne s’ouvrit pas. Kassim en conçut un tel effroi qu’il lui fut
impossible de retrouver le mot magique. Soudain, il perçut le bruit d’un
galop de chevaux. Il s’avança tout près de la porte et, dès qu’elle s’ouvrit,
sortit si brusquement qu’il renversa le chef des voleurs ; mais les brigands
se jetèrent sur lui, et l’exterminèrent sans pitié. Ils pénétrèrent ensuite
dans leur repaire et remirent en place les sacs abandonnés par Kassim,
sans s’apercevoir qu’il en manquait d’autres. Puis, ils coupèrent en quatre
le cadavre et retournèrent à leurs exploits.
Ali Baba et les quarante voleurs d’Albert Robida, 1894.
Il est peu probable que cela nous coûte notre tête, mais il est quelquefois
très difficile de se rappeler un code secret. C’est une chose d’avoir à
mémoriser un secret ou deux : une combinaison, un mot de passe ou
l’astuce pour ouvrir une porte. Cependant, quand le nombre de mots de
passe devient trop grand, la mémoire ne suffit plus. Il semble parfois qu’il
existe un complot pour nous rendre fou en surchargeant notre mémoire.
Les codes postaux et les numéros de téléphone, par exemple, existent
surtout pour faciliter la vie aux machines et à leurs concepteurs, sans
considérer le poids dont il s’agit pour les gens. Heureusement, la
technologie nous évite aujourd’hui de mémoriser ces nombreux numéros
de téléphone, adresses physiques et électroniques, ou codes postaux. Les
mots de passe cependant, ne sont pas pareils. Une bataille constante avec
les gens mal intentionnés conduit à multiplier et complexifier codes
secrets et dispositifs de sécurité.
Alors que ces codes doivent rester secrets mais qu’il n’y a pas moyen de
retenir tous ces chiffres et toutes ces phrases, comment faire ? Ne
réfléchissez pas : quelle était la phrase magique dont Kassim essayait de se
souvenir pour ouvrir la porte ?
Comment font les gens ? Ils utilisent des mots de passe simples. Des
études montrent que les cinq mots de passe les plus courants en France
sont « 123456 », « coucou », « 123321 », « azerty » et « azertyuiop »
(toutes les lettres de la première ligne du clavier). Tous sont choisis pour
leur facilité à être retenu ; ils sont de ce fait faciles à deviner pour
quelqu’un de mal intentionné. Nous avons pour la plupart un nombre
limité de codes secrets que nous utilisons sur autant de sites différents que
possible. Même des professionnels de la sécurité admettent commettre ce
genre d’erreurs, à l’encontre pourtant de leurs propres règles.
Les consignes de sécurité sont pour la plupart inutilement complexes et
non nécessaires, mais pourquoi sont-elles utilisées ? Il y a plusieurs
raisons. La première vient de risques réels qu’une personne usurpe notre
identité, ou nous vole notre argent ou autres biens. D’autres individus
envahissent notre vie privée, avec le but plus ou moins intentionnel de
nuire. Les enseignants doivent protéger les questions des examens et les
notes. Pour des entreprises ou des gouvernements, il est important de
garder des secrets. Il y a de nombreuses raisons de garder des données
sous clé – que les clés soient électroniques ou physiques. Le problème est
que l’on ne prend pas en compte les capacités de notre cerveau.
On a en effet besoin de se protéger, mais ce sont principalement des
technologues ou les forces de l’ordre qui s’assurent de la sécurité des
écoles, des entreprises et des gouvernements. Ils comprennent peut-être
comment les criminels s’attaquent aux données personnelles, mais ils ne
comprennent pas le comportement humain. Ils pensent que des mots de
passe « sûrs », ceux qui sont difficiles à deviner, sont nécessaires et qu’ils
doivent être changés fréquemment. Ils ne semblent pas savoir que l’on doit
maintenant en connaître tellement – même parmi les plus simples – qu’il
est difficile de se rappeler lequel est nécessaire à quel moment et que cela
nous rend vulnérables.
Plus les exigences pour un mot de passe sont grandes, moins le système
est en sécurité. En effet, les gens sont incapables de se souvenir de ces
combinaisons et ils doivent les noter. Et, comme beaucoup gardent ces
papiers dans leur portefeuille, fixés sous leurs ordinateurs ou sous leur
clavier (là où il est facile d’y accéder car on en a besoin souvent), un
voleur n’a qu’à trouver où le papier se trouve pour connaître tous les codes
secrets de la personne. Or, les gens sont en majorité honnêtes et c’est
surtout à eux que nuisent les mesures de sécurité complexes, en les
empêchant de faire leur travail facilement. Finalement, ce sont le plus
souvent les employés les plus dévoués qui enfreignent les règles de
sécurité et fragilisent tout le système.
Quand je menais des recherches pour ce chapitre, j’ai trouvé de nombreux
exemples de mots de passe très sûrs qui ont forcé les gens à utiliser un
aide-mémoire non sécurisé. Une publication sur le Mail online, le forum
du journal britannique Daily Mail, a décrit une de ces techniques :
Quand je travaillais pour l’administration locale, on DEVAIT changer nos
mots de passe tous les trois mois. Pour m’assurer que je ne l’oublierais
pas, je l’écrivais sur un post-it et le collais au-dessus de mon bureau.
Comment peut-on se souvenir de toutes ces informations confidentielles ?
Pour la plupart, nous n’y parvenons pas, même avec des moyens
mnémotechniques. Les livres et les cours pour améliorer sa mémoire
peuvent marcher, mais les méthodes sont laborieuses à apprendre et il est
nécessaire de s’entraîner régulièrement pour maintenir son niveau. Alors,
on expose notre mémoire au monde, on écrit dans des livres, sur des
morceaux de papier et même sur le dos de notre main ! Cependant, on fait
en sorte de coder ces aide-mémoire pour rendre la tâche plus difficile aux
voleurs potentiels. Cela pose un autre problème : comment coder ces
informations, comment les cacher et comment se souvenir du code ou où
on les a dissimulées. Ah, les faiblesses de la mémoire…
Où faut-il cacher quelque chose que personne ne doit trouver ? Dans des
endroits inattendus, pas vrai ? L’argent est dissimulé dans le congélateur,
les bijoux dans l’armoire à pharmacie ou bien encore les chaussures sont
dans l’armoire. La clé de la porte d’entrée est cachée sous le paillasson ou
sous le rebord de la fenêtre, les clés de la voiture sous le pare-chocs, les
lettres d’amour sont dans un vase. Le problème est qu’il n’y a pas tant
d’endroits inattendus que ça dans une maison. Vous ne vous souvenez
peut-être pas d’où vous avez caché vos lettres d’amour ou vos clés, mais
un cambrioleur, lui, les trouvera. Deux psychologues ont étudié ce
problème et l’ont décrit de la façon suivante :
Il y a souvent une forme de logique pour cacher les objets. Par exemple,
une de vos amies devait acheter un coffre-fort si elle voulait pouvoir
assurer ses pierres précieuses. En sachant qu’elle risquait d’oublier la
combinaison, elle a longuement pensé à où garder le code. Sa solution
était de l’écrire dans son téléphone à la lettre C pour « Monsieur et
Madame Coffre », comme s’il s’agissait d’un numéro de téléphone. Il y a
une logique facile à comprendre : garder des numéros au milieu d’autres
numéros. Elle fut consternée quand elle entendit à la télé un cambrioleur
repenti raconter que, quand il était face à un coffre-fort, il allait
directement chercher dans le téléphone.
On forgetting the locations of things stored in special places, Winograd et
Soloway, 1986. Réimprimé avec autorisation.
Toutes les choses arbitraires dont il faut se souvenir s’accumulent et créent
une tyrannie involontaire. Il est temps de se rebeller. Avant cette révolte, il
est toutefois important de connaître la solution. Comme écrit plus haut,
une de mes règles personnelles est « ne critique pas quelque chose si tu
n’as pas d’alternative à proposer ». Dans ce cas, on ne sait pas trop à quoi
le système devrait ressembler.
Certaines choses ne peuvent être changées que par des adaptations
culturelles des masses, ce qui veut dire qu’elles n’auront probablement pas
de solution avant longtemps. Prenons l’exemple de l’identification des
gens par leurs noms. Ces derniers évoluent au fil des millénaires ; à
l’origine, c’était pour différencier les familles et les groupes qui vivaient
ensemble. L’utilisation de plusieurs noms (prénom et nom de famille) est
relativement récente et, même de cette façon, on n’arrive pas forcément à
distinguer un individu des autres sept milliards sur la planète. Doit-on
écrire le prénom en premier, ou le nom de famille ? Cela dépend du pays
dans lequel on se trouve. Combien de noms chaque personne possède-t-
elle ? De combien de lettres un nom est-il composé ? Quelles sont les
lettres acceptées ? Est-ce qu’un nom peut contenir un chiffre, par
exemple ? Je connais des gens qui ont essayé de changer leur nom de
« Henry » à « H3nry » et une compagnie qui s’appelle « Autonom3 ».
Comment un nom est-il importé d’un alphabet à un autre ? Certains de
mes amis coréens ont des noms qui sont écrits de la même façon dans
l’alphabet coréen, le Hangul, mais sont transcrits différemment en
alphabet latin.
Beaucoup de gens changent leurs noms quand ils se marient ou quand ils
divorcent et, dans certaines cultures, quand ils passent des étapes
importantes de leur vie. Une recherche sur Internet vous montrera que des
gens originaires d’Asie risquent de ne pas comprendre comment remplir
les papiers pour les passeports européens ou américains parce que leurs
noms ne correspondent pas aux catégories établies.
Et que se passe-t-il quand un voleur usurpe l’identité de quelqu’un d’autre
pour se servir de son argent et sa réputation ? Aux États-Unis, ces voleurs
d’identité peuvent demander des remboursements d’impôts et les
recevoir ; quand les réels propriétaires de ces identités demandent leur
argent, on leur répond qu’ils l’ont déjà reçu.
Je suis une fois allé à une conférence par des experts de sécurité sur le site
d’entreprise de Google. Cette dernière, comme beaucoup d’autres, est très
soucieuse de protéger ses projets de recherche avancée, ce qui implique
que ses bâtiments sont pour la plupart verrouillés et gardés. Les
participants à la conférence n’avaient pas accès à ces bâtiments (mis à part
les employés de Google, évidemment). Notre conférence était dans la zone
publique d’un bâtiment sécurisé, mais pas les toilettes. Alors comment
avons-nous fait ? Les figures d’autorité mondiale sur la sécurité ont donc
trouvé une solution : ils ont utilisé une brique pour bloquer la porte
intermédiaire. Ce faisant, la zone protégée ne l’était plus : à trop vouloir
sécuriser, on obtient l’inverse.
Comment résoudre ces problèmes ? Comment garantir que les gens
puissent accéder à leurs propres dossiers, comptes en banque et systèmes
informatiques ? Presque toutes les solutions ont déjà été imaginées,
étudiées et on leur a trouvé des défauts, même les marqueurs biologiques
(l’empreinte de l’iris ou de la rétine, les empreintes digitales, la
reconnaissance vocale, la morphologie, l’ADN). On peut toujours soit
créer un faux soit simplement manipuler les registres des bases de
données. Une fois que quelqu’un a réussi à tromper le système, que peut-
on faire ? Il n’est pas impossible de changer des marqueurs biométriques
mais, une fois qu’ils sont associés à la mauvaise personne, les
changements sont extrêmement difficiles à apporter.
L’efficacité d’un mot de passe est assez peu importante parce que les
combinaisons possibles sont obtenues grâce aux programmes de key
loggers ou bien sont volées. Un key logger est un logiciel qui se cache
dans votre ordinateur et enregistre tout ce que vous tapez pour le renvoyer
à la personne qui a placé ce logiciel. Quand un réseau d’ordinateurs est
piraté, des millions de mots de passe peuvent être volés et, même s’ils sont
chiffrés, les voleurs parviennent souvent à les déchiffrer. Dans les deux
cas, quel que soit le niveau de sécurité de votre mot de passe, une
personne mal intentionnée saura l’obtenir.
La méthode la plus sûre demande plusieurs identifiants, le plus souvent au
moins deux : « quelque chose que vous avez » et « quelque chose que vous
savez ». La chose que vous avez est le plus souvent un identifiant
physique, comme une carte ou une clé, peut-être même un système
implanté sous la peau ou un système biométrique. La chose que vous
connaissez est un savoir intérieur, le plus probablement une information
que vous avez mémorisée. Cette dernière n’a pas besoin d’être aussi
sécurisée qu’un mot de passe moderne parce que cela ne fonctionnerait pas
avec la chose que vous avez. Certains systèmes acceptent l’utilisation d’un
autre mot de passe qui contacte les autorités au moment où il est entré par
les personnes mal intentionnées.
La sécurité pose de grands problèmes de conception qui impliquent de la
technologie complexe ainsi que le comportement humain. Il existe des
problèmes profonds et fondamentaux. Pour autant, existe-t-il une
solution ? Pas encore. Nous devrons probablement rester coincés ainsi
pendant encore longtemps.

La structure de la mémoire
Dites à voix haute les chiffres 1, 7, 4, 2, 8. Ensuite, sans les relire, répétez-
les. Essayez encore si besoin, peut-être en fermant vos yeux, la meilleure
façon « d’entendre » les mots qui continuent de résonner dans votre tête.
Demandez à quelqu’un de vous lire une phrase au hasard, n’importe
laquelle. Quelle était cette phrase mot pour mot ? La mémoire du passé
immédiat est disponible immédiatement, claire et entière, sans avoir
besoin de faire un effort mental.
Qu’avez-vous mangé dans la soirée il y a trois jours ? D’un coup,
l’expérience est différente. Il faut du temps pour se souvenir de la réponse
et elle n’est ni aussi claire ni aussi complète que les souvenirs de ce qui
vient juste de se passer. Cet exercice demande plus d’effort et le résultat
est moins clair. Et ce « passé » n’a pas besoin d’être lointain non plus.
Sans regarder, quels étaient les chiffres ? Pour certaines personnes, s’en
souvenir demandera de l’effort et du temps.
Extrait de Learning and Memory, Norman, 1982.
Les psychologues font la distinction entre deux catégories de mémoire :
celle à court terme, aussi appelée mémoire de travail, et celle à long terme.
Les deux sont plutôt différentes avec des implications différentes pour la
conception d’objets.

Mémoire à court terme ou mémoire de travail


La mémoire à court terme ou mémoire de travail (MCT) garde les
événements les plus récents ou les sujets auxquels on est en train de
penser. C’est la mémoire du passé immédiat. L’information est retenue
automatiquement et on y accède sans efforts ; en contrepartie, la quantité
d’information qu’on peut retenir de cette façon est limitée. Cette limite est
entre cinq et sept choses, jusqu’à dix ou douze si l’information est répétée
en continu, ce que les psychologues appellent « la répétition mentale ».
Multipliez 27 par 293 dans votre tête. Si vous essayez de le faire de la
même façon que vous le feriez avec un crayon et du papier, vous allez très
probablement être incapable de retenir tous les chiffres et toutes les étapes
dans votre MCT. Vous échouerez à l’exercice. La méthode de
multiplication classique est optimisée pour le papier. Il n’y a pas besoin
d’encombrer la mémoire de travail parce que les chiffres sur le papier
servent à ça (connaissance extérieure) et la MCT, notre connaissance
interne, n’est que peu sollicitée. Il existe des méthodes pour réaliser des
multiplications de tête, mais elles sont très différentes et elles demandent
de l’entraînement.
La mémoire à court terme est très utile pour les tâches du quotidien ; elle
nous permet de nous souvenir de mots, de noms, de phrases et d’étapes
d’une tâche, d’où son nom de mémoire de travail. Cependant,
l’information gardée dans la MCT est fragile. Si une autre activité vient
détourner votre attention, toute cette information sera perdue. Elle est
capable de retenir un code postal ou un numéro de téléphone entre le
moment où on le lit et le moment où on doit l’utiliser à condition
qu’aucune interruption ne vienne perturber notre concentration. Les
nombres à neuf ou dix chiffres commencent à être compliqués ; audessus,
ce n’est même pas la peine d’essayer, il faut les écrire ou les séparer en
segments plus petits.
Les experts en mémoire utilisent des techniques spéciales appelées
moyens mnémotechniques pour se souvenir de quantités impressionnantes
d’information, souvent en une seule fois. Une méthode consiste à
transformer les chiffres en segments qui ont du sens (une étude célèbre a
montré comment un athlète retenait des séquences numériques comme les
temps d’une course et, après avoir affiné sa technique pendant longtemps,
savait retenir de très longues séquences de chiffres en un rien de temps) ;
classiquement, on transforme chaque chiffre d’une séquence en une
consonne et chaque séquence de consonnes en une phrase que l’on
retiendra. Un tableau de conversion standard existe depuis plusieurs
siècles et a l’avantage de donner à chaque chiffre une lettre dont la forme
lui ressemble. Ainsi, « 1 » sera un « t » (ou parfois un « d » pour
prononcer plus facilement), le « 2 » devient un « n », le « 3 » un « m », le
« 4 » un « r » et le « 5 » devient un « L » (comme dans le chiffre romain
pour 50).

Vous trouverez une liste complète sur Internet en cherchant « code chiffres-sons ».

En utilisant le code chiffres-sons, la séquence 1414947580135024310 est


transcrite trtrprqlfsdmlsnrmtn, ce qui peut devenir « Trop tard pour qu’elle
fasse de moi le seigneur maintenant ». Les gens ne sont généralement pas
experts pour retenir une longue liste de quoi que ce soit d’arbitraire ; alors,
bien qu’il soit intéressant d’observer ceux qui en sont capables, créer un
système en supposant ce niveau serait une mauvaise idée.
La capacité de la MCT est incroyablement difficile à mesurer à cause de
facteurs comme la familiarité avec le sujet observé. De plus, il semblerait
qu’on retienne les informations importantes plutôt qu’une simple question
de combien de temps l’information restera. La rétention est affectée à la
fois par le temps et la quantité d’informations. Cette dernière prime sur le
temps car chaque nouveau morceau d’information réduit la probabilité de
se souvenir de tout ce qui est venu avant. La capacité est estimée par
rapport au nombre de points que l’on arrive à se rappeler, parce que les
gens peuvent se souvenir d’à peu près le même nombre de lettres et de
mots et presque le même nombre de phrases simples (contenant trois à
cinq mots). Je suppose que cela est dû à la mémoire qui agirait comme un
système d’aiguillage vers des données déjà stockées dans la mémoire à
long terme, ce qui voudrait dire que la capacité correspond en fait à
combien d’endroits la mémoire de travail parvient à pointer en même
temps. Cela expliquerait pourquoi la longueur ou la complexité du point à
retenir n’ait pas d’importance, mais uniquement le nombre d’informations
différentes que l’on est capable de retenir. Cela n’explique pas que l’on
fasse parfois des erreurs auditives dans la MCT, à moins que ces
aiguillages soient reliés à la mémoire auditive. Cela reste un sujet que la
science doit explorer.
En général, on considère que la MCT a une capacité de cinq à sept paquets
d’information, mais il est plus simple en pratique de s’en tenir à trois ou
cinq. Si cela paraît petit, demandez-vous si, en rencontrant une personne,
vous vous souvenez toujours de son nom directement. Quand vous entrez
un numéro de téléphone avant d’appeler, devez-vous le regarder plusieurs
fois tout en le composant ? Même de petites déconcentrations peuvent
effacer ce qui se trouve dans notre MCT.
Pour la conception, cela implique qu’il ne faut pas compter sur la MCT
pour retenir de l’information. Les systèmes informatiques exacerbent aussi
souvent la frustration des gens quand une information cruciale apparaît
dans un message qui disparaît juste au moment où on souhaite l’utiliser.
Nous allons voir comment les gens peuvent retenir ces informations
cruciales, parce que je ne suis pas surpris que cela mène certains à frapper
leurs ordinateurs.
J’ai vu des infirmières écrire sur leur main des informations médicales
cruciales à propos de leurs patients, au cas où elles seraient déconcentrées
par quelqu’un leur posant une question et où elles oublieraient cette
information. Le système de dossiers médicaux électroniques déconnecte
automatiquement quelqu’un qui semble inactif, pour protéger la
confidentialité des patients. Même si les intentions sont bonnes, cela pose
un certain nombre de problèmes pour les infirmières qui sont en
permanence interrompues par les médecins, leurs collègues et les patients
pour diverses requêtes. Alors qu’elles s’occupent de cette autre chose, le
système les déconnecte et elles doivent tout recommencer. Ce n’est donc
pas étonnant qu’elles finissent par écrire des informations sur leur main,
même si cela rend vaine l’utilisation de l’ordinateur pour limiter les
erreurs liées à l’écriture manuscrite. Néanmoins, comme elles n’ont pas
d’autres choix, puisqu’il est impossible de tout garder dans sa tête – raison
pour laquelle elles utilisaient les ordinateurs en premier lieu – comment
peuvent-elles accéder à ces informations cruciales ?
Les limites de la mémoire à court terme sont liées à des tâches qui nous
font perdre notre concentration, mais il existe des techniques pour
combattre cela. L’une nécessite l’utilisation de plusieurs modalités
sensorielles. L’information visuelle n’interfère pas beaucoup avec
l’information auditive et les actions n’interfèrent avec aucune des deux, ni
avec l’information qui serait écrite. L’haptique (toucher) n’aurait aussi que
peu d’effet. Ainsi, pour maximiser l’efficacité de notre mémoire de travail,
il vaut mieux présenter chaque information avec une autre modalité : la
vue, le son, le toucher, l’ouïe, la position dans l’espace et les mouvements.
Les voitures devraient présenter les instructions de conduite de façon
auditive, les vibrations haptiques venant d’un côté ou de l’autre du siège
du conducteur ou du volant pour le prévenir quand il se déporte de sa file
ou quand il y a d’autres véhicules sur les côtés, de façon à ne pas interférer
avec le traitement de l’information visuelle nécessaire à la conduite. Cette
discipline est principalement visuelle, mais l’utilisation des modalités
auditives et haptiques minimalise les interférences avec la tâche visuelle.

Mémoire à long terme


La mémoire à long terme (MLT) est celle de ce qui est dans le passé. En
général, il faut du temps pour que l’information intègre la MLT mais aussi
pour l’en extraire. Le sommeil joue un rôle important pour renforcer nos
souvenirs des expériences de la journée. Notez que l’on ne se souvient pas
de ces expériences avec une précision parfaite ; il ne s’agit pas d’un
enregistrement, plutôt d’une reconstruction de morceaux et de détails que
l’on interprète à chaque fois que l’on extrait ces souvenirs. Cela signifie
que, avec le temps, ces derniers risquent de changer et de se distordre à
cause des mécanismes explicatifs que la vie nous impose. La qualité de
nos souvenirs à long terme dépend grandement de la façon dont on a
interprété l’information en premier lieu. Ce qui est dans la MLT sous une
certaine interprétation ne pourra probablement pas être trouvé plus tard
sous une autre interprétation. Quant à la taille de la mémoire, personne ne
la connaît vraiment : des giga- ou des tera- unités. On ne sait même pas
quel type d’unité le cerveau utilise. Peu importe la taille, elle est tellement
grande qu’il n’y a, en pratique, pas vraiment de limite.
L’importance du sommeil pour renforcer la MLT est encore mal comprise,
mais de nombreuses études se concentrent sur ce sujet. Il est possible que
cet effet soit dû à la répétition. On sait depuis longtemps que répéter une
information – se la repasser mentalement pendant qu’elle est dans la
mémoire de travail (MCT) – est une part importante de la formation de
nouveaux souvenirs dans la MLT. « Ce que vous répétez pendant votre
sommeil déterminera ce dont vous vous souvenez et ce que vous oubliez »
a déclaré le professeur Ken Paller de Northwestern University, un des co-
auteurs d’une étude récente sur le sujet (Oudiette, Antony, Creery et Paller,
2013). Cependant, si la répétition dans le sommeil renforce les souvenirs,
il lui arrive aussi de les fausser. « Les souvenirs dans notre cerveau
changent sans arrêt. Parfois, on améliore notre emmagasinage de
souvenirs en répétant tous les détails et peut-être qu’ainsi on s’en
souviendra mieux – ou moins bien, si on a trop embelli les détails. »
Vous rappelez-vous comment vous avez répondu à la question suivante au
chapitre 2 ?
Dans la maison que vous occupiez, trois déménagements en arrière,
lorsque vous entriez par la porte principale, la poignée était-elle à gauche
ou à droite ?
Pour la plupart des gens, ces questions demandent un effort considérable
rien que pour se souvenir de quelle maison il s’agit. Ceci est un exemple
de mémoire procédurale, un souvenir de la façon dont on fait les choses, à
contraster avec la mémoire déclarative, celle pour l’information factuelle.
Dans les deux cas, trouver la réponse peut demander beaucoup de temps et
d’effort. De plus, cette réponse n’est pas acquise comme celle qu’on
obtient d’un livre ou d’un site web. Elle est une reconstruction de la
connaissance, ce qui fait qu’elle est sujette à des biais et des déformations.
La connaissance emmagasinée dans la mémoire a un sens et, au moment
d’y accéder, on risque de la réinterpréter différemment, enlevant à
l’exactitude du souvenir.
Une des plus grandes difficultés avec la MLT est l’organisation. Comment
trouver les choses dont on essaie de se souvenir ? On connaît tous le
sentiment d’avoir un nom sur « le bout de la langue » : on pense savoir,
mais la connaissance n’est pas disponible de façon consciente. Parfois,
plus tard, lorsque l’on prend part à une autre activité, le nom apparaît
soudainement dans notre esprit conscient. La façon dont on récupère
l’information nécessaire reste inconnue, mais elle requiert sûrement un
mécanisme qui vérifie un modèle et confirme qu’il est cohérent avec la
connaissance requise. C’est pourquoi en cherchant un nom et en ne se
souvenant que d’une réponse erronée, on sait qu’elle est fausse. C’est
parce que cette récupération de l’information erronée empêche de
récupérer l’information correcte qu’il faut s’atteler à une autre tâche pour
donner l’occasion à ce procédé subconscient de se réinitialiser.
La récupération d’information est un procédé susceptible d’être erroné. On
peut reconstruire des événements comme on préfère se les rappeler plutôt
que de la façon dont ils se sont vraiment passés. Il est relativement facile
d’induire les gens en erreur au point qu’ils créent de faux souvenirs, se
« souvenant » d’événements avec une grande clarté alors qu’ils ne se sont
jamais produits. C’est une des raisons pour lesquelles les affirmations de
témoins oculaires au tribunal sont problématiques : on sait que le
témoignage oculaire n’est pas fiable. Un grand nombre d’expériences de
psychologie montrent à quel point il est facile d’implanter de faux
souvenirs dans l’esprit des gens de façon si crédible que ces gens
refuseront d’admettre que l’événement n’a jamais eu lieu.
La connaissance intérieure est en réalité la connaissance transformée en
souvenirs. Si on examine comment les gens utilisent leurs souvenirs et
comment ils accèdent à la connaissance, on découvre plusieurs catégories.
Deux d’entre elles nous importent pour le moment :
Les souvenirs pour les choses arbitraires. Les informations à retenir
semblent arbitraires, sans signification ni lien particulier entre elles ou
avec les choses que l’on sait déjà.
Les souvenirs pour les choses importantes. Les informations à
retenir forment des liens logiques entre elles ou avec des
connaissances déjà établies.

Les souvenirs pour les choses arbitraires et les choses


importantes
La connaissance arbitraire peut être classifiée comme le simple fait de se
souvenir de choses qui n’ont pas de structure ou de sens sous-jacent. Un
bon exemple est le souvenir des lettres de l’alphabet dans leur ordre, de
noms de gens ou de mots étrangers sans lien apparent. Cela s’applique
aussi à l’apprentissage de séquences clés arbitraires, de commandes, de
gestes et de procédures de notre technologie moderne : c’est
l’apprentissage par cœur, le fléau de notre existence moderne.
Certaines choses requièrent un apprentissage par cœur : les lettres de
l’alphabet par exemple mais, même dans ce cas, on ajoute une structure à
une liste de mots autrement dénuée de sens, faisant de l’alphabet une
chanson, en utilisant les contraintes des rimes et du rythme.
L’apprentissage par cœur pose aussi des problèmes. Premièrement, il est
difficile parce que ce qui est appris est arbitraire : il demande beaucoup de
temps et d’effort. Deuxièmement, quand un problème apparaît, la
séquence d’actions mémorisée ne donne aucun indice sur ce qui est allé de
travers ni suggestion pour résoudre ce problème. Même si certaines choses
peuvent être apprises par cœur, elles ne le sont souvent pas.
Malheureusement, cela reste la méthode principale d’apprentissage dans
beaucoup de systèmes d’éducation, même pour les formations chez les
adultes. C’est comme ça qu’on apprend à certaines personnes à utiliser un
ordinateur ou à cuisiner. C’est comme ça que l’on doit apprendre à utiliser
certains des nouveaux gadgets (mal conçus) de notre technologie.
On apprend une association arbitraire de séquences en y ajoutant une
structure artificielle. Les livres et les cours de mnémotechnique utilisent
généralement une variété de méthodes standards pour fournir une
structure, même pour des choses qui semblent arbitraires comme des listes
de courses ou lier le nom des gens avec leur apparence. Comme nous
l’avons vu dans la discussion de ces méthodes pour la MCT, même des
lignes de chiffres peuvent être retenues si elles sont associées à des
structures significatives. Les gens qui n’ont pas été formés à ces méthodes
essaient souvent de créer une forme de structure, mais comme cette
dernière est rarement suffisante, l’apprentissage est mauvais.
Les choses ont pour la plupart une structure qui a du sens, ce qui simplifie
grandement la tâche de la mémorisation. Quand elles font sens, elles
correspondent à la connaissance que l’on a déjà. De ce fait, les nouvelles
informations sont comprises, interprétées et intégrées grâce à celles déjà
acquises. Les contraintes et les règles nous aident aussi à comprendre
quelles sont les choses qui vont ensemble. Une structure significative peut
organiser ce qui apparaît comme chaotique et arbitraire.
Rappelez-vous la discussion de modèles conceptuels du premier chapitre.
Une partie de la force d’un bon modèle conceptuel repose dans sa capacité
à donner du sens aux choses. Prenons un exemple pour montrer comment
l’interprétation significative transforme une tâche en apparence arbitraire
en une tâche naturelle. Il est aussi important de noter que l’interprétation
appropriée ne sera pas forcément évidente à première vue ; elle doit aussi
être découverte.
Un collègue japonais, le professeur Yutaka Sayeki de l’université de
Tokyo, avait des difficultés pour se rappeler comment utiliser son
clignotant sur son guidon de moto. Tourner la commande vers l’avant
activait le clignotant droit ; dans l’autre sens, le clignotant gauche. Le sens
du clignotant était clair et non ambigu, mais la direction dans laquelle il
devait être activé ne l’était pas. Sayeki pensait que, comme la commande
était sur la gauche du guidon, la tourner vers l’avant activerait le clignotant
du même côté. En fait, il essayait de faire correspondre l’action de
« pousser la commande gauche vers l’avant » à l’intention de « tourner à
gauche », ce qui était erroné.
Les motos ont généralement une commande montée différemment, un
interrupteur orienté horizontalement, de façon qu’appuyer sur la gauche
active le clignotant gauche et appuyer sur la droite active le clignotant
droit. Ce mapping est facile à apprendre (c’est un exemple de mapping
naturel, dont on parlera à la fin de ce chapitre). Cependant, l’interrupteur
de la moto de Sayeki bougeait d’avant en arrière, pas de gauche à droite.
Comment pouvait-il apprendre à l’utiliser ?
Sayeki a trouvé la solution en réinterprétant son action. Pensez à la façon
dont le guidon d’une moto tourne. Pour aller à gauche, la partie gauche du
guidon doit être tirée en arrière. La commande du clignotant correspondait
donc à ce mouvement de guidon. Si la tâche est conceptualisée comme
indiquant la direction du guidon plutôt que celle de la moto, le mouvement
de l’interrupteur a du sens ; nous avons enfin un mapping naturel. Quand
le mouvement de l’interrupteur semblait arbitraire, il était difficile de s’en
souvenir, mais une fois que Sayeki a trouvé un lien logique entre les deux,
c’était beaucoup plus simple pour lui.

Les motards expérimentés feront remarquer que ce modèle conceptuel est erroné :
pour faire un virage à moto, on tournera d’abord le guidon dans la direction opposée
à celle où l’on veut se diriger. On en reparlera dans l’exemple 3 de la section
suivante.

Les implications pour la conception sont claires : il faut fournir une


structure logique. Peut-être qu’il est plus simple de rendre la mémoire
redondante en mettant l’information nécessaire à disposition dans
l’environnement. C’est la force de l’interface utilisateur graphique
standard avec ses menus démodés. Dans le doute, on peut toujours étudier
toutes les options du menu jusqu’à trouver celle que l’on cherche.
Toutefois, même les systèmes sans menu nécessitent une structure : des
contraintes appropriées et des fonctions plus prudentes, un bon mapping
naturel et tous les outils de commande prédictive et de feedback. La façon
la plus efficace d’aider les gens à se souvenir est de rendre inutile tout
appel au souvenir.

Modèles approximatifs : la mémoire dans le


monde réel
La réflexion consciente demande du temps et un effort mental. Les
compétences bien apprises évitent d’avoir besoin de contrôler et de
surveiller consciemment une action : le contrôle conscient est uniquement
nécessaire durant l’apprentissage lorsque l’on est confronté à des
situations inattendues. La pratique continue automatise le processus
d’action et minimise la quantité de réflexion consciente et de résolution de
problème nécessaire avant d’agir. Les comportements d’experts suivent
cette logique, qu’il s’agisse de joueurs de tennis, d’instrumentistes ou de
scientifiques. Ils minimisent le raisonnement conscient nécessaire. Alfred
North Whitehead, philosophe et mathématicien, expliquait ce qui suit il y a
plus d’un siècle :
C’est un truisme profondément erroné, répété dans tous les livres et par
tous les gens éminents dans leurs discours, que nous devrions nous atteler
à penser à ce que l’on fait. C’est en fait l’exact opposé. La civilisation
avance en augmentant le nombre d’opérations que l’on peut réaliser sans
y penser.
Alfred North Whitehead, 1911.
Un moyen de faciliter la pensée consiste à utiliser des modèles simplifiés,
des approximations de ce qui se passe réellement. L’exactitude est à la
science ce que l’approximation est à la pratique. Ce qui importe pour cette
dernière est d’avoir suffisamment vite des résultats qui, même s’ils ne sont
pas exacts, le sont suffisamment pour l’objectif voulu. Prenons quelques
exemples.

Exemple 1 – Convertir des températures entre degrés


Fahrenheit et Celsius
Il fait 55 °F chez moi en Californie. De tête, quelle est cette température
en Celsius ? Répondez vite sans utiliser de technologie.
Je suis sûr que vous vous souvenez tous de l’équation :
°C = (°F – 32) × 5 ÷ 9
On aura donc (55 – 32) × 5 ÷ 9 = 12,8 °C. Peu de gens réussissent à
calculer ce résultat sans crayon ni papier, parce qu’il y a trop de nombres
intermédiaires à garder dans la MCT.
Vous voulez un moyen plus simple ? Essayez avec l’approximation ci-
après, calculable de tête :
°C = (°F – 30) ÷ 2
On aura (55 – 30) ÷ 2 = 12,5 °C. La conversion n’est pas exacte, mais le
résultat est suffisamment proche de la valeur réelle pour de nombreux cas.
Comme je veux juste savoir si je dois porter un pull, une réponse à 5 °F
d’écart me conviendra tout à fait.
Les réponses approximatives sont souvent suffisantes, même si elles sont
techniquement fausses. L’approximation précédente suffit pour les
températures courantes puisque, entre -5 ° et 25 °C (20 °F à 80 °F), on
aura une précision de 1,7 °C (3 °F). En revanche, à mesure que les
températures deviennent plus extrêmes, elle sera de plus en plus fausse.
Exemple 2 – Modèle de la mémoire à court terme
Voici un exemple simplifié de la MCT :
Il y a cinq emplacements dans la mémoire à court terme. À chaque fois
qu’une nouvelle information est ajoutée, elle remplit un de ces espaces,
retirant ce qui s’y trouvait avant.
Aucun chercheur au monde ne dira que ce modèle est exact, mais il est
suffisant pour les applications pratiques. En l’appliquant, vos conceptions
seront plus facilement utilisables.

Exemple 3 – Diriger une moto


Dans la section précédente, nous avons expliqué comment le professeur
Sayeki a fait correspondre sa commande de clignotant avec la direction
dans laquelle il faisait tourner sa moto, pour se rappeler comment l’utiliser.
J’ai aussi indiqué que ce modèle était erroné.
Pourquoi ce modèle est-il utile même s’il est faux ? Pour faire tourner une
moto vers la gauche, on doit d’abord tourner le guidon à droite. Cette
opération contre-intuitive s’appelle le contre-braquage et va à l’encontre
des préconceptions des gens. Comme le plus important lorsqu’on change
de direction avec un véhicule à deux roues est l’inclinaison, le contre-
braquage sert à s’orienter correctement : lorsque le guidon est tourné à
droite, la force pousse le motard vers la gauche, permettant à son corps de
s’incliner vers la gauche. Ce changement de poids entraîne la moto vers la
gauche.
Les motards expérimentés exécutent souvent les bonnes manœuvres de
façon inconsciente, sans se rendre compte qu’ils amorcent les virages en
tournant le guidon du côté opposé à celui où ils souhaitent tourner.
On peut constater ce concept contre-intuitif avec un vélo ou une moto en
allant à une vitesse confortable et en venant placer sa main à l’extrémité
gauche du guidon. On le pousse ensuite doucement ; si les roues et le
guidon vont d’abord tourner vers la droite, notre corps va s’incliner vers la
gauche et ainsi le véhicule (et son guidon) tourneront dans la direction
désirée.
Exemple 4 – Arithmétique « suffisante »
Dans l’ensemble, nous ne savons pas multiplier de grands nombres de
tête : nous nous perdons en route. Les experts de la mémoire, eux, le font
rapidement et sans le moindre effort. Leur public est ainsi impressionné
par leurs capacités mentales, d’autant plus lorsque les chiffres sont donnés
de gauche à droite, comme on les utilise, et non pas de droite à gauche
comme on les écrirait pour lentement calculer sur le papier la somme de
deux nombres. Ces experts utilisent des techniques spéciales pour
minimiser le poids sur leur mémoire de travail, même si cela leur demande
d’avoir à apprendre de nombreuses méthodes spéciales pour un éventail de
problèmes différents.
Si l’on n’apprend pas ces méthodes à l’école, c’est qu’elles n’en valent le
plus souvent pas la peine. On peut estimer la réponse dans notre tête avec,
le plus souvent, suffisamment de précision. Si l’on a besoin de précision et
d’exactitude, on a des calculatrices.
Rappelez-vous mon exemple précédent : multiplier 27 par 293 dans sa
tête. Pourquoi aurions-nous besoin de connaître la réponse précise ? Une
approximation est suffisante et relativement facile à trouver. En changeant
27 en 30 et 293 en 300 on obtiendra facilement 9 000. La réponse précise
est 7 911, rendant l’estimation seulement 14 % plus grande. Dans
beaucoup de cas, c’est suffisant. Si vous voulez plus de précision, il suffit
de dire que, comme on a changé 27 en 30, on est à 3 au-dessus. Ainsi, en
enlevant 3 × 300 à la réponse (9 000 – 900), on obtiendra 8 100. La marge
d’erreur est maintenant de 2 %.
Il est rare d’avoir besoin d’une grande précision pour des problèmes
arithmétiques complexes et le plus souvent une approximation suffit. Les
machines sont utiles pour la précision, mais les humains peuvent se
concentrer sur d’autres problèmes, comme la raison pour laquelle on a
besoin de cette réponse.
À moins que votre ambition soit de monter un spectacle pour
impressionner les gens avec des performances de mémorisation, il y a des
moyens beaucoup plus simples d’améliorer sa mémoire et sa précision :
prendre des notes. L’écriture est un outil puissant et la technologie a
multiplié les méthodes : en plus d’écrire sur le dos de sa main ou sur un
bloc-notes, on peut prendre des notes sur un téléphone, un ordinateur ou
utiliser un dictaphone.
L’esprit, seul, est limité, mais en utilisant ces objets, on devient plus
intelligent.

La théorie scientifique contre la pratique


quotidienne
La science recherche la vérité. C’est pourquoi les scientifiques sont
toujours en désaccord et discutent tout. La méthode scientifique requiert le
débat et le conflit. Seules les idées qui ont passé l’inspection de nombreux
autres scientifiques survivent. Ce désaccord constant semble étrange pour
le public non averti, laissant croire que les scientifiques ne savent rien.
Pourtant, tout ceci est plus ou moins une illusion. C’est sur les petits
détails, et non pas sur les grandes lignes, que les scientifiques sont en
désaccord ; sur ceux qui varient d’une théorie à l’autre, mais n’ont en fait
que peu d’effets sur les applications pratiques.
Dans le monde réel, en pratique, on n’a pas besoin d’une vérité absolue :
l’approximation est suffisante. Les exemples de la moto, de la conversion
de température et du modèle pour les multiplications le prouvent. Le
modèle simplifié de la MCT nous donne des indications de conception
utiles, même s’il est erroné scientifiquement. Tous ces modèles réduisent
la réflexion et accélèrent le processus de pensée tout en donnant des
résultats suffisamment précis.

La connaissance intérieure
La connaissance extérieure, celle qui se trouve dans l’environnement, est
un outil précieux pour se souvenir des choses, mais seulement si elle est
disponible au bon moment, au bon endroit et dans la bonne situation.
Sinon, la connaissance intérieure, celle qui se trouve dans notre tête, est
nécessaire. Nous avons déjà vu qu’en combinant les connaissances
extérieure et intérieure, on peut fonctionner sans problème même si,
d’elle-même, chaque source est insuffisante.
Comment les pilotes se souviennent de ce que leur
disent les contrôleurs aériens
Les pilotes doivent écouter les instructions données très rapidement par les
contrôleurs aériens et y répondre fidèlement. Leur vie dépend de leur
capacité à suivre ces instructions. Sur un site Internet, un exemple
d’instruction pour un pilote au décollage était le suivant :
Frasca 141, autorisé décollage vers Mesquite, tournez 090 degrés gauche,
radar pour Mesquite. Monter et maintenir 2 000 pieds. Prévoir 3 000
pieds 10 minutes après départ. Fréquence 124.3, transpondeur 5 270.
Séquence classique de contrôleur aérien, généralement récitée très
rapidement. Texte de « ATC Phraseology », sur de nombreux sites, pas de
source d’origine.
« Comment se souvenir de tout ça, alors qu’on est concentré pour le
décollage ? » a demandé un pilote débutant. Il est vrai que c’est un
moment dangereux et que beaucoup de choses se passent en même temps,
à l’intérieur et l’extérieur de l’avion. Cela veut-il dire que les pilotes ont
une super-mémoire ?
Les pilotes utilisent trois grandes techniques :
ils écrivent l’information importante ;
ils rentrent les données dans leur ordinateur de bord lorsqu’ils les
reçoivent, opération nécessitant peu de mémoire ;
ils se souviennent des phrases qui ont un sens.
Si tout ceci paraît compliqué pour un néophyte, les données sont assez
simples et familières. « Frasca 141 » est le nom de l’avion, le contrôleur
indique qui est concerné par le message. La première information dont il
faut se souvenir est qu’il faut tourner à gauche vers la direction 090 sur la
boussole, puis monter à 2 000 pieds. Une fois ces données écrites, on
passe à la fréquence radio. Elle est généralement déjà entrée et il s’agit
simplement de vérifier que la fréquence est de 124,3 MHz. Le
transpondeur 5 270 est le code que renvoie l’avion lorsqu’il apparaît sur le
radar. Il suffit, encore une fois, de l’écrire ou de l’entrer sur le tableau de
bord en l’entendant. Et enfin, pour « prévoir 3 000 pieds 10 minutes après
départ », il s’agit juste de savoir qu’on recevra sûrement cette instruction
après 10 minutes et qu’il faut donc attendre une nouvelle communication.
Pour se souvenir, les pilotes transforment donc les informations reçues en
connaissance extérieure, en les écrivant ou en les entrant dans les
instruments de bord.
L’implication pour la conception est que, plus l’information sera facile à
saisir au fur et à mesure dans l’appareil correspondant, moins il y aura de
risques de commettre des erreurs. Ainsi, le contrôle aérien évolue et les
informations seront bientôt envoyées numériquement, donnant aux pilotes
la possibilité de les garder à l’écran aussi longtemps qu’ils le désirent.
Ainsi, grâce aux transmissions numériques, les instruments se régleront
automatiquement sur les bons paramètres. L’inconvénient est que seul
l’avion à qui le message est destiné recevra ces messages, tandis que les
pilotes ne sauront pas ce que font les autres avions. Les chercheurs en
sécurité de l’aviation et contrôle aérien cherchent des solutions et il s’agit
en effet d’un problème de conception.

Se rappeler : la mémoire prospective


L’idée d’une mémoire prospective ou d’une mémoire du futur semble
porter une contradiction ou être le titre d’un roman de science-fiction
mais, pour les chercheurs en mémoire, la première dénomination fait
simplement référence au fait de se souvenir d’accomplir une tâche dans le
futur et la seconde indique la capacité à planifier et à imaginer les
scénarios futurs. Les deux sont étroitement liées.
Prenez les rappels. Supposons que vous avez promis à des amis de les
retrouver au café ce mercredi à 15h30. L’information est dans votre tête,
mais comment allez-vous vous en souvenir ? Il faut vous le rappeler. C’est
un exemple de mémoire prospective, mais votre capacité à mettre en place
des signaux implique un aspect de la mémoire du futur. Où serez-vous
mercredi juste avant le rendez-vous prévu ? À quoi pouvez-vous penser
maintenant qui fera que vous vous en souviendrez le moment venu ?
Il y a de nombreuses stratégies pour se souvenir. L’une est simplement de
garder cette information en tête et de se faire confiance à temps. Si c’est
quelque chose de suffisamment important, vous n’aurez aucun mal à vous
en souvenir. Il serait assez étrange d’avoir à régler une alerte sur son
calendrier « aller se marier à 15h00 ».
En revanche, faire confiance à la mémoire intérieure n’est pas une bonne
technique pour des événements communs. Il est courant d’oublier un
rendez-vous avec ses amis, ou des détails comme le fait que vous étiez
censé amener un livre à prêter à l’un d’eux. En allant faire les courses,
vous vous souviendrez probablement de vous arrêter au magasin en
rentrant du travail, mais vous rappellerezvous tout ce que vous devez
acheter ?
Si ce n’est pas quelque chose d’important et si c’est pour dans plusieurs
jours, il est plus sage de le noter sur un calendrier, de créer un rappel ou
d’utiliser les fonctions d’un ordinateur ou d’un téléphone. Vous pouvez
aussi demander à un ami de vous le rappeler, ou à votre assistant si vous
en avez un. À leur tour, ils écriront sur un papier ou programmeront des
rappels ou des alarmes sur leurs machines.
Toutefois, il n’est pas nécessaire d’embêter d’autres gens si l’on peut s’en
charger soi-même. Il est possible de placer son livre à un endroit où on le
verra avant de partir, par exemple contre la porte de façon qu’on ne puisse
pas sortir sans trébucher dessus, ou de mettre ses clés de voiture sur le
véhicule. On peut même combiner les deux en mettant les clés sous le
livre, pour s’assurer qu’on n’oublie pas ce dernier.
Les deux aspects d’un rappel sont le signal et le message. De la même
façon que pour une action quelconque on distingue le quoi et le comment,
pour un rappel on distingue le signal – savoir que l’on doit se souvenir de
quelque chose – et le message – l’information en elle-même. La plupart du
temps, on aura soit l’un, soit l’autre. La technique classique d’attacher une
ficelle autour de son doigt ne donne que le signal, pas ce dont on doit se
souvenir. Un papier ne donne que le message, il n’appellera pas votre
attention de la même façon. La méthode idéale est de combiner les deux :
le signal qu’on doit se souvenir de quelque chose et le message de ce dont
il s’agit.
Le signal est parfois suffisant, mais il ne doit pas arriver trop tôt ou trop
tard. L’environnement fera le reste pour nous rappeler le message. La
sonnerie sur mon portable me rappelle mon prochain rendez-vous, les
rappels géolocalisés donnent un signal lorsque l’on est précisément à
l’endroit voulu. Toute la connaissance peut être dans le monde, grâce à
notre technologie.
Le besoin d’avoir des rappels a mené à la création de nombreux produits
qui nous facilitent la tâche : les minuteurs, les agendas, les calendriers…
et, de la même façon, de nombreuses applications existent pour
programmer des rappels électroniques sur nos téléphones portables,
tablettes et autres appareils mobiles. Pourtant, le papier reste très utile et
populaire, même dans notre monde d’écrans, comme le montre le nombre
de carnets.
Le nombre total d’outils de rappel montre aussi le besoin que l’on a de
posséder des aide-mémoire, mais qu’aucune méthode n’est complètement
satisfaisante car, si une l’était, on n’en aurait pas besoin d’autres. Ainsi, les
moins utiles disparaîtraient et de nouvelles méthodes ne seraient pas
constamment inventées.

L’échange entre les connaissances extérieure et


intérieure
Les connaissances extérieure et intérieure sont essentielles pour
fonctionner au quotidien, mais on peut choisir de dépendre plus de l’une
ou de l’autre. Ce choix demande un échange – pour avoir les avantages de
la connaissance extérieure il faut perdre ceux de la connaissance intérieure
(tableau 3-1).
La connaissance extérieure sert de rappel. Elle fournit une structure qu’on
oublierait. La connaissance intérieure est efficace. Elle ne demande pas de
recherche ni d’interprétation de l’environnement, mais il faut être capable
de la stocker et de la récupérer, ce qui demande beaucoup d’apprentissage.
La connaissance extérieure ne demande aucun apprentissage, mais elle est
plus difficile à utiliser. Elle dépend en grande partie de la présence
physique et continue de la connaissance ; en changeant l’environnement,
on risque de la perdre. Ainsi, la performance dépendra de la stabilité de cet
environnement.
On l’a expliqué, les rappels sont de bons exemples d’un échange entre les
connaissances extérieure et intérieure. La connaissance extérieure est
accessible, toujours présente, elle n’a pas besoin d’aide pour qu’on se
souvienne qu’elle est là. C’est pourquoi on organise nos bureaux en
mettant les piles de papiers bien en vue, ou à des endroits précis où l’on
s’entraînera à regarder régulièrement (connaissance intérieure) si on
préfère garder son bureau bien rangé. On utilise des horloges, des
calendriers, des pense-bêtes. La connaissance intérieure est éphémère. Elle
nécessite un signal pour l’activer ou de la garder en tête en la répétant en
permanence (ce qui nous empêchera ensuite d’avoir d’autres pensées
conscientes).
À mesure que l’on s’éloigne des aides physiques comme les livres, les
magazines, les pense-bêtes papiers ou les calendriers, l’essentiel de ce
qu’on utilise aujourd’hui dans notre environnement va devenir invisible.
Tout sera disponible sur des écrans mais, à moins que l’écran ne montre en
permanence cette information, on ajoutera de la charge à la mémoire
intérieure. On n’aura peut-être pas à se souvenir de tous les détails de
l’information enregistrée, mais on devra se souvenir qu’elle est là et qu’on
doit l’afficher au moment venu pour se souvenir.
Tableau 3–1 Les échanges entre les connaissances extérieure et intérieure

Connaissance extérieure Connaissance intérieure


L’information est disponible et facilement L’information dans la mémoire de travail est
accessible quand on l’aperçoit. disponible. Autrement, il est nécessaire de
déployer beaucoup d’effort et de recherche.
L’interprétation remplace l’apprentissage. La Demande un apprentissage plus ou moins
facilité d’interpréter la connaissance important. Il est plus simple s’il y a un sens
extérieure dépend des compétences du ou une structure à l’information ou si le
concepteur. modèle conceptuel est de bonne qualité.
La nécessité de trouver et d’interpréter la Efficace, surtout si l’information est apprise
connaissance est ralentissant. au point d’être automatisée.
Facile à utiliser dès le début. Très difficile à utiliser au début.
Peut être laid et manquer d’élégance, Rien n’a besoin d’être visible, ce qui donne
surtout s’il y a besoin de garder beaucoup plus de liberté au concepteur. L’apparence
de connaissance. Risque d’amener au est plus épurée et plaisante, mais le prix est
désordre. Les compétences des un début d’utilisation difficile et du temps
concepteurs graphiques et industriels sont d’apprentissage et de mémorisation.
très importantes ici.

La mémoire dans plusieurs esprits, plusieurs appareils


Si la connaissance et la structure dans l’environnement peuvent être
combinées avec la connaissance dans notre esprit pour améliorer la
performance de notre mémoire, pourquoi ne pas utiliser la connaissance
dans plusieurs esprits, ou dans plusieurs appareils ?
Vous l’avez certainement déjà vécu : avec un groupe d’amis, vous essayez
de vous rappeler, par exemple, le nom d’un restaurant, mais vous n’y
arrivez pas. Les autres essaient d’aider :
« Le nouveau restaurant où ils font de la viande grillée.
Ah, le barbecue coréen sur la 5e rue ?
Non, pas le coréen, le sud-américain… euh…
Ah oui, le brésilien, quel est son nom déjà ?
Oui celui-là !
Pampas quelque chose…
Ouais, Pampas Chouqui… euh… Churry…
Churrascaria ! Pampas Churrascaria ! »
Cette conversation pourrait se dérouler entre deux personnes ou trois ou
même sept, mais chacune apporte un peu de connaissance, qui impose
lentement des contraintes sur les choix restants, guidant tout le monde vers
le souvenir de ce que personne ne retrouverait s’il était seul. Daniel
Wegner, professeur de psychologie à Harvard, a appelé cela la mémoire
transactive.
Évidemment, on fait souvent appel à des aides technologiques pour
répondre à nos questions, attrapant nos appareils intelligents pour accéder
à nos ressources électroniques et à Internet. Lorsque l’on passe de
« demander de l’aide à d’autres esprits » à « utiliser l’aide de la
technologie », ce que Wegner appelle le cyber-esprit, le principe est le
même. Le cyber-esprit ne donne pas toujours la réponse, mais il fournit
suffisamment d’indices pour en générer une. Même quand la technologie
donne la réponse, elle est souvent enfouie dans une liste de réponses
possibles, nécessitant notre connaissance – ou celle de nos amis – pour
déterminer laquelle on cherche.
Que se passe-t-il quand on s’appuie trop sur la connaissance extérieure,
que ce soit celle de l’environnement, de nos amis ou de notre
technologie ? D’un côté, il n’y a pas de « trop » ; plus on utilise cette
information, meilleure sera notre performance. La connaissance extérieure
est un outil puissant. D’un autre côté, elle est également peu fiable et
souvent fausse. Voyez la difficulté à faire confiance aux informations en
ligne et les controverses entourant les pages Wikipédia. La provenance de
notre connaissance n’est pas importante ; ce qui compte, c’est le résultat.
Dans un livre précédent, Things that make us smart, j’avançais que c’est
cette combinaison de la technologie et de l’humain qui crée des êtres
surpuissants. La technologie ne nous rend pas plus intelligents, tout
comme nous ne la rendons pas plus intelligente. C’est la combinaison des
deux, la personne et l’artefact, qui est intelligente. Nous formons une
combinaison puissante avec nos outils. D’un autre côté, si on se retrouve
sans ces appareils extérieurs, on ne s’en sortira pas très bien et, d’une
certaine façon, on sera moins intelligent.
Sans calculatrice, les gens ne font pas d’arithmétique. Sans système de
navigation, on ne se déplace pas, même dans notre propre ville. Sans le
carnet d’adresses d’un téléphone ou d’un ordinateur, on ne peut plus
appeler nos amis (et je ne me souviens même plus de mon propre numéro).
Sans un clavier, je ne peux pas écrire ; sans un correcteur automatique, je
n’arrive pas à écrire sans fautes.
Le partenariat avec la technologie rend les gens plus intelligents, plus forts
et nous permet de vivre dans le monde moderne. Nous sommes devenus
dépendants de notre technologie et ne savons plus fonctionner sans elle.
Cette dépendance est encore plus forte aujourd’hui : produits mécaniques,
maisons, habits et chauffage sans lesquels on mourrait de froid,
préparation et stockage de nourriture sans lesquels on mourrait de faim, et
même le transport. Cet éventail de dépendances inclut aussi les services
d’information : moyens de communication, informations, divertissement,
éducation et interaction sociale. Quand tout marche correctement, on est
informé, confortable et efficace. Quand les choses cassent, on n’arrivera
plus forcément à fonctionner. Cette dépendance à la technologie est très
vieille mais, à chaque décennie qui s’écoule, son impact vient englober de
plus en plus de nos activités.

Le mapping naturel
Le mapping est un bon exemple de combinaison des connaissances
intérieure et extérieure. Avez-vous déjà allumé ou éteint la mauvaise
plaque de cuisson ? On pense que c’est facile : un seul bouton allume la
plaque, contrôle sa température et l’éteint. C’est tellement facile que,
quand les gens se trompent, ce qui arrive beaucoup plus souvent qu’on ne
le croit, ils pensent que c’est de leur faute. Ce n’est ni si facile que ça, ni
de leur faute : même un objet aussi simple qu’une cuisinière peut être si
mal conçu que des erreurs sont garanties.
La plupart du temps, on a quatre plaques de cuisson et quatre boutons
correspondants.
Figure 3–2 Faire correspondre les boutons avec les plaques de cuisson. Avec
l’arrangement classique montré dans les images A et B, les plaques sont placées en
rectangle et les boutons sont en ligne. En général, il y a un mapping naturel partiel,
avec deux boutons de gauche contrôlant les deux plaques de gauche, et vice versa.
Même dans ce cas, il y a quatre possibilités de mapping différentes, qui sont utilisées
sur des cuisinières commerciales. La seule façon de savoir quel bouton correspond à
quelle plaque est de lire les étiquettes. Si les boutons étaient aussi en rectangle (image
C) ou si les plaques étaient décalées, aucune étiquette ne serait nécessaire ;
l’apprentissage serait facile et les erreurs réduites.

En principe, il devrait être facile de se rappeler le lien entre les boutons et


les plaques. En pratique, c’est presque impossible. C’est en fait à cause du
mauvais mapping entre eux. La figure 3-2 montre quatre possibilités. Les
deux premières nécessitent une information supplémentaire. Les deux
suivantes montrent comment le faire correctement : organiser les boutons
en deux dimensions (C) ou décaler les plaques (D) pour qu’elles soient
organisées de gauche à droite.
Encore pire, certains fabricants ne sont pas d’accord sur le mapping à
utiliser. Si toutes les cuisinières utilisaient le même arrangement de
boutons, même non naturel, tout le monde l’apprendrait une fois pour
toutes et ne commettrait plus d’erreurs. Même si le fabricant s’assure que
chaque paire de boutons correspond à une paire de plaques, il reste quatre
mappings possibles, qui sont utilisés couramment. Certaines cuisinières
ont les boutons en ligne verticale, donnant encore plus de mappings
possibles. Chaque cuisinière est différente, voire chaque modèle d’un
même fabricant. Ce n’est pas une surprise que les gens aient du mal avec
ces appareils, faisant que leur nourriture ne cuira pas, ou pire, qu’ils
déclencheront un incendie.
Les mappings naturels sont ceux où le lien entre les boutons et l’objet
contrôlé (les plaques, dans ce cas) est évident. Selon les circonstances, ils
utiliseront des signaux spatiaux. En voici trois niveaux :
meilleur mapping : les boutons sont montés directement sur l’objet à
contrôler ;
deuxième meilleur mapping : les boutons sont aussi près que
possible de l’objet à contrôler ;
troisième meilleur mapping : les boutons sont dans la même
configuration spatiale que les objets à contrôler.
Dans les deux premières configurations, le mapping est clair et sans
ambiguïté.
Un exemple excellent de mapping naturel est proposé par les robinets,
distributeurs de savon et sèche-mains à détection de mouvement. Il suffit
de mettre ses mains sous le robinet ou le distributeur pour que l’eau ou le
savon apparaisse. Agitez vos mains sous le distributeur d’essuie-mains ou
sous la soufflerie et c’est soit le papier soit l’air qui en sort. Toutefois, le
mapping de ces appareils a aussi ses problèmes : ils manquent
d’indicateurs et de ce fait manquent de découvrabilité. Comme les
détecteurs sont invisibles, il nous arrive parfois de mettre nos mains sous
un robinet en attendant que de l’eau sorte mais que rien ne se passe : ce
sont en fait des robinets mécaniques pour lesquels il faut tourner une
poignée. Lorsque j’agite mes mains devant un distributeur d’essuie-mains
et que rien n’en sort, je ne sais pas si le distributeur est cassé, vide ou si je
ne l’ai pas activé comme il faut, en ne plaçant pas mes mains au bon
endroit. Ou peut-être que celui-là ne fonctionne pas automatiquement mais
il faut pousser, tirer ou tourner quelque chose. Le manque d’indication est
un problème – ces appareils ne sont pas parfaits, mais au moins leur
mapping est correct.
Avec un mapping naturel correct, le lien entre les boutons et les plaques
d’une cuisinière est contenu dans l’environnement et la charge sur la
mémoire humaine est réduite. Avec un mauvais mapping, le poids sur la
mémoire mène à plus d’efforts et plus de risques de commettre des
erreurs ; les gens qui découvrent ce type de cuisinière ne comprennent pas
facilement quel bouton correspond à quelle plaque et même les utilisateurs
expérimentés se tromperont occasionnellement.
On sait depuis environ un siècle à quel point l’arrangement des boutons en
une ligne (1D) alors que les plaques sont en carré (2D) est mauvais.
Pourtant, les fabricants de cuisinières continuent d’utiliser ce design. Et si
parfois les appareils sont dotés de petits diagrammes explicatifs à côté des
boutons, ce n’est pas toujours le cas. Pourtant, avec un mapping naturel
correct, on n’aurait pas besoin de diagrammes, d’étiquettes ou
d’instructions d’utilisation.
L’ironie est que le design d’une cuisinière est un problème simple. Cela
fait cinquante ans que les livres d’ergonomie, de facteurs humains, de
psychologie ou d’ingénierie industrielle parlent du problème et donnent la
solution. Et certaines compagnies vendent parfois, côte à côte dans leurs
catalogues, des appareils avec les meilleurs comme les pires arrangements.
Il est étrange que les usagers achètent encore ces cuisinières mal conçues
et ne refusent pas tout appareil dont les boutons ne sont pas
intelligemment liés aux plaques de cuisson.
Loin d’être insignifiant, ce problème peut être étendu à beaucoup d’autres
situations commerciales ou industrielles où le mapping est défectueux et,
parfois, utiliser le mauvais bouton ou levier risque d’avoir d’importants
impacts économiques ou même d’être mortel.
Dans le domaine industriel, la qualité du mapping est particulièrement
importante, que ce soit pour un drone, une grue dont le contrôleur reste à
l’écart ou bien une voiture dont le conducteur souhaite contrôler les
fenêtres ou la température tout en conduisant à grande vitesse ou dans des
rues encombrées. Dans ces cas, les meilleurs boutons font appel au
mapping spatial, correspondant au mouvement des objets qu’on contrôle.
Le plus souvent, on l’observe dans les voitures pour les boutons qui
contrôlent les fenêtres.
L’utilisabilité n’est pas toujours la chose à laquelle on pense lors de
l’achat. À moins de tester plusieurs appareils dans un environnement
réaliste, en utilisant l’objet comme on le ferait en condition réelle, on ne
verra probablement pas la facilité ou la difficulté d’usage de l’appareil. En
regardant ce dernier, il paraît assez simple et l’éventail de fonctionnalités
semble être un avantage. On n’anticipera pas forcément qu’on ne saura pas
comment utiliser ces fonctionnalités. Il est important de tester les produits
avant de les acheter. Par exemple, pour une nouvelle cuisinière, faites
semblant de cuisiner un repas. Oui, dans le magasin. Il ne faut pas avoir
peur de commettre des erreurs ou de poser des questions idiotes. Tout
problème qu’on rencontrera est sûrement de la faute du concepteur et non
pas de la vôtre.
Un obstacle est aussi que, souvent, l’acheteur n’est pas l’utilisateur. On
emménage dans des appartements meublés, les bureaux achètent du
matériel pour leurs différents départements en fonction du prix, de leurs
relations avec les fournisseurs et peut-être de la fiabilité, mais
l’utilisabilité n’est que peu souvent prise en compte. Enfin, même quand
l’acheteur est l’utilisateur final, il est parfois nécessaire d’échanger une
fonctionnalité que l’on désire contre une que l’on ne veut pas. Pour la
cuisinière qui est chez moi, nous n’aimions pas le placement des boutons,
mais nous l’avons tout de même achetée car une autre particularité de
conception était plus importante à nos yeux et disponible chez un seul
fabricant. Et pourtant, si tous les fabricants utilisaient des mappings
naturels ou standardisaient leurs mappings, cet échange ne serait pas
nécessaire.

Le mapping varie en fonction de la culture


Lorsque j’étais en Inde pour une conférence, mon ordinateur était connecté
à un projecteur et l’on m’avait donné une télécommande pour changer les
diapositives pendant que je parlais. Cette télécommande avait deux
boutons, l’un au-dessus de l’autre. Le titre était déjà affiché alors, quand
j’ai commencé, il me suffisait de passer à la première photo de ma
présentation mais, lorsque j’ai appuyé sur le bouton, à ma grande surprise,
j’ai reculé dans mes illustrations au lieu d’avancer.
Pour moi, le haut voulait dire vers l’avant, le bas vers l’arrière ; le
mapping semblait clair et évident. Si les boutons avaient été côte à côte,
j’aurais hésité : étaitce le gauche ou le droit en premier ? Mais le mapping
de haut et de bas me paraissait naturel, alors pourquoi marchait-il à
l’envers ? Était-ce un autre exemple de mauvaise conception ?
J’ai décidé de demander au public. À ma grande surprise, les gens étaient
divisés. Beaucoup pensaient comme moi que le bouton du haut donnait
l’image suivante, mais beaucoup optaient aussi pour celui du bas.
Pour connaître la réponse correcte, j’ai décidé de poser la question aux
publics autour du monde à chacune de mes conférences. J’ai découvert là
aussi que tous étaient divisés. Et tout le monde est surpris que quelqu’un
puisse penser autrement.
J’étais perplexe jusqu’à ce que je comprenne qu’il s’agissait d’un
problème de point de vue. Oui, le bouton du haut veut dire que quelque
chose avance, mais quoi ? Certaines personnes pensaient que je me
déplacerais vers les images, d’autres que ces images se déplaceraient vers
moi. Dans le premier cas, les gens voulaient appuyer sur le bouton du
haut. Dans le deuxième, c’était l’inverse.
Il en va de même pour le temps. Dans certaines cultures, le temps est
représenté mentalement comme une route partant de quelqu’un. À mesure
que cette personne avance dans le temps, elle se déplace le long de sa ligne
temporelle. D’autres cultures utilisent la même représentation sauf que,
cette fois, la personne est fixe et c’est le temps qui bouge : un événement
dans le futur se rapproche de cette personne.
Certaines cultures représentent le temps comme une ligne verticale : le
haut pour le futur, le bas pour le passé. D’autres ont des idées
complètement différentes. Pour nous, il semble évident que le futur est
devant et le passé derrière ; on parle de quelque chose qui « va arriver » et
on est heureux que certains événements passés soient « derrière nous ».
Et si le passé était devant ? Pourquoi cela serait-il étrange ? On voit ce qui
est en face, pas ce qui est derrière, tout comme on se souvient de ce qui est
passé mais on ne peut pas se souvenir du futur. De plus, on se souvient
mieux du passé récent que de celui d’il y a plus longtemps, de la même
façon qu’on voit mieux ce qui est près de nous que ce qui est loin. Sachez
que c’est ainsi que des natifs d’Amérique du Sud, les Aymara, voient le
temps. Quand ils parlent du futur, ils parlent des jours arrière et pointent
souvent derrière eux. En y réfléchissant, cette façon de voir le monde est
parfaitement logique.
Si le temps est sur une ligne horizontale, est-ce qu’il va de droite à gauche
ou de gauche à droite ? Les deux versions sont en fait correctes parce que
le choix est arbitraire, tout comme celui d’écrire un texte dans un sens ou
dans l’autre. La direction de l’écriture correspond aussi aux préférences
des personnes pour celle du temps. Les gens dont la langue maternelle est
l’arabe ou l’hébreu préfèrent visualiser le temps comme allant de droite à
gauche (le futur étant à gauche), alors que ceux qui écrivent de gauche à
droite situent le futur à droite.
Attendez, ce n’est pas fini. Est-ce que la ligne temporelle est relative à la
personne ou à l’environnement ? Pour certaines sociétés aborigènes
d’Australie, le temps se déplace de façon relative à l’environnement, en
fonction d’où le soleil se lève et se couche. Donnez aux gens de cette
communauté une série de photos d’une évolution temporelle (un
mouvement, quelqu’un mangeant de la nourriture, ou une même personne
changeant avec l’âge) et demandez-leur de placer ces photos dans l’ordre.
Là où les gens d’une culture technologique les classeraient
horizontalement avec la photo la plus récente soit à gauche soit à droite
selon le sens d’écriture de leur langue maternelle, les gens de ces
communautés australiennes les placeraient d’est en ouest avec la plus
récente à l’ouest. Si l’observateur était tourné vers le sud, les photos
iraient de gauche à droite et inversement pour le nord ; s’il était tourné
vers l’ouest, les photos s’éloigneraient de lui et elles s’approcheraient s’il
se tournait vers l’est.
Le choix de métaphore dicte quelle conception utiliser pour l’interaction.
Des problèmes similaires apparaissent parfois dans d’autres domaines. Par
exemple, pour faire défiler du texte sur un ordinateur, est-ce que la molette
de la souris doit faire bouger le texte ou la fenêtre ? Au début, le débat
faisait rage ; finalement, il a été décidé que les flèches du curseur (et plus
tard la souris) utiliseraient la métaphore de la fenêtre. En déplaçant cette
dernière vers le bas, on voit la suite du texte en bas de l’écran et on fait
ainsi monter le texte. La souris et le texte se déplacent donc dans une
direction opposée. Avec la métaphore du mouvement de texte, ils se
déplacent dans la même direction.
Pendant plus de deux décennies, tout le monde faisait descendre
l’ascenseur et la souris pour faire monter le texte. Cependant, les appareils
intelligents et leurs écrans tactiles sont arrivés. Il est devenu naturel de
toucher le texte avec ses doigts et de le déplacer dans la direction qu’on
veut. La métaphore du mouvement de texte est devenue fréquente. Ce
n’est d’ailleurs même plus comme une métaphore : c’est réel. Et à mesure
que les gens passaient des ordinateurs classiques aux écrans tactiles, la
confusion grandissait. C’est ainsi qu’Apple est passé au modèle du
mouvement de texte, mais aucune autre compagnie n’a suivi son exemple.
Au moment où j’écris ces lignes, la confusion règne toujours. Je prédis
que tout ceci va se terminer avec la chute de la métaphore de la fenêtre car
les écrans et les pavés tactiles domineront. Tous les systèmes feront
correspondre le déplacement des mains ou des boutons à celui des images
à l’écran. Prédire le futur de la technologie est bien plus simple que de
prédire le comportement humain ou, dans ce cas, l’adoption de
conventions sociales. Vous jugerez par vous-même si cette prédiction se
vérifie.
Un problème similaire a été observé dans l’aviation avec l’indicateur
d’assiette (horizon artificiel), l’appareil qui donne l’orientation de l’avion
(le tangage et le roulis). L’instrument représente l’horizon par une ligne et
l’avion par sa silhouette vue de l’arrière. Si les ailes sont alignées avec la
ligne d’horizon, l’avion vole droit. Lorsque l’appareil tourne à gauche,
donc s’incline (roulis) vers la gauche, que doit montrer l’instrument : un
avion s’inclinant sur l’horizon ou l’horizon s’inclinant derrière l’appareil ?
Le premier est correct du point de vue d’un observateur placé derrière
l’avion et pour lequel l’horizon sera immobile : le dehors-dedans (outside-
in). Le second est correct du point de vue du pilote, qui voit l’horizon
s’incliner : c’est ce qu’on appelle le dedans-dehors (inside-out).
Aucun point de vue n’est erroné. Tout dépend de ce qu’on considère
comme en mouvement. Ce que cela signifie pour la conception est que
tout est une question de point de vue, de choix de métaphore et, de ce fait,
de culture. Les difficultés de conception se présentent quand il y a un
changement de métaphore. Les pilotes de ligne doivent suivre une
formation et être testés avant de passer d’un type d’appareil (dehors-
dedans, par exemple) à l’autre (dedans-dehors). Quand les pays ont décidé
de changer le côté de la route sur lequel les automobilistes conduiraient, la
confusion temporaire qui en a résulté était dangereuse (beaucoup sont
passés d’une conduite à gauche à une conduite à droite, mais quelques
exemples célèbres comme Okinawa, les îles Samoa et le Timor Oriental
ont fait l’inverse). Dans tous ces cas de changement de conventions, les
gens ont fini par s’adapter. Il est possible de briser les conventions et de
changer de métaphores, mais attendez-vous à une période de confusion
jusqu’à ce que les gens s’adaptent au nouveau système.
4
Savoir quoi faire : contraintes,
découvrabilité et feedback

Comment déterminer la façon d’utiliser un objet ou service que nous


n’avons jamais vu auparavant ? Nous n’avons pas d’autre choix que de
combiner les connaissances que nous avons en nous et celles que nous
apporte le monde extérieur, autrement dit les affordances perçues, les
signifiants, les mappings entre les éléments qui semblent être des
contrôles, des éléments à manipuler avec les actions résultantes, ainsi que
les contraintes physiques qui limitent ce qui peut être fait. La connaissance
personnelle est constituée de modèles conceptuels, de contraintes
culturelles, sémantiques et logiques sur le comportement et des analogies
entre la situation actuelle et les expériences antérieures avec d’autres
situations. Le chapitre 3 a été consacré à une discussion sur la manière
dont nous acquérons des connaissances et les utilisons. L’accent était mis
sur la connaissance dont nous sommes porteurs. Le présent chapitre se
concentre sur les connaissances du monde : comment les concepteurs
peuvent fournir les informations essentielles indiquant quoi faire aux
utilisateurs, même en cas d’appareil inconnu ou de situation inhabituelle.
Figure 4–1 Moto Lego. Le jouet est montré assemblé (A) et en pièces détachées (B). Il
comporte quinze pièces si intelligemment construites que même un adulte peut les
assembler. La conception exploite les contraintes pour spécifier les pièces qui
conviennent. Les contraintes physiques empêchent les placements aux mauvais
endroits. Les contraintes culturelles et sémantiques fournissent les indices nécessaires
pour prendre des décisions. Par exemple, des contraintes culturelles dictent
l’emplacement des trois lumières (rouge, bleu et jaune) et des contraintes sémantiques
empêchent l’utilisateur de placer la tête en arrière sur le corps ou de mettre à l’envers
les éléments marqués « Police ».

Prenons un exemple : construire une moto avec un jeu de Lego. La moto


de la figure 4-1 comporte quinze pièces, dont certaines sont spécialisées.
Sur ces quinze pièces, seules deux paires se ressemblent : deux rectangles
portant le mot « police » et les deux mains du policier. D’autres pièces se
ressemblent en taille et en forme mais sont de couleurs différentes. Par
conséquent, certaines pièces sont physiquement interchangeables, c’est-à-
dire que les contraintes physiques ne sont pas suffisantes pour identifier où
elles vont, mais le rôle approprié de chaque pièce de la moto est toujours
déterminé sans ambiguïté. Comment ? En combinant des contraintes
culturelles, sémantiques et logiques avec des contraintes physiques. Par
conséquent, il est possible de construire la moto sans instructions ou
assistance.
J’ai demandé à plusieurs personnes d’assembler les pièces. Elles n’avaient
jamais vu la structure terminée et je ne leur ai pas dit qu’il s’agissait d’une
moto (même si cela ne leur a pas pris longtemps pour le deviner).
Personne n’a rencontré de difficulté.
Les potentialités visibles des pièces sont importantes pour déterminer
comment elles s’assemblent. Les cylindres et les trous caractéristiques de
Lego indiquent la règle principale de construction. Les formes et les tailles
suggèrent les opérations. Les contraintes physiques limitent le nombre de
pièces susceptibles de s’emboîter. Les contraintes culturelles et
sémantiques induisent de fortes restrictions pour donner du sens à toutes
les pièces. Une pièce va à un seul endroit, dicté par la logique. Ces quatre
classes de contraintes (physique, culturelle, sémantique et logique)
semblent universelles et apparaissent dans plusieurs types de situations.
Les contraintes sont de puissantes clés qui limitent les actions possibles.
Une utilisation bien pensée des contraintes dans la conception permet de
déterminer le bon fonctionnement, même dans une nouvelle situation.

Quatre types de contraintes : physiques,


culturelles, sémantiques et logiques
Contraintes physiques
Les contraintes physiques limitent les opérations possibles. Par exemple,
une grosse fiche ne peut pas se fixer dans un petit trou. Avec la moto
Lego, le parebrise ne peut se fixer qu’à un seul endroit. L’avantage des
contraintes physiques, c’est qu’elles reposent sur les propriétés du monde
physique pour leur fonctionnement. Il n’est pas nécessaire de suivre de
formation. Avec un bon usage des contraintes physiques, il est possible de
limiter le nombre d’actions possibles ou, au moins, de faire en sorte que
les actions souhaitées soient évidentes.
Les contraintes physiques sont plus efficaces si elles sont faciles à voir et à
interpréter. Dans ce cas, avant d’entreprendre n’importe quelle action, le
nombre de possibilités est limité. Dans le cas contraire, la contrainte
physique empêche une mauvaise action de réussir uniquement après
l’avoir testée.
La pile traditionnelle (figure 4-2A) ne possède pas suffisamment de
contraintes physiques. Il est possible de la placer de deux façons, mais une
seule est correcte. Les instructions (figure 4-2B) indiquent qu’il est
important de respecter la polarité. Toutefois, les signifiants dans le
compartiment des piles n’aident pas pour déterminer l’orientation correcte.
Pourquoi ne pas fabriquer des piles avec lesquelles il ne serait pas possible
de se tromper ? Une contrainte physique n’autoriserait l’insertion que dans
le bon sens. Il est aussi possible de concevoir une pile ou des contacts avec
lesquels l’orientation ne pose pas de problème.
La figure 4-3 montre une pile qui a été conçue de sorte que l’orientation ne
soit pas un problème. Ses deux extrémités sont identiques et le positif et le
négatif se trouvent, respectivement, sur l’anneau central et l’anneau du
milieu. Les contacts sont conçus pour toucher un seul des anneaux afin
d’avoir la polarité souhaitée. Même si cela semble régler le problème, je
n’ai vu qu’un exemple de pile de ce type. Elles ne sont donc pas très
répandues.

Figure 4–2 Pile traditionnelle : les contraintes sont nécessaires. La figure A montre une
pile standard qui demande à être correctement orientée dans le compartiment (pour
fonctionner correctement et pour éviter d’endommager le matériel). Regardez la photo
B montrant le logement des piles. Les instructions sont affichées en superposition.
Elles sont plutôt simples mais, dans l’obscurité, réussissez-vous à voir dans quel sens
les piles s’installent ? Les lettres sont noires, sur fond noir.
Figure 4–3 Rendre inutile l’orientation des piles. Cette photo montre une pile pour
laquelle l’orientation n’a pas d’importance. On l’insère dans le sens que l’on veut.
Chaque extrémité de la pile est constituée de trois anneaux concentriques identiques.
Au centre, on trouve le positif (+) et celui du milieu est le négatif (–).

Une autre solution consiste à inventer des contacts qui tolèrent que nos
piles traditionnelles soient insérées dans n’importe quel sens. Microsoft a
inventé ce type de contacts, appelés InstaLoad et la société essaie de
convaincre les fabricants d’adopter le système.
Une troisième solution consiste à concevoir une forme de pile qui ne
s’insère que dans un sens. Pour la plupart, les matériels qui se branchent
utilisent correctement ce principe à l’aide de formes, ou de tout autre type
de système. Pourquoi les piles que nous utilisons au quotidien n’adoptent-
elles pas un système de détrompeur ?
Pourquoi une conception aussi mal adaptée persiste-t-elle aussi
longtemps ? Cela s’appelle le problème de l’héritage et il en sera question
plusieurs fois dans cet ouvrage. Trop d’appareils utilisent des standards ;
c’est l’héritage. Si l’on changeait la forme des piles, il faudrait également
apporter des modifications importantes à un grand nombre de produits.
Les nouvelles piles ne fonctionneraient plus dans les anciens appareils et
les anciennes piles ne seraient pas compatibles avec les nouveaux
équipements. Les connecteurs conçus par Microsoft nous permettent
d’utiliser les mêmes piles, mais les appareils doivent être équipés de ces
contacts. Jusqu’à présent, je n’en ai vu aucun, même dans les produits
Microsoft.
Les serrures et les clés rencontrent le même problème. Même s’il est
souvent facile d’en distinguer la partie lisse de la partie dentelée, il est
malaisé de voir sur la serrure dans quel sens la clé doit être insérée, surtout
s’il fait sombre. De nombreuses prises et connecteurs d’équipements
électriques ou électroniques rencontrent les mêmes problèmes. Même si
l’on trouve des contraintes physiques pour éviter une mauvaise insertion, il
est souvent compliqué de déterminer l’orientation correcte, en particulier
quand les connecteurs et les prises sont difficiles à atteindre, dans un
recoin mal éclairé. Une prise USB, par exemple, présente des contraintes
mais il est souvent nécessaire de la tourner et retourner pour trouver
l’orientation correcte. Pourquoi tous ces appareils ne sont-ils pas
utilisables quelle que soit l’orientation ?
Il n’est pas difficile de concevoir des clés et des prises qui fonctionnent
quel que soit le sens dans lequel on les insère. Les clés pour les
automobiles et de nombreux connecteurs électriques sont insensibles à
l’orientation depuis des années, mais tous les fabricants ne les utilisent
pas. Pourquoi une telle résistance ? Une partie de la réponse se trouve dans
le coût lié à une modification massive. Toutefois, c’est sans doute plutôt
un problème de volonté de l’entreprise : « Nous avons toujours fait les
choses ainsi alors pourquoi faire autrement pour faire plaisir aux
clients ? »
Bien entendu, il est vrai que les difficultés à insérer les clés, les piles ou
les prises ne guident pas la décision au moment de l’achat. Toutefois,
l’absence d’attention envers les besoins du client est souvent le symptôme
de problèmes plus importants qui ont bien plus d’impacts.
Notez qu’une meilleure solution consisterait à résoudre les besoins
fondamentaux à la racine. Après tout, on n’est pas intéressé par les
serrures et les clés ; tout ce que l’on souhaite, c’est que seules les
personnes autorisées puissent accéder à ce qui est fermé. Plutôt que de
refaire les formes des clés physiques, il faut les rendre inutiles. Une fois
que l’on envisage cela, de nombreuses possibilités apparaissent. Des
fermetures à combinaison qui ne demandent pas de clé, des fermetures
sans clé manœuvrables uniquement par des personnes autorisées. Une des
méthodes consiste à utiliser un appareil électronique sans fil, comme un
badge d’identification qui déverrouille les portes lorsqu’il est approché
d’un capteur. Il y a aussi l’exemple des clés de voiture qui restent dans la
poche ou dans une sacoche. Les appareils biométriques identifient une
personne à l’aide de la reconnaissance faciale ou vocale, par l’empreinte
des doigts ou toute autre mesure biométrique (par exemple, l’iris des
yeux). Cette approche a été présentée au chapitre 3.

Contraintes culturelles
Chaque culture définit un ensemble d’actions autorisées dans des
situations sociales. Par exemple, nous savons comment nous comporter
dans un restaurant de notre culture, même dans un établissement où nous
ne nous sommes jamais rendus auparavant. C’est de cette manière que
nous parvenons à nous en sortir lorsque notre hôte nous laisse seuls dans
une pièce étrange, lors d’une fête étrange avec des personnes étranges.
C’est aussi la raison pour laquelle nous nous sentons frustrés et incapables
d’agir lorsque nous sommes confrontés à un restaurant ou à des personnes
issues d’une culture inconnue, là où notre comportement, normalement
accepté, est clairement inapproprié et mal vu. Les problèmes culturels sont
également à la base de nombreuses difficultés que nous rencontrons avec
les nouvelles machines. Il n’existe pas encore de convention
universellement acceptée pour les gérer.
Ceux d’entre nous qui étudient ces éléments pensent que des lignes
directrices du comportement culturel sont représentées dans l’esprit par
des schémas, des structures de connaissance qui contiennent les règles et
les informations nécessaires pour interpréter les situations et guider le
comportement. Dans certains cas stéréotypés (par exemple, un restaurant),
les schémas peuvent être spécialisés.
Les spécialistes en sciences cognitives Roger Schank et Bob Abelson
proposent que, dans de tels cas, nous suivions des scripts qui guident le
comportement. Le sociologue Erving Goffman appelle les contraintes
sociales des cadres et il montre comment ces cadres régissent le
comportement, même lorsqu’une personne se trouve dans une situation ou
une culture nouvelle. Le danger attend ceux qui violent délibérément les
cadres d’une culture.
La prochaine fois que vous serez dans un ascenseur, essayez de violer les
normes culturelles ; vous constaterez à quel point vous, et les autres
personnes se trouvant dans l’ascenseur, vous sentirez mal à l’aise. Cela ne
prend pas beaucoup de temps : mettez-vous face au mur du fond, pour
tourner le dos. Vous pouvez aussi regarder directement certains passagers.
Dans un bus ou dans le métro, laissez votre siège à une personne d’aspect
sportif (c’est particulièrement efficace si vous êtes une personne âgée,
enceinte ou handicapée).
En ce qui concerne la maquette Lego de la figure 4-1, des contraintes
culturelles déterminent l’emplacement des trois feux de la moto (ils sont
parfaitement interchangeables). Le rouge est la norme qui définit
culturellement le feu stop placé à l’arrière. De plus, un véhicule de police
possède souvent un éclairage bleu clignotant sur le dessus. L’élément
jaune est un exemple intéressant de changement culturel. Aujourd’hui, peu
de personnes se souviennent que le jaune était une couleur de phare
standard dans les pays d’Europe (Lego vient du Danemark). Actuellement,
les normes européennes et nord-américaines exigent des phares blancs. Par
conséquent, il n’est plus aussi simple qu’avant de déterminer que la pièce
jaune représente le phare à l’avant de la moto. Les contraintes culturelles
sont susceptibles de changer avec le temps.

Contraintes sémantiques
La sémantique étudie la signification. Les contraintes sémantiques sont
celles qui se fondent sur la signification d’une situation pour contrôler
l’ensemble des actions possibles. Dans le cas de la moto, il n’y a qu’un
seul endroit où cela fait sens d’installer le pilote, qui doit être assis et
dirigé vers l’avant. Le parebrise est là pour protéger le visage du pilote ; il
doit donc se trouver devant lui. Les contraintes sémantiques reposent sur
notre connaissance de la situation, mais aussi du monde. Une telle
connaissance peut être une clé importante et puissante. Cependant, comme
les contraintes culturelles, les contraintes sémantiques ont la possibilité
d’évoluer avec le temps. Les sports extrêmes repoussent les limites de ce
que nous considérons comme raisonnable. Les nouvelles technologies
changent le sens des choses. Et les créateurs changent continuellement la
manière dont nous interagissons avec nos technologies et nos semblables.
Lorsque les voitures deviendront entièrement automatisées et
communiqueront entre elles grâce à des réseaux sans fil, quelle sera la
signification des feux stop à l’arrière ? Que la voiture freine ? Mais à qui
le signal sera-t-il destiné ? Les autres voitures le sauront déjà. Ce feu stop
perdra tout son sens et devra être supprimé ou revu pour indiquer autre
chose. Les significations actuelles ne perdureront peut-être pas.
Contraintes logiques
La lumière bleue sur la moto Lego pose un problème particulier. De
nombreuses personnes n’ont pas la connaissance qui les aiderait.
Toutefois, après avoir monté toutes les autres pièces de la moto, il ne reste
qu’une seule pièce et un seul endroit pour l’installer. La lumière bleue a
été logiquement contrainte.
Les contraintes logiques sont par exemple souvent utilisées par les
personnes qui effectuent des réparations à domicile. Supposons que l’on
démonte un robinet qui fuit afin de changer un joint. Lorsque le robinet est
remonté, on s’aperçoit qu’il reste une pièce. C’est évidemment une erreur,
cette pièce aurait dû être installée.
Les mappings naturels présentés au chapitre 3 fonctionnent à l’aide de
contraintes logiques. Ici, on ne trouve pas de principes physiques ou
culturels, mais plutôt une relation logique entre la disposition spatiale ou
fonctionnelle des composants et des éléments liés. Si deux interrupteurs
contrôlent deux lumières, l’interrupteur de gauche doit actionner la
lumière de gauche ; l’interrupteur de droite, celle de droite. Si l’orientation
des voyants diffère de celle des commutateurs, le mapping naturel n’a
aucun sens.

Normes culturelles, conventions et standards


Chaque culture a ses propres conventions. Est-ce que vous embrassez ou
serrez la main lorsque vous rencontrez quelqu’un ? Si vous embrassez, sur
quelle joue commencez-vous et combien de bises donnez-vous ?
Embrassez-vous l’air ou la joue ? Ou peut-être que vous vous inclinez ou
saluez de la main. Il est possible de passer beaucoup de temps sur Internet
à explorer les diverses formes de salutations utilisées par les différentes
cultures. Il est également drôle d’observer la consternation lorsque des
habitants de pays froids et formels rencontrent des gens de pays
chaleureux, lorsque l’un tente de s’incliner et de serrer la main alors que
l’autre veut serrer dans ses bras voire embrasser des inconnus. En
revanche, ce n’est pas drôle d’être l’un des concernés ; essayez
d’embrasser les joues trois fois (gauche, droite, gauche) lorsque la
personne n’en attend qu’une ou, pire, quand elle vous tend la main. La
violation des conventions culturelles peut complètement perturber une
interaction.
Les conventions sont en fait une forme de contrainte culturelle,
généralement associée au comportement des gens. Certaines conventions
déterminent quelles activités doivent être effectuées ; d’autres interdisent
ou découragent les actions. Dans tous les cas, ces conventions imposent,
aux personnes connaissant bien la culture, de puissantes contraintes de
comportement.
Parfois, elles sont codifiées par des normes internationales ou par des lois
(parfois les deux). Au début des rues très fréquentées, que ce soit par des
chevaux et des calèches ou par des automobiles, des embouteillages et des
accidents se sont produits. Au fil du temps, des conventions se sont
développées pour définir de quel côté de la route il fallait conduire, avec
différentes conventions selon les pays. Qui avait la priorité aux
carrefours ? La première personne à y arriver ? Le véhicule ou la personne
à droite, ou la personne ayant le statut social le plus élevé ? Toutes ces
conventions ont été appliquées à un moment ou à un autre. Aujourd’hui,
les normes internationales régissent la circulation. On conduit d’un seul
côté de la rue. La première voiture qui arrive à une intersection a priorité.
Si deux voitures arrivent en même temps, la voiture à droite (ou à gauche
selon l’endroit) passe la première. Lors du rétrécissement des voies de
circulation, on alterne les voitures (une voiture d’une voie, puis une
voiture de l’autre). Cette dernière règle est plutôt une convention
informelle et, à ma connaissance, elle ne fait pas partie des règles, même si
elle est très bien respectée dans les rues californiennes où je conduis. Ce
concept semblerait étrange dans certaines parties du monde.
Parfois, les conventions ne sont pas compatibles. Par exemple, au
Mexique, quand deux voitures vont se croiser sur un pont étroit à une voie,
celle qui fait un appel de phares indique qu’elle est arrivée en premier et
qu’elle passe sur le pont. Dans la même situation en Angleterre, la voiture
qui fait l’appel de phares indique qu’elle voit l’autre et qu’elle la laisse
passer. Ces deux signalisations sont utiles, sauf lorsque les deux
conducteurs suivent des conventions différentes. Imaginez un conducteur
mexicain rencontrant un chauffeur anglais dans un pays tiers. Notez que
les experts en conduite déconseillent les appels de phares car, même dans
un pays donné, l’interprétation diffère souvent d’un conducteur à l’autre.
Avez-vous déjà été embarrassé lors d’un dîner de gala où on trouve des
dizaines de couverts autour de chaque assiette ? Que faire ? Pouvez-vous
boire ce joli bol d’eau ou est-ce qu’il est là pour tremper vos doigts et les
nettoyer ? Mangezvous un pilon de poulet ou une tranche de pizza avec les
doigts ou avec un couteau et une fourchette ?
Ces questions sont-elles importantes ? Oui, elles le sont. Violez les
conventions et vous serez considérés comme étant un étranger, un étranger
grossier de surcroît.

Appliquer des affordances, des signifiants et


des contraintes aux objets du quotidien
Les affordances, les signifiants, les mappings et les contraintes simplifient
votre rapport avec les objets du quotidien. Si vous n’utilisez pas
correctement ces signaux, vous allez droit vers les problèmes.

Le problème avec les portes


Au chapitre 1, je vous ai raconté la triste histoire de mon ami qui est resté
coincé entre des portes en verre dans un bureau de poste, pris au piège car
il n’y avait aucune indication sur leur fonctionnement. Pour actionner une
porte, il faut trouver le côté qui s’ouvre et l’endroit à manipuler. En
d’autres termes, nous devons déterminer quoi faire et où le faire. Nous
nous attendons à trouver un signal visible (un signifiant) pour l’indiquer :
une plaque, une extension, un creux, une empreinte, n’importe quoi à
toucher, saisir ou tourner. Quand nous avons identifié où agir, il nous reste
à trouver comment : il convient de déterminer quelles sont les opérations
autorisées, en partie à l’aide des signifiants, en partie guidés par des
contraintes.
Il existe un nombre incroyable de types de portes. Certaines s’ouvrent en
actionnant un bouton, d’autres ne possèdent ni boutons, ni aucun autre
signe pour leur manipulation. Peut-être devons-nous appuyer sur une
pédale ou dire une phrase magique (« Sésame, ouvre-toi ! »). De plus,
certaines portes affichent des signes indiquant de tirer, pousser, glisser,
lever, sonner une cloche, insérer une carte, saisir un mot de passe, sourire,
faire pivoter, s’incliner, danser ou simplement demander. D’une manière
ou d’une autre, lorsqu’un appareil aussi simple doit exhiber un panneau
indiquant ce qu’il faut faire, il s’agit d’un échec de conception.
Pour une porte déverrouillée, aucune pièce mobile n’est nécessaire. On se
sert par exemple d’un bouton, d’une plaque ou d’une poignée. Non
seulement le choix du matériel adéquat permet d’utiliser la porte
correctement, mais il indique également comment le faire. Il fournit des
indications claires et non pas ambiguës : des signifiants. Par exemple, dans
le cas où la porte s’ouvre en étant poussée, le moyen le plus simple de le
signaler, c’est de fixer une plaque à l’endroit où l’on doit pousser.
Des plaques ou des barres indiquent clairement l’action à réaliser et où le
faire, car les potentialités sont réduites et pousser est la seule action
possible. La barre anti-panique sur une porte coupe-feu (figure 2–5), avec
sa grande surface horizontale et, souvent, une couleur différente sur la
partie à pousser, fournit un bon exemple de signifiant clair. On limite les
comportements inappropriés quand des personnes paniquées se pressent
contre une porte alors qu’elles tentent de fuir un incendie. Les meilleures
barres offrent à la fois des affordances visibles qui agissent comme des
contraintes physiques sur l’action et un signifiant visible, indiquant ce
qu’il faut faire et où le faire.
Certaines portes utilisent le matériel adapté et bien placé. Les poignées de
porte extérieures de la plupart des automobiles modernes sont d’excellents
exemples de conception. Elles indiquent simultanément le lieu et le mode
d’action. Les fentes horizontales guident la main dans une position de
traction ; les fentes verticales signalent un mouvement de glissement.
Curieusement, pour les poignées de porte intérieures, c’est une autre
histoire. Ici, le concepteur est confronté à un autre type de problème et la
solution n’a pas encore été trouvée. En conséquence, elles sont souvent
difficiles à trouver, à comprendre et à utiliser.
D’après mon expérience, les pires portes sont celles des armoires. Il est
parfois impossible de déterminer où elles se trouvent, encore moins de
savoir si on doit les glisser, les lever, les pousser ou les tirer. L’esthétique
du meuble peut aveugler le concepteur (et l’acheteur), qui ne perçoit pas le
manque d’utilisabilité. Une conception particulièrement frustrante est celle
où la porte du meuble s’ouvre vers l’extérieur quand on la pousse vers
l’intérieur ; en poussant, on relâche un loquet qui active un ressort. C’est
une conception très intelligente, mais qui déroute souvent. Une plaque
serait une indication appropriée, mais les concepteurs souhaitent conserver
la surface lisse de la porte. Une des armoires de ma maison a ce type
d’ouverture avec une porte vitrée. Comme le verre laisse voir les étagères,
on comprend qu’il est impossible d’ouvrir la porte vers l’intérieur. Par
conséquent, la pousser semble être un non-sens. Les nouveaux utilisateurs
et ceux peu habitués tentent généralement de la tirer. Ils sont souvent
obligés d’utiliser leurs ongles, leur lame de couteau ou autre astuce pour
l’ouvrir.
Un autre type de conception contre-intuitive a été à l’origine de mes
difficultés à vider l’eau sale du lavabo dans un hôtel londonien (figure 1–
4).
Les apparences sont trompeuses. J’ai vu des gens trébucher et tomber en
essayant de pousser une porte qui s’ouvrait automatiquement vers
l’intérieur. Sur la plupart des rames de métro, les portes s’ouvrent
automatiquement à chaque station. Ce n’est pas le cas à Paris et j’y ai vu
quelqu’un ne pas parvenir à descendre de la rame : quand le train est arrivé
à la station souhaitée, cette personne s’est placée devant la porte et a
attendu en vain que celle-ci s’ouvre, tandis que la rame repartait. Dans ce
métro, vous devez ouvrir les portes vous-mêmes en appuyant sur un
bouton ou en manipulant un levier (selon le type de rame). Dans certains
systèmes de transport en commun, le passager est censé actionner la porte,
mais dans d’autres c’est interdit. Le grand voyageur est continuellement
confronté à ce type de situation et ce qui convient à un endroit est
inapproprié à un autre, même dans des situations qui semblent identiques.
Les normes culturelles connues créent du confort et de l’harmonie. Des
normes inconnues sont sources d’inconfort et de confusion.

Le problème des interrupteurs


Lorsque je donne des conférences, ma première démonstration ne
nécessite souvent aucune préparation. Je peux compter sur les
interrupteurs de la pièce ou de l’auditorium pour être ingérables.
Quelqu’un dira « lumières s’il vous plaît ». Puis on tâtonnera pour trouver
les interrupteurs et savoir ce qu’ils contrôlent. Il semble que les lumières
fonctionnent correctement uniquement lorsque l’on engage un technicien
pour allumer et éteindre.
Les problèmes d’interrupteurs dans un auditorium sont ennuyeux, mais ces
mêmes problèmes dans l’industrie risquent d’être dangereux. Dans de
nombreuses salles de contrôle, les opérateurs sont confrontés à des rangées
d’interrupteurs identiques. Comment éviter les erreurs occasionnelles, la
confusion ou les heurts accidentels d’un mauvais bouton ? Heureusement,
les paramètres industriels sont généralement assez robustes et quelques
erreurs de temps en temps ne sont, généralement, pas importantes.
Un petit avion populaire expose des interrupteurs en apparence identiques
pour les volets et le train d’atterrissage, l’un à côté de l’autre. Vous serez
sans doute surpris d’apprendre le nombre de pilotes qui, au sol, décident
de relever les volets et relèvent les roues à la place. Cette erreur très
coûteuse s’est produite assez souvent pour que le Bureau national de la
sécurité des transports rédige un rapport à ce sujet. Les analystes ont
gentiment indiqué que les principes de conception appropriés pour éviter
ces erreurs étaient connus depuis cinquante ans. Pourquoi commet-on
toujours ces erreurs de conception ?
Les interrupteurs et les commandes de base devraient être relativement
simples à concevoir. Pourtant, il y a deux difficultés fondamentales. La
première consiste à déterminer le type d’appareil qu’ils contrôlent ; par
exemple, les volets ou le train d’atterrissage. La seconde est un problème
de mapping, largement traité aux chapitres 1 et 3. Par exemple, quand il y
a un grand nombre de lumières et une série d’interrupteurs, quel bouton
contrôle quelle lumière ?
Les interrupteurs deviennent un sérieux problème dès qu’ils sont
nombreux. S’il n’y en a qu’un, il n’y a aucun souci et ce n’est qu’un
problème mineur s’il y a deux interrupteurs. Les difficultés augmentent
rapidement avec plus de deux interrupteurs au même endroit. Cette
situation est plus fréquente dans les bureaux, les auditoriums et les sites
industriels que dans les maisons.
Avec des installations complexes, où les lumières et les interrupteurs sont
nombreux, les commandes d’éclairage répondent rarement aux besoins de
la situation. Lorsque je donne des conférences, j’ai besoin d’un moyen de
réduire la lumière sur l’écran pour que les images soient visibles, tout en
laissant suffisamment de lumière sur le public pour qu’il soit en mesure de
prendre des notes (et pour que je surveille sa réaction à la présentation).
Ce type de réglage est rarement fourni. Les électriciens ne sont pas formés
pour effectuer des analyses de tâches.
À qui la faute ? Probablement à personne. Blâmer une personne est
rarement approprié ou utile (nous y reviendrons au chapitre 5). Le
problème est probablement dû aux difficultés de coordination des
différentes professions impliquées dans l’installation des commandes
d’éclairage.

Figure 4–4 Interrupteurs d’éclairage incompréhensibles. Les rangées de


commutateurs comme celles-ci ne sont pas rares dans les maisons. Il n’y a pas de
correspondance évidente entre les interrupteurs et les lumières contrôlées. J’ai eu un
panneau similaire chez moi, mais il ne comportait que six interrupteurs. Même après
avoir vécu des années dans la maison, je ne me souvenais jamais lequel utiliser, alors
je plaçais simplement tous les commutateurs vers le haut ou le bas. Comment ai-je
résolu mon problème ? Regardez la figure 4-5.

Jadis, j’ai vécu dans une magnifique maison sur les falaises de Del Mar en
Californie. La maison a été conçue pour nous par deux jeunes architectes
primés. Elle était magnifique et les architectes ont prouvé leur valeur par
l’emplacement spectaculaire de la maison et les larges fenêtres qui
donnaient sur l’océan. Cependant, ils aimaient le design moderne, soigné
et épuré. À l’intérieur de la maison se trouvaient, entre autres, de jolies
rangées d’interrupteurs : une ligne de quatre (identiques) dans le hall
d’entrée, une colonne de six dans le salon. Lorsque nous nous sommes
plaints, les architectes nous ont répondu que nous finirions par nous y
habituer. Nous n’avons jamais réussi. La figure 4-4 montre une rangée de
huit interrupteurs que j’ai vue dans une maison que je visitais. Qui pourrait
se rappeler la fonction de chacun d’eux ? Ma maison n’en avait que six au
maximum et c’était déjà assez difficile.
Un manque de communication claire entre les personnes et les sociétés qui
construisent des parties d’un système est, sans doute, la cause la plus
courante de conceptions compliquées et confuses. Une bonne conception
commence par des observations minutieuses de la manière dont les tâches
sont réellement exécutées ; c’est l’analyse de la tâche. S’ensuit un
processus de conception qui correspond bien à ces méthodes d’exécution :
la conception centrée utilisateur (CCU), présentée au chapitre 6.
Pour résoudre le problème posé par les interrupteurs de ma maison à Del
Mar, il convient d’utiliser le mapping naturel. Avec six interrupteurs
placés dans une matrice unidimensionnelle, verticalement sur le mur, il
n’est pas possible de représenter naturellement les lumières placées à
l’horizontale sur le plafond. Pourquoi placer ces interrupteurs à plat sur le
mur ? Pourquoi ne pas les installer horizontalement, par analogie exacte
avec les objets contrôlés ? Nous avons monté un plan du salon sur plaque
et l’avons orienté par rapport à la pièce ; les interrupteurs ont été placés
sur le plan de l’étage de sorte que chacun soit situé dans la zone qu’il
contrôle (figure 4-5). La plaque était montée avec une légère inclinaison
par rapport à l’horizontale pour faciliter la visualisation et rendre la
cartographie claire. Si la plaque avait été verticale, la cartographie serait
restée ambiguë. Elle était également inclinée pour décourager les gens
(nous ou les visiteurs) de placer des objets dessus : c’est un exemple
d’anti-affordance. Nous avons simplifié les manipulations en déplaçant le
sixième commutateur vers un emplacement isolé, où sa signification était
claire.
Figure 4–5 Un mapping naturel de l’éclairage. J’ai placé cinq petits interrupteurs en
correspondance avec les lumières de mon salon. J’ai utilisé un plan du salon, du
balcon et du hall de la maison, chaque interrupteur étant placé à l’endroit où se trouvait
la lumière. Le X à côté du commutateur central indiquait où se situait la plaque sur le
plan (« Vous êtes ici ! »). La surface de cette plaque était inclinée pour en faciliter le
déchiffrage, mais aussi comme anti-affordance en empêchant les gens de poser des
objets sur les interrupteurs.

Il est inutilement difficile de mettre en œuvre ce mapping spatial des


interrupteurs. Les éléments nécessaires ne sont pas disponibles. J’ai dû
embaucher un technicien qualifié pour construire le boîtier mural et
installer des interrupteurs spéciaux et l’équipement de commande. Les
constructeurs et les électriciens ont besoin de composants normalisés.
Aujourd’hui, les équipements disponibles se trouvent sous la forme de
boîtiers rectangulaires dans lesquels on place une longue ligne
d’interrupteurs, prêts à être montés horizontalement ou verticalement sur
le mur. Pour produire le réseau spatial approprié, nous aurions besoin
d’une structure bidimensionnelle à monter parallèlement au sol et qui
permettrait un placement relativement libre des interrupteurs,
correspondant au mieux à la pièce. Idéalement, la boîte utiliserait de petits
interrupteurs, peut-être des modèles à basse tension, qui commanderaient
une structure de commande montée séparément et qui prendrait en charge
les éclairages. Il serait bon aussi de pouvoir insérer un plan de l’éclairage
sur le dessus de la plaque. Enfin, les commutateurs et les lumières peuvent
communiquer sans fil au lieu des câbles traditionnels.
Ma suggestion implique que le boîtier dépasse du mur, alors que les
boîtiers actuels sont installés de sorte que les commutateurs soient au
même niveau que le mur. Il pourrait alternativement être placé dans une
ouverture en retrait dans le mur, de la même manière qu’il y a de la place
dans le mur pour les boîtiers d’interrupteurs existants. On peut aussi
envisager de placer les interrupteurs sur un petit piédestal.
Durant les décennies écoulées depuis la publication de la première édition
de cet ouvrage, la section sur le mapping naturel et les difficultés
rencontrées avec les interrupteurs a reçu un accueil très populaire.
Néanmoins, aucun outil n’est commercialisé pour faciliter la mise en
œuvre de ces idées. Une fois, j’ai essayé de convaincre un directeur
d’entreprise en lui suggérant de fabriquer les composants pour que les
gens puissent réaliser cela facilement. J’ai échoué.
Un jour, nous nous débarrasserons des interrupteurs câblés, qui demandent
des longueurs excessives de fils électriques, alourdissent les coûts et les
difficultés à construire des maisons. Ils rendent les modifications des
circuits électriques extrêmement difficiles et longues. À la place, nous
utiliserons des connexions sans fil entre les interrupteurs et les appareils.
De cette façon, les commandes pourront être placées n’importe où et être
reconfigurées ou déplacées. Nous pourrions avoir plusieurs commandes
pour le même appareil. Les commandes seraient aussi dans nos téléphones
ou dans d’autres appareils portables. J’ai la possibilité de contrôler mon
thermostat domestique de n’importe où dans le monde. Pourquoi ne puis-
je pas faire la même chose avec mes lampes ? Certaines des technologies
nécessaires existent aujourd’hui dans les magasins spécialisés, mais leur
utilisation ne sera généralisée que lorsque les principaux fabricants auront
mis sur le marché les composants nécessaires et que les électriciens
traditionnels se seront habitués à les installer. Les outils pour créer des
configurations d’interrupteurs utilisant de bons principes de mapping
deviendront standards et faciles à mettre en œuvre. Cela arrivera, mais cela
risque de demander beaucoup de temps.
Hélas, comme beaucoup de choses qui changent, les nouvelles
technologies apporteront du bon et du mauvais. Les commandes sont
généralement soumises à des écrans tactiles, ce qui permet un excellent
mappage naturel des appareils mais, sans interrupteurs physiques, il ne
sera plus possible de les manipuler avec le côté du bras ou le coude en
essayant d’entrer dans une pièce, les mains chargées d’emballages ou de
tasses de café. Les écrans tactiles conviennent si les mains sont libres.
Peut-être que les caméras qui reconnaissent les gestes feront le travail.

Commandes centrées sur l’activité


Le mapping spatial des interrupteurs n’est pas toujours la solution idéale.
Dans de nombreux cas, il est préférable d’avoir des interrupteurs qui
contrôlent les activités ; on parle de contrôle centré sur l’activité. De
nombreux auditoriums dans les écoles et les entreprises ont des
commandes informatisées et des interrupteurs étiquetés avec des
indications telles que vidéo, ordinateur, lumières allumées ou lecture.
Avec une bonne conception et une analyse détaillée des activités prises en
charge, les commandes centrées sur les activités fonctionnent extrêmement
bien. La vidéo demande un auditorium sombre, une commande du niveau
sonore et des commandes pour démarrer, mettre en pause et arrêter la
présentation. Les images projetées nécessitent une zone d’écran sombre
avec suffisamment de lumière dans l’auditorium pour que les gens soient
en mesure de prendre des notes. Les conférences nécessitent des éclairages
de scène pour que l’orateur soit vu. Les commandes basées sur l’activité
sont excellentes en théorie, mais difficiles à obtenir dans la pratique.
Lorsqu’elles sont mal conçues, elles créent des difficultés.
Une approche connexe mais fausse consiste à se centrer sur le dispositif
plutôt que sur l’activité. Lorsqu’on procède ainsi, différents écrans de
commande gèrent l’éclairage, le son, l’ordinateur et la projection vidéo. Le
conférencier doit alors accéder à un écran pour régler la lumière, à un
autre pour régler les niveaux sonores et à un troisième pour contrôler les
images ou la vidéo. C’est une interruption cognitive dans le flux de la
conversation que de basculer entre les écrans, par exemple pour
interrompre la vidéo afin de faire un commentaire ou de répondre à une
question. L’approche centrée sur l’activité anticipe ce besoin et place les
commandes de lumière, de niveau sonore et de projection au même
endroit.
Une fois, j’ai utilisé un dispositif centré sur l’activité, en le réglant pour
présenter mes photographies au public. Tout a bien fonctionné jusqu’à ce
qu’on me pose une question. Je me suis arrêté pour répondre, mais je
voulais éclairer la salle pour voir le public. L’activité consistant à
commenter des images projetées avait pour effet de régler l’éclairage de la
pièce au plus bas. Lorsque j’ai essayé d’augmenter l’intensité lumineuse,
je n’étais plus en train de « parler », j’ai donc éclairé là où je le voulais,
mais l’écran de projection s’est enroulé au plafond et le projecteur s’est
éteint. Les problèmes avec les commandes basées sur l’activité concernent
les cas exceptionnels qui n’ont pas été pris en compte lors de la
conception.
Les commandes centrées sur l’activité sont la solution idéale si les
activités sont soigneusement sélectionnées pour répondre aux exigences
réelles. Cependant, même dans ces cas, des contrôles manuels seront
toujours nécessaires car il y aura toujours une demande inattendue
nécessitant des paramètres idiosyncratiques. Comme mon exemple le
montre, l’utilisation des paramètres manuels ne doit pas entraîner
l’annulation de l’activité en cours.

Contraintes qui forcent le comportement


souhaité
Systèmes anti-erreur
Les systèmes anti-erreur sont une forme de contrainte physique. Les
actions sont contraintes afin qu’une défaillance à une étape empêche la
réalisation de l’étape suivante. Le démarrage d’une voiture est associé à un
système anti-erreur. Le conducteur doit disposer d’un objet physique
permettant d’utiliser la voiture. À une époque, il s’agissait d’une clé
physique qui servait pour déverrouiller les portières et qu’on plaçait
ensuite dans le contacteur. En la tournant, on allumait le système
électrique et, si la clé était tournée à l’extrême, on activait le moteur.
Les voitures actuelles utilisent différentes méthodes pour vérifier les
autorisations. Certaines conservent une clé, mais cette dernière peut rester
dans la poche ou un sac. De plus en plus, la clé est remplacée par une
carte, un téléphone ou tout autre système pouvant communiquer avec la
voiture. Tant que seules les personnes autorisées possèdent la carte (ce qui
est identique pour les clés), tout fonctionne correctement. Avec les
véhicules électriques ou hybrides, il n’est pas nécessaire de démarrer le
moteur avant de rouler, mais les procédures restent identiques : les
conducteurs doivent s’authentifier avec un objet physique en leur
possession. Le véhicule ne démarrant pas sans l’authentification donnée
par la possession de la clé, il s’agit d’un système anti-erreur.
Les systèmes anti-erreur constituent le cas extrême de fortes contraintes
destinées à empêcher un comportement inapproprié. Il n’est pas toujours
possible d’utiliser de telles contraintes, mais le principe général peut être
étendu à un grand nombre de situations. Dans le domaine de l’ingénierie
de la sécurité, les systèmes anti-erreur apparaissent sous d’autres noms,
notamment comme méthodes spécialisées de prévention des accidents.
Trois méthodes de ce type sont : interlock, lock-in et lockout.

N.D.T. : les trois expressions se traduisent par verrouillage, mais l’auteur utilise ces
termes pour différencier les trois méthodes de verrouillage.

Interlock
L’interlock oblige à effectuer les opérations dans un ordre précis. Les fours
à micro-ondes et les appareils dont l’intérieur est exposé à une tension
élevée utilisent des fonctions de verrouillage pour empêcher les gens de se
mettre en danger. Le verrouillage coupe l’alimentation dès l’ouverture de
la porte ou dès que l’arrière de l’appareil est enlevé. Dans les automobiles
à boîte automatique, un verrouillage empêche de quitter la position de
stationnement sauf si on appuie sur la pédale de frein.
L’interrupteur homme-mort est une autre forme de verrouillage. Il est
utilisé pour assurer la sécurité, entre autres par les opérateurs de trains, les
tondeuses à gazon, les scies à chaîne et de nombreux véhicules de loisir.
Ce type de sécurité exige souvent que l’opérateur maintienne un
interrupteur à ressort pour que l’équipement fonctionne. Si l’opérateur
décède (ou perd le contrôle), l’interrupteur est relâché, ce qui arrête
l’équipement. Comme certaines personnes contournaient la sécurité en
attachant l’interrupteur (ou en plaçant un poids lourd sur les modèles à
commande au pied), diverses méthodes ont été développées pour
déterminer que la personne est vraiment vivante et alerte. Certains
modèles nécessitent un niveau de pression moyen, d’autres demandent
d’appuyer puis de relâcher. Certains encore nécessitent des réponses à des
requêtes. Dans tous les cas, il s’agit de verrouillages de sécurité destinés à
empêcher le fonctionnement lorsque l’opérateur n’en a pas la capacité.

Lock-in

Figure 4–6 Une fonctionnalité lock-in. Ce système empêche de quitter un programme


sans choisir d’enregistrer le travail où de délibérément ordonner de ne pas le faire.
Notez que le message est conçu de façon à choisir l’opération souhaitée.

Un système lock-in sert à maintenir une opération active en empêchant


quelqu’un de l’arrêter de manière prématurée. De nombreuses applications
informatiques utilisent de tels verrouillages, par exemple lorsque l’on tente
de les quitter sans sauvegarder le travail (figure 4-6). Elles sont si efficaces
que je les utilise délibérément pour quitter les applications. Plutôt que de
sauvegarder un fichier, puis de quitter le programme, je sors simplement,
sachant qu’on me donnera un moyen simple d’enregistrer mon travail. Ce
qui a été créé sous forme de message d’erreur est devenu un raccourci
efficace.
Certaines entreprises tentent de conserver leurs clients en faisant en sorte
que leurs produits fonctionnent parfaitement les uns avec les autres, mais
soient incompatibles avec ceux de leurs concurrents. Ainsi, la musique, les
vidéos ou les livres électroniques achetés auprès d’une entreprise peuvent
être utilisés sur des appareils fabriqués par cette entreprise, mais pas avec
des appareils similaires d’autres fabricants. L’objectif est d’utiliser la
conception comme une stratégie commerciale. La cohérence au sein d’un
fabricant précis implique que, une fois que les utilisateurs ont appris à
utiliser le système, ils le conservent et hésitent à changer en raison des
difficultés liées à l’utilisation d’un autre système d’une autre société. En
fin de compte, les gens qui doivent se servir de plusieurs systèmes sont
perdants. En réalité, tout le monde y perd, à l’exception du fabricant qui
domine le marché.

Lockout

Figure 4–7 Un système lockout pour une sortie de secours. La grille, placée dans les
escaliers au niveau du rez-de-chaussée, évite que des personnes se précipitent au
sous-sol en cas d’urgence.

Alors qu’un système lock-in conserve une personne dans un espace précis
ou empêche toute action tant que les opérations souhaitées n’ont pas été
effectuées, un lockout empêche une personne d’entrer dans un espace
dangereux ou évite qu’un événement ne se produise. Un bon exemple de
lockout se trouve dans les escaliers de certains bâtiments (figure 4-7). En
cas d’incendie, les gens ont tendance à fuir paniqués. Ils descendent les
escaliers encore et encore et, arrivés au rez-de-chaussée, continuent vers le
sous-sol. La solution consiste à interdire le passage entre le rez-de-
chaussée et le sous-sol.
Les systèmes lockout sont généralement utilisés pour des raisons de
sécurité. Par exemple, pour les enfants, on protège l’ouverture des
armoires par des serrures, on met des caches sur les prises électriques ainsi
que des bouchons spéciaux sur les bouteilles de médicaments et de
substances toxiques. La goupille qui empêche l’activation d’un extincteur
d’incendie jusqu’à son retrait est aussi une fonction de verrouillage qui
empêche toute décharge accidentelle.
Les systèmes anti-erreur sont parfois pénibles en utilisation normale. Par
conséquent, beaucoup de gens vont délibérément les désactiver, se privant
ainsi de la sécurité. Le concepteur doit minimiser les nuisances tout en
conservant la fonction de sécurité. La porte de la figure 4-7 est un
compromis astucieux : suffisamment de retenue pour que les gens sachent
qu’ils quittent le rez-dechaussée, mais pas un obstacle puisqu’il suffit
d’ouvrir la grille pour passer.
D’autres dispositifs font un usage intéressant du système anti-erreur. Dans
certaines toilettes publiques, une étagère escamotable est placée sur le mur
juste derrière la porte des toilettes et elle est maintenue en position
verticale par un ressort. On abaisse l’étagère en position horizontale et le
poids d’un paquet ou d’un sac à main la maintient. Sa position est un
système anti-erreur : lorsque l’étagère est abaissée, la porte est
complètement bloquée. Donc, pour sortir de la cabine, on doit reprendre ce
qu’on y a posé.

Conventions, contraintes et affordances


Au chapitre 1, nous avons vu les différences entre les termes affordance,
affordance perçue et signifiants. Les affordances font référence aux actions
potentielles possibles, mais celles-ci ne sont facilement perçues que si
elles sont découvrables. C’est le signifiant de l’affordance perçue qui
permet aux gens de déterminer les actions possibles. Maintenant, comment
passe-t-on de la perception d’une affordance à la compréhension de
l’action possible ? Dans de nombreux cas, cela s’effectue par le biais de
conventions.
Une poignée de porte a la préhension comme affordance perçue, mais on
apprend que cela s’utilise pour ouvrir et fermer les portes. C’est un aspect
culturel de la conception de savoir que les boutons, poignées et barres
placés sur les portes sont destinés à l’ouverture et la fermeture de ces
dernières. Les mêmes dispositifs placés sur des murs seraient interprétés
différemment. Ils pourraient, par exemple, servir de support mais ne
permettraient certainement pas d’ouvrir le mur. L’interprétation d’une
affordance perçue est une convention culturelle.

Les conventions sont des contraintes culturelles


Les conventions sont un type particulier de contrainte culturelle. Par
exemple, la façon dont on se nourrit est soumise à de fortes contraintes
culturelles et conventionnelles. Différentes cultures utilisent différents
ustensiles de cuisine. Certains mangent principalement avec les doigts et le
pain, tandis que d’autres utilisent des ustensiles de service élaborés. Il en
va de même pour presque tous les aspects imaginables du comportement,
depuis les vêtements portés jusqu’à la manière dont on s’adresse aux
aînés, aux égaux et aux subordonnés. C’est aussi le cas pour l’ordre dans
lequel les gens entrent ou sortent d’une pièce. Ce qui est considéré comme
correct et approprié dans une culture peut être considéré comme impoli
dans une autre.
Bien que les conventions fournissent des indications précieuses pour des
situations inédites, leur existence rend souvent difficile l’adoption d’un
changement. Prenons comme exemple l’histoire des ascenseurs à
destination contrôlée.

Quand les conventions changent : le cas des


ascenseurs à gestion de destination
L’utilisation d’un ascenseur semble une évidence. On appuie sur le
bouton, on entre dans la boîte, on monte ou on descend puis on sort.
Toutefois, nous avons rencontré et documenté un ensemble de variations
de conception curieuses sur cette simple interaction, soulevant la
question : pourquoi ?
Portigal & Norvaisas, 2011.
Cette citation provient de deux concepteurs professionnels qui ont été
tellement choqués par une modification des commandes d’un ascenseur
qu’ils ont rédigé un article complet de plaintes.
Qu’est-ce qui est à l’origine d’un tel mécontentement ? Était-ce vraiment
une mauvaise conception ou, comme le suggèrent les auteurs, un
changement totalement inutile d’un système par ailleurs satisfaisant ?
Voici ce qui s’est passé : les auteurs avaient reçu une nouvelle convention
pour les ascenseurs. De nombreuses personnes (y compris moi-même) la
considèrent comme meilleure que celle à laquelle nous sommes tous
habitués. Son inconvénient majeur est qu’elle est différente, ce qui viole
les conventions coutumières. Or, les violations des conventions peuvent
être très dérangeantes. Voici l’histoire.
Lorsque les ascenseurs « modernes » ont été installés pour la première fois
dans des bâtiments à la fin des années 1800, il y avait toujours un
opérateur humain qui contrôlait la vitesse et la direction de la cabine.
L’opérateur s’arrêtait aux étages appropriés, ouvrait et fermait les portes.
Les gens entraient dans l’ascenseur, saluaient et indiquaient à quel étage
ils souhaitaient se rendre. Lorsque ces appareils sont devenus automatisés,
une convention similaire a été suivie. Les gens entrent dans la cabine et
indiquent à quel étage ils veulent aller en appuyant sur un bouton.
C’est une méthode assez inefficace. Vous avez probablement déjà vu un
ascenseur encombré où chaque personne veut aller à un étage différent, ce
qui signifie un trajet plutôt lent pour celles se rendant aux étages
supérieurs. Un système d’ascenseurs à gestion de destination regroupe les
passagers, de sorte que ceux qui se rendent au même étage sont invités à
utiliser la même cabine. Le nombre de passagers est réparti pour
maximiser l’efficacité. Ce type de regroupement est uniquement
intéressant pour les bâtiments avec un grand nombre d’appareils.
Dans l’ascenseur traditionnel, les passagers se tiennent dans le hall et
indiquent s’ils souhaitent monter ou descendre. Lorsqu’une cabine arrive
dans la bonne direction, ils entrent et utilisent le clavier à l’intérieur pour
indiquer l’étage de destination. Par conséquent, cinq personnes pourraient
monter dans le même ascenseur, chacune souhaitant un étage différent.
Avec le contrôle de destination, les claviers sont situés dans le couloir, à
l’extérieur des cabines (figures 4-8A et D). Les gens sont dirigés vers
l’ascenseur qui atteindra le plus efficacement leur étage. Ainsi, cinq
personnes pourraient être affectées à cinq ascenseurs différents. Le
résultat, c’est un trajet plus rapide pour tout le monde, avec un minimum
d’arrêts. Même si des personnes se voient attribuer des ascenseurs qui ne
sont pas les prochains à arriver, elles arriveront à leur destination plus
rapidement que si elles utilisaient un ascenseur classique.
La gestion de destination a été inventée en 1985, mais la première
installation commerciale date de 1990 (dans des ascenseurs Schindler).
Maintenant, le système se répand de plus en plus, à mesure que les
promoteurs d’immeubles de grande hauteur se rendent compte que la
gestion de la destination offre un meilleur service aux passagers, ou un
service équivalent avec moins d’ascenseurs.
Des horreurs ! Comme le confirme la figure 4-8D, il n’existe pas de
commande à l’intérieur de l’ascenseur pour spécifier un étage. Et si les
passagers changent d’avis et souhaitent descendre à un étage différent ?
Même mon éditeur chez Basic Books s’est plaint de cela dans une note
marginale. Que faites-vous dans un ascenseur normal lorsque vous
changez d’avis et que vous voulez descendre au sixième étage au moment
où l’ascenseur passe au septième étage ? C’est simple : vous descendez à
l’arrêt suivant, vous vous dirigez vers la boîte de contrôle de destination
située dans le hall d’ascenseurs et spécifiez l’étage prévu.
Figure 4–8 Ascenseur à gestion de destination. L’étage de destination souhaité est
saisi sur le panneau de commande à l’extérieur des ascenseurs (A et B). L’affichage
dirige le voyageur vers la cabine appropriée (C) : la personne souhaite se rendre au
32e étage et est dirigée vers l’ascenseur « L ». Il n’y a aucun moyen de spécifier l’étage
à l’intérieur de la cabine ; on y trouve uniquement les commandes pour ouvrir et fermer
les portes, ainsi qu’un bouton d’alerte (D). Cette conception est beaucoup plus efficace,
mais déroutante pour les personnes habituées au système plus conventionnel.
Photographies de l’auteur.

Réactions aux changements de convention


Les gens s’opposent invariablement et se plaignent chaque fois qu’une
nouvelle approche est introduite dans une gamme existante de produits et
de systèmes. Les conventions sont violées : un nouvel apprentissage est
nécessaire. Les mérites du nouveau système ne sont pas en cause : c’est le
changement qui dérange. L’ascenseur à gestion de destination n’est qu’un
exemple parmi d’autres. Le système métrique fournit un autre exemple
frappant des difficultés rencontrées pour changer les conventions des gens.
L’échelle métrique de mesure est supérieure à l’échelle anglaise dans
presque tous les cas : elle est logique, facile à apprendre et facile à utiliser
dans les calculs. Aujourd’hui, plus de deux siècles se sont écoulés depuis
que le système métrique a été développé par les Français dans les années
1790, mais trois pays résistent encore à son utilisation : les États-Unis, le
Libéria et le Myanmar. Même la Grande-Bretagne a en grande partie
basculé, de sorte que les États-Unis sont le seul grand pays qui utilise
encore l’ancien système d’unités anglais. Pourquoi ? Les raisons avancées
sont que le changement est trop bouleversant pour les gens qui doivent
apprendre le nouveau système et que le coût initial de l’achat de nouveaux
outils et appareils de mesure semble excessif. Or, les difficultés
d’apprentissage ne sont pas aussi complexes qu’on le prétend et le coût
serait relativement faible, car le système métrique est déjà largement
utilisé, même aux États-Unis.
La cohérence dans la conception est vertueuse. Cela signifie que les leçons
apprises avec un système sont facilement transférées aux autres. Dans
l’ensemble, la cohérence doit être suivie. Si une nouvelle façon de faire
n’est que légèrement meilleure que l’ancienne, il est préférable d’être
cohérent. Cependant, s’il doit y avoir un changement, tout le monde doit
changer. Les systèmes mixtes sont sources de confusion pour tout le
monde. Lorsqu’une nouvelle façon de faire les choses est
considérablement supérieure à une autre, les avantages du changement
l’emportent sur la difficulté. Ce n’est pas parce que quelque chose est
différent que c’est mauvais. Si nous ne gardions que l’ancien, nous ne
pourrions jamais nous améliorer.

Le robinet : un cas de conception


On a du mal à imaginer qu’un simple robinet d’eau puisse nécessiter un
manuel d’utilisation. J’en ai pourtant vu un, lors d’une réunion de la
British Psychological Society à Sheffield, en Angleterre. Les participants
ont été logés dans des dortoirs. À leur arrivée à Ranmoor House, chaque
invité a reçu une brochure contenant des informations utiles sur
l’emplacement du bureau de poste et des églises, les horaires des repas
et… la manière de manipuler les robinets. « Les robinets du lavabo
s’actionnent en appuyant doucement. »
Quand j’ai pris la parole à la conférence, j’ai interrogé le public sur ces
robinets. Combien de personnes ont-elles eu du mal à les utiliser ?
Politesse et retenue du public. Combien ont-elles essayé de tourner la
poignée ? Un grand nombre de mains levées. Combien ont-elles dû
demander de l’aide ? Quelques honnêtes gens ont levé la main. Par la
suite, une femme est venue me voir et a dit qu’elle avait abandonné et
avait parcouru les couloirs jusqu’à ce qu’elle trouve quelqu’un pour lui
expliquer le fonctionnement des robinets. Un simple lavabo et un simple
robinet. Toutefois, ce dernier donne l’impression de devoir être tourné et
non pas poussé. Si on doit le pousser, donnez-lui l’aspect d’avoir à être
poussé !

Ceci, bien sûr, est similaire au problème que j’ai eu pour vider l’eau du lavabo de
mon hôtel (chapitre 1).

Pourquoi un produit aussi simple et standard est-il si difficile à concevoir


correctement ? La personne qui utilise un robinet se préoccupe de deux
choses : la température de l’eau et le débit. Cependant, l’eau pénètre dans
le robinet par deux tuyaux, chaud et froid. Il existe un conflit entre, d’un
côté, le besoin humain de température et de débit et, de l’autre, la structure
physique du chaud et du froid.
Il y a plusieurs façons de gérer cela :
Contrôle de l’eau chaude et de l’eau froide. Deux commandes,
l’une pour l’eau chaude, l’autre pour l’eau froide.
Contrôle de la température uniquement. Une commande, où le
débit est fixe. La rotation de la commande à partir de sa position fixe
ouvre l’eau à un débit prédéterminé, la température étant contrôlée par
la position du bouton.
Contrôle du débit uniquement. Une commande, où la température
est fixe, avec un débit contrôlé par la position du bouton.
Allumé/éteint. Une commande ouvre et ferme l’eau. C’est ainsi que
fonctionnent les robinets à commande gestuelle : on place la main
sous le robinet pour faire couler l’eau et on la retire pour arrêter. La
température et le débit sont déterminés.
Contrôle de la température et du débit. On utilise deux commandes
distinctes, l’une pour la température de l’eau, l’autre pour le débit.
Un contrôle pour la température et le débit. Une seule commande
intégrée, avec laquelle un mouvement dans une direction contrôle la
température et un mouvement dans une direction différente contrôle le
débit.
Là où il y a une commande pour l’eau chaude et une pour l’eau froide, il y
a quatre problèmes de mapping :
Quel bouton contrôle le chaud, lequel le froid ?
Comment changez-vous la température sans affecter le débit ?
Comment changez-vous le débit sans affecter la température ?
Dans quelle direction augmente-t-on le débit d’eau ?
Les problèmes de mappings peuvent être résolus par le biais de
conventions culturelles ou de contraintes. Une convention mondiale
indique que le robinet de gauche est chaud et le droit froid. C’est une
convention universelle similaire qui indique que les pas de vis sont conçus
pour serrer dans le sens horaire et desserrer dans le sens anti-horaire. On
ferme un robinet en serrant un filetage (en serrant une rondelle contre son
siège). Donc, tourner dans le sens horaire coupe l’eau et tourner dans
l’autre sens l’ouvre.
Malheureusement, les contraintes ne sont pas toujours universelles. La
plupart des Anglais que j’ai interrogés ne savaient pas que gauche/chaud,
droit/froid était une convention. Elle est trop souvent ignorée pour être
considéré comme une convention en Angleterre. Elle n’est pas universelle
aux États-Unis non plus. J’ai déjà expérimenté des commandes de douche
placées verticalement : Laquelle contrôlait l’eau chaude : le robinet du
haut ou celui du bas ?
Si les deux boutons du robinet sont ronds, la rotation dans le sens horaire
devrait diminuer le débit. Cependant, si chaque robinet a une « lame »
unique comme poignée, on ne pense pas à la faire pivoter, mais plutôt qu’il
faut pousser ou tirer. Pour maintenir la cohérence, tirer sur l’un ou l’autre
des robinets doit augmenter le débit, même si cela signifie que vous devez
tourner le robinet gauche dans le sens antihoraire et le droit dans le sens
horaire. Bien que le sens de rotation soit incohérent, tirer et pousser sont
cohérents ; c’est ainsi que les gens conceptualisent leurs actions.
Hélas, parfois les gens intelligents le sont trop pour notre bien. Certains
concepteurs de plomberie bien intentionnés ont décidé que la cohérence
devait être ignorée au profit de leur propre interprétation de la
psychologie. Le corps humain a une symétrie d’image en miroir, disent ces
pseudo-psychologues. Donc, si la main gauche tourne dans le sens horaire,
la main droite doit le faire dans le sens antihoraire. Attention, votre
plombier ou votre architecte peut installer des robinets dont la rotation
dans le sens horaire ne donne pas le même résultat avec l’eau chaude et
avec l’eau froide.
Lorsque vous essayez de contrôler la température de l’eau avec du savon
qui coule sur vos yeux, le robinet dans une main, le savon ou le
shampooing dans l’autre, vous êtes certain de vous tromper. La main
tâtonnante est tout aussi susceptible de rendre l’eau plus froide que de la
rendre brûlante.
Quiconque a inventé ce fonctionnement en miroir devrait être obligé de
prendre une douche. Oui, il y a une certaine logique à cela. Pour être un
peu juste envers l’inventeur du schéma, cela fonctionne tant que vous
utilisez toujours deux mains pour ajuster les deux robinets simultanément.
Cependant, cela échoue lorsqu’une même main est utilisée pour tourner les
deux commandes. Ensuite, vous ne vous rappelez pas dans quel sens
tourner l’un ou l’autre des robinets. Encore une fois, notez que cela se
corrige sans changer les robinets ; il suffit de remplacer les poignées par
des lames. Ce sont les perceptions psychologiques qui importent, le
modèle conceptuel et non la cohérence physique.
Le fonctionnement des robinets devrait être normalisé afin que le modèle
conceptuel psychologique soit le même pour tous les types. Avec les
commandes traditionnelles à double robinets pour eau chaude et froide, les
normes doivent indiquer :
lorsque les commandes sont arrondies, les deux doivent être orientées
dans le même sens pour modifier le débit d’eau ;
lorsque les poignées sont à une seule lame, il faut tirer sur les deux
pour modifier le volume d’eau (ce qui signifie que les robinets
tournent dans des directions opposées).
D’autres configurations de poignées sont possibles. Supposons qu’elles
soient montées sur un axe horizontal afin de tourner verticalement. La
réponse seraitelle différente pour les poignées à une lame et les poignées
rondes ? Je vous laisse cela comme exercice.
Qu’en est-il du problème de l’évaluation ? Les retours sur l’utilisation de
la plupart des robinets sont rapides et directs ; il est donc facile de détecter
les problèmes et de les corriger. Le cycle d’évaluation/action est facile à
parcourir. En conséquence, la différence par rapport aux règles normales
n’est souvent pas remarquée – à moins que le retour d’information se
produise sous la douche, lorsque vous vous brûlez ou que vous vous
glacez. Lorsque les robinets sont éloignés du bec, le délai entre leur
manipulation et le changement de température est parfois assez long, ce
qui complique le réglage. Tournez le robinet dans le mauvais sens, puis
dansez sous la douche alors que l’eau est brûlante ou glacée ; tournez le
robinet dans l’autre direction, en espérant que la température se stabilise
rapidement. Ici, le problème vient des propriétés de l’écoulement du fluide
– il faut du temps à l’eau pour parcourir environ deux mètres de tuyau. Il
n’est donc pas facile de remédier à la situation, mais le problème est
exacerbé par une mauvaise conception des commandes.
Passons maintenant au robinet moderne à bec unique et à commande
unique. La technologie vient à la rescousse. Déplacez la commande dans
un sens, la température est ajustée. Déplacez-la dans un autre sens, le débit
s’ajuste. Hourra !
Nous contrôlons exactement les variables qui nous intéressent et le
mélangeur résout le problème de l’évaluation.
Oui, ces nouveaux robinets sont beaux, élégants, vainqueurs de prix…
mais inutilisables. Ils ont résolu un ensemble de problèmes pour en créer
un autre. Celui du mapping est maintenant prédominant. La difficulté
réside dans le manque de standardisation des dimensions des commandes,
mais aussi de ce que l’on obtient selon la direction du mouvement.
Souvent, un bouton peut être poussé ou tiré, tourné dans le sens horaire ou
dans le sens inverse ; pour autant, la poussée ou la traction contrôle-t-elle
le débit ou la température ? Parfois, il y a un levier qui se déplace
latéralement ou d’avant en arrière ; là encore, quels sont les mouvements
qui règlent le débit et la température ? Le robinet à commande unique a
toujours quatre problèmes de cartographie.
Quelle est la dimension (déplacement horizontal ou vertical) de la
commande qui change la température ?
Quelle est la direction, dans cette dimension, qui signifie « plus
chaud » ?
Quelle est la dimension du contrôle qui affecte le débit ?
Quelle est la direction dans cette dimension qui signifie « plus de
débit » ?
Au nom de l’élégance, les pièces en mouvement se fondent parfois de
manière invisible dans la structure du robinet, ce qui rend presque
impossible de trouver les commandes. De plus, différents modèles de
robinets utilisent différentes solutions. Les robinets à contrôle unique
devraient être excellents parce qu’ils contrôlent les variables
psychologiques d’intérêt. Malheureusement, à cause du manque de
standardisation et d’une conception maladroite, ils frustrent tellement de
gens qu’ils ont tendance à être détestés plus qu’ils ne sont admirés.
La conception des robinets doit être simple, mais elle va souvent à
l’encontre de nombreux principes de conception :
affordances et signifiants visibles ;
découvrabilité ;
retour immédiat.
Si tout échoue, normalisez.
Pour régler le problème, il faut normaliser. La normalisation est en effet le
principe fondamental du désespoir : lorsque aucune autre solution ne
semble possible, il suffit de concevoir tout de la même manière, afin que
les gens n’aient à apprendre qu’une fois. Si tous les fabricants de robinets
savaient s’entendre sur un ensemble standard de mouvements pour
contrôler le débit et la température, alors nous apprendrions ces normes
une fois pour toutes et utiliserions ces connaissances pour chaque nouveau
robinet que nous rencontrerions.
Si vous ne pouvez pas indiquer les connaissances sur l’appareil (c’est-à-
dire sur le monde), développez une contrainte culturelle : normalisez ce
qui doit être gardé dans la tête. Et rappelez-vous la leçon tirée de la
rotation du robinet : les normes doivent refléter les modèles conceptuels
psychologiques et non la mécanique physique.
Les normes simplifient la vie de tous. Dans le même temps, elles ont
tendance à entraver le développement futur. Et, comme on le verra au
chapitre 6, il est souvent difficile de parvenir à un accord commun en
raison de difficultés politiques. Néanmoins, lorsque tout échoue, les
normes sont la voie à suivre.

Utiliser le son comme signifiant


Parfois, les éléments nécessaires ne peuvent être rendus visibles. Prenez le
son, il est capable de fournir des informations qui ne sont autrement pas
disponibles. Il sait nous dire si les choses fonctionnent correctement ou si
elles nécessitent un entretien ou des réparations. Il peut même éviter des
accidents :
déclic du verrou d’une porte ;
son métallique quand une porte ne se ferme pas correctement ;
son rugissant quand un pot d’échappement de voiture a un trou ;
claquement quand les choses ne sont pas sécurisées ;
sifflet d’une bouilloire lorsque l’eau est chaude ;
clic lorsque le pain grillé apparaît ;
changement de bruit lorsqu’un aspirateur est bouché ;
changement de son indescriptible quand une machine complexe
commence à avoir des problèmes…
De nombreux appareils émettent simplement un bip. Ce n’est pas un son
qui transmet des informations cachées. Lorsqu’il est utilisé correctement,
un bip vous indique par exemple que vous avez appuyé sur un bouton,
mais il est aussi agaçant qu’informatif. Les sons doivent être générés de
manière à donner des informations sur la source. Ils doivent communiquer
quelque chose sur les actions qui ont lieu, des actions qui importent à
l’utilisateur mais qui, autrement, ne seraient pas visibles. Les
bourdonnements, les clics et les ronflements que vous entendez au cours
d’un appel téléphonique en sont un bon exemple. Supprimez-les et vous ne
saurez pas si la connexion est établie.
Le son réel et naturel est aussi essentiel que l’information visuelle, car il
nous parle d’événements que nous ne pouvons pas voir et il le fait lorsque
nos yeux sont occupés ailleurs. Les sons naturels reflètent l’interaction
complexe d’objets naturels : la façon dont une partie se déplace contre une
autre, le matériau dans lequel les pièces sont fabriquées (creux ou pleins,
métal ou bois, tendres ou durs, rugueux ou lisses). Des sons sont émis
lorsque des matériaux interagissent et nous indiquent s’ils frappent,
glissent, se cassent, se déchirent, se décomposent ou rebondissent. Des
mécaniciens expérimentés sont capables de diagnostiquer l’état des
machines simplement en les écoutant. Lorsque les sons sont générés
artificiellement, s’ils sont intelligemment créés en utilisant un riche
spectre auditif, s’ils fournissent des informations sans être gênants, ils sont
aussi utiles que ceux du monde réel.
Le son est spécial. Il distrait aussi facilement qu’il aide. Agréable ou
mignon lors de la première rencontre, il devient parfois gênant plutôt
qu’utile. L’une de ses vertus est qu’il est détectable même lorsque
l’attention est portée ailleurs. Cependant, cette vertu est aussi un problème,
car les sons sont souvent intrusifs. Il est difficile de garder les sons privés,
sauf si l’intensité est faible ou si des écouteurs sont utilisés. Cela signifie
que vos voisins risquent d’être agacés et que d’autres ont la possibilité de
surveiller vos activités. L’utilisation du son pour transmettre des
connaissances est une idée puissante et importante, mais elle en est encore
à ses balbutiements.
Tout comme la présence du son joue un rôle utile en fournissant un retour
d’information sur les événements, son absence entraîne les mêmes
difficultés que nous avons déjà rencontrées en raison d’un manque de
feedback.

Quand le silence tue


C’était une agréable journée de juin à Munich, en Allemagne. On est venu
me chercher à mon hôtel et on m’a conduit à la campagne avec des terres
agricoles de chaque côté d’une route étroite à deux voies. Des marcheurs
occasionnels nous croisaient et un cycliste passait de temps en temps.
Nous avons garé la voiture sur l’accotement de la route et avons rejoint un
groupe de personnes. « Préparez-vous », m’a-t-on dit. « Fermez les yeux et
écoutez. » Je l’ai fait et, environ une minute plus tard, j’ai entendu un
gémissement aigu accompagné d’un bourdonnement sourd : une
automobile arrivait. En approchant, je pouvais entendre le bruit des pneus.
Après le passage de la voiture, on m’a demandé de juger le son. Nous
avons répété l’exercice plusieurs fois et, à chaque fois, le son était
différent. Que se passait-il ? Nous évaluions les conceptions sonores des
nouveaux véhicules électriques de BMW.
Les voitures électriques sont extrêmement silencieuses. Les seuls sons
émis proviennent des pneus, de l’air et, parfois, du sifflement aigu de
l’électronique. Les amoureux de voitures aiment vraiment le silence. Les
piétons ont des sentiments mitigés, mais les non-voyants sont très inquiets.
En effet, ces derniers sillonnent les rues en s’appuyant sur le bruit des
véhicules ; c’est comme ça qu’ils savent s’ils sont en sécurité pour
traverser. Et ce qui est vrai pour les nonvoyants l’est également pour
quiconque s’aventurant dans la rue tout en étant distrait. Si les véhicules
ne font pas de bruit, ils peuvent tuer. La National Highway Traffic Safety
Administration des États-Unis a déterminé que les piétons étaient
beaucoup plus susceptibles d’être touchés par des véhicules hybrides ou
électriques que par ceux équipés d’un moteur à combustion. Le plus grand
danger est lorsque les véhicules hybrides ou électriques se déplacent
lentement car ils sont alors presque complètement silencieux. Les sons
d’une automobile sont des indicateurs importants de sa présence.
Ajouter du son à un véhicule pour avertir les piétons n’est pas une idée
nouvelle. Depuis de nombreuses années, les poids lourds et les engins de
chantier émettent des signaux sonores lors de la marche arrière. Les
klaxons sont obligatoires en vertu de la loi, pour alerter les piétons et les
autres conducteurs lorsque le besoin s’en fait sentir (bien qu’ils soient
souvent utilisés comme un moyen d’évacuer la colère et la rage).
Toutefois, ajouter un son continu à un véhicule standard pour qu’il ne soit
plus trop silencieux reste un défi.
Quel son voudriez-vous ? Un groupe de non-voyants a suggéré de mettre
des pierres dans les enjoliveurs. J’ai trouvé cela génial. Les roches
fourniraient un ensemble de signaux naturels, riches en sens et faciles à
interpréter. La voiture serait silencieuse jusqu’à ce que les roues
commencent à tourner. Ensuite, les cailloux produiraient des sons naturels
et continus à faible vitesse, puis donneraient une impression de chute des
pierres à plus grande vitesse, jusqu’à ce qu’ils finissent par être plaqués
sur la circonférence de la jante et donc silencieux. Ce dernier point est
intéressant, parce que, pour les véhicules rapides, le bruit des pneus est
alors audible. Le manque de son lié à l’immobilité du véhicule poserait
cependant un problème.
Le marketing des constructeurs automobiles pensait que l’ajout de sons
artificiels constituerait une formidable opportunité de marque. Chaque
marque ou modèle de voiture devait donc avoir son propre son, reflétant
parfaitement la personnalité que le constructeur souhaitait véhiculer.
Porsche a ajouté des hautparleurs à son prototype de voiture électrique
pour lui donner le même « grondement furieux » que ses véhicules à
essence. Nissan se demandait si une voiture hybride devait ressembler à un
oiseau qui chante. Certains constructeurs pensaient que toutes les
automobiles devaient avoir le même son, avec des bruits et des niveaux
sonores standardisés, que tout le monde apprendrait facilement à
reconnaître. Certains malvoyants ont pensé qu’il fallait émettre un son
rappelant le bruit des moteurs à essence, en raison de la vieille tradition
selon laquelle les nouvelles technologies doivent toujours copier les
anciennes.
Le skeuomorphisme est un terme technique qui désigne l’intégration des
idées anciennes et courantes aux nouvelles technologies, même si elles ne
jouent plus un rôle fonctionnel. Les conceptions skeuomorphes sont
souvent agréables pour les traditionalistes. L’histoire montre que les
nouvelles technologies et les nouveaux matériaux imitent les anciens sans
aucune raison apparente. Les premières automobiles ressemblaient à des
chariots tirés par des chevaux mais sans les chevaux. Les premiers
plastiques étaient conçus pour ressembler au bois. Les dossiers dans les
systèmes de fichiers informatiques ressemblent souvent aux dossiers de
papier, avec des onglets. Une façon de surmonter la peur du nouveau
consiste à lui donner l’image du vieux. Cette pratique est décriée par les
puristes du design, mais elle a en réalité l’avantage de donner du réconfort
et de faciliter l’apprentissage. Les modèles conceptuels existants doivent
seulement être modifiés plutôt que remplacés. Finalement, de nouvelles
formes apparaissent sans aucun rapport avec l’ancien, mais les
conceptions skeuomorphiques ont facilité la transition.
Quand il a été question de choisir le son que les véhicules silencieux
devaient émettre, ceux qui souhaitaient se différencier ont eu gain de
cause, mais tous ont également convenu qu’il devait exister des normes. Il
devrait être possible de déterminer que le son provient d’une automobile,
d’identifier son emplacement, sa direction et sa vitesse. Aucun son ne
serait nécessaire une fois que la voiture allait assez vite, en partie parce
que le bruit des pneus serait suffisant. Une certaine normalisation serait
nécessaire, mais avec beaucoup de marge de manœuvre. Les comités
internationaux de normalisation ont commencé leurs procédures.
Différents pays, mécontents de la vitesse normalement lente des accords
de normalisation, et sous la pression de leurs communautés, ont
commencé à rédiger une législation. Les entreprises se sont empressées de
développer des sons appropriés en recrutant des experts en psycho-
acoustique, des psychologues et des concepteurs sonores hollywoodiens.
La National Highway Traffic Safety Administration des États-Unis a
publié un ensemble de principes ainsi qu’une liste détaillée d’exigences,
dont les niveaux sonores, les spectres et d’autres critères. Le document
complet contient 248 pages.
Au moment où j’écris ces lignes, les concepteurs sonores expérimentent
encore. Les sociétés d’automobile, les législateurs et les comités de
normalisation sont toujours au travail. Les normes, adoptées en février
2018, devraient entrer en vigueur en 2020, mais il faudra beaucoup de
temps pour qu’elles soient appliquées sur des millions de véhicules à
travers le monde.
Quels sont les principes qui devraient être appliqués pour la conception
sonore des véhicules électriques (y compris les hybrides) ? Les sons
doivent répondre à plusieurs critères.
Alerte. Le son indiquera la présence d’un véhicule électrique.
Orientation. Le son permettra de déterminer l’emplacement du
véhicule, de se faire une idée approximative de sa vitesse et de savoir
s’il s’approche de l’auditeur ou s’il s’éloigne.
Dérangement. Parce que ces sons seront entendus fréquemment
même avec un trafic léger et continuellement dans un trafic lourd, ils
ne doivent pas être dérangeants. Notez le contraste avec les sirènes,
les klaxons et les alarmes, qui sont tous destinés à constituer des
avertissements agressifs. Ces sons sont délibérément déplaisants, mais
ils sont acceptables parce qu’ils sont peu fréquents et d’une durée
relativement courte. Le défi auquel sont confrontés les sons de
véhicules électriques consiste à alerter et à orienter, pas à agacer.
Standardisation versus individualisation. La normalisation est
nécessaire pour garantir que tous les sons des véhicules électriques
seront facilement interprétés. S’ils varient trop, les nouveaux sons
risquent de dérouter l’auditeur. L’individualisation a deux fonctions :
la sécurité et le marketing. Du point de vue de la sécurité, s’il y avait
beaucoup de véhicules présents dans la rue, l’individualisation
permettrait de les suivre un par un, ce qui est particulièrement
important aux intersections encombrées. Du point de vue du
marketing, l’individualisation garantit que chaque marque possède ses
propres caractéristiques, correspondant à l’image du constructeur.
Restez immobiles au coin d’une rue et écoutez attentivement les véhicules
qui vous entourent. Écoutez les bicyclettes silencieuses et les sons
artificiels des voitures électriques. Ces voitures répondent-elles aux
critères ? Après des années d’essais visant à rendre les voitures plus
silencieuses, qui aurait un jour pensé que nous consacrerions des années
d’efforts et des dizaines de millions de dollars à l’ajout de son ?
5
Erreur humaine ? Non,
mauvaise conception

On estime qu’entre 75 et 95 % des accidents industriels sont causés par


une erreur humaine. Comment est-il possible qu’autant de personnes
soient incompétentes ? Elles ne le sont pas ; c’est un problème de
conception.

Si le taux était d’1 à 5 %, je pourrais croire que des personnes sont


responsables mais, avec un pourcentage aussi élevé, il est clair que
d’autres facteurs entrent en ligne de compte.
Lorsqu’un pont s’effondre, on analyse l’incident pour en trouver les causes
et on change les règles de conception pour s’assurer que cela ne se
reproduira plus. Lorsque l’on découvre qu’un équipement électronique ne
fonctionne pas parce qu’il répond à des bruits électriques non souhaités,
on repense les circuits pour plus de tolérance au bruit. Pourtant, lorsque
l’on pense qu’un accident est causé par une personne, on accuse cette
dernière et on continue de construire les choses comme elles l’ont toujours
été.
Les limitations physiques sont bien comprises par les concepteurs, mais
les limitations mentales le sont beaucoup moins. Il est nécessaire de traiter
tous les défauts de la même manière : il faut trouver les causes
fondamentales et repenser le système afin qu’il ne provoque plus d’erreur.
Nous concevons des équipements qui nécessitent que les utilisateurs soient
totalement attentifs pendant des heures ou qu’ils se souviennent de
procédures confuses et archaïques qu’ils n’utilisent que rarement, parfois
une seule fois dans leur vie. Nous installons des personnes dans des
environnements ennuyeux sans rien à faire pendant des heures, jusqu’à ce
que soudain, elles doivent agir rapidement et correctement. Il arrive aussi
que l’on place les gens dans un environnement où ils sont constamment
interrompus alors qu’ils doivent mener plusieurs tâches en même temps.
Nous nous demandons ensuite pourquoi il y a des problèmes.
Pire, quand je parle à des concepteurs et à des administrateurs de ces
systèmes, ils admettent qu’eux aussi se sont assoupis pendant qu’ils
travaillaient ou, pire, en conduisant. Ils reconnaissent tourner le mauvais
bouton sur la cuisinière chez eux, mais aussi tout un tas de petites erreurs
insignifiantes. Toutefois, quand d’autres commettent de telles erreurs, ils
les accusent en parlant d’erreur humaine. Quand les employés ou les
clients rencontrent des problèmes similaires, ils sont accusés de ne pas
suivre correctement les directives ou de ne pas être totalement concentrés
et attentifs.

Comprendre l’origine des erreurs


Plusieurs raisons sont à l’origine des erreurs. La plus courante reste la
nature des tâches et des procédures qui nécessitent que les gens se
comportent de manière artificielle, en restant attentif pendant des heures
ou en suivant des spécifications précises. Toutes les tâches sont réalisées
en même temps et elles interfèrent entre elles. Les interruptions sont des
causes fréquentes d’erreur et elles ne sont pas aidées par les conceptions et
les procédures qui demandent un contrôle total, ce qui ne facilite pas la
reprise d’une tâche après une interruption. Enfin, le pire coupable est sans
doute l’attitude des gens face à l’erreur.
Lorsqu’une erreur provoque des pertes financières ou, pire, des blessures,
voire la mort, un comité spécial est mis en place pour en chercher l’origine
et, presque toujours, des individus sont accusés. L’étape suivante consiste
à juger et à sanctionner avec une amende, un licenciement ou un
emprisonnement. Parfois, la sanction se résume à une nouvelle formation
des coupables. Accusation et sanction ; accusation et formation. Les
enquêtes et les sanctions qui en découlent semblent justes. Pourtant, cela
ne règle en rien le problème : la même erreur va se reproduire sans cesse.
Il est nécessaire de déterminer la véritable cause, puis de repenser le
produit ou les procédures suivies afin d’empêcher l’erreur ou, si elle se
produit, pour que son impact soit minimal.

Analyse de la cause originelle


Il s’agit d’enquêter sur l’accident jusqu’à ce que l’unique cause soit
déterminée. Cela signifie que, quand une personne commet une erreur, il
est nécessaire de déterminer pourquoi. Hélas, trop souvent, on arrête
l’investigation une fois que quelqu’un est accusé d’avoir agi de façon
inappropriée.
Il est intéressant de chercher une cause à un problème, mais ce n’est pas
parfait, cela pour deux raisons. Premièrement, les accidents n’ont
généralement pas une cause unique. Il y a souvent plusieurs choses qui ne
se sont pas déroulées correctement ; sur plusieurs événements, au moins
un ne s’est pas passé correctement et il aurait dû avertir de l’accident.
C’est ce que James Reason, une autorité britannique dans le domaine de
l’erreur humaine, a nommé « Swiss cheese model » (voir figure 5-3).
Deuxièmement, pourquoi l’analyse de la cause originelle s’arrête-t-elle dès
qu’une erreur humaine est trouvée ? Si une machine tombe en panne, on
n’arrête pas l’analyse quand on découvre une pièce cassée ; on cherche
pourquoi cette pièce est cassée. Était-elle de mauvaise qualité ? Les
spécifications étaientelles insuffisantes ? Est-ce que quelque chose a
appuyé trop fort sur la pièce ? On continue de se poser des questions tant
que l’on n’est pas satisfait des réponses. Ensuite, on cherche un remède au
problème. Nous devrions faire la même chose avec une erreur humaine :
trouver ce qui a conduit à cette erreur et chercher ce que l’on peut faire
pour ne pas la reproduire.
Le F-22 de l’US Air Force est l’un des avions les plus sophistiqués du
monde. Toutefois, il a été impliqué dans plusieurs accidents et les pilotes
se sont plaints d’un manque d’oxygène (hypoxie). En 2010, un crash a
détruit un de ces appareils et le pilote est mort. Le comité d’enquête de
l’armée de l’air a étudié l’accident et, deux ans plus tard, le rapport
imputait la faute à une erreur du pilote qui n’a pas su rattraper son avion.
En 2013, l’inspecteur général du département américain de la Défense a
affirmé son désaccord avec les conclusions. À ce moment-là, une bonne
analyse de la cause originelle a probablement été effectuée. L’inspecteur
général a demandé pourquoi une incapacité soudaine ou une perte de
connaissance n’était pas considérée comme un facteur. Personne n’a été
surpris par le fait que l’US Air Force n’a pas été d’accord avec cette
critique. Pour cet organisme, il était évident que les conclusions étaient
fondées sur des éléments clairs et convaincants ; la seule faute était que le
rapport aurait pu être écrit de manière plus claire.
On peut parodier les deux rapports de la manière suivante :
Air Force – C’est une erreur du pilote, il n’a pas réussi à prendre des
mesures correctives.
Inspecteur général – C’est parce qu’il était inconscient.
Air Force – Vous êtes donc d’accord, le pilote n’a pas corrigé le problème.

Les cinq pourquoi


L’analyse de la cause originelle vise à déterminer la cause sous-jacente
d’un incident et non pas la cause immédiate. Les Japonais utilisent depuis
longtemps une procédure visant à trouver les causes fondamentales : les
« cinq pourquoi ». Elle a été développée par Sakichi Toyoda et utilisée par
la Toyota Motor Company pour améliorer la qualité de la production.
Aujourd’hui, cette procédure est largement suivie. Fondamentalement,
cela signifie que, lorsque l’on cherche la raison, on ne s’arrête pas, même
après en avoir trouvé une. Il faut se demander, une nouvelle fois, pourquoi.
On continue à se poser la question jusqu’à ce que l’on découvre les
véritables causes sousjacentes. Est-ce que cela se limite à cinq questions ?
Non, mais nommer cette procédure cinq pourquoi insiste sur la nécessité
de continuer même après la découverte d’une raison. Voyons comment
cela pourrait être appliqué à l’analyse du crash du F-22.
Tableau 5–1 Les cinq pourquoi

Question Réponse
Q1 – Pourquoi l’avion s’est-il écrasé ? Parce qu’il a fait une plongée non contrôlée.
Q2 – Pourquoi le pilote n’a-t-il pas récupéré Parce qu’il n’a pas pu faire une récupération
la plongée ? dans les temps.
Q3 – Pourquoi ? Parce qu’il était certainement inconscient
(ou privé d’oxygène).
Q4 – Pourquoi ? Nous ne savons pas, nous devons
chercher.
Etc.

Ici, l’exemple des cinq pourquoi n’offre qu’une analyse partielle. Par
exemple, nous avons besoin de savoir pourquoi l’avion plongeait (le
rapport l’explique, mais c’est trop technique pour en parler ici ; il suffit de
savoir qu’il était suggéré qu’il y avait un manque d’oxygène).
Cette procédure ne garantit pas le succès. La question « pourquoi ? » est
ambiguë et conduit à différentes réponses selon les enquêteurs. On est
également confronté à une tendance à arrêter trop tôt, sans doute lorsque la
limite de compréhension de l’enquêteur est atteinte. Cela met également
en avant le besoin de trouver une cause unique pour un incident alors que
les événements importants ont souvent plusieurs raisons complexes. Quoi
qu’il en soit, c’est une puissante technique.
Arrêter les recherches dès qu’on découvre une erreur humaine est une
tendance grandement répandue. Une fois, j’ai examiné plusieurs accidents
dans lesquels des ouvriers d’une société d’électricité, excellemment
formés, ont été électrisés lorsqu’ils sont entrés en contact ou se sont trop
approchés de lignes à haute tension. Toutes les enquêtes concluaient que
les ouvriers étaient fautifs, des conclusions que personne, pas même les
ouvriers (qui étaient encore en vie), n’a mises en doute. Pourquoi le
comité d’enquête n’a-t-il pas continué pour savoir pourquoi l’erreur s’est
produite et dans quelles circonstances ? Il n’est jamais allé suffisamment
loin pour trouver les causes profondes de l’accident. Il n’a pas, non plus,
été envisagé de revoir le système et les procédures pour que l’incident soit
impossible ou peu probable.
Je n’ai pas eu de mal à suggérer de simples changements de procédures
qui auraient évité la plupart des incidents dans la société. Le comité n’y
avait jamais pensé. Le problème, c’est que, pour suivre mes
recommandations, il convenait de ne pas encourager les ouvriers à se
prendre pour des super-héros capables de réparer tous les problèmes
d’électricité sans faire d’erreur. Il n’est pas possible d’éliminer l’erreur
humaine si elle est vue comme un échec personnel et non pas comme le
signe d’une faible conception des procédures ou des équipements. Mon
rapport rendu à l’exécutif a été reçu poliment. Plusieurs années après, j’ai
contacté un ami dans la société pour savoir quels changements avaient été
apportés. Il n’y en avait eu aucun et les accidents se produisaient toujours.
Le gros problème, c’est que la tendance à blâmer une personne pour une
erreur est également partagée par cette personne. Or, quand quelqu’un dit
« c’est de ma faute, je ferai mieux », ce n’est pas une analyse correcte du
problème. Cela ne résout pas le problème de la récurrence. Lorsque
plusieurs personnes rencontrent le même problème, ne serait-il pas bon de
trouver une autre cause ? Si le système laisse passer une erreur, c’est qu’il
est mal conçu. Si le système vous induit en erreur, c’est qu’il est très mal
conçu. Lorsque je tourne le mauvais bouton des plaques chauffantes, ce
n’est pas parce que je manque de connaissance, c’est à cause d’un mauvais
mapping entre les commandes et les foyers. Apprendre la relation
n’empêche pas de commettre des erreurs ; il faut revoir la conception des
plaques chauffantes.
Il n’est pas possible de corriger les problèmes tant que les gens
n’admettent pas qu’ils existent. Lorsque l’on accuse des personnes, il est
difficile de convaincre les sociétés de revoir la conception afin d’éliminer
les problèmes (après tout, si un individu est fautif, il suffit de le
remplacer). C’est rarement le cas. Généralement, le système, les
procédures et les pressions sociales ont conduit aux problèmes et rien ne
sera résolu sans régler tous ces facteurs.
Pourquoi les gens commettent-ils des erreurs ? Parce que la conception se
concentre sur les besoins du système et des machines et non pas sur ceux
des humains. Pour la plupart, les machines nécessitent des commandes
précises, forçant les utilisateurs à saisir à la perfection des informations
numériques. Or, les humains ne sont pas très bons en ce qui concerne la
précision. On commet fréquemment des erreurs lorsque l’on nous
demande de saisir des séquences de chiffres ou de lettres. Cela est
parfaitement connu, donc pourquoi les machines sont-elles toujours
conçues pour nécessiter une grande précision quand appuyer sur la
mauvaise touche peut provoquer de gros dégâts ?
Nous sommes des êtres créatifs, constructifs et des explorateurs. Nous
sommes particulièrement doués avec la nouveauté, dans la création de
nouvelles méthodes pour réaliser les choses et pour découvrir de nouvelles
opportunités. Des exigences ennuyeuses, répétitives et précises vont à
l’encontre de ces traits. Nous sommes attentifs aux changements de
l’environnement, nous remarquons les nouveautés et nous réfléchissons à
toutes les implications. Ce sont des vertus, mais elles ne le restent pas
quand nous sommes forcés de servir les machines. Nous sommes alors
punis pour un manque d’attention, pour ne pas suivre à la lettre les
consignes.
Le stress des délais est l’une des causes majeures. Le temps est un facteur
important, surtout dans les manufactures, dans les usines de traitement
chimique ou dans les hôpitaux. Même les tâches quotidiennes peuvent être
soumises à des délais. Si l’on ajoute des facteurs environnementaux,
comme une mauvaise météo ou des bouchons sur la route, le stress lié au
temps augmente. Une forte pression est exercée afin de ne pas ralentir le
processus parce que, dans une entreprise commerciale, un ralentissement
conduirait à une perte financière et, dans un hôpital, on pourrait avoir une
baisse de la qualité des soins. Il y a beaucoup de pression pour aller plus
loin dans le travail, même lorsqu’un observateur extérieur dit qu’il est
dangereux de procéder ainsi.
Dans de nombreuses industries, si les opérateurs suivaient toutes les
procédures, le travail ne serait jamais fait. Nous repoussons donc les
limites et nous restons debout plus longtemps que nous le devons. Nous
essayons de faire trop de tâches en même temps et nous roulons plus vite
que ce qui est permis. La plupart du temps, nous arrivons à gérer. On peut
même être félicité pour nos efforts héroïques. Cependant, quand les choses
tournent mal et que nous faisons une erreur, ce même comportement est
blâmé et sanctionné.

Dépassements délibérés
L’erreur n’est pas le seul type d’échec humain. Parfois, on prend des
risques en toute connaissance de cause. Lorsque le résultat est positif on
est souvent récompensé. Lorsque le résultat est négatif, on est sanctionné.
Comment classifier ce comportement conduisant à des dépassements
délibérés ? Dans la littérature de l’erreur, les violations des règles ont
tendance à être ignorées. Dans la littérature des accidents, ce sont pourtant
des composants importants.
Les dépassements délibérés jouent un rôle important dans de nombreux
accidents. Ils sont définis comme des cas où des personnes ont sciemment
violé les procédures et les règles. Pourquoi fait-on cela ? On peut dire que
nous avons probablement tous violé au moins une fois la loi, les règles ou
même notre propre système de valeurs. N’avez-vous jamais dépassé la
vitesse limite ? N’avez-vous jamais garé votre voiture sans payer le
stationnement ? N’avez-vous jamais accepté d’agir dangereusement,
même lorsque vous pensez qu’il faut être fou pour agir ainsi ?
Dans de nombreuses entreprises, les règles sont écrites plutôt pour être en
conformité avec la loi que pour prendre en compte les besoins des
travailleurs. Par conséquent, si ces derniers suivaient les règles, ils ne
parviendraient pas à réaliser leur travail. N’avez-vous jamais conduit en
étant trop fatigué ? N’êtesvous jamais allé travailler en étant malade (et
peut-être contagieux) ?
La violation des routines survient lorsque la non-conformité est si
fréquente qu’elle est ignorée. Les violations de situation se produisent
dans des circonstances spéciales (par exemple, griller le feu rouge parce
que l’on voit bien les autres voitures et que l’on est en retard). Dans
certains cas, violer une règle ou une procédure est la seule façon de mener
à bien un travail.
Les règles et les procédures inappropriées invitent à leur violation. Pire
encore, lorsque les ouvriers sentent qu’il est nécessaire de violer les règles
pour effectuer le travail et que c’est un succès, ils sont très probablement
félicités et reçoivent une prime. Ceci, bien entendu, entretient la non-
conformité. Les cultures qui encouragent et recommandent de telles
violations créent de mauvais modèles.
Même si les violations sont des formes d’erreur, il s’agit d’erreurs
organisationnelles et sociétales ; elles sont intentionnelles et connues pour
être potentiellement dangereuses. Cela va au-delà du sujet de la conception
des objets du quotidien. L’erreur humaine dont il est question ici n’est pas
intentionnelle.

Deux types d’erreurs : les ratés et les


méprises
Il y a de nombreuses années, James Reason et moi avons développé une
classification de l’erreur humaine. Nous avons défini deux catégories : les
ratés et les méprises (figure 5-1). Cette classification a fait ses preuves
pour la théorie et la pratique. Elle est utilisée couramment pour l’étude des
erreurs dans différents domaines, par exemple les accidents d’aviation et
les erreurs médicales. La discussion devient un peu technique, mais je vais
m’en tenir au minimum. Ce sujet est très important pour la conception.

Définitions : erreurs, ratés et méprises


L’erreur humaine est définie comme étant une dérive d’un comportement
« approprié ». Ce mot est entre guillemets parce que, dans de nombreux
cas, le comportement approprié n’est pas connu ou est seulement défini
après les faits. Quoi qu’il en soit, l’erreur est une dérive d’un
comportement que l’on accepte comme correct ou approprié.
Figure 5–1 Classification des erreurs. Il existe deux formes essentielles d’erreurs. Les
ratés se produisent quand l’objectif est correct mais qu’il n’est pas atteint car les
actions ne sont pas effectuées correctement. Les méprises se produisent quand
quelque chose n’est pas correct dans l’objectif ou la planification. Des trous de
mémoire peuvent provoquer des ratés ou des méprises, selon que l’absence se produit
au plus haut niveau de cognition (méprises) ou à un niveau subconscient bas (ratés).
Même si les violations délibérées des procédures sont des comportements
inappropriés qui conduisent souvent à l’accident, on ne les considère pas comme des
erreurs (voir le texte).

« Erreur » est un terme général pour désigner toute mauvaise action. Il


existe deux classes d’erreurs : les ratés et les méprises (figure 5-1). Les
ratés sont euxmêmes divisés en deux classes et les méprises en trois. Ces
catégories d’erreurs ont toutes différentes implications pour la conception.

Ratés
Un raté se produit quand une personne tente de réaliser une action et finit
par en faire une autre.
Il y a deux classes majeures de ratés : ceux fondés sur l’action et les
défaillances de la mémoire. Dans la première catégorie, l’action effectuée
n’est pas la bonne. Avec une défaillance de la mémoire, l’action prévue
n’est pas réalisée ou les résultats ne sont pas évalués. Les ratés peuvent
être encore classifiés en fonction de leurs causes.
Exemple d’un raté fondé sur l’action : je verse du lait dans mon café,
puis je range la tasse de café dans le réfrigérateur. Il s’agit de la bonne
action appliquée au mauvais objet.
Exemple d’une défaillance de la mémoire : j’oublie d’éteindre ma
plaque de cuisson après avoir préparé le repas.

Méprises
Une méprise se produit lorsque le but établi n’est pas le bon ou lorsque le
plan n’est pas correct. À partir de là, même si les actions sont exécutées,
elles font partie de l’erreur parce qu’elles sont inappropriées, le plan
d’exécution étant faux.
Les méprises se décomposent en trois classes majeures : fondées sur les
règles, fondées sur la connaissance et la défaillance de la mémoire. Dans
une méprise fondée sur les règles, la personne a correctement apprécié la
situation, mais elle choisit un mauvais enchaînement d’actions en suivant
la mauvaise règle. Avec une méprise fondée sur la connaissance, le
problème n’est pas correctement diagnostiqué à cause d’un manque de
connaissance. Une méprise par suite d’une défaillance de la mémoire se
produit quand il y a un oubli de l’objectif, du plan ou de l’évaluation.
Deux de ces méprises ont conduit à l’atterrissage d’urgence du Boeing 747
« Gimli Glider » :
Exemple de méprise fondée sur la connaissance : le poids du carburant
était indiqué en livres et non pas en kilogrammes.
Exemple de méprise par suite d’une défaillance de la mémoire : un
mécanicien n’a pas réussi à résoudre le problème en raison d’une
distraction.
L’erreur et les sept étapes de l’action
Les erreurs s’expliquent en faisant référence aux sept étapes du cycle de
l’action présentées au chapitre 2 (figure 5-2). Les méprises sont des
erreurs commises lors du choix de l’objectif ou de la planification et dans
la comparaison des résultats avec les attentes (les hauts niveaux de
cognition). Les ratés se produisent pendant l’exécution du plan ou dans la
perception ou l’interprétation de la sortie (les bas niveaux). Les
défaillances de la mémoire peuvent se produire dans n’importe laquelle
des huit transitions entre les étapes comme le montrent les X dans la figure
5-2 B ; une défaillance à l’un de ces emplacements empêche le
déroulement du cycle et l’action souhaitée ne s’accomplit pas.
Les ratés résultent des actions subconscientes que l’on réalise en chemin.
En revanche, les méprises proviennent de délibérations conscientes. C’est
le même processus qui nous rend créatifs et perspicaces en nous montrant
des relations entre des choses apparemment sans liens. Ce processus, grâce
auquel nous sommes capables de tirer des conclusions sur la base
d’éléments partiels, voire défectueux, nous conduit également à des
méprises. Notre faculté à généraliser à partir de peu d’informations est une
aide dans des situations nouvelles mais, parfois, on généralise trop vite en
regroupant une nouvelle situation avec une ancienne qui, en fait, est
totalement différente. Ceci conduit à une méprise qui peut être difficile à
découvrir et à éliminer.
Figure 5–2 Origine des ratés et des méprises dans le cycle d’action. La figure A
montre que les ratés se produisent dans les quatre étapes inférieures du cycle de
l’action et les méprises se placent dans les trois étapes supérieures. Les trous de
mémoire ont une influence sur les transitions entre les étapes (comme le montrent les
X de la figure B). Les trous de mémoire conduisent aux ratés quand ils sont placés aux
plus hauts niveaux et aux méprises quand ils sont placés aux plus bas niveaux.

La classification des ratés


Un collègue m’a indiqué qu’il allait travailler en voiture. Sur le chemin, il
a réalisé qu’il avait oublié sa mallette ; il a donc fait demi-tour. Il a garé
sa voiture puis a débouclé sa montre. Oui, la montre à la place de la
ceinture.
Cette histoire illustre à la fois un raté dû à une défaillance de la mémoire et
un raté de l’action. L’oubli de la mallette est un raté dû à une défaillance
de la mémoire. Défaire la montre à la place de la ceinture est un raté de
l’action ; dans ce cas, une combinaison de descriptions similaires et
d’erreur de capture (que nous verrons par la suite dans ce chapitre).
Les erreurs du quotidien sont pour la plupart des ratés. En pensant réaliser
une action, on se retrouve en train d’en faire une autre. C’est comme
quand une personne vous dit quelque chose clairement et de façon
distincte mais que vous « entendez » autre chose. L’étude des ratés est
celle de la psychologie des erreurs du quotidien, ce que Freud appelle la
psychopathologie des objets du quotidien. Ce dernier pensait que les ratés
possédaient des significations cachées et noires, alors qu’ils s’expliquent
le plus souvent par des mécanismes mentaux assez simples.
Une caractéristique intéressante des ratés, c’est qu’ils ont tendance,
paradoxalement, à être plus fréquents chez les personnes qualifiées que
chez les débutants. En effet, ils résultent souvent d’un manque d’attention
à la tâche. Or, les personnes qualifiées ont tendance à effectuer des tâches
automatiquement, sous contrôle subconscient. Les débutants, en revanche,
doivent avoir une attention consciente considérable, ce qui se traduit par
une fréquence relativement faible de ratés.
Certains ratés sont le résultat d’actions similaires. Ce peut aussi être un
événement du monde qui déclenche automatiquement une action. Parfois,
nos pensées et nos actions nous rappellent des actions inattendues que l’on
se met à réaliser. Il y a plusieurs types de ratés de l’action, catégorisés par
les mécanismes sous-jacents qui les déclenchent. Les trois plus
intéressants sont les suivants :
ratés de capture ;
ratés de description similaire ;
erreurs de mode.

Ratés de capture
J’utilisais un photocopieur et je comptais les pages. Je me suis retrouvé à
compter « 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, Valet, Dame, Roi ». J’avais
récemment joué aux cartes.
Les ratés de capture se définissent comme des situations où, au lieu de
réaliser l’activité souhaitée, on en effectue une autre, fréquente ou faite
récemment. L’activité est capturée. Les ratés de capture nécessitent qu’une
partie des séquences de l’action de départ et de l’autre action soient
identiques, une séquence étant plus familière que l’autre. Après avoir fait
la même chose, l’activité la plus fréquente ou la plus récente se poursuit et
l’activité prévue ne se réalise pas. La séquence inconnue capture rarement
la séquence familière. Si jamais elle le fait, il suffit de porter son attention
sur l’action souhaitée au moment où les séquences divergent entre les deux
activités. Les erreurs de capture sont donc des erreurs partielles de
mémoire. Fait intéressant, elles sont plus fréquentes chez les personnes
expérimentées que chez les débutants, en partie parce que la personne
expérimentée a automatisé les actions requises et peut ne pas être attentive
lorsque l’action envisagée s’écarte de l’action plus fréquente.
Les concepteurs doivent éviter les procédures qui commencent par les
mêmes étapes et qui divergent ensuite. Dans la mesure du possible, les
séquences doivent être conçues de manière à être différentes dès le début.

Ratés de description similaire


Un ancien élève m’a raconté qu’un jour il était rentré chez lui après avoir
été courir. Il avait enlevé sa chemise en sueur et l’avait roulée en boule,
dans l’intention de la jeter dans le panier à linge. Au lieu de cela, il l’a
jetée dans les toilettes. (L’objectif n’était pas mauvais : le panier à linge et
les toilettes se trouvaient dans des pièces différentes.)
Avec les ratés de description similaire, on agit sur un élément similaire à la
cible. Cela se produit quand la cible est trop vague. Comme nous l’avons
vu à la figure 3-1, les gens avaient du mal à distinguer des pièces de
monnaie parce que les informations n’étaient pas suffisamment
discriminantes. La même chose peut nous arriver, surtout avec la fatigue,
le stress ou à cause d’une surcharge de travail. Dans l’exemple d’ouverture
de cette section, le panier de linge sale et la cuvette des toilettes sont deux
cibles similaires.
L’erreur consiste à agir sur un élément similaire à la cible. Cela se produit
lorsque la description de cette dernière est assez vague. Des ratés de cette
nature se produisent surtout lorsque nous sommes fatigués, stressés, ou
surchargés. Dans l’exemple qui a ouvert cette section, le panier de linge
sale et la cuvette des toilettes sont tous deux des conteneurs. Si la
description de la cible est ambiguë, par exemple « un conteneur
suffisamment grand », l’erreur risque de se déclencher.
Rappelez-vous la discussion au chapitre 3 sur le fait que les objets ne
nécessitent généralement pas de descriptions précises, mais de
suffisamment d’éléments pour distinguer la cible souhaitée parmi les
alternatives. Cela signifie qu’une description habituellement suffisante
peut échouer lors d’un changement de situation, lorsque plusieurs
éléments semblables correspondent à la description. Les ratés de
description similaire entraînent l’exécution de la bonne action mais sur le
mauvais objet. De toute évidence, plus les objets, faux et corrects, ont
d’éléments en commun, plus les erreurs risquent de se produire. De même,
plus il y a d’objets en même temps, plus l’erreur est probable.
Les concepteurs doivent s’assurer que les commandes et les affichages
d’éléments avec des fonctions différentes doivent être complètement
différents. Un alignement d’interrupteurs ou de voyants d’aspect identique
risque de provoquer un raté de description similaire. Dans la conception
des cockpits, on trouve des boutons codés par leur forme afin qu’ils soient
différents à la vue et au toucher ; par exemple, les manettes des gaz sont
différentes de celles des volets (qui peuvent ressembler à des volets
d’aile), elles-mêmes différentes de la commande du train d’atterrissage
(qui peut ressembler à une roue).

Ratés dus à une défaillance de la mémoire


Les erreurs dues à un problème de mémoire sont courantes. En voici
quelques exemples.
Photocopier un document, sortir de la salle et laisser l’original dans la
machine.
Oublier un enfant. Par exemple, laisser un enfant dans la cabine
d’essayage d’un magasin ou à un arrêt lors d’un trajet en voiture.
Perdre un stylo parce qu’on l’a sorti pour écrire, puis posé quelque
part pour faire autre chose. Le stylo est oublié dans l’activité :
détacher un chèque du chéquier, prendre des marchandises, parler à un
vendeur ou un ami et ainsi de suite. Il y a aussi l’inverse, où l’on
emprunte un stylo, on l’utilise, puis on le met dans la poche ou dans
un sac même s’il appartient à quelqu’un d’autre (il s’agit aussi d’une
erreur due à une capture).
Utiliser une carte bancaire pour retirer de l’argent à un distributeur et
partir sans la carte. C’est une erreur tellement courante que les
machines exigent maintenant qu’on la retire avant de délivrer les
billets ; le risque d’oubli est diminué puisque l’objectif est d’obtenir
les billets.
Les défaillances de la mémoire sont des causes d’erreur courantes : ne pas
effectuer toutes les étapes d’une procédure, répéter des étapes, oublier le
résultat d’une action ou l’objectif ou le plan, provoquant ainsi l’arrêt de
l’action.
Les causes immédiates de la plupart de ces ratés sont des interruptions
dans l’action, des événements qui se produisent entre le début et la fin de
l’action. Bien souvent, les interférences proviennent des machines que
nous utilisons : les nombreuses étapes nécessaires entre le début et la fin
des opérations peuvent surcharger la capacité de la mémoire à court terme
ou de travail.
Il existe plusieurs méthodes pour combattre les défaillances de la
mémoire. On peut réduire le nombre d’étapes, mais également fournir des
rappels visibles des étapes à effectuer. La meilleure méthode consiste à
utiliser un forçage comme indiqué au chapitre 4. Par exemple, les
distributeurs de billets obligent à retirer la carte bancaire avant de faire
sortir les billets. Ceci part du principe que les personnes oublient rarement
l’objectif de l’activité, ici obtenir de l’argent. Avec les stylos, la solution
est simplement d’empêcher leur retrait, peut-être en chaînant les stylos
publics au comptoir. Toutes les erreurs dues à une défaillance de la
mémoire ne se prêtent pas à des solutions simples. Dans de nombreux cas,
les interruptions proviennent de l’extérieur du système, sur lequel le
concepteur n’a aucun contrôle.

Ratés dus à une erreur de mode


Une erreur de mode se produit lorsqu’un appareil présente différents états
dans lesquels les mêmes commandes ont des significations différentes :
nous appelons ces états des modes. Les erreurs de ce type sont inévitables
avec tous les éléments où l’on trouve plus d’actions possibles que de
commandes ou d’affichages, c’est-à-dire quand les mêmes commandes ont
des rôles différents en fonction des modes. Ceci est inévitable car nous
ajoutons de plus en plus de fonctions à nos appareils.
Avez-vous déjà éteint le mauvais appareil dans votre home cinéma ? Cela
se produit lorsqu’une commande est utilisée à plusieurs fins. À la maison,
c’est simplement frustrant. Dans l’industrie, ce genre de confusion a
entraîné des accidents graves et des pertes de vies humaines.
Il est tentant d’économiser de l’argent et de l’espace en faisant en sorte
qu’un seul contrôle serve plusieurs objectifs. Supposons qu’il y a dix
fonctions différentes sur un appareil. Au lieu d’utiliser dix boutons ou
commutateurs distincts – ce qui prendrait beaucoup de place, augmenterait
le coût et semblerait complexe –, on peut utiliser seulement deux
commandes : une pour sélectionner la fonction, l’autre pour régler. Même
si la conception paraît facile à utiliser, cette simplicité apparente masque la
complexité sous-jacente de l’utilisation. En effet, l’opérateur doit toujours
être parfaitement conscient du mode dans lequel est l’appareil. Hélas, la
prévalence des erreurs de mode montre que ce n’est pas toujours le cas. Si
on sélectionne un mode, puis ajuste immédiatement les paramètres, il y a
peu de risque de se tromper. En revanche, que se passe-t-il lorsqu’on
sélectionne un mode et que l’on est interrompu par d’autres événements ?
Ou si le mode reste le même pendant de longues périodes ? Ou, comme
dans le cas de l’accident d’Airbus décrit ci-après, quand les deux modes
sélectionnés sont très similaires en matière de contrôle et de fonction, mais
ont des caractéristiques de fonctionnement différentes, ce qui signifie que
l’erreur de mode qui en résulte est difficile à découvrir ? Parfois,
l’utilisation de modes est justifiable, telle que la nécessité de placer de
nombreux contrôles et affichages dans un espace restreint, mais, quelle
qu’en soit la raison, les modes sont une cause fréquente de confusion et
d’erreur.
Les réveils matin utilisent souvent les mêmes commandes et le même
affichage pour régler l’heure et l’alarme. Il est fréquent d’avoir réglé
l’heure à la place de l’alarme et vice-versa. De même, lorsque l’heure est
affichée sur douze heures, cela arrive de régler l’alarme pour qu’elle sonne
à sept heures du matin et de s’apercevoir qu’elle se déclenche à sept
heures du soir. L’utilisation de « am » et de « pm » pour distinguer les
heures avant et après midi est une source commune de confusion et
d’erreur. C’est pour cela que l’affichage sur 24 heures est utilisé dans la
plupart des pays du monde (les principales exceptions étant : l’Amérique
du Nord, l’Australie, l’Inde et les Philippines). Les montres à fonctions
multiples présentent des problèmes similaires. Ici, ces modes sont
nécessaires à cause du faible espace disponible pour les commandes et les
affichages. Les modes existent dans la plupart des programmes
informatiques, dans nos téléphones portables et dans les commandes
automatiques des avions commerciaux, responsables d’un certain nombre
d’accidents graves. À mesure que les automobiles se complexifient, les
modes sont de plus en plus courants.
Un accident avec un avion Airbus illustre le problème. Le pilote
automatique comportait deux modes : l’un pour le contrôle de la vitesse
verticale et l’autre pour le contrôle de l’angle de descente de la trajectoire
de vol. Dans un cas, alors que les pilotes essayaient d’atterrir, ils pensaient
contrôler l’angle de descente, alors qu’ils avaient accidentellement
sélectionné le mode qui contrôlait la vitesse de descente. Le nombre (–3,3)
entré dans le système pour représenter un angle approprié (–3,3°) était trop
grand, si on le considérait comme une vitesse verticale (–3 300
pieds/minute, alors –3,3° ne correspondrait qu’à –800 pieds/minute). Cette
confusion de mode a contribué à l’accident mortel. Après une étude
détaillée de l’accident, Airbus a modifié l’affichage de l’instrument afin
que la vitesse verticale soit toujours affichée avec un nombre à quatre
chiffres et un angle avec deux chiffres, réduisant ainsi le risque de
confusion.
Les erreurs de mode sont vraiment des erreurs de conception. Elles sont
plus fréquentes lorsque l’équipement ne rend pas le mode clairement
visible. L’utilisateur doit donc se rappeler lequel a été établi, parfois
plusieurs heures plus tôt, période pendant laquelle de nombreux
événements se sont produits. Les concepteurs doivent éviter les modes
mais, s’ils sont nécessaires, l’équipement doit indiquer clairement lequel
est en cours. Encore une fois, les concepteurs doivent toujours compenser
pour les activités interférentes.

La classification des méprises


Les méprises résultent du choix d’objectifs et de plans inappropriés ou
d’une comparaison erronée du résultat avec les objectifs au cours de
l’évaluation. Lors d’une méprise, une personne prend une mauvaise
décision, classe mal une situation ou ne prend pas en compte tous les
facteurs pertinents. De nombreuses erreurs découlent des aléas de la
pensée humaine, souvent parce que les gens ont tendance à se fier aux
expériences mémorisées plutôt qu’à une analyse plus systématique. Nous
prenons des décisions en fonction de ce qui est dans notre mémoire.
Toutefois, comme indiqué au chapitre 3, la mémoire à long terme est en
réalité une reconstruction plutôt qu’un enregistrement précis. Par exemple,
nos souvenirs ont tendance à être biaisés par une généralisation et une
surestimation excessive de la différence.
L’ingénieur danois Jens Rasmussen a distingué trois modes de
comportement : basé sur les habiletés, basé sur les règles et basé sur la
connaissance. Ce système de classification à trois niveaux constitue un
outil pratique qui a été largement accepté dans des domaines appliqués,
tels que la conception de nombreux systèmes industriels. Le
comportement basé sur les habiletés survient lorsque les travailleurs sont
experts dans leur travail. Ils peuvent donc effectuer les tâches quotidiennes
et routinières avec peu ou pas de pensée ou d’attention consciente. Les
erreurs les plus courantes dans les comportements basés sur les
compétences sont les ratés.
Un comportement basé sur des règles se produit lorsque la routine normale
n’est plus applicable, mais que la nouvelle situation est connue, il existe
donc déjà une ligne de conduite bien prescrite, la règle. Les règles peuvent
être des comportements appris lors de précédentes expériences, mais
comprennent les procédures formelles prescrites dans les cours et les
manuels, généralement sous la forme de déclarations « si-alors », telles
que « Si le moteur ne démarre pas, alors [faire l’action appropriée] ». Les
erreurs avec un comportement basé sur des règles sont soit des méprises
(la mauvaise règle est sélectionnée), soit des ratés (probablement pendant
l’exécution de la règle).
Les comportements basés sur la connaissance se produisent lorsque
surviennent des événements inconnus, où ni les compétences, ni les règles
ne s’appliquent. Dans ce cas, il doit y avoir un important travail de
raisonnement et de résolution de problèmes. Des plans sont développés,
testés puis utilisés ou modifiés. Ici, les modèles conceptuels sont essentiels
pour guider le développement du plan et l’interprétation de la situation.
Dans les situations fondées tant sur les règles que sur les connaissances,
les erreurs les plus graves se produisent lorsque la situation est mal
diagnostiquée. En conséquence, une règle inappropriée est exécutée ou,
dans le cas de difficultés basées sur la connaissance, l’effort est consacré à
résoudre le mauvais problème. En outre, le diagnostic erroné du problème
entraîne une mauvaise interprétation de l’environnement, ainsi que des
comparaisons erronées de l’état actuel avec les attentes. Ce type d’erreur
peut être très difficile à détecter et à corriger.

Méprises fondées sur la règle


Lorsque de nouvelles procédures doivent être appliquées ou lorsque de
simples problèmes se produisent, il est possible de transformer en règle les
actions de personnes expérimentées. Certaines règles viennent de
l’expérience, d’autres sont des procédures formelles de manuels ou
d’autres moins formelles (comme les livres de cuisine pour préparer les
repas). Dans tous les cas, ce que nous devons tous faire est identifier la
situation, sélectionner la règle correspondante et la suivre.
Lorsque l’on conduit, le comportement est guidé par le Code de la route.
Si le feu est rouge, on arrête la voiture. Si on veut tourner à gauche, on
signale son intention, on ralentit le véhicule, on se déporte le plus possible
à gauche et on attend un trou dans la circulation afin de passer.
Les méprises fondées sur la règle se produisent de plusieurs façons.
La situation est mal interprétée et, par conséquent, on utilise un
mauvais plan ou un mauvais objectif, ce qui conduit à suivre une
mauvaise règle.
La bonne règle est appliquée, mais elle n’est pas correcte, soit parce
qu’elle est mal formulée, soit parce que les conditions sont différentes,
soit parce que la connaissance de la règle n’est pas suffisante.
La règle correcte est utilisée mais la sortie a mal été évaluée. Cette
erreur d’évaluation, généralement de la connaissance de la règle elle-
même, peut conduire à d’autres problèmes à mesure que le cycle de
l’action continue.
Exemple 1 – En 2013, dans la discothèque Kiss à Santa Maria, au
Brésil, la pyrotechnie utilisée par le groupe a allumé un incendie qui a
tué plus de 230 personnes. La tragédie illustre plusieurs erreurs. Le
groupe a commis une erreur de connaissance en utilisant à l’intérieur
des torches destinées à l’extérieur, qui ont enflammé les dalles
acoustiques du plafond. Le groupe pensait que les fusées ne
poseraient pas de problème. Beaucoup de gens se sont précipités dans
les toilettes, pensant à tort qu’il y aurait des sorties de secours ; ils
sont morts. Les premiers rapports ont suggéré que les vigiles, ignorant
l’incendie, avaient d’abord bloqué par erreur des personnes qui
cherchaient à sortir du bâtiment. Ils ont fait cela parce que les clients
de la boîte de nuit partaient parfois sans payer leurs consommations.
L’erreur était de concevoir une règle qui ne tienne pas compte des
urgences. Une analyse de la cause fondamentale révélerait que
l’objectif était d’empêcher une sortie inappropriée tout en permettant
aux portes d’être utilisées en cas d’urgence. Une solution consiste à
utiliser des portes qui déclenchent des alarmes lorsqu’elles sont
utilisées, ce qui dissuade les personnes d’essayer de se faufiler dehors,
tout en autorisant la sortie en cas de besoin.
Exemple 2 – Le fait de régler le thermostat d’un four à la température
maximale pour atteindre rapidement la température de cuisson
souhaitée est une erreur basée sur un faux modèle conceptuel du
fonctionnement du four. Si la personne s’éloigne et oublie de revenir
et de vérifier la température après une période raisonnable (un raté dû
à une défaillance de la mémoire), un réglage incorrect de la
température du four peut provoquer un accident, éventuellement un
incendie.
Exemple 3 – Un conducteur peu habitué à l’ABS rencontre un objet
inattendu sur la route par temps humide et pluvieux. Il applique toute
la force nécessaire aux freins, mais la voiture dérape, ce qui active
l’ABS pour activer et désactiver rapidement les freins. Le conducteur,
sentant les vibrations, pense que cela indique un dysfonctionnement et
cesse donc de freiner. En fait, cette vibration indique que le système
antiblocage fonctionne correctement. La mauvaise évaluation du
conducteur conduit au mauvais comportement.
Les erreurs fondées sur des règles sont difficiles à éviter et aussi difficiles
à détecter. Une fois la situation analysée, le choix de la règle appropriée
est souvent simple, mais que se passe-t-il si l’évaluation de la situation
n’est pas correcte ? Il est difficile de s’en apercevoir parce qu’il existe
généralement de nombreux éléments confortant dans l’analyse (erronée)
de la situation et du choix de la règle. Dans des situations complexes, le
problème réside dans la surenchère d’informations, les unes confortant et
les autres contredisant les décisions. Face aux contraintes de temps liées à
la prise de décision, il est difficile de savoir quels éléments prendre en
compte et lesquels rejeter. Les gens prennent généralement leur décision
en associant la situation actuelle à quelque chose qui s’est produit
précédemment. Bien que la mémoire humaine soit assez bonne à cet
exercice, cela ne signifie pas pour autant que la correspondance soit exacte
ou appropriée. La correspondance est biaisée par la régularité et l’unicité.
On se souvient mieux des événements récents que des événements moins
récents. On se souvient des événements fréquents grâce à leur régularité et
on se rappelle les événements uniques grâce, justement, à leur caractère
unique. Toutefois, supposons que l’événement en cours diffère de tout ce
qui a été vécu auparavant. Les gens sont encore susceptibles de trouver
dans la mémoire une correspondance qui leur servira de guide. Les mêmes
pouvoirs qui nous rendent si habiles à traiter avec le commun et l’unique
conduisent à de graves erreurs lors d’événements nouveaux.
Le concepteur doit fournir autant d’aide que possible pour assurer que
l’état actuel des choses est affiché dans un format cohérent et facile à
interpréter, idéalement sous forme graphique. C’est un problème difficile.
Tous les principaux décideurs s’inquiètent de la complexité des
événements du monde réel, où le problème est souvent d’avoir trop
d’informations pour la plupart contradictoires. Souvent, les décisions
doivent être prises rapidement. Parfois, il n’est pas clair qu’il s’agisse d’un
incident ou d’une prise de décision.
Pensez à ce qui suit. Dans votre maison, il y a probablement plusieurs
objets cassés ou qui fonctionnent mal : des lampes grillées ou une ampoule
électrique qui fonctionne bien pendant un moment, puis qui s’éteint, un
robinet qui fuit ou d’autres petits problèmes que l’on connaît mais que l’on
remet à plus tard. Considérons maintenant une grande usine de fabrication
à régulation de processus (raffinerie de pétrole, usine de produits
chimiques ou centrale nucléaire). Celle-ci a des milliers, peut-être des
dizaines de milliers, de vannes et de jauges, d’affichages et de
commandes. Même la meilleure des usines a toujours des pièces
défectueuses. Les équipes de maintenance ont toujours une liste
d’éléments à prendre en charge. Avec toutes les alarmes qui se déclenchent
lorsqu’un problème survient, comment distinguer un incident mineur d’un
problème majeur ? Chacun a généralement une explication simple et
rationnelle, donc ne pas en faire un élément urgent est une décision
judicieuse. En fait, l’équipe de maintenance l’a simplement ajouté à une
liste. La plupart du temps, c’est la bonne décision. Une fois sur mille (ou
même une fois sur un million), la décision n’est pas bonne et elle sera
reprochée en se demandant comment l’équipe a pu rater des signaux aussi
évidents ?
Juger avec du recul est toujours plus facile. Lorsque le comité d’enquête
sur les accidents examine l’événement qui a contribué au problème, il sait
ce qui s’est réellement passé. Il leur est donc facile de choisir quelles
informations sont pertinentes et lesquelles ne le sont pas. C’est une prise
de décision rétrospective. En revanche, au cours de l’incident, les gens
étaient probablement submergés d’informations, dont un grand nombre
était peu pertinent. Comment savoir lesquelles prendre en compte et
lesquelles ignorer ? La plupart du temps, des opérateurs expérimentés font
les choses correctement. La seule fois où ils échouent, l’analyse
rétrospective est susceptible de les condamner pour avoir manqué
l’évidence. Il faut reconnaître que, pendant l’événement, rien ne semble
évident. Je reviendrai sur ce sujet plus loin dans le chapitre.
Vous ferez face à cela en conduisant, en gérant vos finances ou tout
simplement en vivant votre vie quotidienne. Pour la plupart, les incidents
inhabituels dont vous avez entendu parler ne vous concernent pas. Par
conséquent, vous pouvez les ignorer en toute sécurité. Quelles sont les
choses auxquelles vous devez prêter attention, lesquelles doivent être
ignorées ? L’industrie est constamment confrontée à ce problème, tout
comme les gouvernements. Les communautés du renseignement sont
submergées de données. Comment décident-ils quels sont les cas graves ?
Le public entend parler de ces erreurs, mais pas des cas beaucoup plus
fréquents où tout se passe correctement, ni des moments où on a ignoré les
données, car elles ne sont pas significatives et où on a eu raison de le faire.
Si chacune des décisions devait être remise en cause, rien ne se ferait
jamais. Toutefois, si l’on ne se questionne pas sur les décisions, il y aura
des méprises majeures, rares mais souvent importantes.
Le défi de la conception consiste à afficher des informations sur l’état du
système (un appareil, un véhicule, une usine ou toute activité surveillée)
de façon facile à assimiler et à interpréter. Il convient également de fournir
des explications et des interprétations alternatives. Une remise en question
des décisions est utile mais impossible à réaliser pour toutes les actions qui
demandent une attention.
C’est un problème difficile, sans solution évidente.

Méprises dues à la connaissance


Un comportement fondé sur la connaissance se produit lorsque la situation
est suffisamment nouvelle pour qu’il n’y ait ni compétence ni règle pour la
gérer. Dans ce cas, il est nécessaire de concevoir une nouvelle procédure.
Les compétences et les règles sont contrôlées au niveau comportemental et
sont donc subconscientes et automatiques. En revanche, le comportement
basé sur la connaissance est contrôlé au niveau réflexif, lent et conscient.
Avec un comportement basé sur la connaissance, les gens résolvent
consciemment le problème. Ils se trouvent dans une situation inconnue
(nouvel équipement par exemple, ou tâche pourtant familière mais qui
tourne mal) et ne disposent d’aucune compétence ou règle applicable.
La meilleure solution réside dans une bonne compréhension de la
situation. Dans la plupart des cas, cela se traduit également par un modèle
conceptuel approprié. Dans les cas complexes, il est nécessaire d’obtenir
de l’aide ; c’est là que des compétences et des outils de résolution de
problèmes en coopération sont nécessaires. Parfois, un bon manuel de
procédures (papier ou électronique) suffit, surtout si des observations
critiques aident à trouver les procédures à suivre. Une approche plus
puissante consiste à développer des systèmes informatiques intelligents, en
utilisant une bonne recherche et des techniques de raisonnement
appropriées (intelligence artificielle en prise de décision et en résolution
de problèmes). Les difficultés rencontrées ici concernent l’interaction des
personnes avec l’automatisation : les équipes humaines et les systèmes
automatisés doivent être considérés comme des systèmes collaboratifs et
coopératifs. Au lieu de cela, on assigne souvent certaines tâches aux
machines en laissant les humains s’occuper du reste. Cela signifie
généralement que les machines effectuent les tâches faciles, alors que c’est
précisément lorsque les problèmes deviennent complexes que les
utilisateurs ont besoin d’une assistance ; et c’est aussi à ce moment-là que
les machines échouent.

Méprises dues à des défaillances de la mémoire


Une défaillance de la mémoire entraîne des erreurs si elle conduit à l’oubli
de l’objectif ou du plan d’action. Une cause fréquente de cette défaillance
est une interruption qui fait oublier l’évaluation de l’état actuel de
l’environnement. Cela conduit à des méprises et non à des ratés, car les
objectifs et les plans deviennent erronés. Oublier les évaluations
antérieures implique souvent de reprendre une décision, parfois à tort.
Les remèdes pour les méprises et les ratés dus à des défaillances de
mémoire sont les mêmes. Il convient de s’assurer que toutes les
informations pertinentes sont disponibles en permanence. Les objectifs, les
plans et l’évaluation actuelle du système revêtent une importance
particulière et doivent être disponibles en permanence. Beaucoup trop de
conceptions éliminent tous les signes de ces éléments une fois qu’ils ont
été utilisés. Une fois encore, le concepteur doit supposer que les personnes
seront interrompues pendant leurs activités et qu’elles auront peut-être
besoin d’aide pour les reprendre.

Pressions sociales et institutionnelles


La pression sociale, qui se retrouve dans de nombreux accidents, est un
problème subtil. Au départ, cela ne paraissait pas pertinent dans la
conception ; pourtant, cela influence fortement le comportement quotidien.
En milieu industriel, les pressions sociales peuvent entraîner des erreurs
d’interprétation, des méprises et des accidents. Pour comprendre l’erreur
humaine, il est essentiel de comprendre la pression sociale.
Une résolution de problèmes complexe est nécessaire quand on est
confronté à des problèmes basés sur la connaissance. Dans certains cas,
des équipes passent plusieurs jours pour comprendre ce qui ne va pas et
quelle est la meilleure façon de réagir. Cela est particulièrement vrai dans
les situations où des erreurs ont été commises dans le diagnostic du
problème. Une fois le diagnostic erroné établi, toutes les informations sont
ensuite inévitablement mal interprétées. Un nouveau point de vue
s’installera éventuellement lors du changement d’équipe, lorsque de
nouvelles personnes analyseront différemment la situation. Parfois, laisser
simplement l’équipe prendre quelques heures de repos suffit pour donner
lieu à une nouvelle analyse (il est toutefois naturellement difficile de
convaincre une personne confrontée à une situation d’urgence de s’arrêter
quelques heures).
Dans les installations commerciales, on rencontre une forte pression pour
maintenir les systèmes en fonctionnement. Des sommes considérables
risquent d’être perdues si un système coûteux est arrêté. Les personnels
sont souvent pressés de ne pas procéder à l’arrêt, causant des résultats
parfois tragiques : par exemple, les centrales nucléaires fonctionnent plus
longtemps que prévu pour la sécurité et des avions décollent avant que
tout soit prêt et que les pilotes en aient la permission. C’est à l’origine de
l’un des plus grands accidents de l’histoire de l’aviation ; bien que cela se
soit produit en 1977, les leçons apprises alors restent très pertinentes
aujourd’hui.
À Tenerife, dans les îles Canaries, un Boeing 747 de la KLM s’est écrasé
au décollage contre un 747 de Pan American qui roulait sur la même piste,
faisant 583 morts. L’avion de la KLM n’avait pas reçu l’autorisation de
décoller, mais le temps commençait à se dégrader et l’équipage avait déjà
été retardé trop longtemps (être sur les îles Canaries était déjà un
déroutage du vol, le mauvais temps l’ayant empêché d’atterrir à la
destination prévue). Le vol panaméricain n’aurait pas dû être sur la piste,
mais il y avait eu un malentendu considérable entre les pilotes et les
contrôleurs aériens. De plus, le brouillard était si épais qu’aucun des
avions ne pouvait se voir l’un l’autre. Lors de la catastrophe de Tenerife,
les pressions horaires et économiques ont été associées aux conditions
culturelles et météorologiques. Les pilotes panaméricains ont remis en
question l’ordre de rouler sur la piste, mais ils ont quand même continué.
Le premier officier du vol KLM a fait part de ses objections au
commandant de bord, tentant d’expliquer qu’ils n’étaient pas encore
autorisés à décoller (mais il était très jeune par rapport au capitaine, qui
était l’un des pilotes les plus respectés de la KLM). Au total, une tragédie
majeure est survenue en raison d’un mélange complexe de pressions
sociales et de logique expliquant les observations divergentes.
Vous avez peut-être connu une pression similaire, en repoussant de faire le
plein de carburant ou de recharger votre voiture jusqu’à ce qu’il soit trop
tard et que vous soyez en panne, parfois dans un endroit désert (c’est ce
qui m’est arrivé). Quelles sont les pressions sociales pour tricher aux
examens ou pour aider les autres à tricher, ou encore pour ne pas signaler
que d’autres ont triché ? Ne sous-estimez jamais le pouvoir des pressions
sociales sur le comportement, obligeant ainsi des personnes censées à faire
des choses qu’elles savent inadaptées et parfois dangereuses.
Lorsque j’étais en formation pour faire de la plongée sous-marine, notre
instructeur était tellement inquiet à ce sujet qu’il a dit qu’il récompenserait
tous ceux qui arrêteraient une plongée plus tôt pour raison de sécurité.
Normalement, les gens ont tendance à flotter et ont donc besoin de poids
pour aller sous l’eau. Lorsque cette dernière est froide, le problème
s’intensifie car les plongeurs doivent alors porter une combinaison pour
être au chaud, ce qui ajoute de la flottabilité. Le réglage de la flottabilité
est une partie importante de la plongée. Par conséquent, les plongeurs
portent, en plus des poids, des vestes dans lesquelles ils ajoutent ou
retirent continuellement de l’air, de sorte que le corps soit proche de la
flottabilité neutre. Au fur et à mesure que les plongeurs vont plus loin, la
pression de l’eau accrue comprime l’air dans leurs vêtements de protection
et leurs poumons, de sorte qu’ils deviennent plus lourds et doivent ajouter
de l’air à leurs vestes pour compenser.
Lorsque des plongeurs ont des difficultés et doivent remonter rapidement à
la surface, ou lorsqu’ils sont à la surface près du rivage mais secoués par
les vagues, certains se noient parce qu’ils sont encombrés par leurs poids
lourds. Comme ces derniers sont coûteux, les plongeurs ne veulent pas
s’en débarrasser en mer. En outre, s’ils les lâchaient et sortaient de l’eau
sains et saufs, ils ne pourraient jamais prouver que l’abandon des poids
était nécessaire et ils se sentiraient gênés, ce qui créerait une pression
sociale auto-induite. Notre instructeur était conscient de cette réticence.
Pour contrer cette tendance, il avait annoncé que, si quelqu’un se
débarrassait des poids pour des raisons de sécurité, il féliciterait
publiquement le plongeur et remplacerait les poids sans frais pour la
personne. C’était une tentative très persuasive de surmonter les pressions
sociales.
Les pressions sociales sont continuellement présentes. Elles sont
généralement difficiles à documenter car les gens et les organisations
hésitent à admettre leur existence. Même si elles sont découvertes au cours
de l’enquête sur l’accident, les résultats sont souvent dissimulés au public.
L’étude des accidents de transport constitue une exception majeure. Les
commissions d’examen du monde entier tendent à ouvrir des enquêtes. Le
National Transportation Safety Board (NTSB) des États-Unis en est un
excellent exemple et ses rapports sont largement utilisés par de nombreux
enquêteurs sur les accidents et chercheurs en erreur humaine (dont moi-
même).
Un autre accident d’avion offre un autre exemple de pression sociale. En
1982, un vol Air Florida au départ de l’aéroport national de Washington
DC, s’est écrasé au décollage sur un pont de la rivière Potomac, tuant 78
personnes, dont 4 automobilistes. Il n’aurait pas dû décoller car il y avait
de la glace sur les ailes, mais il avait déjà été retardé de plus d’une heure et
demie. Selon le NTSB, ce facteur et d’autres ont peut-être « prédisposé
l’équipage à se dépêcher ». L’accident s’est produit malgré la tentative du
premier officier d’avertir le commandant de bord, alors aux commandes.
Le rapport du NTSB cite, selon l’enregistreur de poste de pilotage, « bien
que le premier officier ait exprimé sa crainte que quelque chose n’allait
pas, à quatre reprises pendant le décollage, le commandant de bord n’a
pris aucune mesure pour refuser le décollage. » Le NTSB en a résumé les
causes :
Le National Transportation Safety Board détermine que la cause probable
de cet accident est le fait que l’équipage n’ait pas utilisé d’antigivre
pendant les opérations au sol et au décollage, qu’il ait décidé de décoller
avec de la neige et de la glace sur les surfaces aérodynamiques de l’avion
et que le commandant de bord n’ait pas refusé le décollage dès le début
alors que son attention a été portée sur des lectures anormales des
instruments.
NTSB, 1982.
Une nouvelle fois, nous voyons des pressions sociales couplées à des
pressions horaires et économiques.
Les pressions sociales peuvent être dépassées, mais elles sont puissantes et
permanentes. Nous conduisons quand nous sommes somnolents ou après
avoir bu, parfaitement conscients des dangers, mais persuadés que les
problèmes n’arrivent qu’aux autres. Comment pouvons-nous surmonter ce
genre de problèmes sociaux ? Une bonne conception ne suffit pas. Nous
avons besoin d’une formation différente. Nous devons récompenser la
sécurité et la mettre audessus des pressions économiques. Cela aide
lorsque l’équipement rend les dangers potentiels visibles et explicites,
mais ce n’est pas toujours possible. S’attaquer de manière adéquate aux
pressions sociales, économiques et culturelles et, aussi, améliorer la
politique de l’entreprise sont les éléments les plus importants pour garantir
la sécurité des opérations et des comportements.

Checklist
Les checklists (listes de contrôle) sont des outils puissants ayant fait leurs
preuves pour améliorer la précision du comportement et pour réduire les
erreurs, en particulier les ratés, et les défaillances de la mémoire. Les listes
sont particulièrement importantes dans les situations avec de nombreux
besoins et, plus encore, quand on est sans cesse interrompu. Lorsque
plusieurs personnes sont impliquées dans une tâche, il est essentiel que les
niveaux de responsabilité soient clairement définis. Il est toujours meilleur
d’avoir deux personnes qui effectuent le contrôle de la liste en équipe :
l’une qui lit les instructions et l’autre qui les exécute. Lorsque, à la place,
un seul individu effectue le contrôle, puis que, plus tard, un deuxième
vérifie les éléments, le résultat n’est pas aussi fiable, chacun des deux
risquant de passer les étapes trop rapidement, persuadé que toute erreur
serait repérée par l’autre.
L’un des paradoxes des groupes c’est que, très souvent, l’ajout de plus de
deux personnes pour vérifier une tâche rend moins probable son exécution.
En effet, lorsque vous devez vérifier des valeurs sur une rangée de
cinquante afficheurs, mais que vous savez que deux personnes les ont déjà
vérifiées avant vous et qu’une ou deux personnes vont passer après pour
vérifier votre travail, vous risquez de ne pas prêter très attention aux
chiffres. Après tout, avec tant de personnes qui vérifient, il devrait être
impossible qu’un problème existe sans qu’il ne soit détecté. Pourtant, si
tout le monde pense la même chose, en ajoutant plus de contrôles on peut
en réalité augmenter les risques d’erreur. Une liste de contrôle suivie en
collaboration est un moyen efficace de contrecarrer ces tendances
humaines naturelles.
Dans l’aviation commerciale, les checklists sont considérées comme des
outils essentiels pour la sécurité. Elles sont établies par deux personnes,
généralement les deux pilotes de l’avion (le commandant de bord et
copilote). En aviation, les listes de vérification sont désormais obligatoires
pour tous les vols commerciaux américains. Cependant, malgré les
preuves solides qui confirment leur utilité, de nombreuses industries
continuent farouchement de ne pas les utiliser car cela donne l’impression
aux responsables que leur compétence est mise en doute. De plus, lorsque
deux personnes sont impliquées, une personne jeune (dans l’aviation, le
copilote) est invitée à surveiller l’action de la personne plus gradée ; c’est
une violation flagrante de la hiérarchie dans de nombreuses cultures.
Les médecins et autres professionnels de la santé ont fermement lutté
contre l’utilisation de checklists. Elles sont perçues comme une insulte à
leurs compétences professionnelles. C’est bien dommage, parce que
l’erreur est humaine. Nous sommes tous sujets à des ratés et à des
méprises lorsque nous sommes stressés, sous la pression horaire ou sociale
ou après avoir été soumis à de multiples interruptions. Être humain ne
constitue pas une menace pour la compétence professionnelle. Les
critiques de listes particulières servent de mise en accusation du concept
dans son ensemble. Par chance, les checklists commencent à être
acceptées dans le domaine médical. Lorsque les cadres insistent sur
l’utilisation de telles listes, cela renforce leur autorité et leur statut
professionnel. Il a fallu des décennies pour qu’elles soient acceptées dans
l’aviation commerciale ; espérons que la médecine et les autres
professions changeront plus rapidement.
Il est difficile de concevoir une checklist efficace. La conception doit être
itérative, sans cesse affinée et, dans l’idéal, prendre en compte les
principes de conception centrés sur l’humain (chapitre 6), en s’ajustant
continuellement jusqu’à ce qu’elle couvre les éléments essentiels sans
toutefois être fastidieuse à exécuter. De nombreuses personnes qui
s’opposent aux checklists s’opposent en fait à celles qui sont mal conçues.
Il est préférable que la checklist pour une tâche complexe soit établie par
des concepteurs professionnels en collaboration avec des experts en la
matière.
Les checklists imprimées présentent un défaut majeur, puisqu’elles
obligent à suivre les étapes dans un ordre séquentiel, même lorsque cela
n’est ni nécessaire, ni même possible. Dans le cas de tâches complexes,
l’ordre dans lequel de nombreuses opérations sont exécutées peut ne pas
avoir d’importance, dans la mesure où elles sont toutes terminées. Parfois,
des éléments ne peuvent pas être contrôlés au moment où ils apparaissent
dans la liste. Par exemple, dans l’aviation, l’une des étapes consiste à
vérifier la quantité de carburant dans l’appareil. Que se passe-t-il si
l’opération de remplissage n’est pas encore terminée lorsque cet élément
de la checklist apparaît ? Les pilotes la survoleront, dans l’intention d’y
revenir après le plein des réservoirs. C’est une faille évidente risquant de
créer une défaillance de mémoire.
En général, c’est une erreur de conception lorsque l’on impose une
structure séquentielle, sauf quand la tâche elle-même l’exige. C’est l’un
des principaux avantages des checklists électroniques. En effet, il est
possible de conserver une trace des éléments ignorés et on peut s’assurer
que la liste ne sera pas marquée comme complète tant que tous les
éléments n’auront pas été contrôlés.

Rapporter les erreurs


En détectant les erreurs, de nombreux problèmes peuvent être évités.
Cependant, il n’est pas facile de toutes les détecter. De plus, les pressions
sociales empêchent souvent que l’on reconnaisse ses propres erreurs (ou
de signaler celles d’autrui). Si l’on rapporte ses propres erreurs, on
pourrait être condamné à une amende ou une sanction. De plus, on
pourrait être moqué par ses amis. Si une personne rapporte que quelqu’un
d’autre a commis une erreur, cela a parfois de graves répercussions
personnelles. Enfin, de nombreuses institutions ne souhaitent pas révéler
les erreurs commises par leur personnel. Les hôpitaux, les tribunaux, la
police et les entreprises de services publics sont tous réticents à admettre
devant le public que leurs employés sont capables d’erreur. Ce sont, hélas,
des attitudes malheureuses.
Le seul moyen de réduire les erreurs consiste à admettre leur existence, à
rassembler des informations à leur sujet et à apporter les modifications
appropriées pour en réduire le nombre. En l’absence de données, il est
difficile, voire impossible, d’apporter des améliorations. Plutôt que de
stigmatiser ceux qui admettent l’erreur, remercions-les et encourageons les
comptes rendus. Nous devons faciliter le signalement des erreurs, car
l’objectif n’est pas de punir, mais de déterminer comment c’est arrivé et
d’apporter les modifications nécessaires pour que cela ne se reproduise
plus.
Étude de cas : Jidoka, comment Toyota gère
les erreurs
Le constructeur automobile Toyota a mis au point un processus
extrêmement efficace de réduction des erreurs de fabrication. Parmi ses
nombreux principes clés, il y a une philosophie appelée Jidoka, qui, selon
Toyota, se traduit grossièrement par « automatisation avec une touche
humaine ». Si un travailleur remarque quelque chose qui ne va pas, il le
signale, parfois même en arrêtant toute la chaîne de production si une
pièce défectueuse est sur le point de passer à la station suivante (un cordon
spécial, appelé andon, stoppe la chaîne de production et alerte les experts).
Les experts convergent vers la zone à problème pour en déterminer la
cause. « Pourquoi est-ce arrivé ? » La philosophie est de demander
pourquoi autant de fois que nécessaires pour aller à la racine du problème,
puis de résoudre ce dernier afin qu’il ne se reproduise pas.
Comme vous l’imaginez, cela peut être assez gênant pour la personne qui
trouve l’erreur. Cependant, on attend les rapports et, quand on découvre
que certains n’ont pas signalé les erreurs, ils sont punis, dans le but
d’inciter les travailleurs à être honnêtes.

Poka-yoke : protection contre les erreurs


Le poka-yoke est une autre méthode japonaise, inventée par Shijo Shingo,
l’un des ingénieurs qui a joué un rôle majeur dans le développement du
système de production Toyota. Poka-yoke se traduit par « correction
d’erreur » ou « éviter les erreurs ». Cette technique consiste à ajouter des
montages simples, des gabarits ou des dispositifs afin de contraindre les
opérations à être correctes. Je le pratique moi-même à mon domicile ; un
exemple trivial est un dispositif pour m’aider à me rappeler de quelle
manière tourner la clé des nombreuses portes du complexe d’appartements
où je vis. J’ai fait le tour avec une pile de petits points adhésifs verts,
circulaires que j’ai placés sur chaque porte à côté de son trou de serrure, le
point indiquant la direction dans laquelle la clé devait être tournée ; j’ai
donc ajouté des indicateurs aux portes. Est-ce une erreur majeure que j’ai
corrigée ainsi ? Non, mais en l’éliminant, le côté pratique se vérifie.
Dans l’industrie, le poka-yoke peut consister en un morceau de bois pour
aider à aligner correctement une pièce, ou peut-être des plaques conçues
avec des trous de vis asymétriques afin de ne pouvoir la placer que dans
une seule position. Couvrir les interrupteurs essentiels ou d’urgence avec
un cache pour éviter tout déclenchement accidentel est un autre moyen ;
c’est évidemment une fonction de forçage. Toutes les techniques du poka-
yoke associent les principes abordés dans ce livre : affordances, signifiants,
mappings, contraintes et, peut-être le plus important de tous, les fonctions
de forçage.

Système de rapport de la NASA


L’aviation commerciale américaine dispose depuis longtemps d’un
système extrêmement efficace pour inciter les pilotes à signaler les erreurs
commises. Le programme a entraîné de nombreuses améliorations en
matière de sécurité aérienne. Ce n’était pas facile à établir. En effet, les
pilotes subissaient de graves pressions sociales autoprovoquées contre les
erreurs commises. De plus, à qui les rapporteraient-ils ? Certainement pas
à leurs employeurs, ni même pas à la Federal Aviation Authority (FAA,
l’autorité fédérale de l’aviation), parce qu’ils seraient probablement punis.
La solution consistait à laisser l’administration nationale de l’aéronautique
et de l’espace (NASA) mettre en place un système de compte rendu
volontaire des accidents permettant aux pilotes de soumettre des rapports
semi-anonymes sur les erreurs qu’ils avaient commises ou observées chez
d’autres (semi-anonyme parce que les pilotes indiquaient leur nom et leurs
coordonnées sur les rapports afin que la NASA puisse les appeler pour
obtenir plus d’informations). Une fois que le personnel de la NASA
obtient les informations nécessaires, il détache du rapport la partie
contenant les informations de contact et les renvoie au pilote. Cela signifie
que l’organisme ne sait plus qui a signalé l’erreur, ce qui empêche les
compagnies aériennes ou la FAA (qui applique des sanctions pénales
contre les erreurs) de déterminer qui a soumis le rapport. Si la FAA a
indépendamment constaté l’erreur et tenté d’invoquer une sanction civile
ou une suspension de certificat, le reçu des coordonnées détachées de la
déclaration suffit pour que le pilote ne soit pas puni (pour des infractions
mineures).
Une fois qu’un nombre suffisant d’erreurs similaires est collecté, la NASA
les analyse et établit des rapports et des recommandations aux compagnies
aériennes et à la FAA. Les pilotes ont compris que leurs rapports d’erreur
étaient des outils précieux pour accroître la sécurité. Comme pour les listes
de contrôle, nous avons besoin de systèmes similaires dans le domaine de
la médecine, mais cela n’est pas facile à mettre en place. La NASA est un
organisme neutre chargé de renforcer la sécurité de l’aviation, mais ne
dispose d’aucun pouvoir de surveillance, ce qui a mis en confiance les
pilotes. Il n’existe pas d’institution comparable en médecine. Les
médecins craignent que des erreurs autodéclarées ne les conduisent à
perdre leur licence ou à faire l’objet de poursuites. Pourtant, nous ne
pouvons pas éliminer les erreurs sans savoir ce qu’elles sont. Le domaine
médical commence à progresser, mais c’est un problème technique,
politique, juridique et social difficile.

Détecter les erreurs


Découvertes rapidement, les erreurs ne causent pas nécessairement de
dommages. En général, les ratés de l’action sont relativement faciles à
découvrir ; en revanche, c’est beaucoup plus difficile avec les méprises.
Les ratés de l’action sont faciles à détecter, car il est aisé de noter une
différence entre l’acte recherché et celui qui a été exécuté ; cependant,
cette détection ne peut avoir lieu que s’il y a un retour d’information. Si le
résultat de l’action n’est pas visible, comment l’erreur peut-elle être
détectée ?
Les ratés dus à une défaillance de la mémoire sont difficiles à détecter
parce qu’il n’y a rien de visible, l’action souhaitée n’étant pas réalisée.
C’est seulement lorsque l’absence d’action déclenche un événement non
souhaité qu’il y a une chance de détecter un raté dû à la mémoire.
Les méprises sont difficiles à détecter car il est rare que quelque chose
signale le choix d’un objectif inapproprié. Et, une fois que l’on a décidé
d’un mauvais objectif ou d’un mauvais plan, les actions résultantes sont
cohérentes avec cet objectif erroné. Non seulement un suivi attentif de ces
actions ne permet pas de détecter un objectif erroné, mais, étant donné que
les actions sont correctement exécutées, cela peut donner confiance dans la
mauvaise décision.
Un mauvais diagnostic d’une situation est parfois étonnamment difficile à
détecter. On s’attendrait à ce que, avec un diagnostic erroné, les actions se
révèlent inefficaces et accélèrent la découverte, mais les erreurs de
diagnostic ne sont pas aléatoires et, généralement, elles reposent sur une
connaissance et une logique considérables. Par conséquent, les actions
sont susceptibles de paraître correctes et utiles. Il faut parfois des heures,
voire des jours, pour découvrir l’erreur.
Les méprises dues à des défaillances de la mémoire sont particulièrement
difficiles à détecter. Tout comme avec un raté dû à une défaillance de la
mémoire, l’absence de quelque chose qui aurait dû être fait est toujours
plus difficile à remarquer que la présence de quelque chose qui n’aurait
pas dû être fait. La différence entre les ratés et les méprises dus à une
défaillance de la mémoire réside dans le fait que, dans le premier cas, un
seul élément de la planification est ignoré, alors que, dans le second, c’est
l’ensemble de la planification qui est oublié. Lequel est plus facile à
découvrir ? À ce stade, je dois utiliser la réponse standard que la science
aime donner à des questions de ce type : « ça dépend ».

Expliquer les méprises


Il est parfois long de découvrir les méprises. On entend un bruit qui
ressemble à un coup de feu et on pense qu’il s’agit du pot d’échappement
d’une voiture. On entend quelqu’un crier à l’extérieur et on se dit que le
voisinage pourrait être plus silencieux. Est-ce que nous avons raison de
laisser passer ces événements ? Oui, la plupart du temps mais, quand ce
n’est pas le cas, il est quelquefois difficile de justifier nos explications.
L’explication des erreurs est un problème courant avec les accidents
commerciaux. Généralement, ces derniers sont précédés de signes avant-
coureurs : équipement qui fonctionne mal ou événements inhabituels. Il y
a souvent une série de pannes et d’erreurs apparemment sans lien qui
aboutissent à une catastrophe majeure. Pourquoi personne n’a-t-il
remarqué cela ? Simplement parce qu’aucun incident ne semblait être
grave. Souvent, les individus impliqués notaient chacun des problèmes et
trouvaient une explication logique à l’observation pour éliminer le
problème.

Le cas d’une erreur sur l’autoroute


Un jour, j’ai mal interprété une signalisation sur l’autoroute et je suis
certain que c’est arrivé à bien d’autres conducteurs. Avec ma famille, nous
voyagions de San Diego à Mammoth Lakes, en Californie. Pendant le
trajet, nous avons remarqué que de plus en plus de panneaux annonçaient
les hôtels et les casinos de Las Vegas, dans le Nevada. Nous avons trouvé
cela étrange ; Las Vegas a toujours fait de la publicité à grande distance (il
y a même un panneau publicitaire à San Diego) mais, sur la route de
Mammoth, cela semblait un peu excessif. Nous nous sommes arrêtés pour
acheter de l’essence et avons poursuivi notre voyage. Ce n’est que plus
tard, lorsque nous avons cherché un endroit pour dîner, que nous avons
découvert que nous avions manqué un embranchement près de deux
heures plus tôt et que nous étions en fait sur la route de Las Vegas et non
celle de Mammoth. Nous avons dû revenir en arrière, perdant ainsi quatre
heures de conduite. Nous en rions maintenant, mais ce n’était pas le cas
alors.
Une fois que l’on a trouvé une explication à ce qui semble être une
anomalie, on a tendance à penser qu’on peut écarter cette anomalie.
Cependant, les explications sont basées sur l’analogie avec des
expériences passées, qui peuvent ne pas s’appliquer à la situation actuelle.
Dans l’anecdote précédente, la prévalence des panneaux d’affichage pour
Las Vegas était un signal que nous aurions dû prendre en compte, mais
cela semblait facile à expliquer. Notre expérience est typique : certains
incidents industriels majeurs se sont produits à cause de mauvaises
explications d’événements anormaux. Notez que les anomalies apparentes
doivent, en général, être ignorées. La plupart du temps, l’explication de
leur présence est correcte. Il est difficile de distinguer une véritable
anomalie d’une anomalie apparente.

Après coup, les événements semblent


logiques
La différence entre notre compréhension avant et après un événement est
souvent énorme. Le psychologue Baruch Fischhoff a étudié des
explications rétrospectives où les événements semblaient tout à fait
évidents et prévisibles, sauf quand l’action s’est produite.
Fischhoff a présenté un certain nombre de situations à des personnes et
leur a demandé de prédire ce qui se passerait. Les réponses étaient
correctes seulement grâce à la chance. Lorsque le résultat réel n’était pas
connu par les personnes de l’étude, peu d’entre elles le prédisaient comme
il faut. Il a ensuite présenté les mêmes situations ainsi que les résultats
réels à un autre groupe de personnes, leur demandant d’indiquer la
probabilité de chaque résultat. Lorsque le résultat réel était connu, il
semblait plausible et probable alors que d’autres résultats présentés
semblaient peu probables.
Avec le recul, les événements semblent évidents et prévisibles. La
prévoyance est difficile. Lors d’un incident, il n’y a jamais d’indices clairs.
Beaucoup de choses se passent en même temps : la charge de travail est
élevée, les émotions et le niveau de stress sont élevés. Beaucoup
d’événements sont alors sans importance. Les choses qui paraissent hors
de propos s’avéreront critiques. Les enquêteurs sur les accidents,
travaillant avec le recul, sachant ce qui s’est réellement passé, se
concentreront sur les informations pertinentes et ignoreront les autres
mais, au cours des événements, les opérateurs ne disposent pas d’éléments
pour les distinguer.
C’est pour cela que les meilleures analyses d’accident demandent du
temps. Les enquêteurs doivent s’imaginer à la place des personnes
impliquées et prendre en compte toutes les informations, toutes les
formations et ce que les événements passés similaires auraient pu
apprendre aux opérateurs. Alors, la prochaine fois qu’un accident majeur
se produira, ignorez les premiers rapports des journalistes, des politiciens
et des dirigeants qui n’ont aucune information de fond mais se sentent
obligés de faire des déclarations. Attendez que les rapports officiels
proviennent de sources fiables. Malheureusement, cela arrive parfois des
mois ou des années après l’accident, alors que le public veut généralement
des réponses immédiatement, même si elles sont fausses. De plus, lorsque
l’analyse complète paraît enfin, les journaux ne la considèrent plus comme
une nouvelle information et ils n’en parlent pas. Vous devez chercher le
rapport officiel. Aux États-Unis, on peut par exemple faire confiance au
National Transportation Safety Board, qui mène des enquêtes
approfondies sur tous les principaux incidents liés à l’aviation, aux
automobiles, aux camions, aux trains, aux navires et aux pipelines.

Concevoir pour l’erreur


Il est relativement facile de concevoir une situation dans laquelle tout se
passe bien, où les gens utilisent le dispositif comme prévu et où aucun
événement imprévu ne se produit. La partie la plus difficile est de
concevoir pour quand les choses tournent mal.
Prenons l’exemple d’une conversation entre deux personnes. Des erreurs
sont-elles commises ? Oui, mais elles ne sont pas traitées comme telles. Si
une personne dit quelque chose qui n’est pas compréhensible, nous
demandons des éclaircissements. Si elle formule une affirmation que nous
croyons fausse, nous posons des questions et en discutons. Nous
n’émettons pas de signal d’avertissement. Nous ne bipons pas. Nous ne
renvoyons pas de message d’erreur. Nous demandons plus d’informations
et nous engageons un dialogue pour parvenir à un accord. Dans les
conversations normales entre deux amis, les anomalies sont considérées
comme normales, à titre approximatif. Les erreurs grammaticales, les
corrections automatiques et redites sont ignorées. En fait, ces éléments ne
sont généralement même pas détectés car nous nous concentrons sur le
fond et non sur la forme.
Les machines ne sont pas capables de déterminer la signification de nos
actions et sont par conséquent beaucoup moins intelligentes qu’elles ne
pourraient l’être. Avec nos produits, lorsque nous agissons de manière
inappropriée mais que l’action correspond au format approprié pour une
commande, le produit exécute l’action même si elle est dangereuse. Cela a
conduit à des accidents tragiques, en particulier dans les soins de santé, où
une conception inappropriée des pompes à perfusion et des appareils à
rayons X a permis des surdoses extrêmes de médicaments ou de
radiations, entraînant le décès des patients. Dans les établissements
financiers, de banales erreurs de clavier ont entraîné d’énormes
transactions financières, bien au-delà des limites habituelles.
De simples vérifications du caractère raisonnable de l’action auraient mis
fin aux erreurs.

Nous y reviendrons à la fin du chapitre.

De nombreux systèmes aggravent le problème en facilitant l’erreur et en


rendant difficile voire impossible de la détecter ou d’y remédier. Une
simple erreur ne devrait pas causer de dégâts considérables. Voici ce qu’il
faut faire :
comprendre les causes des erreurs et concevoir pour les minimiser ;
effectuer un contrôle de sensibilité (Est-ce que l’action passe le test du
bon sens ?) ;
permettre d’annuler une action et rendre difficile l’annulation de ce
qui ne doit pas l’être ;
faciliter la découverte des erreurs et leur correction ;
ne pas traiter l’action comme une erreur. À la place, il faut aider la
personne à terminer correctement l’action. Imaginez cette dernière
comme une approximation de ce qui est souhaité.
Les novices sont plus enclins aux méprises qu’aux ratés, alors que les
experts risquent davantage de commettre des ratés. Les méprises
proviennent souvent d’informations peu claires ou ambiguës à propos de
l’état du système, conduisant à une absence de modèle conceptuel correct
et à des procédures inappropriées. Souvenez-vous que, pour la plupart, les
méprises proviennent d’un mauvais choix de l’objectif ou de la
planification ou d’une évaluation et une interprétation erronées. Tout ceci
se produit à cause de pauvres informations fournies par le système en ce
qui concerne le choix de l’objectif et des moyens pour y parvenir (le plan),
ainsi que de la pauvre qualité du retour d’information sur ce qui s’est
produit.
Les interruptions sont une source majeure d’erreurs, en particulier des
défaillances de la mémoire. Lorsqu’une activité est interrompue par un
autre événement, le coût de l’interruption est de loin supérieur à la seule
perte de temps induite ; il s’agit également du coût pour la reprise de
l’activité interrompue. Pour résumer, il est nécessaire de se rappeler avec
précision l’état précédent de l’activité : quel était l’objectif, où en était-il
dans le cycle d’action et l’état pertinent du système. Les systèmes rendent
souvent difficile la reprise après une interruption car ils ne fournissent pas
les informations critiques dont l’utilisateur a besoin pour se souvenir des
nombreuses petites décisions qui ont été prises et des éléments qui étaient
dans sa mémoire à court terme. Que faut-il encore faire ? Est-ce que
j’avais terminé ? Il n’est pas étonnant que beaucoup de ratés et méprises
soient le résultat d’interruptions.
Le multitâche, lorsque nous accomplissons délibérément plusieurs tâches
en même temps, apparaît à tort comme un moyen efficace de faire
beaucoup de choses. Il est très apprécié des adolescents et des travailleurs
surmenés mais, en réalité, tout indique une dégradation grave des
performances, une augmentation des erreurs et un manque général de
qualité et d’efficacité. Effectuer deux tâches à la fois prend plus de temps
que la somme des temps nécessaires pour chacune d’elles séparément.
Même une tâche aussi simple et aussi courante que de téléphoner avec le
kit mains libres en conduisant induit une importante dégradation des
compétences de conduite. Une étude a même montré que l’utilisation du
téléphone portable pendant la marche entraînait de graves déficits : « Les
utilisateurs de téléphones portables marchaient plus lentement,
changeaient de direction plus souvent et étaient moins enclins à
reconnaître des personnes que dans d’autres conditions. Dans la deuxième
étude, nous avons constaté que les utilisateurs de téléphones cellulaires
étaient moins susceptibles de remarquer une activité inhabituelle le long
de leur chemin de randonnée. » (Hyman, Boss, Wise, McKenzie &
Caggiano, 2010)
De nombreuses erreurs médicales sont dues à des interruptions. Dans
l’aviation, où les interruptions étaient également considérées comme un
problème majeur pendant les phases critiques du vol (atterrissage et
décollage), la FAA des États-Unis exige ce qu’elle appelle une
« configuration de cockpit stérile », dans laquelle les pilotes ne sont pas
autorisés à discuter de tout sujet non directement lié au contrôle de l’avion
dans ces moments délicats. De plus, les agents de bord ne sont pas
autorisés à parler aux pilotes pendant ces phases (ce qui a parfois conduit à
l’erreur inverse : ne pas informer les pilotes des situations d’urgence).
La mise en place de périodes stériles similaires serait très bénéfique pour
de nombreuses professions, y compris la médecine et d’autres opérations
critiques en ce qui concerne la sécurité. Mon épouse et moi-même suivons
cette convention en matière de conduite : lorsque le conducteur entre sur
une autoroute à grande vitesse ou la quitte, la conversation cesse jusqu’à
ce que la transition soit terminée. Les interruptions et les distractions
entraînent des erreurs, à la fois des méprises et des ratés.
Généralement, les signaux d’avertissement ne sont pas la solution. Prenons
la salle de contrôle d’une centrale nucléaire, le poste de pilotage d’un
avion commercial ou la salle d’opération d’un hôpital. Dans chaque cas,
on dispose d’un grand nombre d’instruments, de jauges et de commandes
différentes, tous avec des signaux qui tendent à se ressembler car ils
utilisent tous un simple générateur de sons pour émettre un signal sonore.
Il n’y a pas de coordination entre les instruments, ce qui signifie qu’en cas
d’urgence majeure, ils sonnent tous en même temps. De toute façon, ils
peuvent le plus souvent être ignorés car ils informent l’opérateur de
quelque chose qui est déjà connu. Chacun est en concurrence avec les
autres pour se faire entendre, ce qui nuit aux efforts déployés pour
résoudre le problème.
Des alarmes inutiles et agaçantes se déclenchent dans de nombreuses
situations. Comment les gens se débrouillent-ils ? En débranchant les
signaux d’avertissement, en tapant sur les voyants (ou en retirant les
ampoules), en faisant taire les cloches et en éliminant les avertissements
de sécurité. Le problème survient après la désactivation de ces alarmes,
soit lorsque des personnes oublient de restaurer les systèmes d’alerte (il y
a à nouveau des défaillances de la mémoire), soit si un autre incident se
produit alors que les alarmes sont déconnectées. À ce stade, personne ne le
remarque. Les alarmes et les méthodes de sécurité doivent être utilisées
avec soin et intelligence, en faisant des compromis avec les personnes
concernées.
Il est étonnamment complexe de concevoir des signaux d’alerte. Ils
doivent être suffisamment forts ou lumineux pour être remarqués, mais ni
trop forts, ni trop lumineux pour ne pas devenir gênants. Le signal doit à la
fois attirer l’attention (agir en tant que signifiant d’informations critiques)
et également fournir des informations sur la nature de l’événement qui est
signalé. Les différents instruments doivent avoir une réponse coordonnée,
ce qui signifie qu’il doit exister des normes internationales et une
collaboration entre les nombreuses équipes de conception de différentes
entreprises, souvent concurrentes. Bien que des recherches considérables
aient été consacrées à ce problème, notamment à l’élaboration de normes
nationales pour les systèmes de gestion des alarmes, le problème persiste
dans de nombreuses situations.
De plus en plus de machines présentent des informations sous forme de
parole mais, comme toutes les approches, cela a ses forces et ses
faiblesses. Le système est capable de transmettre des informations
précises, en particulier lorsque l’attention visuelle de la personne est
dirigée ailleurs. Cependant, si plusieurs alertes vocales fonctionnent en
même temps ou si l’environnement est bruyant, ces avertissements
risquent de ne pas être compris. De plus, si des conversations entre les
utilisateurs ou les opérateurs sont nécessaires, les avertissements vocaux
risquent d’interférer. Les alertes vocales peuvent être efficaces, mais
seulement si elles sont utilisées intelligemment.

Tirer des leçons de l’étude des erreurs


Grâce à l’étude des erreurs, on peut tirer plusieurs leçons pour la
conception : d’abord prévenir les erreurs avant qu’elles ne se produisent,
puis détecter celles qui arrivent et les corriger aussitôt. En général, les
solutions découlent directement des analyses précédentes.

Ajouter des contraintes aux erreurs de blocage


La prévention des erreurs implique souvent l’ajout de contraintes
spécifiques aux actions. Dans le monde physique, cela peut se faire par
une utilisation judicieuse de la forme et de la taille. Par exemple, dans les
automobiles, de nombreux liquides sont nécessaires : huile moteur, huile
de transmission, liquide de frein, lave-glace, liquide de refroidissement,
eau de la batterie et carburant. L’introduction du mauvais liquide dans un
réservoir entraînerait de graves dommages, voire un accident. Les
constructeurs automobiles essaient de minimiser ces erreurs en séparant
les points de remplissage, réduisant ainsi les erreurs de description-
similitude. Lorsque les points de remplissage pour les liquides que l’on
n’ajoute qu’occasionnellement sont séparés de ceux des liquides utilisés
fréquemment, il est peu probable que l’automobiliste se trompe dans les
réservoirs. Les erreurs lors de l’ajout de liquide sont également minimisées
en donnant aux ouvertures des tailles et des formes différentes, fournissant
ainsi des contraintes physiques contre un remplissage inapproprié.
Différents liquides ont souvent des couleurs différentes pour être
distingués. Voilà autant d’excellents moyens de minimiser les erreurs. Des
techniques similaires sont largement utilisées dans les hôpitaux et
l’industrie. Elles sont toutes des applications intelligentes de contraintes,
de fonctions de forçage et de poka-yoke.
Les systèmes électroniques disposent d’un large éventail de méthodes pour
réduire les erreurs : par exemple, séparer les contrôles (de sorte à éloigner
ceux qui pourraient être confondus) ou utiliser des modules séparés (de
sorte que toutes les commandes non liées à l’opération en cours ne soient
pas affichées sur l’écran mais nécessitent un effort supplémentaire pour y
accéder).

Annuler
L’outil le plus puissant pour minimiser l’impact des erreurs est sans doute
la commande Annuler que l’on trouve dans les systèmes électroniques
modernes. Dans la mesure du possible, elle annule l’opération précédente
en supprimant les opérations effectuées. Les meilleurs systèmes ont
plusieurs niveaux d’annulation ; il est donc possible d’agir sur toute une
séquence d’actions.
Évidemment, il n’est pas toujours possible d’annuler des tâches. Parfois,
ce n’est possible qu’immédiatement après l’action. Néanmoins, cela reste
un outil puissant pour minimiser l’impact des erreurs. Il est toujours
étonnant pour moi que de nombreux systèmes électroniques et basés sur
ordinateur ne fournissent pas un moyen d’annuler même lorsque cela est
clairement possible et souhaitable.

Confirmation et message d’erreur


De nombreux systèmes tentent d’éviter les erreurs en exigeant une
confirmation avant l’exécution d’une commande, surtout lorsque l’action
détruit quelque chose d’important. Malheureusement, ces demandes
n’arrivent pas toujours au bon moment car, après avoir demandé une
opération, on est généralement certain de vouloir la mener à son terme.
D’où la blague classique à propos de tels avertissements :
Personne – Supprime « mon fichier le plus important ».
Système – Voulez-vous supprimer « mon fichier le plus important » ?
Personne – Oui.
Système – Êtes-vous certain ?
Personne – Oui !
Système – « mon fichier le plus important » a été supprimé.
Personne – Oh, zut !
Les demandes de confirmation sont irritantes et n’assurent pas les
vérifications de sécurité essentielles. En effet, on a tendance à se
concentrer sur l’action plutôt que sur l’objet sur lequel elle agit. Une
meilleure vérification consisterait à montrer à la fois l’action à
entreprendre et l’objet, éventuellement avec le choix d’annuler ou de le
faire. L’important est de souligner les implications de l’action. Bien
entendu, c’est à cause d’erreurs de ce type que la commande Annuler est si
importante. Avec les interfaces graphiques traditionnelles sur les
ordinateurs, non seulement la commande Annuler est un standard mais,
lorsque des fichiers sont « supprimés », ils sont simplement déplacés et
stockés dans la Corbeille. Ainsi, il reste possible de récupérer le fichier
supprimé par erreur.
Les confirmations ont des implications différentes pour les ratés et les
méprises. Lorsque j’écris, j’utilise deux très grands écrans et un ordinateur
puissant. Il se peut que sept à dix applications fonctionnent simultanément.
J’ai parfois eu jusqu’à quarante fenêtres ouvertes. Supposons que j’active
la commande qui ferme une des fenêtres, ce qui déclenche un message
demandant confirmation : est-ce que je voulais réellement fermer la
fenêtre ? La façon dont je gère cela dépend des raisons pour lesquelles j’ai
donné cet ordre. S’il s’agissait d’un raté, la confirmation est utile. Si
c’était par méprise, je suis susceptible de l’ignorer. Prenons les deux
exemples suivants.
Supposons que j’ai l’intention de taper le mot « Wagon », mais au lieu
de taper Maj+W pour le premier caractère, je tape Cmd+W ou Ctrl+W, le
raccourci clavier pour fermer une fenêtre. Parce que je m’attendais à
ce que l’écran affiche un « W » majuscule, quand une boîte de
dialogue apparaît, me demandant si je veux vraiment fermer sans
enregistrer le fichier, je suis surpris, ce qui m’alerte immédiatement.
J’annule donc l’action (une alternative fournie avec soin par la boîte
de dialogue) et retape Maj+W, correctement cette fois.
Supposons maintenant que j’ai vraiment l’intention de fermer une
fenêtre. J’utilise souvent un fichier temporaire dans une fenêtre pour
conserver des notes sur le chapitre sur lequel je travaille. Quand j’ai
fini, je ferme cette fenêtre sans sauvegarder son contenu. Toutefois,
comme j’ai souvent plusieurs fenêtres ouvertes, il est très facile de
fermer la mauvaise. L’ordinateur suppose que toutes les commandes
s’appliquent à la fenêtre active, celle dans laquelle les dernières
actions ont été effectuées (et qui contient le point d’insertion pour le
texte). Cependant, si je consulte la fenêtre temporaire avant de la
fermer, mon attention visuelle se porte sur elle et, lorsque je décide de
la fermer, je ne pense plus que pour l’ordinateur ce n’est pas la fenêtre
active. Je lance donc la commande pour fermer la fenêtre, l’ordinateur
me présente une boîte de dialogue demandant une confirmation et je
l’accepte, en choisissant l’option de ne pas enregistrer mon travail.
Comme la boîte de dialogue était attendue, je n’ai pas pris la peine de
la lire. En conséquence, j’ai fermé la mauvaise fenêtre et, pire encore,
je n’ai rien enregistré, ce qui a peut-être entraîné une perte de travail
considérable. Les messages d’avertissement sont étonnamment
inefficaces contre les erreurs (même les bonnes requêtes, comme celle
présentée à la figure 4–6).
Était-ce une méprise ou un raté ? Les deux. Utiliser la commande
Fermer alors que la mauvaise fenêtre est active est une méprise due à
une défaillance de la mémoire. Et décider de ne pas lire la boîte de
dialogue et accepter sans enregistrer le contenu est un raté (en fait,
cela fait deux erreurs).
Un concepteur à plusieurs solutions :
faire en sorte que l’objet sur lequel on agit soit plus visible. En
d’autres termes, il change l’aspect de l’objet sur lequel on agit, en
l’agrandissant ou en changeant éventuellement sa couleur ;
rendre l’opération réversible. Si le contenu de la fenêtre était
enregistré, il n’y a aucun préjudice, sauf la gêne de devoir rouvrir le
fichier. Si on choisit de ne pas enregistrer, le système pourrait le faire
malgré tout en secret et, lors de la prochaine ouverture, il serait
possible de le restaurer à l’état le plus récent.

Contrôle de la sensibilité
Les systèmes électroniques ont un autre avantage sur les systèmes
mécaniques. En effet, ils peuvent s’assurer que l’opération demandée n’est
pas sensible.
Il est stupéfiant que, dans le monde actuel, le personnel médical puisse
accidentellement choisir une dose de radiations des dizaines de fois
supérieure à la normale et que l’équipement la délivre sans broncher. Dans
certains cas, il n’est pas possible à l’opérateur de s’apercevoir de l’erreur.
De même, des erreurs dans la saisie de sommes monétaires risquent
d’avoir des résultats désastreux, même si un rapide coup d’œil sur la
valeur montre que quelque chose ne va pas. Par exemple, prenons un
change de 1 000 wons coréens pour un dollar américain. Supposons que je
veuille transférer 1 000 dollars sur un compte bancaire coréen en wons
(soit environ 1 000 000 de wons). Imaginons que j’entre la valeur en wons
coréens dans le champ pour les dollars. Oups ! J’essaie de transférer un
million de dollars. Les systèmes intelligents prendraient note du montant
anormal de mes transactions et me demanderaient de confirmer ce dernier.
Les systèmes moins intelligents suivraient aveuglément les instructions,
même si je n’ai pas un million de dollars sur mon compte (de plus, des
frais de découvert seraient probablement facturés).
Bien entendu, les contrôles de sensibilité sont également une solution
contre les graves erreurs causées par la saisie de valeurs inappropriées
dans les systèmes de traitement hospitalier, que ce soit pour des
médicaments ou des rayons X. C’est aussi un bon outil dans les
transactions financières.

Minimiser les ratés


Les ratés surviennent le plus souvent lorsque l’esprit conscient est distrait,
soit par un autre événement, soit simplement parce que l’action exécutée
est si bien apprise qu’elle se fait automatiquement. Par conséquent, la
personne n’accorde pas une attention suffisante à l’action ou à ses
conséquences. On pourrait donc penser que, pour minimiser les ratés, il
faut faire en sorte que l’on soit particulièrement conscient des actes
commis.
C’est une mauvaise idée. Le comportement qualifié est subconscient, ce
qui signifie qu’il est rapide, sans effort et généralement précis. Il est
tellement automatique qu’il est possible de taper du texte à haute vitesse
même lorsque l’esprit conscient est occupé à composer les mots. C’est
pourquoi nous sommes capables de marcher et parler tout en naviguant
dans la circulation et les obstacles. Si nous devions faire attention à chaque
petit acte, nous accomplirions beaucoup moins de choses dans nos vies.
Les structures de traitement de l’information du cerveau déterminent
automatiquement le degré d’attention consciente accordée à une tâche. Les
conversations s’interrompent automatiquement lorsque l’on traverse une
rue avec un trafic intense. Attention toutefois, si l’attention est trop
concentrée sur autre chose, on risque de ne pas noter que le trafic est
dangereux.
Vous pouvez minimiser de nombreuses erreurs en vous assurant que les
actions et leurs contrôles sont aussi différents que possible, ou du moins,
aussi physiquement éloignés que possible. Les erreurs de mode
s’éliminent simplement en en supprimant la plupart ou, sinon, en rendant
les modes très visibles et distincts les uns des autres.
Le meilleur moyen d’atténuer les glissades est de fournir un retour
perceptible sur la nature de l’action exécutée, puis un retour très
perceptible décrivant le nouvel état résultant, associé à un mécanisme
permettant de supprimer l’erreur. Par exemple, l’utilisation de codes
lisibles à la machine a entraîné une réduction considérable du nombre de
médicaments mal administrés. Les ordonnances envoyées à la pharmacie
reçoivent des codes électroniques et le pharmacien numérise à la fois
l’ordonnance et le médicament pour s’assurer qu’ils correspondent.
Ensuite, le personnel infirmier de l’hôpital scanne à la fois l’étiquette du
médicament et l’étiquette autour du poignet du patient pour s’assurer que
le médicament est administré à la bonne personne. De plus, le système
informatique peut signaler l’administration répétée du même médicament.
Ces analyses augmentent la charge de travail, mais seulement légèrement.
D’autres types d’erreurs sont encore possibles, mais ces étapes simples ont
déjà fait leurs preuves.
Les pratiques habituelles d’ingénierie et de conception semblent vouloir
délibérément provoquer des ratés. Des lignes de commandes et de
compteurs identiques sont un mélange parfait pour obtenir des erreurs de
similitude. Les différents modes mal identifiés sont, quant à eux, un
facteur déterminant des erreurs de mode. Les situations comportant de
nombreuses interruptions, mais dans lesquelles la conception suppose une
attention exclusive, sont un catalyseur de défaillances de la mémoire. Il
faut savoir qu’aujourd’hui presque aucun équipement n’est conçu pour
supporter les nombreuses interruptions que l’on rencontre. De plus, ne pas
fournir d’assistance ni de rappels visibles pour effectuer des procédures
peu fréquentes semblables à d’autres plus fréquentes entraîne des erreurs
de capture. Avec celles-ci, les actions les plus fréquentes sont effectuées à
la place des actions appropriées à la situation. Les procédures doivent être
conçues de manière que les étapes initiales soient aussi différentes que
possible.
Le message important est qu’un bon concepteur a les moyens d’éviter les
ratés et les méprises. La conception est en mesure de sauver des vies.

Le Swiss cheese model ou comment les


erreurs conduisent aux accidents
Heureusement, les erreurs ne conduisent pas forcément à des accidents.
Les accidents ont souvent de nombreuses causes qui s’ajoutent, mais
aucune erreur en particulier n’en est la cause fondamentale.
James Reason aime expliquer cela en invoquant la métaphore des tranches
de gruyère, ce fromage suisse réputé pour être criblé de trous (figure 5-3).
Si chaque tranche de fromage représente une condition dans la tâche en
cours, un accident ne peut survenir que si les trous des quatre tranches de
fromage sont alignés correctement. Dans des systèmes bien conçus, il peut
y avoir de nombreuses défaillances d’équipement, de nombreuses erreurs,
mais elles ne conduiront à un accident que si elles sont toutes parfaitement
alignées. Toute fuite (passage à travers un trou) est probablement bloquée
au niveau suivant. Les systèmes bien conçus résistent aux pannes.
C’est pourquoi la recherche de « la » cause d’un accident est généralement
vouée à l’échec. Les enquêteurs sur les accidents, la presse, les
responsables gouvernementaux et les simples citoyens aiment trouver des
explications simples sur la cause d’un accident. « Vous voyez, si le trou
dans la tranche A avait été légèrement plus haut, nous n’aurions pas eu
l’accident. Alors, jetez la tranche A et remplacez-la. » Bien sûr, on peut en
dire autant des tranches B, C et D (et dans les accidents réels, il y a parfois
des dizaines ou des centaines de tranches). Il est relativement facile de
trouver telle action ou telle décision qui, si elle avait été différente, aurait
pu empêcher l’accident. Cependant, cela ne signifie pas que c’est « la »
cause de l’accident. Ce n’est qu’une des nombreuses causes ; tous les
éléments doivent être alignés.

Figure 5–3 Swiss cheese model. Les accidents ont généralement de multiples causes.
Si aucune de ces causes ne s’était produite, l’accident n’aurait pas eu lieu. Le
chercheur britannique sur les accidents James Reason décrit cela à travers la
métaphore des tranches de gruyère. Si les trous ne sont pas parfaitement alignés, il n’y
aura pas d’accident. Cette métaphore fournit deux leçons : premièrement, il n’est pas
nécessaire de trouver « la » cause d’un accident et, deuxièmement, nous pouvons
réduire les accidents et rendre les systèmes plus résilients avec des précautions
supplémentaires (plus de tranches de fromage), moins de risques de ratés, de
méprises ou de pannes d’équipement (moins de trous) et des mécanismes très
différents dans les différentes sous-parties du système (les trous ne s’alignent pas).
Dessin basé sur celui de Reason, 1990.

On retrouve ceci dans la plupart des accidents. « Si seulement je n’avais


pas décidé de prendre un raccourci, je n’aurais pas eu l’accident. » « Si
seulement il n’avait pas plu, mes freins auraient fonctionné. » « Si
seulement j’avais regardé à gauche, j’aurais vu la voiture plus tôt. » Oui,
toutes ces affirmations sont vraies, mais aucune d’entre elles n’est « la »
cause de l’accident. Habituellement, il n’y a pas une cause unique. Oui, les
journalistes et les avocats, ainsi que le public, aiment connaître « la »
cause afin que quelqu’un soit blâmé et puni, mais les agences d’enquête
réputées savent qu’il n’y en a pas qu’une, ce qui explique pourquoi leurs
investigations durent si longtemps. Leur responsabilité est de comprendre
le système et d’apporter les modifications qui réduiront le risque que le
même accident survienne à nouveau.
La métaphore du fromage suisse suggère différentes manières de réduire
les accidents :
mettre plus de tranches de fromage ;
réduire le nombre de trous (ou la taille des trous existants) ;
avertir les opérateurs lorsque plusieurs trous se sont alignés.
Chacun de ces points a des implications opérationnelles. Insérer plus de
tranches de fromage signifie plus de lignes de défense, telles que les listes
de contrôle, où une personne lit les points à vérifier, une autre effectue
l’opération, puis la première vérifie et confirme le résultat.
Réduire le nombre ou la taille des trous dans le gruyère équivaut à
diminuer le nombre de points de sécurité critiques susceptibles de
provoquer des erreurs. Un équipement bien conçu réduira les risques de
ratés et de méprises. C’est précisément ainsi que le niveau de sécurité de
l’aviation commerciale a été considérablement amélioré. Deborah
Hersman, présidente du NTSB, a décrit la philosophie de la conception
comme suit :
Les compagnies aériennes américaines transportent chaque jour environ
deux millions de passagers dans le ciel en toute sécurité, ce qui a été
réalisé en grande partie grâce à la redondance de la conception et à des
niveaux de défense.
Le fromage suisse donne la redondance des conceptions et les couches de
défense. La métaphore illustre l’inutilité d’essayer de trouver la cause
sousjacente d’un accident (généralement une personne) et de punir le
coupable. Au lieu de cela, nous devons réfléchir aux systèmes, à tous les
facteurs en interaction qui conduisent à l’erreur humaine, puis aux
accidents, et trouver des moyens de rendre les systèmes, dans leur
ensemble, plus fiables.

Quand une bonne conception ne suffit pas


Quand les personnes sont vraiment fautives
On me demande parfois s’il est vraiment juste de dire que les gens ne sont
jamais fautifs et qu’il s’agit toujours d’une mauvaise conception. C’est une
question judicieuse. Oui, bien sûr, parfois c’est une personne qui est en
faute.
Même les gens compétents ne le sont plus autant s’ils sont privés de
sommeil, stressés ou sous l’influence de drogues. C’est pour cela que des
lois interdisent aux pilotes de voler s’ils ont consommé de l’alcool au
cours d’une période donnée et que le nombre d’heures de vol sans repos
est limité. Les professions à risque sont pour la plupart soumises à des
réglementations similaires en matière de consommation d’alcool, de
sommeil et de drogue. En revanche, les emplois du quotidien n’ont pas de
telles restrictions. Les hôpitaux demandent souvent à leur personnel de
rester sans sommeil pendant des durées qui dépassent de loin les exigences
de sécurité des compagnies aériennes. Pourquoi ? Seriez-vous heureux
d’être opéré par un chirurgien épuisé ? Pourquoi la privation de sommeil
est-elle considérée comme dangereuse dans une situation et ignorée dans
une autre ?
Certaines activités ont des exigences de taille, d’âge ou de force. D’autres
nécessitent des compétences ou des connaissances techniques
considérables : les personnes non formées ou non compétentes ne
devraient pas les faire. C’est pourquoi de nombreuses activités nécessitent
une formation agréée par le gouvernement. Quelques exemples sont la
conduite automobile, le pilotage d’avion et la pratique médicale. Tous
nécessitent des cours d’instruction et des tests. En aviation, en plus d’être
formés, les pilotes doivent également continuer de pratiquer en volant un
nombre minimal d’heures par mois.
La conduite en état d’ébriété est toujours une cause majeure d’accidents de
la route et c’est clairement la faute du conducteur. Le manque de sommeil
est une autre cause majeure. Pour autant, le fait que des gens soient parfois
en faute ne justifie pas de supposer qu’ils le sont toujours. Un pourcentage
élevé d’accidents résulte d’une mauvaise conception, soit des
équipements, soit, comme c’est souvent le cas dans les accidents
industriels, des procédures à suivre.
Nous avons vu que les gens enfreignent parfois délibérément les
procédures et les règles, soit parce que ces dernières les gênent dans
l’exécution de leur travail, soit parce qu’ils croient qu’il existe des
circonstances exceptionnelles et parfois prennent le pari que la probabilité
relativement faible d’échec ne leur est pas applicable. Malheureusement, si
une activité dangereuse ne provoque une blessure ou la mort qu’une fois
sur un million, il peut en résulter des centaines de décès chaque année
dans le monde, avec ses 7 milliards d’habitants. L’un de mes exemples
préférés dans l’aviation est celui d’un pilote qui, après avoir constaté de
basses pressions d’huile sur ses trois moteurs, a déclaré qu’il s’agissait
d’une panne d’instrument, car il y avait un risque sur un million que les
valeurs indiquées soient valides. Il avait raison dans son évaluation, mais
malheureusement, c’était lui le risque sur un million. Rien qu’aux États-
Unis, il y a eu environ 9 millions de vols en 2012. Ainsi, un risque sur un
million pourrait se traduire par neuf accidents.
Parfois les personnes sont vraiment fautives.

Ingénierie de la résilience
Dans les applications industrielles, les accidents dans de grands systèmes
complexes (puits et raffineries de pétrole, usines de traitement chimique,
systèmes d’alimentation électrique, transports, services médicaux) risquent
d’avoir des impacts majeurs sur l’entreprise et la communauté
environnante.
Parfois, les problèmes ne surgissent pas dans l’organisation, mais en
dehors de celle-ci, par exemple lors de violentes tempêtes, de
tremblements de terre ou de raz-de-marée, provoquant la destruction d’une
grande partie de l’infrastructure existante. Dans les deux cas, la question
est de savoir comment concevoir et gérer ces systèmes de manière à
pouvoir restaurer les services avec un minimum de perturbations et de
dommages. Une approche importante est l’ingénierie de la résilience, avec
pour objectif la conception de systèmes, de procédures, de gestion et de
formation des personnes afin qu’elles soient en mesure de réagir aux
problèmes qui se posent. Il faut s’efforcer de garantir que la conception de
tous ces éléments (équipements, procédures et communication, aussi bien
entre travailleurs que de manière externe avec la direction et le public) soit
continuellement évaluée, testée et améliorée.
Ainsi, les principaux fournisseurs d’ordinateurs provoquent parfois
délibérément des erreurs dans leurs systèmes afin de vérifier dans quelle
mesure la société est capable de réagir. Cela se fait en fermant
délibérément les installations critiques afin de garantir le bon
fonctionnement des systèmes de sauvegarde ou redondants. Bien que cela
semble dangereux de procéder ainsi lorsque les systèmes sont en ligne et
servent de vrais clients, c’est le seul moyen de tester ces grands systèmes
complexes. Les petits tests et les simulations ne prennent pas en compte la
complexité, les niveaux de stress et les événements inattendus qui
caractérisent les défaillances d’un système réel.
Erik Hollnagel, David Woods et Nancy Leveson, auteurs d’une première
série influente de livres sur le sujet, ont habilement résumé cela :
L’ingénierie de la résilience est un paradigme pour la gestion de la
sécurité qui se concentre sur la façon d’aider les gens à faire face à la
complexité sous la pression de la réussite. Cela contraste fortement avec
ce qui est typique aujourd’hui – un paradigme d’erreurs de tabulation
comme s’il s’agissait d’une chose, suivi d’interventions destinées à réduire
ce nombre. Une organisation résiliente considère la sécurité comme une
valeur fondamentale et non comme un produit de base. En effet, la sécurité
ne se manifeste que par les événements qui ne se produisent pas ! Plutôt
que de considérer les succès passés comme une raison de réduire les
investissements, ces organisations continuent d’investir dans
l’anticipation du potentiel d’échec car elles savent que leur connaissance
des lacunes est imparfaite et que leur environnement évolue constamment.
Une mesure de la résilience est donc la capacité à prévoir, à anticiper la
forme changeante du risque, avant que l’échec et le dommage ne
surviennent.
Reproduit avec la permission des éditeurs.
Hollnagel, Woods et Leveson, 2006, p. 6.
Le paradoxe de l’automatisation
Les machines deviennent intelligentes et de plus en plus de tâches sont
entièrement automatisées. On a tendance à croire que de nombreuses
difficultés liées au contrôle humain vont disparaître. Dans le monde entier,
les accidents de la route tuent et blessent des dizaines de millions de
personnes chaque année. Lorsque nous aurons finalement généralisé
l’utilisation de voitures autonomes, le taux d’accidents et de victimes sera
probablement considérablement réduit, tout comme l’automatisation dans
les usines et l’aviation a permis d’accroître l’efficacité tout en réduisant à
la fois les erreurs et le taux de blessures.
Lorsque l’automatisation fonctionne, c’est merveilleux ; cependant, en cas
d’échec, son impact est généralement inattendu et, par conséquent,
dangereux. Aujourd’hui, les systèmes d’automatisation et de production en
réseau ont considérablement réduit la durée pendant laquelle l’électricité
n’est pas disponible pour les habitations et les entreprises. Néanmoins,
lorsque le réseau électrique tombe en panne, cela affecte parfois de vastes
régions d’un pays et met plusieurs jours à se rétablir. Avec les voitures
autonomes, je prédis que nous aurons moins d’accidents et de blessures,
mais que, s’il y a un accident, il sera énorme.
L’automatisation devient de plus en plus capable. Les systèmes
automatiques savent prendre en charge des tâches autrefois effectuées par
des humains : maintenir une température appropriée, piloter
automatiquement une voiture (dans la voie qui lui est assignée et à la
bonne distance de sécurité du véhicule précédent), un avion (hormis le
décollage et l’atterrissage) ou un bateau. Lorsque l’automatisation
fonctionne, les tâches sont généralement effectuées aussi bien, voire
mieux, que par des personnes. De plus, cela évite des tâches routinières et
ennuyeuses et réduit la fatigue et les erreurs. Cependant, lorsque la tâche
devient trop complexe, l’automatisation a tendance à baisser les bras. Bien
entendu, c’est précisément au moment où on en a le plus besoin. Le
paradoxe est que l’automatisation peut prendre en charge les tâches
fastidieuses, mais échouer avec les tâches complexes.
Lorsque l’automatisation échoue, c’est souvent sans avertissement. C’est
une situation que j’ai décrite de manière très détaillée dans mes autres
livres et dans beaucoup de mes articles, à l’instar de nombreuses autres
personnes travaillant dans le domaine de la sécurité et de l’automatisation.
Lorsque l’échec survient, l’être humain n’est pas au courant : la personne
n’a pas accordé beaucoup d’attention à l’opération et il lui faut un certain
temps pour remarquer et évaluer l’échec, puis pour décider comment
réagir.
Dans un avion, lorsque l’automatisation échoue, les pilotes ont
généralement beaucoup de temps pour comprendre la situation et réagir.
Les avions volent assez haut, à plus de 10 km au-dessus de la terre. Même
si leur appareil commence à tomber en panne, les pilotes disposent de
plusieurs minutes pour réagir et sont extrêmement bien entraînés. Lorsque
l’automatisation échoue dans une automobile, il n’y a qu’une fraction de
seconde pour éviter l’accident, ce qui est extrêmement difficile, même
pour un expert de la conduite ; or, les conducteurs ordinaires ne sont pour
la plupart pas bien formés.
Dans d’autres circonstances, telles que sur un bateau, il peut y avoir plus
de temps pour réagir, mais à condition de remarquer l’échec de
l’automatisation. Dans un cas dramatique, l’échouement du paquebot de
croisière Royal Majesty en 1995, l’échec a duré plusieurs jours et n’a été
détecté que dans l’enquête postaccident, causant plusieurs millions de
dollars de dommages. Dans cet accident, la position du navire était
normalement déterminée par le système de positionnement global (GPS),
mais le câble qui reliait l’antenne du satellite au système de navigation
avait été déconnecté (personne n’a trouvé comment). Par conséquent, le
système de navigation est passé de l’utilisation des signaux GPS à la
« méthode du calcul », qui consiste à estimer la position du navire à partir
de la vitesse et de la direction du trajet ; toutefois, à cause de la conception
du système de navigation, ce changement n’a pas été indiqué. Alors que le
navire se dirigeait des Bermudes vers sa destination de Boston, il s’est trop
éloigné au sud et s’est échoué à Cape Cod, une péninsule émergeant de
l’eau au sud de Boston. L’automatisation fonctionnait parfaitement depuis
des années, ce qui a accru la confiance et le respect des utilisateurs ; ainsi,
la vérification manuelle normale de la position ou la lecture attentive de
l’affichage n’ont pas été faits. Ce fut une énorme défaillance d’erreur de
mode.
Principes de conception pour traiter les
erreurs
Les gens sont flexibles, polyvalents et créatifs. Les machines sont rigides,
précises et leurs opérations relativement fixes. Il y a une disparité entre les
deux qui peut, utilisée correctement, conduire à une amélioration de la
capacité. Pensez à une calculatrice électronique. Elle ne raisonne pas sur
les problèmes de mathématiques comme une personne, mais elle est
capable de mener sans erreur des calculs très complexes. Un humain plus
une calculatrice donnent une collaboration parfaite : le premier découvre
quels sont les problèmes importants et comment les énoncer, tandis que la
seconde calcule les solutions.
Des difficultés surviennent lorsque nous ne considérons pas les personnes
et les machines comme des systèmes collaboratifs, mais assignons toutes
les tâches automatisables aux machines et laissons le reste aux humains.
Cela finit par imposer aux gens de se comporter comme des machines ; ils
doivent surveiller les machines (ce qui signifie rester vigilant pendant de
longues périodes) et répéter des opérations avec une extrême précision et
avec l’exactitude exigées par les machines. Lorsque nous divisons de cette
manière les composants humains et machines d’une tâche, nous ne
parvenons pas à tirer parti des forces et des capacités humaines, mais nous
nous basons plutôt sur des domaines dans lesquels nous sommes
génétiquement, biologiquement inadaptés. Pourtant, quand les gens
échouent, ils sont blâmés.
Ce que nous appelons « erreur humaine » est souvent simplement une
action inappropriée aux besoins de la technologie. En conséquence, cela
marque un déficit dans notre technologie. Cela ne devrait pas être
considéré comme une erreur. Nous devrions éliminer ce concept et nous
rendre compte que les personnes peuvent utiliser de l’aide pour traduire
leurs objectifs et leurs plans sous une forme appropriée pour la
technologie.
Compte tenu du décalage entre les compétences humaines et les exigences
technologiques, les erreurs sont inévitables. Par conséquent, les meilleures
conceptions prennent ce fait pour acquis et cherchent à minimiser les
risques d’erreurs tout en atténuant les conséquences. Supposez que chaque
incident possible se produise, alors protégez-vous contre eux. Rendez les
actions réversibles pour que les erreurs soient moins coûteuses. Voici des
principes clés de conception.
Indiquez les connaissances nécessaires à travers le monde pour utiliser
la technologie. Ne demandez pas qu’elles soient forcément sues.
Permettez un fonctionnement efficace pour des experts capables de
travailler sans cette aide extérieure, mais également pour des
débutants qui en ont besoin. Cela aidera également les experts qui
doivent effectuer une opération qui l’est rarement ou revenir à la
technologie après une absence prolongée.
Appuyez-vous sur les contraintes naturelles et artificielles, physiques,
logiques, sémantiques et culturelles. N’hésitez pas à forcer des
fonctions et des mappings naturels.
Créez une passerelle entre les fossés de l’exécution et de l’évaluation.
Rendez les choses visibles, à la fois pour l’exécution et l’évaluation.
Fournissez des informations complémentaires et rendez les options
facilement disponibles. Pour l’évaluation, fournissez un feedback,
faites ressortir les résultats de chaque action. Facilitez l’estimation du
statut du système, avec précision et sous une forme compatible avec
les objectifs, les plans et les attentes de la personne.
Nous devrions traiter les erreurs en les englobant, en cherchant à
comprendre les causes et en veillant à ce qu’elles ne se reproduisent plus.
Nous devons aider plutôt que punir ou réprimander.
6
Design Thinking

L’une de mes règles, en tant que consultant, est simple : ne jamais


résoudre le problème que l’on me demande de résoudre. Pourquoi une
telle règle contre-intuitive ? Parce que, invariablement, ce qu’on me
demande de résoudre n’est pas le vrai problème, le problème fondamental,
ni sa racine. Ce n’est généralement qu’un symptôme. Tout comme au
chapitre 5, où la solution aux accidents et aux erreurs consistait à
déterminer la cause réelle et sous-jacente des événements, dans la
conception, le secret du succès consiste à comprendre quel est le véritable
problème.

Il est étonnant de constater à quelle fréquence les gens résolvent un


problème sans prendre la peine de le remettre en question. Dans mes
classes d’étudiants diplômés en ingénierie et en commerce, j’aime en
donner un à résoudre le premier jour de classe, puis écouter la
merveilleuse solution la semaine suivante. Les étudiants ont des analyses
magistrales, des dessins et des illustrations. En MBA, ils présentent des
feuilles de calcul dans lesquelles ils ont analysé les données
démographiques de la clientèle potentielle. Ils montrent beaucoup de
chiffres : coûts, ventes, marges et bénéfices. Les ingénieurs montrent des
dessins détaillés et des spécifications. Tout est bien fait, brillamment
présenté.
Quand toutes les présentations sont terminées, je les félicite et je leur
demande : « Comment savez-vous que vous avez résolu le bon
problème ? » Les étudiants sont perplexes. Les ingénieurs et les hommes
d’affaires sont formés pour résoudre les problèmes. Pourquoi quelqu’un
leur donnerait-il le mauvais problème ? Je leur demande, « D’où pensez-
vous que viennent les problèmes ? » À l’université, les professeurs
inventent des problèmes artificiels. Dans le monde réel, les problèmes ne
viennent pas dans de beaux paquets. Ils doivent être découverts. Il est trop
facile de ne voir que les soucis de surface et de ne jamais creuser plus
profondément pour aborder les vraies questions.

Résoudre le bon problème


Les ingénieurs et les hommes d’affaires sont formés pour résoudre les
problèmes. Les concepteurs sont formés pour découvrir les vrais
problèmes. Une solution brillante au mauvais problème peut être pire
qu’une absence totale de solution.
Les bons concepteurs commencent par essayer de comprendre quels sont
les véritables problèmes. Par conséquent, plutôt que de converger vers une
solution, ils divergent, étudient les gens et ce qu’ils essaient d’accomplir,
générant idée après idée. Cela rend fous les gestionnaires, qui veulent voir
des progrès. En effet, les concepteurs semblent reculer quand on leur pose
une question précise. Ensuite, au lieu de se mettre au travail, ils ignorent
cette dernière et créent de nouveaux problèmes à prendre en compte, de
nouvelles directions à explorer.
Ce livre met l’accent sur l’importance de développer des produits qui
répondent aux besoins et aux capacités des personnes. La conception peut
être motivée par différentes préoccupations : technologie, pressions
concurrentielles, considérations esthétiques. Certaines conceptions
explorent les limites des possibilités technologiques ; certaines explorent
le spectre de l’imagination, de la société, de l’art ou de la mode. La
conception technique tend à mettre l’accent sur la fiabilité, le coût et
l’efficacité. L’objectif de cet ouvrage (et de la discipline appelée
conception centrée utilisateur), c’est de s’assurer que le résultat
correspond aux désirs, aux besoins et aux capacités de l’humain. Après
tout, nous fabriquons des produits pour que les gens les utilisent.
Les concepteurs ont mis au point un certain nombre de techniques pour
éviter d’être attirés vers une solution trop facile. Ils prennent la question
initiale comme une suggestion et non comme un élément final. Ensuite, ils
réfléchissent de façon plus large sur ce que pourraient être réellement les
problèmes sous-jacents (approche des cinq pourquoi, chapitre 5). Le plus
important reste que le processus soit itératif et expansif. Les concepteurs
n’essaient pas de trouver une solution avant d’avoir déterminé quel
problème fondamental (la racine) doit être traité. Au lieu de le résoudre, ils
s’arrêtent pour envisager un large éventail de réponses possibles. Ce n’est
qu’alors qu’ils convergent vers leur solution. Ce processus s’appelle le
design thinking.
Le design thinking n’est pas l’apanage des concepteurs. En effet, tous les
grands innovateurs l’utilisent, même inconsciemment, qu’il s’agisse
d’artistes, de poètes, d’écrivains, de scientifiques, d’ingénieurs ou
d’hommes d’affaires. Deux puissants outils sont la conception centrée
utilisateur (CCU) et le modèle de conception à double-diamant
divergence-convergence.
La CCU (Human Centered Design, HCD) est un processus qui assure que
les besoins des gens sont satisfaits, que le produit obtenu est
compréhensible et utilisable, qu’il accomplit les tâches souhaitées et que
l’expérience d’utilisation est positive et agréable. Une conception efficace
doit satisfaire un grand nombre de contraintes et d’inquiétudes, notamment
la forme, le coût, la fiabilité, l’efficacité, la compréhensibilité, la
convivialité, le plaisir de l’aspect, la fierté de la propriété et le plaisir lors
de l’utilisation réelle. La conception centrée utilisateur est une procédure
pour répondre à ces exigences, mais elle met l’accent sur deux éléments :
résoudre le bon problème et le faire de manière à répondre aux besoins et
aux capacités de l’humain.
Au fil du temps, les acteurs impliqués ont mis au point un ensemble
commun de méthodes pour la conception centrée utilisateur. Chacun a sa
méthode préférée, mais toutes sont des variantes d’un même thème, qui
consiste à parcourir les quatre étapes d’observation, de génération, de
prototypage et de test. Même avant cela, le principe fondamental est de
résoudre le bon problème.
Ces deux composantes (trouver le bon problème et répondre aux besoins et
aux capacités de l’humain) donnent lieu à deux phases du processus de
conception. La première consiste à trouver le bon problème, la seconde
consiste à trouver la bonne solution. Les deux phases utilisent le processus
de la conception centrée utilisateur. Cette approche en deux phases a
conduit le British Design Council à la décrire comme un « double-
diamant ». C’est donc ici que nous commençons l’histoire.

Le modèle de conception à double-diamant


Les concepteurs commencent souvent par s’interroger sur le problème qui
leur est posé. Ils en élargissent la portée et divergent pour examiner toutes
les questions fondamentales qui le sous-tendent. Ensuite, ils convergent
sur un unique énoncé. Au cours de la phase de recherche de solutions, ils
élargissent d’abord l’espace des directions possibles et, enfin, ils
convergent vers la proposition d’une solution (figure 6-1). Ce schéma de
double divergence-convergence a été introduit pour la première fois en
2005 par le British Design Council, qui l’a appelé modèle de conception à
double-diamant.
Le processus de conception est découpé en quatre étapes : « explorer » et
« définir » dans les phases de recherche du bon problème, « développer »
et « délivrer » dans les phases d’identification de la bonne solution.
Figure 6–1 Le modèle de conception à double-diamant. Commencez par une idée,
puis développez la réflexion pour explorer les questions fondamentales, avant de
converger vers le réel problème sous-jacent. De même, explorez une grande variété de
possibilités avant de converger vers une solution.
Légèrement modifié par les travaux du British Design Council, 2005.

Le processus de double divergence-convergence est assez efficace pour


libérer les concepteurs des restrictions inutiles aux problèmes et aux
solutions. Cependant, vous compatirez peut-être avec un chef de produit
qui, après avoir donné aux concepteurs un problème à résoudre, les trouve
en train de remettre leur mission en question et d’insister pour voyager
dans le monde entier afin d’approfondir la compréhension. Même
lorsqu’ils commencent à se concentrer sur le problème, ils ne semblent pas
progresser, mais fourmillent avec une grande variété d’idées et de pensées,
dont beaucoup sont à moitié terminées et d’autres clairement irréalisables.
Tout cela est assez perturbant pour le chef de produit qui, soucieux de
respecter le calendrier, souhaite une convergence immédiate. Pour ajouter
à sa frustration, au moment où les concepteurs commencent à converger
vers une solution, ils se rendent parfois compte qu’ils ont formulé le
problème de manière inappropriée et qu’ils doivent répéter le processus
entier (mais la résolution sera plus rapide cette fois).
La répétition de cette divergence-convergence est importante pour
déterminer correctement le bon problème, puis le meilleur moyen de le
résoudre. Cela semble chaotique et mal structuré mais, en réalité, on suit
des principes et des procédures bien établis. Comment fait le chef de
produit pour que l’équipe respecte les délais prévus malgré les méthodes
apparemment aléatoires et divergentes des concepteurs ? Il encourage les
concepteurs à explorer, mais maintient leur attention sur les contraintes de
calendrier (et de budget). Il n’y a rien de mieux qu’un délai ferme pour
amener les esprits créatifs à atteindre la convergence.

Le processus centré utilisateur


Le double-diamant décrit les deux phases de la conception, c’est-à-dire
trouver le bon problème et répondre aux besoins humains. Toutefois,
comment réaliser cela ? C’est ici que le processus de conception centré
utilisateur entre en jeu. Il est composé de quatre activités différentes
(figure 6-2) :
1 observation ;
2 génération d’idées (idéation) ;
3 prototypage ;
4 test.
Ces quatre activités sont itérées, c’est-à-dire qu’elles se répètent encore et
encore, chaque cycle fournissant plus d’informations et se rapprochant de
la solution souhaitée.
Figure 6–2 Le cycle itératif du processus centré utilisateur. Observez la population
cible, générez des idées, réalisez des prototypes et testez-les. Répétez jusqu’à
satisfaction. C’est ce qu’on appelle souvent la méthode de la spirale (plutôt que le
cercle illustré ici), pour souligner que chaque itération progresse à travers les étapes.

Observation
La recherche initiale pour comprendre la nature du problème concerne le
client et les personnes qui utiliseront les produits en question. Cela n’a rien
à voir avec les recherches que mènent les scientifiques dans leurs
laboratoires pour essayer de trouver de nouvelles lois de la nature. Le
concepteur s’adresse aux clients potentiels, observe leurs activités, tente de
comprendre leurs intérêts, leurs motivations et leurs véritables besoins. La
définition du problème pour la conception du produit proviendra de cette
profonde compréhension des objectifs que les utilisateurs essaient
d’atteindre et des obstacles qu’ils rencontrent. L’une des techniques
consiste à observer les clients potentiels dans leur environnement naturel,
dans leur vie normale, quel que soit le lieu d’utilisation du produit ou du
service conçu. On les observe chez eux, dans leurs écoles et leurs bureaux.
On les regarde lors de soirées, au moment des repas ou avec des amis au
bar du quartier. Si nécessaire, on les suit sous la douche, car il est essentiel
de comprendre les situations réelles dans lesquelles ils se trouvent et non
une expérience purement isolée. Cette technique s’appelle l’ethnographie
appliquée, une méthode adaptée du domaine de l’anthropologie.
L’ethnographie appliquée diffère de la pratique plus lente, plus
méthodique et axée sur la recherche des anthropologues universitaires, car
les objectifs sont différents.
D’une part, les concepteurs ont pour objectif de déterminer les besoins
humains auxquels de nouveaux produits seront capables de répondre.
D’autre part, les cycles de produit sont déterminés par le calendrier et le
budget, les deux nécessitant une évaluation plus rapide que celle habituelle
des études universitaires pouvant durer des années.
Il est important que les personnes observées correspondent au public cible.
Notez que les mesures traditionnelles, telles que l’âge, le niveau
d’instruction et le revenu, ne sont pas toujours pertinentes. Ce qui compte
le plus, ce sont les activités à effectuer. Même lorsque nous examinons des
cultures très différentes, les activités sont souvent étonnamment similaires.
En conséquence, les études peuvent se concentrer sur les activités et la
manière dont elles sont effectuées, tout en restant sensibles à la manière
dont l’environnement et la culture locale les modifient. Dans certains cas,
tels que les produits largement utilisés dans les affaires, l’activité domine.
Ainsi, les automobiles, les ordinateurs et les téléphones sont assez
normalisés dans le monde entier, car leur conception reflète les activités
prises en charge.
Des analyses détaillées du groupe visé sont parfois nécessaires. Les
adolescentes japonaises sont très différentes des femmes japonaises et, à
leur tour, très différentes des adolescentes allemandes. Si un produit est
destiné à de telles catégories culturelles, il faut étudier la population
exacte. En suivant la même idée, on pourrait dire que différents produits
répondent à des besoins différents. Certains produits sont également des
symboles de statut ou d’appartenance à un groupe. Ici, bien qu’ils
remplissent des fonctions utiles, ce sont aussi des objets de mode. C’est là
que les adolescents d’une culture diffèrent de ceux d’une autre et même
des enfants plus jeunes et des adultes de la même culture. Les concepteurs
doivent adapter soigneusement leurs observations au marché et aux
personnes auxquels le produit est destiné.
Le produit sera-t-il utilisé dans un pays autre que celui où il est conçu ?
Pour le savoir, il faut y aller et inclure des natifs dans l’équipe. Ne prenez
pas de raccourci en restant dans votre élément et en discutant avec des
étudiants ou des visiteurs du pays. Ce que vous apprendrez est rarement le
reflet fidèle de la population cible ou de la manière dont le produit proposé
sera utilisé. Il n’y a pas de substitut à l’observation directe et à
l’interaction avec les utilisateurs.
Le premier diamant, qui consiste à trouver le bon problème, nécessite une
compréhension profonde des véritables besoins des personnes. Une fois le
problème défini, pour trouver une solution appropriée, cela nécessite de
nouveau une compréhension approfondie de la population visée, de la
manière dont ces personnes exercent leurs activités, de leurs capacités et
de leur expérience antérieure, ainsi que des problèmes culturels qui
risquent d’apparaître.

Conception vs marketing
La conception et le marketing sont deux parties importantes du groupe de
développement du produit. Ces deux éléments sont complémentaires, mais
ils ont chacun un objectif différent. Le concepteur souhaite savoir de quoi
les gens ont réellement besoin et comment ils vont utiliser le produit. Le
marketing cherche à savoir comment ils vont prendre leur décision
d’achat. Les deux groupes ont donc leur propre méthode d’analyse.
Les concepteurs se servent de méthodes d’observation qualitatives qui
montrent comment les utilisateurs se comportent dans leur environnement.
Ces méthodes sont très chronophages ; par conséquent, l’échantillon
observé est petit.
Le marketing est plus axé sur les clients. Il étudie qui serait susceptible
d’acheter le produit et quels sont les facteurs qui inciteraient à l’achat. Le
marketing utilise traditionnellement des études quantitatives à grande
échelle, faisant largement appel à des groupes de discussion (jusqu’à des
centaines de personnes), des enquêtes et des questionnaires (dizaines de
milliers).
L’avènement d’Internet et la possibilité d’évaluer d’énormes quantités de
données ont donné lieu à de nouvelles méthodes d’analyse de marché. On
appelle cela le big data ou parfois marché analytique. Avec les sites web
populaires, il est possible d’effectuer des tests A/B. Ils consistent à fournir
deux variantes potentielles d’une offre. On propose un ensemble A de
pages web à une fraction de visiteurs sélectionnée au hasard (peut-être
10 %) et une alternative B à un autre groupe de personnes. En quelques
heures, des centaines de milliers d’internautes peuvent avoir été exposés à
chaque série de tests, ce qui montre facilement lequel donne les meilleurs
résultats. En outre, le site web peut capturer une mine d’informations sur
les personnes et leur comportement : âge, revenus, adresses personnelle et
professionnelle, achats antérieurs et autres sites visités. Les vertus de
l’utilisation du big data pour les études de marché sont fréquemment
vantées. Les lacunes sont rarement signalées, sauf en ce qui concerne les
atteintes à la vie privée. Outre ces dernières, le véritable problème c’est
que les résultats n’indiquent en rien les besoins réels des gens, ni leurs
désirs, ni les raisons de leurs activités. En conséquence, ces données
numériques donnent une fausse image de la population. Malgré tout,
l’utilisation du big data et des analyses de marché est séduisante : il n’y a
pas de déplacements, peu de dépenses, des chiffres énormes, des
graphiques parlants et des statistiques impressionnantes. Tout cela est très
persuasif pour l’équipe de direction qui doit décider des nouveaux produits
à développer. Après tout, qu’est-ce qui vous inspirerait confiance ? Des
graphiques colorés, des statistiques et des niveaux d’importance bien
présentés, basés sur des millions d’observations, ou les impressions
subjectives d’une équipe hétéroclite de concepteurs travaillant, dormant et
mangeant dans des villages isolés et des infrastructures médiocres ?
Les différentes méthodes ont des objectifs qui divergent et produisent des
résultats très variés. Les concepteurs se plaignent du fait que les méthodes
utilisées par le marketing ne traduisent pas un comportement réel. Ce que
les gens disent et ce qu’ils font ne correspond ni à leur comportement ni à
leurs désirs. Les spécialistes du marketing se plaignent du fait que, même
si les méthodes des concepteurs fournissent des informations
approfondies, le faible nombre de personnes observées est une source de
préoccupation, alors que les méthodes de marketing traditionnelles
fournissent des informations peu profondes sur un grand nombre de
personnes.
Le débat est inutile. Tous les groupes sont nécessaires. Les études auprès
des clients sont un compromis. Elles donnent une connaissance
approfondie des besoins réels d’un petit groupe de gens, par opposition à
des données d’achat vastes et fiables provenant d’un large éventail de
personnes. Nous avons besoin des deux. Les concepteurs comprennent de
quoi les utilisateurs ont vraiment besoin. Le marketing comprend ce que
les gens achètent réellement. Ce ne sont pas les mêmes choses ; c’est
pourquoi les deux approches sont nécessaires et devraient travailler
ensemble.
Quelles sont les exigences pour un produit réussi ? D’abord, si personne
n’achète le produit, rien d’autre n’a d’importance. La conception du
produit doit prendre en charge tous les facteurs qui poussent les personnes
à effectuer l’achat. Ensuite, une fois que le produit a été acheté et mis en
service, il doit répondre à des besoins réels pour que les utilisateurs
puissent s’en servir, le comprendre et en profiter. Les spécifications de
conception doivent inclure les deux facteurs, le marketing et la conception,
l’achat et l’utilisation.

Génération d’idées
Une fois les exigences de conception définies, l’étape suivante consiste à
trouver des solutions. Ce processus s’appelle génération d’idées ou
idéation.
C’est la partie amusante de la conception, où la créativité est essentielle. Il
existe de nombreuses manières de trouver des idées. Beaucoup utilisent le
brainstorming. Quelle que soit la méthode utilisée, deux règles principales
s’appliquent :
Lancer de nombreuses idées. Il est dangereux de se limiter à une
idée ou deux, trop tôt dans le processus.
Être créatif sans égard aux contraintes. Évitez de critiquer les idées,
que ce soit les vôtres ou celles des autres. Même des idées folles,
souvent clairement fausses, peuvent receler des pistes qui serviront
lors de la sélection de l’idée finale. Évitez le rejet prématuré des idées.
J’ajoute une troisième règle :
Tout remettre en question. J’aime particulièrement les questions
stupides. Une question stupide repose sur des éléments fondamentaux
pour lesquels tout le monde pense que la réponse est évidente.
Cependant, lorsque la question est prise au sérieux, elle s’avère
souvent profonde ; la réponse n’est souvent pas si évidente que cela.
Ce que nous supposons évident est simplement la façon dont les
choses ont toujours été faites, mais maintenant que cela est remis en
question, nous n’en connaissons pas réellement les raisons. Très
souvent, la solution aux problèmes se découvre à travers des questions
stupides, en questionnant l’évidence.

Prototypage
Tester une idée est la seule façon de vraiment savoir si elle est bonne. On
construit un prototype ou une maquette rapide pour chaque solution. Dans
les premières étapes de ce processus, les maquettes seront des esquisses,
des modèles en mousse et en carton, ou des images réalisées avec de
simples outils de dessin. Il m’est arrivé de créer des maquettes avec des
feuilles de calcul, des diaporamas et des croquis sur des morceaux de
papier. Parfois, les idées sont mieux transmises par des dessins, surtout si
vous développez des services ou des systèmes automatisés difficiles à
prototyper.
Un des prototypes les plus populaires s’appelle le magicien d’Oz (Wizard
of Oz), d’après le roman de L. Frank Baum (et du film qui en est tiré). Le
sorcier n’était en réalité qu’une personne ordinaire mais, grâce à de la
fumée et à des miroirs, il paraissait mystérieux et tout-puissant. En
d’autres termes, tout était faux et le sorcier n’avait aucun pouvoir spécial.
La méthode du magicien d’Oz sert pour imiter un système énorme et
puissant bien avant sa construction. Il se montre parfois remarquablement
efficace dès les premières étapes du développement d’un produit. J’ai déjà
utilisé cette méthode pour tester un système de réservation de billets
d’avion conçu par un groupe de chercheurs au centre Palo Alto de Xerox
Corporation. Nous avons fait venir des personnes dans mon laboratoire à
San Diego, une à la fois, et nous les avons installées dans une petite pièce
isolée. Nous leur avons demandé de saisir leurs exigences de voyage sur
un ordinateur. Ils pensaient interagir avec un programme automatisé d’aide
au voyage mais, en fait, un de mes étudiants était assis dans une pièce
adjacente, lisait les questions et saisissait les réponses (recherchant les
vrais horaires de voyages, le cas échéant). Cette simulation nous a
beaucoup appris sur les exigences d’un tel système. Les demandes étaient
très différentes de celles pour lesquelles nous avions conçu le système. Par
exemple, une des personnes testées a demandé un billet aller-retour entre
San Diego et San Francisco. Une fois que le système a déterminé le vol
souhaité pour San Francisco, il a demandé la date de retour prévue. La
personne a répondu qu’elle voulait être rentrée le mardi suivant avant son
premier cours à 9 heures du matin. Nous avons vite compris qu’il n’était
pas suffisant de comprendre les phrases, mais que nous devions également
résoudre les problèmes en utilisant une connaissance approfondie, par
exemple sur les aéroports, les lieux de réunion, les habitudes de
circulation, les retards dans le retrait des bagages, la location de voitures
et, bien sûr, le stationnement. C’est bien plus que ce que notre système
était capable de faire. Notre objectif initial était de comprendre le langage.
Les études ont démontré que l’objectif était trop limité.
Pendant la phase de spécification du problème, le prototypage sert
principalement pour s’assurer que le problème est bien compris. Si la
population cible utilise déjà un outil lié au nouveau produit, cela peut être
considéré comme un prototype. Au cours de la phase de résolution du
problème, les prototypes réels de la solution proposée sont ensuite utilisés.

Test
Rassemblez un petit groupe de personnes correspondant à la population
cible du produit. Demandez-leur d’utiliser les prototypes comme s’ils
s’agissaient des produits finis. Si un appareil est conçu pour être utilisé par
une seule personne, testez-le sur une personne à la fois ; s’il est conçu pour
être utilisé par un groupe, testez sur un groupe. La seule exception à cette
règle est que, même si l’utilisation habituelle ne concerne qu’un seul
individu, il est intéressant de demander à deux personnes de s’en servir
ensemble, l’une exploitant le prototype, l’autre guidant les actions et
interprétant les résultats (à voix haute). Avec ce fonctionnement en
binôme, on amène les personnes à discuter ouvertement et naturellement
de leurs idées, de leurs hypothèses et de leurs frustrations. L’équipe de
conception doit observer, soit en s’asseyant derrière les personnes testées
(pour ne pas les distraire), soit en regardant la vidéo dans une autre pièce
(en laissant la caméra visible et en décrivant la procédure). Les
enregistrements vidéo des tests sont souvent très utiles pour les membres
de l’équipe qui n’étaient pas présents.
Une fois l’étude terminée, cherchez à obtenir des informations détaillées
sur les processus de pensée des gens. Retracez les étapes, en leur rappelant
leurs actions et en les interrogeant. Il est parfois utile de leur montrer les
enregistrements vidéo de leurs activités.
Les opinions varient sur la taille des échantillons à étudier. Mon associé,
Jakob Nielsen, défend depuis longtemps le nombre de cinq personnes,
étudiées individuellement. Ensuite, on analyse les résultats et on affine le
prototype. Généralement, cinq personnes suffisent pour faire des
découvertes majeures. Si vous voulez vraiment conduire des tests sur un
grand échantillon, il est bien plus efficace de procéder par groupes de cinq
individus en améliorant le système à chaque itération, jusqu’à ce que vous
ayez testé tout le monde.
À l’instar du prototypage, les tests sont effectués lors de la phase de
spécification du problème (pour vérifier qu’on le pose bien), puis à
nouveau lors de la phase de résolution (pour s’assurer que la nouvelle
conception répond aux besoins et aux capacités de ceux qui l’utiliseront).

Itérations
Le rôle de l’itération dans la conception centrée utilisateur est de permettre
une amélioration continue. L’objectif est de réaliser des prototypes et des
tests rapides ou, selon les mots de David Kelley, professeur à Stanford et
cofondateur de la société de design IDEO : « échouons fréquemment,
échouons vite ».
Beaucoup de cadres (et de responsables gouvernementaux) ne
comprennent pas vraiment cet aspect du processus de conception. Ils se
demandent pourquoi on voudrait échouer. Ils pensent qu’il suffit de
déterminer les exigences, puis de répondre à ces dernières. Les tests,
pensent-ils, ne sont nécessaires que pour s’assurer que les exigences sont
remplies. C’est cette philosophie qui conduit à de nombreux systèmes
inutilisables. Des tests et des modifications volontaires améliorent les
choses. Les échecs doivent être encouragés. En réalité, ils ne devraient pas
être appelés des échecs mais plutôt considérés comme des expériences
d’apprentissage. Si tout fonctionne parfaitement, il y a peu de choses à
apprendre. L’apprentissage se produit lorsque l’on rencontre des
difficultés.
La partie la plus complexe de la conception reste de répondre aux
exigences. Il faut donc s’assurer que le bon problème est résolu et que la
solution est appropriée. Les exigences abstraites, obtenues en demandant
aux personnes ce dont elles ont besoin, sont invariablement fausses. Les
exigences sont développées en observant les gens dans leur environnement
naturel.
Lorsqu’on demande aux gens de quoi ils ont besoin, ils pensent
principalement aux problèmes quotidiens auxquels ils sont confrontés,
remarquant rarement des problèmes et des besoins plus importants. Ils ne
remettent pas en question les principales méthodes qu’ils utilisent. En
outre, même s’ils expliquent soigneusement comment ils réalisent leurs
tâches et s’assurent ensuite que vous avez bien compris, ils changent
souvent leur propre description lorsque vous les regardez. On leur
demande pourquoi et ils répondent qu’ils doivent le faire différemment
parce que ça doit être un cas particulier. Il s’avère que les cas sont très
souvent particuliers. Tout système qui ne permet pas les cas particuliers
sera un échec.
Répondre aux exigences implique des études et des tests répétés, des
itérations. Observez et étudiez pour déterminer le problème et utilisez les
résultats des tests pour déterminer les parties de la conception qui
fonctionnent et celles qui ne fonctionnent pas. Ensuite, parcourez à
nouveau les quatre processus. Si nécessaire, relancez des recherches sur la
conception, trouvez plus d’idées, développez les prototypes et testez-les.
À chaque cycle, les tests et les observations sont plus ciblés et plus
efficaces, les idées deviennent plus claires, les spécifications sont mieux
définies et les prototypes plus proches du produit final. Après les
premières itérations, il est temps de commencer à converger vers une
solution. Les différentes idées de prototype peuvent être rassemblées en
une seule.
Quand le processus se termine-t-il ? C’est le chef de produit qui en décide.
Il doit fournir la plus haute qualité possible, tout en respectant le
calendrier. Dans le développement de produits, le calendrier et les coûts
sont des contraintes très fortes. Il incombe donc à l’équipe de conception
de répondre à ces exigences tout en parvenant à une conception
acceptable, de haute qualité. Quel que soit le temps alloué, les résultats
finaux ne semblent apparaître que dans les vingtquatre heures précédant
l’échéance.

Conception centrée sur l’activité vs centrée utilisateur


La focalisation intense sur les individus est l’une des caractéristiques de la
conception centrée utilisateur. Elle garantit que les produits répondent aux
besoins réels, qu’ils sont utilisables et compréhensibles. Cependant, que se
passe-t-il si le produit est destiné à des clients du monde entier ? De
nombreux fabricants proposent essentiellement le même produit pour tous.
Bien que les automobiles soient légèrement modifiées pour répondre aux
normes d’un pays, elles sont toutes fondamentalement les mêmes dans le
monde entier. Il en va de même pour les appareils photo, les ordinateurs,
les téléphones, les tablettes, les téléviseurs et les réfrigérateurs. Oui, il
existe des différences régionales, mais assez peu. Même les produits
spécifiquement conçus pour une culture, les cuiseurs de riz par exemple,
sont adoptés par d’autres.
Comment prétendre servir toutes ces personnes très différentes, très
disparates ? La réponse est de se concentrer sur les activités et non pas sur
l’individu. On laisse l’activité définir le produit et sa structure. Le modèle
conceptuel du produit doit être construit autour de celui de l’activité.
Cela fonctionne parce que les activités des gens à travers le monde ont
tendance à être similaires. De plus, bien que les gens ne souhaitent pas
apprendre des systèmes qui semblent avoir des exigences arbitraires et
incompréhensibles, ils sont tout à fait disposés à apprendre ce qui semble
essentiel à l’activité. Est-ce que cela enfreint les principes de la conception
centrée utilisateur ? Pas du tout : on peut le voir comme une amélioration
de cette approche. Après tout, les activités sont faites par des personnes
pour des personnes. Les approches centrées sur l’activité sont des
approches centrées utilisateur bien mieux adaptées aux populations
hétérogènes.
Prenons l’exemple de l’automobile. Tous les véhicules sont pratiquement
identiques dans le monde entier. De nombreuses actions sont nécessaires et
beaucoup d’entre elles n’ont pas de sens en dehors de l’activité et elles
s’ajoutent à la complexité de la conduite et à la lenteur nécessaire pour
devenir un conducteur accompli et qualifié. Il est nécessaire de maîtriser
les pédales, de changer de direction, d’utiliser les clignotants, de contrôler
les phares et de surveiller la route, tout en ayant conscience des
événements se produisant de tous les côtés du véhicule et peut-être en
conversant avec les passagers de la voiture. De plus, il faut surveiller les
indicateurs du tableau de bord, notamment la vitesse, la température de
l’eau, la pression d’huile et le niveau de carburant. Les emplacements des
rétroviseurs requièrent que le regard sorte du champ de la route pendant un
temps considérable.
Les gens apprennent et réussissent à conduire des voitures malgré la
nécessité de maîtriser de nombreuses tâches. Considérant la conception de
la voiture et l’activité de conduite, chaque tâche semble appropriée. Oui, il
est possible d’améliorer les choses. Les transmissions automatiques
éliminent le besoin de l’embrayage. Grâce aux affichages tête haute, les
informations essentielles peuvent être affichées dans l’espace situé devant
le conducteur et aucun mouvement oculaire n’est nécessaire pour les
surveiller (bien que cela détourne l’attention de la route). Un jour, nous
remplacerons les trois rétroviseurs par un affichage vidéo montrant les
objets de tous les côtés de la voiture. Comment pouvons-nous améliorer
les choses ? Par une étude minutieuse des activités qui se déroulent
pendant la conduite.
Soutenez les activités tout en respectant les capacités humaines et les gens
accepteront la conception et apprendront tout ce qui est nécessaire.

La différence entre les tâches et les activités


Je tiens à faire une remarque : il faut bien faire la différence entre une
tâche et une activité. J’insiste sur la nécessité de concevoir pour les
activités, parce que concevoir pour des tâches est généralement trop
restrictif. Une activité est une structure de haut niveau : par exemple, aller
faire les courses. Une tâche est une composante de niveau inférieur : aller
jusqu’au centre commercial, trouver un chariot, utiliser une liste des
courses, etc.
Une activité est un ensemble de tâches rassemblées, mais toutes exécutées
ensemble dans le but d’atteindre un objectif commun de haut niveau. Une
tâche est un ensemble organisé et cohérent d’opérations orientées vers un
objectif unique et de bas niveau. Les produits doivent fournir un support
pour les activités et les différentes tâches impliquées. Des appareils bien
conçus vont regrouper les différentes tâches nécessaires à la prise en
charge d’une activité, les rendant ainsi parfaitement compatibles les unes
avec les autres, en veillant à ce que le travail effectué pour l’une
n’interfère pas avec les exigences d’une autre.
Les activités étant hiérarchisées, une activité de haut niveau (se rendre au
travail) contiendra de nombreuses autres activités de niveaux inférieurs. À
leur tour, ces activités de niveau inférieur sont constituées de tâches, qui
sont finalement exécutées par des opérations fondamentales. Les
psychologues américains Charles Carver et Michael Scheier suggèrent que
les objectifs ont trois niveaux fondamentaux qui contrôlent les activités.
Les buts identitaires (be-goals) se situent au niveau le plus élevé et le plus
abstrait et régissent l’être d’une personne. Ils déterminent pourquoi les
personnes agissent ; ils sont fondamentaux, durables et déterminent
l’image de soi. Le niveau suivant, les buts d’action (do goals), est plus
proche de l’objectif dont je parle dans les sept étapes de l’activité. Les buts
d’action déterminent les plans et les actions à effectuer pour une activité.
Le niveau le plus bas de cette hiérarchie concerne les buts de contrôle
moteur (control motor goals), qui spécifie la manière dont les actions sont
exécutées. On est davantage au niveau des tâches et des opérations que des
activités. Le psychologue allemand Marc Hassenzahl a montré comment
cette analyse à trois niveaux peut être utilisée pour guider le
développement et l’analyse de l’expérience d’une personne (l’expérience
utilisateur, généralement abrégée UX) dans l’interaction avec les produits.
Se concentrer sur les tâches est trop contraignant. Le succès du lecteur de
musique iPod est dû au fait qu’Apple a soutenu toute l’activité d’écoute de
la musique : la découvrir, l’acheter, l’insérer dans le lecteur, développer
des listes de lecture (pouvant être partagées) et écouter les morceaux.
Apple a également permis à d’autres sociétés d’ajouter aux capacités du
système des haut-parleurs externes, des microphones et toutes sortes
d’accessoires. Apple a permis d’envoyer la musique dans toute la maison
pour qu’elle soit écoutée sur les systèmes sonores de ces autres sociétés.
Le succès de ce produit est dû à la combinaison de deux facteurs : d’abord
une conception brillante et ensuite un support pour toute l’activité de
divertissement musical.
Concevez pour les individus et les résultats obtenus seront merveilleux
pour le public cible. En revanche, ils seront en inadéquation pour les
autres personnes. Concevez pour les activités et le résultat sera utilisable
par tout le monde. L’avantage majeur est que, si les exigences de
conception sont cohérentes avec les activités, les personnes toléreront la
complexité et les exigences nécessaires pour apprendre quelque chose de
nouveau.

Conception itérative vs étapes linéaires


Le processus traditionnel de conception est linéaire ; il est parfois appelé
méthode en cascade (waterfall) parce qu’il avance dans une seule direction
et que, une fois les décisions prises, il est difficile, voire impossible, de
faire marche arrière. Il s’oppose à la méthode itérative de la conception
centrée utilisateur, où le processus est circulaire, avec des affinages
continus et encourage à revenir en arrière et à revoir les décisions prises
dès le départ. De nombreux développeurs de logiciels en expérimentent
des variantes comme Scrum et Agile.
Les méthodes linéaires en cascade sont logiques. Il est logique que la
recherche ait lieu avant la conception, la conception avant le
développement de l’ingénierie, l’ingénierie avant la fabrication, etc.
L’itération est logique pour clarifier l’énoncé du problème et les exigences
mais, lorsque les projets sont volumineux et nécessitent un grand nombre
de personnes, de temps et de budget, une itération trop longue serait
terriblement coûteuse. Par ailleurs, les partisans du développement itératif
ont constaté que de nombreuses équipes de projet s’empressent d’élaborer
des exigences qui s’avèrent ensuite défaillantes, entraînant parfois un
gaspillage considérable. De nombreux grands projets ont échoué à cause
d’un coût de plusieurs milliards de dollars.
Les méthodes en cascade les plus utilisées s’appellent les méthodes de
passage d’étapes (stage-gate). Elles ont un ensemble linéaire de phases ou
d’étapes, avec une porte bloquant la transition d’une étape à l’autre. La
porte permet l’évaluation des progrès afin de prendre la décision de passer
à l’étape suivante.
Comme c’est invariablement le cas, on assiste à un débat acharné pour
savoir quelle méthode est la meilleure alors que chacune a des avantages
et des inconvénients. Dans la conception, il est difficile de définir
correctement les spécifications, c’est-à-dire de déterminer si le problème
est résolu. Les méthodes itératives sont conçues pour différer la mise en
place de spécifications rigides, d’abord en divergeant sur un grand nombre
d’exigences possibles ou d’énoncés de problèmes avant la convergence,
puis en divergeant à nouveau sur un grand nombre de solutions
potentielles avant la convergence. Les premiers prototypes doivent être
testés par le biais d’une interaction réelle avec la population cible afin
d’affiner les exigences.
Cependant, la méthode itérative convient aux premières phases de la
conception d’un produit, mais pas aux étapes ultérieures. Elle a également
du mal à adapter ses procédures afin de gérer de grands projets. Il est
extrêmement difficile de déployer avec succès des projets qui impliquent
des centaines, voire des milliers de développeurs, durent des années et
coûtent des millions, voire des milliards de dollars. Par grands projets, on
fait référence à des biens de consommation complexes ou de gros travaux
de programmation, tels que les automobiles, les systèmes d’exploitation
pour ordinateurs, les tablettes, les téléphones, les traitements de texte et les
tableurs.
L’utilisation d’étapes pour les décisions permet au management de
contrôler le processus beaucoup plus efficacement qu’avec les méthodes
itératives. Cependant, cela reste une méthode lourde. L’analyse à chacune
des étapes nécessite parfois un temps considérable, que ce soit pour sa
préparation ou pour la prise des décisions. Des semaines risquent d’être
perdues en raison de la difficulté de réunir tous les cadres supérieurs des
différentes divisions de la société qui souhaitent avoir leur mot à dire.
De nombreux groupes expérimentent différentes manières de gérer le
processus de développement. Les meilleures méthodes combinent les
avantages des itérations et des révisions par étapes. L’itération se produit à
l’intérieur des passages, entre les étapes. L’objectif est d’avoir le meilleur
des deux mondes : une expérimentation itérative pour préciser le problème
et la solution, ainsi que des présentations aux gestionnaires à chaque étape.
L’astuce consiste à retarder la spécification précise des exigences du
produit jusqu’à ce que des tests itératifs avec des prototypes rapidement
réalisés aient été effectués. Il faut en même temps conserver un contrôle
strict sur les délais, les budgets et la qualité. Contrairement à ce qu’on
pourrait croire, même dans le cas de grands projets (par exemple, les
grands systèmes de transport), il est possible de construire des prototypes.
Ces derniers seront des objets mis à l’échelle, construits par des modélistes
ou des méthodes d’impression 3D. Même des dessins bien rendus, des
vidéos de dessins animés ou de simples croquis animés ont leur utilité. La
réalité virtuelle permet aux futurs utilisateurs de s’imaginer utiliser le
produit final et, dans le cas d’un bâtiment, d’envisager d’y vivre ou d’y
travailler. Toutes ces méthodes fournissent un feedback rapide en
économisant du temps et de l’argent.
La partie la plus difficile dans le développement de produits complexes
reste pour les gestionnaires : il faut organiser, communiquer et
synchroniser les nombreuses personnes, les groupes et les divisions
nécessaires à sa réalisation. C’est particulièrement difficile avec les grands
projets, non seulement en raison du nombre d’intervenants, mais aussi
parce que l’horizon à long terme des projets introduit de nouvelles
contraintes. Au cours des nombreuses années nécessaires pour passer de la
formulation du projet à son achèvement, les exigences et les technologies
vont probablement évoluer, rendant certains travaux proposés inutiles et
obsolètes. Les personnes qui utiliseront les résultats et celles impliquées
dans la réalisation du projet pourraient aussi très bien changer.
Certaines personnes vont quitter le projet, quelle qu’en soit la raison. Il
faut beaucoup de temps pour trouver des remplaçants et les amener au
niveau de connaissances et de compétences requis. Parfois, cela n’est
même pas possible parce que les connaissances critiques sur les décisions
et les méthodes de projet sont sous la forme de connaissances implicites,
c’est-à-dire dans la tête des employés. Lorsque les travailleurs partent, leur
connaissance implicite les accompagne. La gestion de grands projets est
un véritable défi.

Qu’est-ce que je viens de dire ? Cela ne fonctionne pas


vraiment de cette façon
Les sections précédentes décrivent la CCU pour le développement de
produits. Cependant, il existe une vieille blague au sujet de la différence
entre la théorie et la pratique.
En théorie, il n’y a pas de différence entre la théorie et la pratique.
En pratique, il y en a une.
Le processus CCU décrit ce qui est idéal. Malheureusement, la réalité de
la vie, dans une entreprise, oblige souvent les gens à se comporter
différemment de ce qui est idéal. Un concepteur, désenchanté, d’une
entreprise de consommation m’a dit que, même si sa compagnie indique
croire dans l’expérience utilisateur et suivre la conception centrée
utilisateur, en réalité il n’y a que deux facteurs directeurs pour les
nouveaux produits :
ajouter des fonctionnalités pour être à la hauteur de la concurrence ;
ajouter des fonctionnalités grâce aux nouvelles technologies.
Il demandait en boucle si l’entreprise se souciait des besoins de l’humain
et répondait lui-même que non.
C’est une situation typique ; il s’agit des pressions exercées par le marché
auxquelles s’ajoute une politique axée sur l’ingénierie des produits et
augmentant les fonctionnalités, la complexité et la confusion. Même les
entreprises cherchant à répondre aux besoins de l’humain sont confrontées
aux graves défis du processus de développement de produits, en particulier
ceux du manque de temps et d’argent. En fait, après avoir vu de nombreux
produits rater ces défis, je propose une « loi de développement de
produit ».

La loi Don Norman de développement de


produit
Le jour où le processus de développement d’un produit est lancé, il est en
retard et dépasse le budget.
Les lancements de produits sont toujours accompagnés de délais et de
budgets. Généralement, le calendrier est dicté par des considérations
extérieures, notamment les vacances, les possibilités d’annonce de
produits et même les calendriers d’usine. Un produit sur lequel j’ai
travaillé s’est vu imposer un échéancier irréaliste de quatre semaines. En
effet, l’usine en Espagne fermait pour les vacances et la date de
réouverture ne permettait pas de sortir le produit à temps pour les achats
de Noël.
De plus, le développement d’un produit est long, même dans la phase de
lancement. Notamment, il faut tout d’abord recruter puis transférer les
personnels de leurs postes actuels. Tout cela prend du temps et est
rarement programmé.
Imaginons une équipe à laquelle on a dit qu’elle va travailler sur un
nouveau projet. « Super » dit l’équipe, « nous allons immédiatement
envoyer nos concepteurs étudier le public cible ». Le chef de projet
demande le temps que cela va prendre. « Oh, on peut être rapide : une
semaine ou deux pour effectuer la mise en place et ensuite deux semaines
pour l’étude. Après, sans doute une semaine pour traiter les documents,
donc quatre ou cinq semaines ». « Désolé », dit le chef de projet, « nous
n’avons pas les moyens d’envoyer une équipe sur le terrain pendant deux
semaines ». Les concepteurs répondent que c’est indispensable pour
comprendre le client. Le chef de projet reconnaît qu’ils ont raison mais
qu’ils sont déjà en retard et qu’il n’est pas possible de perdre plus de
temps et d’argent. Il continue en disant que la prochaine fois ils feront
mieux. Toutefois, la prochaine fois, les mêmes arguments seront ressortis :
les délais et le budget sont dépassés.
Le développement de produit implique un mixage de plusieurs disciplines,
des concepteurs aux ingénieurs et aux programmeurs, en passant par la
fabrication, l’emballage, la vente, le marketing et le service (et plus
encore). Le produit doit séduire la clientèle actuelle et s’étendre aux
nouveaux clients. Les brevets créent un champ de mines pour les
concepteurs et les ingénieurs car, aujourd’hui, il est presque impossible de
concevoir ou de construire quoi que ce soit qui n’entre pas en conflit avec
des brevets existants. Il faut donc trouver une nouvelle conception pour se
frayer un chemin à travers les mines.
Chacune des disciplines possède sa propre vision du produit, chacune a
des exigences différentes mais spécifiques à satisfaire, souvent
contradictoires ou incompatibles entre elles. Dans de nombreuses
entreprises, cependant, les disciplines travaillent chacune de leur côté. La
conception passe ses résultats à l’ingénierie et à la programmation, qui
modifient les exigences pour répondre à leurs besoins. Ils transmettent
ensuite leurs résultats à la fabrication, qui procède à des modifications,
puis aux demandes de marketing. C’est le bazar !
Quelle est la solution ?
Pour gérer le manque de temps afin de mener de bonnes recherches en
conception, il faut séparer le processus de l’équipe. On demande aux
concepteurs d’être toujours présents sur le terrain, toujours en train
d’étudier les produits et les clients potentiels. Ensuite, lors du lancement
de l’équipe produit, ils peuvent dire qu’ils ont déjà examiné le cas et ils
donnent leurs recommandations. Le même principe s’applique aux
analyses de marché.
Le choc des disciplines peut être résolu à l’aide d’équipes
pluridisciplinaires dont les participants apprennent à comprendre et à
respecter les exigences des uns et des autres. Les bonnes équipes de
développement de produit travaillent en groupes harmonieux, avec des
représentants de toutes les disciplines concernées présents à tout moment.
Si tous les points de vue et les exigences sont compris par tous les
participants, il est souvent possible de trouver des solutions créatives
répondant à la plupart des problèmes. Notez que travailler avec ces
équipes est également un défi. Tout le monde parle un langage technique
différent. Chaque discipline pense qu’elle est la partie la plus importante
du processus et, très souvent, que les autres émettent des requêtes
insensées. Il faut un chef de produit qualifié pour créer une compréhension
et un respect mutuels. C’est possible.
Les techniques de conception décrites par le double-diamant et le
processus de conception centré utilisateur sont un idéal. Même si, dans la
pratique, il est rarement atteint, il est toujours bon de viser cet idéal.
Toutefois, il faut rester réaliste quant aux contraintes de temps et
budgétaires. Celles-ci sont surmontables, mais uniquement si elles sont
reconnues et intégrées au processus. Les équipes pluridisciplinaires
améliorent la communication et la collaboration, ce qui conduit souvent à
gagner du temps et de l’argent.
Le défi de la conception
Une bonne conception est difficile à réaliser. C’est pourquoi il s’agit d’une
profession si riche, si engageante et dont les résultats peuvent être
puissants et efficaces. Les concepteurs sont invités à comprendre comment
gérer des choses complexes, notamment l’interaction des technologies et
des personnes. Les bons concepteurs apprennent vite. Aujourd’hui, on leur
demande de concevoir une caméra et, demain, ce sera un système de
transport ou la structure organisationnelle d’une entreprise. Comment
travailler dans autant de domaines différents ? C’est parce que les
principes fondamentaux de la conception pour l’humain sont les mêmes
dans tous les domaines.
Les concepteurs ne sont qu’un maillon de la chaîne complexe des
processus et des différents métiers impliqués dans l’élaboration d’un
produit. Bien que le thème de ce livre soit l’importance de satisfaire les
besoins des utilisateurs finaux du produit, d’autres aspects sont
importants : son efficacité technique, qui inclut ses capacités, sa fiabilité,
sa facilité d’entretien, son coût et sa viabilité financière, qui est
généralement synonyme de rentabilité. Est-ce que les gens vont l’acheter ?
Chacun de ces aspects pose son propre ensemble d’exigences, parfois
opposées à celles des autres aspects. Le calendrier et le budget sont
souvent les deux contraintes les plus sévères.
Les concepteurs s’efforcent de déterminer les besoins réels des gens et de
les satisfaire, alors que le marketing cherche à déterminer ce que les gens
achèteront réellement. Ce dont les gens ont besoin et ce qu’ils achètent
sont deux choses différentes, mais les deux sont importantes. Peu importe
le produit si personne ne l’achète. De même, si les produits d’une
entreprise ne sont pas rentables, elle risque de fermer ses portes.
Dans une organisation bien gérée, des membres de l’équipe issus de tous
les aspects du cycle du produit se réunissent pour partager leurs exigences
et travailler harmonieusement ou au moins avec des compromis
acceptables. Dans les entreprises dysfonctionnelles, chaque équipe
travaille de manière isolée, se disputant souvent avec les autres. Un bon
produit nécessite bien plus que de bonnes compétences techniques : une
organisation harmonieuse est indispensable.
Le processus de conception doit tenir compte de nombreuses contraintes,
que je détaille dans les sections suivantes.

Les produits ont des besoins conflictuels


Les concepteurs doivent satisfaire leurs clients, qui ne sont pas toujours les
utilisateurs finaux. Prenons par exemple les appareils ménagers tels que
cuisinière, réfrigérateur, lave-vaisselle, lave-linge, sèche-linge et même
robinets et thermostats.
Ils sont souvent achetés par les promoteurs immobiliers ou les
propriétaires. Les services d’achat prennent des décisions pour les grandes
entreprises, les propriétaires ou les gestionnaires. Dans tous ces cas,
l’acheteur s’intéresse probablement principalement au prix, peut-être à la
taille ou à l’aspect, mais certainement pas à la facilité d’utilisation. Une
fois les appareils installés, l’acheteur s’en désintéresse. Le fabricant doit
répondre aux exigences de ces décideurs, car ce sont eux qui achètent
réellement le produit. Oui, les besoins des utilisateurs éventuels sont
importants, mais pour l’entreprise, ils semblent au second plan.
Dans certains cas, le coût domine. Supposons, par exemple, que vous
faites partie d’une équipe de conception de photocopieurs. Dans les
grandes entreprises, ces appareils sont achetés par le centre d’impression
et de duplication, puis répartis entre les différents services. Les copieurs
sont achetés après qu’un appel d’offres officiel a été lancé auprès des
fabricants et des vendeurs. La sélection est presque toujours basée sur le
prix ainsi qu’une liste des fonctionnalités requises. La convivialité, les
frais de formation et l’entretien ne sont pas considérés. Il n’y a pas
d’exigences concernant la compréhensibilité ou facilité d’utilisation du
produit, même si, finalement, ces aspects du produit risquent de coûter très
cher à l’entreprise, en perte de temps, en besoins accrus d’assistance, de
formation et même d’embauche du personnel, sans compter le moral de
l’équipe et la baisse de productivité.
L’accent mis sur le prix de vente est l’une des raisons pour lesquelles nous
avons des machines à copier et des systèmes téléphoniques inutilisables
sur nos lieux de travail. Si les gens se plaignaient suffisamment, la facilité
d’utilisation deviendrait une exigence dans les spécifications d’achat et
reviendrait aux concepteurs. Malheureusement, sans ce retour, les
concepteurs doivent souvent concevoir les produits les moins chers
possible, car ce sont ceux qui se vendent. Les concepteurs doivent
comprendre leurs clients et, dans de nombreux cas, il s’agit des personnes
qui achètent et non de celles qui utilisent réellement ; retenez-le.
Pour rendre les choses encore plus difficiles, un autre ensemble de
personnes doit être pris en compte. On y trouve les ingénieurs, les
développeurs, les fabricants, l’assistance, les ventes et le marketing. Ils
doivent concrétiser les idées de l’équipe de conception, puis vendre le
produit et en assurer le service client, après son expédition. Ces groupes
sont également des utilisateurs, pas du produit lui-même, mais du travail
de l’équipe de conception. Les concepteurs sont habitués à répondre aux
besoins des utilisateurs finaux, mais ils prennent rarement en compte ceux
des autres groupes impliqués dans le processus du produit. Or, si ses
besoins ne sont pas pris en compte, chaque nouveau groupe va apporter
des changements. Toutefois, les modifications mineures, après coup,
affaiblissent invariablement la cohésion du produit. Si toutes ces exigences
étaient connues au début du processus, une solution beaucoup plus
satisfaisante aurait pu être imaginée.
Le meilleur moyen de remédier à cette situation est de réunir des
représentants de toutes les divisions tout au long du processus de
conception, à commencer par la décision de lancer le produit, puis tout au
long de l’expédition aux clients, des réparations et des retours. De cette
façon, toutes les préoccupations sont entendues dès qu’elles sont
découvertes. Une équipe pluridisciplinaire doit superviser l’ensemble du
processus de conception, d’ingénierie et de fabrication, afin de partager
toutes les préoccupations et tous les problèmes du département dès le
premier jour. En cas de conflit, le groupe peut déterminer la solution la
plus satisfaisante. Malheureusement, rares sont les entreprises organisées
de la sorte.
La conception est une activité complexe. Il est nécessaire qu’elle prenne
en compte le marketing, le support client, l’ingénierie, la fabrication, les
coûts et les délais. C’est pour cela que c’est un véritable défi. C’est aussi
pour cela que c’est amusant et gratifiant lorsque tout le monde travaille en
équipe pour créer un excellent produit.

Conception pour des personnes spéciales


La personne moyenne n’existe pas et c’est un problème pour le concepteur
qui doit généralement proposer un unique modèle pour tout le monde.
Pour une chaise de bureau, par exemple, le concepteur consultera des
tableaux indiquant les moyennes pour la portée des bras et la hauteur
d’assise, pour connaître la profondeur d’assise d’une personne moyenne et
la place nécessaire pour les hanches, les genoux et les coudes. Cela
s’appelle de l’anthropométrie physique. Avec ces données, le concepteur
essaiera de répondre aux exigences de taille pour presque tout le monde,
par exemple pour le 90e, le 95e, voire le 99e centile. Supposons que le
produit soit conçu pour prendre en charge le 95e centile, c’est-à-dire pour
tout le monde sauf les 5 % de personnes plus petites ou plus grandes. Ces
5 % représentent beaucoup de monde. Les États-Unis comptent environ
300 millions d’habitants, donc 5 % représentent 15 millions d’individus.
Même si la conception vise le 99e centile, il reste 3 millions de personnes.
Et ce n’est que pour les États-Unis ; le monde compte 7 milliards
d’habitants. En concevant pour le 99e centile du monde, 70 millions de
personnes sont laissées pour compte.
Certains problèmes ne se règlent pas avec des ajustements et des
moyennes. Qu’obtenez-vous par exemple si vous essayez de moyenner
gauchers et droitiers ? Il est parfois impossible de créer un produit qui
convienne à tout le monde. Il est donc essentiel d’en créer différentes
versions. Après tout, nous n’irions pas dans un magasin qui ne vendrait
que des vêtements d’une taille et d’un seul type. Nous nous attendons à
des vêtements variés (sans forcément couvrir toutes les activités) et en
plusieurs tailles (mais pas forcément pour les extrêmes). Nous voulons une
grande variété d’appareils de cuisson, d’automobiles et d’outils afin de
pouvoir sélectionner ceux qui correspondent exactement à nos exigences.
Un appareil ne peut tout simplement pas correspondre à tout le monde.
Même des outils aussi simples que les crayons doivent être conçus
différemment pour différentes activités et différents types de personnes.
Pensez aux problèmes particuliers des personnes âgées, des handicapés,
des nonvoyants, des malentendants, des personnes très petites ou très
grandes ou parlant une autre langue… Concevez pour des intérêts et des
niveaux de compétence variés. Ne soyez pas pris au piège de stéréotypes
trop généralistes et inexacts.
Le problème de la stigmatisation
« Je ne veux pas aller dans un établissement de soins et être avec toutes
ces personnes âgées. »
Commentaire d’un homme de 95 ans.
De nombreux appareils conçus spécifiquement pour aider des personnes
avec des difficultés particulières ne convainquent pas. Même s’ils sont
bien conçus et résolvent le problème, ils sont rejetés par les utilisateurs
auxquels ils sont destinés. En fait, les gens répugnent généralement à
montrer leurs infirmités et même à les admettre, y compris à eux-mêmes.
Lorsque Sam Farber a voulu développer un ensemble d’outils ménagers
que son épouse arthritique pourrait utiliser, il a travaillé dur pour trouver
une solution qui soit bénéfique pour tout le monde. Le résultat a été une
série d’outils qui ont révolutionné ce domaine. Par exemple, les épluche-
légumes traditionnels étaient des outils en métal simples et peu coûteux,
souvent de la forme illustrée à gauche dans la figure 6-3. Ils étaient
difficiles à utiliser, douloureux à tenir et peu efficaces, mais tout le monde
pensait que c’était de cette façon qu’ils devaient être.
Après de nombreuses recherches, Farber a mis au point l’éplucheur illustré
à droite dans la figure 6-3 et a créé une société, OXO, pour le fabriquer et
le distribuer. Bien que l’ustensile ait été conçu pour une personne souffrant
d’arthrite, il a été annoncé comme un meilleur éplucheur pour tout le
monde, ce qu’il était. Même si sa conception coûtait plus cher que
l’éplucheur ordinaire, son succès a été tel que de nombreuses entreprises
proposent aujourd’hui des variantes de ce modèle, à tel point que vous
trouverez peut-être difficile de voir l’éplucheur OXO comme un outil
révolutionnaire. Le design est devenu un thème majeur, même pour des
outils simples tels que les éplucheurs, comme l’a démontré celui au centre
de la figure 6-3.
Figure 6–3 Trois épluche-légumes. L’éplucheur en métal traditionnel est illustré à
gauche : peu coûteux, mais inconfortable. L’éplucheur OXO qui a révolutionné
l’industrie est illustré à droite. Le résultat de cette révolution est présenté au centre, un
éplucheur de la société suisse Kuhn Rikon : coloré et confortable.

Voyons les deux particularités de l’éplucheur OXO : le coût et la


conception pour une personne handicapée. L’éplucheur d’origine était très
bon marché ; un nouvel ustensile plusieurs fois plus cher que lui reste
toujours bon marché. En ce qui concerne la conception spéciale pour les
personnes souffrant d’arthrite, il n’a jamais été fait mention de ces vertus.
L’entreprise a fait le bon choix et a fait savoir que c’était un meilleur
produit pour tout le monde. Quant aux gens qui avaient besoin de la
meilleure poignée, le bouche-à-oreille a fait son travail. Aujourd’hui, de
nombreuses entreprises ont suivi la voie de la société OXO, en produisant
des éplucheurs extrêmement efficaces, confortables et colorés.
Utiliseriez-vous un déambulateur, un fauteuil roulant, des béquilles ou une
canne ? Beaucoup de gens les évitent, même s’ils en ont besoin, à cause de
l’image négative que ces appareils projettent. Il s’agit de la stigmatisation.
Il y a des années, la canne était à la mode ; les gens qui n’en avaient pas
besoin l’utilisaient de toute façon, la tournant, la montrant du doigt,
cachant dans la poignée de l’eau-de-vie ou du whisky, des couteaux ou des
armes à feu. Pour s’en convaincre, il suffit de regarder n’importe quel film
décrivant Londres au XIXe siècle. Pourquoi les appareils destinés à ceux
qui en ont besoin ne sont-ils pas aussi sophistiqués et à la mode
aujourd’hui ?
De tous les dispositifs destinés à aider les personnes âgées, les plus boudés
sont peut-être les déambulateurs. Pour la plupart, ces appareils sont laids et
semblent crier l’infirmité au monde entier. Il serait intéressant de les
transformer en produits dont on peut être fier, en accessoire de mode.
Cette direction a été prise avec certains appareils médicaux. Certaines
entreprises fabriquent des prothèses auditives et des lunettes pour enfants
et adolescents avec des couleurs et des styles spéciaux qui plaisent à ces
groupes d’âge.
Ceux d’entre vous qui sont jeunes, ne souriez pas. Les handicaps
physiques peuvent commencer de bonne heure, dans la trentaine. Pour la
plupart, ce sont les yeux qui ne savent plus s’ajuster à toutes les distances.
Il est donc nécessaire de compenser, qu’il s’agisse de lunettes de lecture,
de lunettes à double foyer, de lentilles cornéennes spéciales ou même de
corrections chirurgicales.
Beaucoup de personnes de plus de quatre-vingts ans sont encore en bonne
forme, physiquement et mentalement. De plus, la sagesse accumulée au
cours des années les conduit à être plus performants dans de nombreuses
tâches. Cependant, la force physique et l’agilité diminuent, le temps de
réaction ralentit. Il y a des déficiences visuelles et auditives et la capacité
de porter son attention sur plusieurs choses diminue ; il devient difficile de
passer rapidement d’une tâche à une autre.
Bien que les capacités physiques diminuent avec l’âge, de nombreuses
capacités mentales continuent de s’améliorer, en particulier celles qui
reposent sur une accumulation d’expériences, une réflexion en profondeur
et des connaissances améliorées. Les jeunes sont plus agiles, plus disposés
à expérimenter et à prendre des risques. Les personnes âgées ont plus de
connaissances et de sagesse. Le monde profite de la mixité et il en va de
même avec les équipes de conception.
La conception pour les personnes ayant des besoins particuliers est
souvent appelée conception inclusive ou universelle. Ces noms
conviennent, car il est fréquent que tout le monde en profite. Agrandissez
le lettrage avec du texte à contraste élevé pour que tout le monde puisse
mieux le lire. Sous une lumière tamisée, même les personnes avec une
bonne vue tireront parti de ces caractères. Rendez les choses ajustables et
vous constaterez que plus de gens les utilisent. Rappelez-vous le raccourci
avec le soi-disant message d’erreur (figure 4–6) que j’utilise
habituellement pour quitter un programme car c’est plus facile qu’avec la
méthode dite correcte ; comme lui, les fonctions spéciales conçues pour
les personnes ayant des besoins spéciaux se révèlent souvent utiles à tout
le monde.
La flexibilité est la meilleure solution face au problème de la conception
pour tous. Il faut être flexible avec la taille des images sur les écrans
d’ordinateur, avec la taille, la hauteur et les angles des tables et des
chaises. Il faut permettre aux personnes de régler leurs propres sièges,
leurs tables et leurs appareils de travail. Laissez-les régler la luminosité, la
taille de la police et le contraste. En ce qui concerne les trajets, la
flexibilité pourrait signifier qu’il existe des itinéraires alternatifs avec des
limites de vitesse différentes. Les solutions fixes ne seront pas adoptées
par certaines personnes. La flexibilité offre au moins une chance à ceux
qui ont des besoins différents.

La complexité est bonne, c’est la confusion qui est


mauvaise
Au quotidien, la cuisine est complexe. Il existe de nombreux ustensiles
pour servir et manger. La cuisine typique contient toutes sortes
d’ustensiles de coupe ou de préparation et d’appareils de cuisson. La
meilleure façon de comprendre la complexité, c’est d’essayer de cuisiner
dans une cuisine inconnue. Même les excellents cuisiniers ont du mal à
travailler dans un nouvel environnement.
La cuisine de quelqu’un d’autre semble compliquée et déroutante, mais
pas sa propre cuisine. On peut probablement en dire autant de chaque
pièce de la maison. Notez que ce sentiment de confusion est vraiment celui
de la connaissance. Ma cuisine semble déroutante pour vous, mais pas
pour moi ; votre cuisine l’est pour moi, mais pas pour vous. Donc, la
confusion ne se trouve pas dans la cuisine elle-même, mais dans l’esprit.
On se demande pourquoi les choses ne pourraient pas être simplifiées. Eh
bien, l’une des raisons c’est que la vie est complexe, de même que les
tâches que nous rencontrons. Nos outils doivent correspondre aux tâches.
Cela me tient tellement à cœur que j’ai écrit un livre entier sur le sujet,
Living with complexity (vivre avec la complexité), dans lequel je soutenais
que la complexité est essentielle, mais que c’est la confusion qui n’est pas
souhaitable. Il faut faire une distinction entre complexe, ce que nous
devons faire correspondre aux activités auxquelles nous participons, et
compliqué qui signifie déroutant. Ici, les compétences du concepteur
entrent en jeu pour éviter la confusion.
Pour maîtriser la complexité, le principe le plus important est de fournir un
bon modèle conceptuel. Nous avons longuement couvert ce sujet dans cet
ouvrage. Revenons à la complexité apparente de la cuisine. Les personnes
qui l’utilisent comprennent pourquoi chaque élément est stocké à l’endroit
où il se trouve. En effet, il y a généralement une structure, contrairement
parfois aux apparences. Même lorsque la raison est qu’un objet est trop
grand pour rentrer dans le tiroir approprié et qu’on ne savait pas où le
mettre, c’est suffisant pour donner une structure et une compréhension à la
personne qui a stocké l’ustensile. Les choses complexes ne sont plus
compliquées une fois qu’elles sont comprises.

Normalisation et technologie
Si nous examinons les progrès réalisés dans tous les domaines
technologiques au fil du temps, nous constatons que certaines
améliorations découlent naturellement de la technologie elle-même et
d’autres proviennent de la normalisation. L’histoire de l’automobile en est
un bon exemple. Les premières voitures ont été très difficiles à utiliser. Il
fallait de la force et des compétences dépassant les capacités d’un grand
nombre de personnes. Certains problèmes ont été résolus grâce à
l’automatisation : le starter, l’avance à l’allumage et le démarreur. D’autres
aspects de l’automobile et de sa conduite ont été normalisés grâce au long
processus des comités de normalisation internationaux :
le côté de la route où on conduit (constant dans un pays, mais pas
identique partout dans le monde) ;
le côté de la voiture où s’assoit le conducteur (dépendant du côté de la
route où la voiture roule) ;
l’emplacement des composants essentiels : volant, frein, embrayage et
accélérateur (identiques quel que soit le côté de la conduite).
La normalisation est une sorte de contrainte culturelle. Une fois que vous
avez appris à conduire une voiture, vous savez conduire n’importe quelle
voiture, n’importe où dans le monde. La normalisation constitue une
avancée majeure en matière de convivialité.

Établir des normes


J’ai suffisamment d’amis dans les comités de normalisation nationaux et
internationaux pour comprendre que le processus de mise en place d’une
norme internationalement acceptée est laborieux. Même lorsque toutes les
parties s’accordent sur les avantages de la normalisation, la sélection des
normes devient une question longue et politisée. Ce qui ne pose pas trop
de difficultés à une petite entreprise est beaucoup plus difficile pour un
organisme industriel, national ou international. Il existe même une
procédure normalisée pour l’établissement de normes.
Plusieurs organisations nationales et internationales se consacrent à ce
travail. Lorsqu’une nouvelle norme est proposée, elle doit évoluer dans la
hiérarchie organisationnelle. Chaque étape est complexe car, s’il y a trois
façons de faire quelque chose, il y a de forts risques pour que chacune
d’elles soit fortement défendue. À cela s’ajoutent des personnes qui diront
qu’il est trop tôt pour normaliser.
Chaque proposition est débattue à la réunion du comité de normalisation
où elle est présentée, puis rapportée à l’organisation parrainant où les
objections et les contre-objections sont collectées. Ensuite, le comité des
normes se réunit à nouveau pour discuter des objections. Et encore et
encore et encore. Toute entreprise qui commercialise déjà un produit
conforme à la norme proposée disposera d’un énorme avantage
économique et les débats sont donc souvent influencés autant par la
situation économique et politique des problèmes que par la notion
technologique elle-même. Il est quasiment certain que le processus durera
au moins cinq ans.
La norme qui en résulte est généralement un compromis entre les
différentes positions en concurrence. Parfois, la solution consiste à
s’accorder sur plusieurs normes incompatibles. En témoigne l’existence
d’unités métriques et anglaises ou d’automobiles conduites à gauche et à
droite. Il existe plusieurs normes internationales pour les tensions et les
fréquences de l’électricité, ainsi que plusieurs types de fiches et de prises
électriques qui ne sont pas interchangeables.

Illustration de la nécessité d’une norme


Avec toutes ces difficultés et avec les progrès continus de la technologie,
les normes sont vraiment nécessaires. Par exemple, une horloge standard
est normalisée. Réfléchissez à la difficulté que vous auriez à dire l’heure
avec une horloge où les aiguilles tournent dans le sens antihoraire.
Quelques-unes existent, principalement pour être humoristiques.
Lorsqu’une horloge viole véritablement les normes, il est difficile de
déterminer quelle heure est affichée. Celle de la figure 6-4 suit la même
logique que les horloges conventionnelles, mais les aiguilles tournent dans
le sens inverse (antihoraire) et l’emplacement du 12 a été déplacé. Cela
nous dérange parce que nous avons normalisé un schéma différent, sur la
définition même du terme « sens horaire ». Sans une telle normalisation, la
lecture de l’horloge serait plus difficile car il faudrait systématiquement
comprendre le mapping.
Figure 6–4 L’horloge non standard. Cet instrument est tout aussi logique que l’horloge
standard, mais les aiguilles se déplacent dans la direction opposée et le 12 n’est pas la
place habituelle. Pourquoi est-il si difficile de lire l’heure ? Quelle est l’heure affichée ?
7h11, bien entendu.

Une norme trop longue à venir, la technologie l’écrase


J’ai moi-même participé à la toute fin d’un processus extrêmement long et
complexe d’établissement de normes américaines pour la télévision haute
définition. Dans les années 1970, les Japonais ont mis au point un système
de télévision national offrant une résolution beaucoup plus élevée que les
normes en vigueur qu’ils appelaient télévision à haute définition.
En 1995, deux décennies plus tard, l’industrie de la télévision aux États-
Unis a proposé son propre standard de télévision haute définition (HDTV)
à la Federal Communications Commission (FCC). Cependant, l’industrie
informatique a souligné que les propositions n’étaient pas compatibles
avec la manière dont les ordinateurs affichaient les images. La FCC s’est
donc opposée aux normes proposées. Apple a mobilisé d’autres membres
de l’industrie et, en tant que vice-président des technologies de pointe, j’ai
été choisi pour en être le porte-parole. L’industrie de la télévision a
proposé une grande variété de formats autorisés, y compris ceux avec des
pixels rectangulaires et un balayage entrelacé. En raison des limitations
techniques des années 1990, il a été suggéré que l’image de la plus haute
qualité comporte 1 080 lignes entrelacées (1080i). Nous ne voulions que
du balayage progressif ; nous avons donc insisté sur 720 lignes affichées
progressivement (720p), affirmant que la nature progressive du balayage
compensait le moins grand nombre de lignes.
La bataille était rude. La FCC a demandé à toutes les parties en
concurrence de s’enfermer dans une pièce et de ne pas sortir avant d’avoir
trouvé un accord. C’est pourquoi j’ai passé de nombreuses heures dans les
bureaux des avocats. Nous nous sommes retrouvés avec un accord fou
reconnaissant de multiples variations de la norme, avec des résolutions de
480i et 480p (définition standard), 720p et 1080i (haute définition) et deux
ratios largeur-hauteur différents pour les écrans, l’ancienne norme 4:3
(=1,3) et la nouvelle norme 16:9 (=1,8). De plus, un grand nombre de
fréquences d’image (combien de fois l’image est transmise par seconde)
ont été prises en charge. Oui, c’était un standard, ou plus exactement un
grand nombre de standards. En fait, l’une des méthodes de transmission
autorisées consistait à utiliser n’importe quelle méthode (dans la mesure
où elle comportait ses propres spécifications avec le signal). C’était un
gâchis, mais nous sommes parvenus à un accord. Après l’officialisation de
la norme en 1996, il a fallu environ dix ans de plus pour que la TVHD soit
acceptée, aidée enfin par une nouvelle génération d’écrans de télévision
grands, minces et peu coûteux. L’ensemble du processus a duré environ
trente-cinq ans à compter des premières émissions diffusées par les
Japonais.
Cela valait-il la peine de se battre ? Oui et non. Au cours des trente-cinq
années qu’il a fallu pour atteindre la norme, la technologie a continué
d’évoluer, de sorte que le standard utilisé était bien supérieur à la norme
qui avait été adoptée des années auparavant. De plus, la TVHD
d’aujourd’hui représente une énorme amélioration par rapport à ce que
nous avions. La minutie des détails qui étaient au centre de la lutte entre
les sociétés d’informatique et de télévision était ridicule. Mes experts
techniques ont constamment essayé de me démontrer la supériorité des
images 720p sur 1080i, mais il m’a fallu des heures de visionnage de
scènes spéciales sous la conduite d’un expert pour voir les défauts des
images entrelacées (les différences n’apparaissent qu’avec des images
animées complexes). Alors pourquoi s’en souciait-on ?
Les écrans de télévision et les techniques de compression se sont tellement
améliorés que l’entrelacement n’est plus nécessaire. Les images en 1080p,
considérées jadis comme impossibles, sont maintenant monnaie courante.
Des algorithmes sophistiqués et des processeurs à grande vitesse
transforment un standard en un autre. Même les pixels rectangulaires ne
sont plus un problème.
Au moment où j’écris ces mots, le problème principal est la différence de
format. Les films sont proposés dans de nombreux formats différents
(aucun d’entre eux n’étant le nouveau standard). Ainsi, lorsque les écrans
de télévision diffusent des films, ils doivent soit couper une partie de
l’image, soit laisser en noir une partie de l’écran. Pourquoi le format
d’image HDTV a-t-il été défini en 16:9 (ou 1,8) si aucun film n’utilise ce
format ? Parce que les ingénieurs l’ont aimé.
Nous sommes sur le point de nous lancer dans une nouvelle bataille des
normes sur la télévision. Premièrement, il y a la télévision en trois
dimensions (3D). Il existe ensuite des propositions pour la très haute
définition avec 2 160 lignes (et un doublement de la résolution
horizontale). C’est quatre fois la résolution d’un téléviseur en 1080p. Une
entreprise veut huit fois plus de résolution et une autre propose un format
d’image de 21:9 (=2,3). J’ai vu ces images et elles sont merveilleuses,
même si elles nécessitent de grands écrans (au moins 60" ou 1,5 m de
diagonale) et que le spectateur soit proche de l’écran.
Les normes prennent tellement de temps à être établies qu’elles ne sont
quelquefois plus utiles au moment où elles sont adoptées. Néanmoins,
elles sont nécessaires. Elles simplifient nos vies et permettent aux
différentes marques d’équipements de travailler ensemble et en harmonie.

Une norme jamais adoptée : l’heure décimale


Quand on standardise, on se simplifie la vie. Tout le monde apprend le
système une seule fois. Toutefois, il ne faut pas standardiser trop tôt pour
ne pas s’enfermer dans une technologie primitive et éviter d’introduire des
règles qui s’avèrent extrêmement inefficaces, voire génératrices d’erreurs.
À l’inverse, en normalisant trop tard, il existe sans doute déjà tellement de
façons de procéder qu’aucune norme internationale ne saurait être trouvée.
Si l’on s’accorde sur une technologie ancienne, il sera peut-être trop
coûteux pour tout le monde de passer à cette norme. Le système métrique
est un bon exemple ; il est beaucoup plus simple et plus pratique pour
représenter la distance, le poids, le volume et la température que l’ancien
système anglais de pieds, livres, secondes et degrés sur l’échelle
Fahrenheit. Toutefois, les pays industrialisés très attachés à l’ancienne
norme de mesure prétendent ne pas pouvoir supporter les coûts énormes et
la confusion inhérente à la conversion. Nous sommes donc aux prises avec
deux normes, du moins pendant encore quelques décennies.
Imaginons que nous changeons la façon dont nous spécifions l’heure.
Avec le système actuel, la journée est divisée en vingt-quatre unités, les
heures, plutôt arbitraires mais standards. Nous parlons de l’heure en unités
de douze et non pas de vingt-quatre. Il doit donc y avoir deux cycles de
douze heures chacun, plus la convention spéciale de am et pm pour savoir
de quel cycle nous parlons. Ensuite, nous divisons chaque heure en
soixante minutes et chaque minute en soixante secondes.
Et si nous passions aux divisions décimales : secondes divisées en
dixièmes, millisecondes et microsecondes ? Nous aurions des décijours,
des centijours et des millijours. Il faudrait redéfinir les heures, minutes et
secondes puis tout serait facile : dix heures par jour, dix minutes par heure,
dix secondes par minute.
Je préfère de loin ce système. Après tout, le système décimal est utilisé par
la plupart des systèmes numériques et arithmétiques dans le monde.
Cependant, de nombreuses sociétés ont utilisé et utilisent encore d’autres
systèmes ; les bases 12 et 60 sont courantes (une douzaine d’articles, 12
pouces dans un pied, 12 heures dans une journée, 12 mois dans une année,
60 secondes dans une minute ou un degré et 60 minutes dans une heure).
Les Français ont proposé que la mesure du temps utilise une base décimale
en 1792, lorsque le système métrique a été mis en place pour les poids et
les longueurs. Le temps décimal a été utilisé assez longtemps pour
permettre la fabrication d’horloges décimales, mais il a finalement été
abandonné. C’est dommage.
Il est très difficile de changer des habitudes bien établies. Nous utilisons
toujours le clavier de type AZERTY ou QWERTY et les États-Unis
mesurent toujours les choses en pouces, en pieds, en verges, en milles, en
Fahrenheit, en onces et en livres ; le monde mesure toujours le temps en
unités de 12 et 60 et divise le cercle en 360 degrés.
En 1998, Swatch, la société d’horlogerie suisse, tentait d’introduire le
temps décimal par le biais du Swatch Internet Time. Dans ce système, la
journée se divise en 1 000 .beat, chaque .beat représentant un peu moins
de 90 secondes puisqu’il correspond à une minute décimale. Ce système
n’utilise pas de fuseaux horaires, de sorte que les gens du monde entier
sont tous en phase avec leurs montres. Cela ne simplifie toutefois pas
l’organisation de conversations (téléphonique, par exemple), car il est
difficile d’obtenir le comportement correct du soleil. Les gens souhaiteront
toujours se lever avec le soleil, ce qui se produit à différentes heures
Swatch dans le monde. En conséquence, même si les gens ont leurs
montres synchronisées, il est toujours nécessaire de savoir à quel moment
de leur journée ils se trouvent. Il n’est pas certain que la proposition de
Swatch était sérieuse ; il s’agissait peut-être d’un énorme coup
publicitaire. Après quelques années au cours desquelles la société a
fabriqué des montres décimales, tout s’est arrêté.
En parlant de standardisation, Swatch a nommé son unité de temps de base
le .beat, le premier caractère étant un point. Cette orthographe non
standard provoque des ravages dans les systèmes de correction
orthographique qui ne sont pas configurés pour gérer les mots
commençant par des signes de ponctuation.

Rendre délibérément les choses difficiles


Comment une bonne conception (conception utilisable et compréhensible)
peut-elle être mise en balance avec le besoin de secret, de confidentialité
ou de protection ? C’està-dire que certaines applications de la conception
possèdent des zones sensibles nécessitant un contrôle strict des personnes
qui les utilisent et comprennent ces applications. Nous ne voulons pas que
n’importe quel utilisateur comprenne suffisamment le système pour en
compromettre la sécurité. Ne pourrait-on pas dire que certaines choses
devraient ne pas être bien conçues ? Les choses ne peuvent-elles pas rester
cryptées, de sorte que seules les personnes ayant une autorisation, une
formation approfondie soient en mesure d’utiliser le système ? Bien sûr,
nous avons des mots de passe, des clés et d’autres types de contrôles de
sécurité, mais cela devient fastidieux pour l’utilisateur privilégié. Il
semble que si on n’ignore pas une bonne conception, dans certains
contextes, l’objectif du système s’annule.
Une question par courrier électronique qui m’a été envoyée par une
étudiante, Dina Kurktchi. C’est une excellente question.
À Stapleford, en Angleterre, j’ai vu une porte d’école très difficile à
ouvrir, nécessitant le fonctionnement simultané de deux loquets, l’un tout
en haut de la porte, l’autre en bas. Les verrous étaient difficiles à trouver, à
atteindre et à utiliser. Cependant, ces difficultés étaient délibérées. C’était,
en réalité, une bonne conception. Cette école accueillait des enfants
handicapés, qui ne devaient pas sortir dans la rue sans un adulte. Seuls les
adultes étaient assez grands pour faire fonctionner les deux loquets. Violer
les règles de la facilité d’utilisation est exactement ce qu’il fallait.
Les produits que nous concevons sont généralement censés être faciles à
utiliser, mais ne le sont pas toujours. En revanche, certaines choses sont
délibérément difficiles à utiliser (et doivent l’être). Leur liste est
étonnamment longue :
portes conçues pour bloquer des personnes à l’intérieur ou à
l’extérieur ;
systèmes de sécurité, conçus pour que seules les personnes autorisées
soient capables de les utiliser ;
équipements dangereux, dont l’accès doit être limité ;
opérations dangereuses susceptibles d’entraîner la mort ou des
blessures si elles sont effectuées accidentellement ;
portes, armoires et coffres-forts secrets ;
cas délibérément destinés à perturber l’action de routine normale
(accusé de réception requis avant la suppression définitive d’un fichier
d’un ordinateur, sécurités des pistolets et des fusils, broches des
extincteurs) ;
contrôles qui nécessitent deux actions simultanées pour faire
fonctionner le système, donc deux personnes (utilisés dans des
systèmes de sécurité ou des opérations critiques) ;
armoires et flacons de médicaments ou de substances dangereuses,
conçus pour être difficiles à ouvrir ;
jeux, une catégorie dans laquelle les concepteurs font fi des lois de la
compréhensibilité et de la convivialité ; dans certains jeux, une partie
du défi consiste à déterminer ce qui doit être fait et comment.
Même lorsque le manque de convivialité ou de compréhensibilité est
délibéré, il reste important d’en connaître les règles. Premièrement, même
les conceptions délibérément compliquées ne sont pas totalement
difficiles : il existe généralement un élément conçu pour empêcher les
personnes non autorisées d’utiliser l’appareil, mais le reste doit suivre les
principes habituels d’une bonne conception. Deuxièmement, même si
votre travail consiste à rendre une tâche difficile, vous devez savoir
comment vous y prendre. Dans ce cas, les règles sont utiles car elles
indiquent en sens inverse comment procéder :
masquer les composants critiques pour rendre les choses invisibles ;
utiliser des mappings non naturels, de sorte que la relation entre les
contrôles et les objets contrôlés soit inappropriée ou aléatoire ou
encore pour que l’état du système soit difficile à interpréter ;
rendre les actions physiquement difficiles à réaliser ;
imposer des durées limites et une manipulation physique ;
ne proposer aucun feedback.
Les systèmes de sécurité posent un problème particulier pour la
conception. Souvent, la fonctionnalité ajoutée pour assurer la sécurité
élimine un danger, mais en crée un second. Lorsque les travailleurs
creusent un trou dans une rue, ils doivent ériger des barrières pour
empêcher les voitures et les gens de tomber dedans. Les barrières
résolvent un problème, mais sont en elles-mêmes un autre danger, souvent
atténué par l’ajout de panneaux et de feux clignotants pour avertir de leur
présence. Les portes, les lumières et les alarmes d’urgence doivent souvent
être accompagnées de panneaux d’avertissement ou de barrières contrôlant
quand et comment ils peuvent être utilisés.

Conception : développer la technologie pour


les gens
La conception est une discipline merveilleuse qui associe la technologie et
les gens, les entreprises et la politique, la culture et le commerce. Les
différentes pressions sont importantes et posent d’énormes défis aux
concepteurs. Dans le même temps, ces derniers doivent toujours garder à
l’esprit que les produits seront utilisés par des personnes. C’est ce qui fait
de la conception une discipline vraiment gratifiante : d’une part, des
contraintes complexes à surmonter et, d’autre part, la possibilité de
développer des choses qui aident et enrichissent la vie des gens, qui
apportent des avantages et du plaisir.
7
Conception dans le monde de
l’entreprise

Les réalités du monde imposent d’importantes contraintes à la conception


des produits. Jusqu’à présent, j’ai décrit le cas idéal, en supposant que les
principes de conception centrée utilisateur puissent être appliqués sans
tenir compte du monde réel, de la concurrence, des coûts et des horaires.
Les conflits proviennent de différentes sources, ils sont tous légitimes et
doivent être résolus. Il est nécessaire que des compromis soient faits par
toutes les personnes impliquées.
Le moment est venu d’examiner les préoccupations extérieures à la
conception centrée utilisateur, celles qui affectent le développement des
produits. Commençons par l’impact de la concurrence qui conduit à
l’introduction de fonctionnalités supplémentaires, souvent excessives. À
partir de là, examinons les facteurs de changement, notamment
technologiques ; lorsque de nouvelles technologies apparaissent, la
tentation de développer immédiatement de nouveaux produits est grande.
Cependant, le temps nécessaire pour réussir des produits radicalement
nouveaux se mesure en années, en décennies, voire en siècles. Cela
conduit à examiner les deux formes d’innovation de produit pertinentes
pour la conception : incrémentale (moins prestigieuse mais plus commune)
et radicale (plus prestigieuse, mais rarement réussie).
Terminons par des réflexions sur l’histoire et les perspectives d’avenir de
ce livre. La première édition a eu une longue et fructueuse vie. Vingt-cinq
ans, c’est incroyablement long pour qu’un livre consacré à la technologie
reste pertinent. Si cette édition révisée et développée dure tout aussi
longtemps, cela signifie cinquante ans pour Design des objets du
quotidien. Quels seront les nouveaux développements dans les vingt-cinq
prochaines années ? Quel sera le rôle de la technologie dans nos vies et
quelles sont les obligations morales des professionnels de la conception ?
Et enfin, pendant combien de temps les principes de ce livre resteront-ils
pertinents ? Il ne faut pas s’étonner que je pense qu’ils seront toujours
aussi pertinents qu’ils l’étaient il y a vingt-cinq ans et tout aussi pertinents
qu’ils le sont aujourd’hui. En effet, la conception de la technologie pour
répondre aux besoins et aux capacités humaines est déterminée par la
psychologie des personnes. Les technologies peuvent changer, mais les
gens restent les mêmes.

Forces en compétition
Aujourd’hui, les fabricants du monde entier se font concurrence et les
pressions sont fortes. Après tout, il n’y a que quelques possibilités pour un
fabricant de faire la différence ; les trois plus importantes sont le prix, les
caractéristiques et la qualité, hélas souvent dans cet ordre d’importance.
La rapidité est cruciale également, de peur qu’une autre société ne devance
sa présence sur le marché. Ces pressions font qu’il est difficile de suivre
l’intégralité du processus itératif d’amélioration continue du produit.
Même des produits relativement stables, tels que les automobiles, les
appareils de cuisine, les téléviseurs et les ordinateurs, sont confrontés aux
multiples forces d’un marché concurrentiel qui encourage l’introduction
de changements sans tests et sans améliorations suffisantes.
Voici un exemple simple et réel. Je travaille avec une nouvelle entreprise
qui démarre et développe une gamme innovante d’équipements de
cuisson. Les fondateurs ont eu des idées uniques, poussant la technologie
de la cuisine plus loin que tout ce qui est en vente pour les particuliers.
Nous avons effectué de nombreux tests sur le terrain, construit de
nombreux prototypes et engagé un concepteur industriel de classe
mondiale. Nous avons modifié le concept d’origine des produits, à
plusieurs reprises, en fonction des premières réactions des utilisateurs
potentiels et des conseils d’experts. Malheureusement, juste au moment où
nous étions sur le point de commander la première production de quelques
prototypes à montrer aux investisseurs et clients potentiels (une
proposition coûteuse pour la petite entreprise autofinancée), d’autres
sociétés ont commencé à présenter des concepts similaires dans les salons.
Ont-ils volé les idées ? Non, c’est ce que l’on appelle le Zeitgeist, un mot
allemand qui signifie « l’esprit du temps ». En d’autres termes, les idées
étaient dans l’air du temps. La compétition est apparue avant même que
nous ayons livré notre première production. Que peut faire une petite
entreprise qui démarre ? Elle n’a pas d’argent pour rivaliser avec les
grandes. Elle doit modifier ses idées pour rester en avance sur la
concurrence et proposer une démonstration capable de convaincre clients,
investisseurs et, plus important encore, distributeurs potentiels du produit.
Ces derniers sont les vrais clients et non les gens qui achètent finalement
le produit dans les magasins et l’utilisent chez eux. Cet exemple illustre les
véritables pressions commerciales exercées sur les entreprises : la
nécessité de rapidité, l’inquiétude quant aux coûts, la concurrence
susceptible de contraindre l’entreprise à modifier son offre et la nécessité
de satisfaire plusieurs catégories de clients (investisseurs, distributeurs et,
bien sûr, utilisateurs finaux). Sur quoi l’entreprise devrait-elle concentrer
ses faibles ressources ? Plus d’études d’utilisateurs ? Un développement
plus rapide ? De nouvelles fonctionnalités uniques ?
Les mêmes pressions se retrouvent également dans les entreprises établies,
qui en subissent également d’autres. Pour la plupart, les produits ont un
cycle de développement d’un à deux ans. Afin de faire émerger un
nouveau modèle chaque année, le processus de conception doit avoir
commencé avant même que le modèle précédent ait été livré aux clients.
De plus, les mécanismes de collecte et de restitution des expériences des
clients existent rarement. À une époque antérieure, les concepteurs et les
utilisateurs étaient étroitement liés. Aujourd’hui, ils sont séparés par des
barrières. Certaines entreprises interdisent aux concepteurs de travailler
avec des clients, une restriction bizarre et insensée. Pourquoi agissent-elles
ainsi ? En partie pour éviter les fuites des nouveaux développements vers
la concurrence, mais également parce que certains clients arrêteront
d’acheter les offres actuelles s’ils sont amenés à croire qu’un nouvel
article plus avancé va bientôt être commercialisé. Même en l’absence de
telles restrictions, la complexité des grandes organisations, conjuguée à la
pression incessante pour terminer le produit, rend cette interaction
difficile. Rappelezvous la loi Don Norman (chapitre 6) : le jour où un
processus de développement de produit commence, il est en retard et il
dépasse le budget imparti.
Fontionnalitite : une mortelle tentation
Chaque produit efficace est porteur d’une maladie insidieuse appelée
fonctionnalitite (de fonctionnalité), dont le symptôme principal est le
creeping featurism (la folie des fonctionnalités). La maladie semble avoir
été identifiée et nommée pour la première fois en 1976, mais son origine
remonte probablement à des technologies plus anciennes, enfouies loin
dans les siècles précédant l’aube de l’histoire. Cela semble inévitable, sans
prévention connue. Je vais vous expliquer.
Supposons que nous suivions tous les principes énoncés dans cet ouvrage
pour obtenir un produit merveilleux, centré utilisateur. Il obéit à tous les
principes de conception. Il surmonte les problèmes des gens et répond à
certains besoins importants. C’est attrayant, facile à utiliser et à
comprendre. En conséquence, supposons que le produit réussisse : de
nombreuses personnes l’achètent et conseillent à leurs amis d’en faire
autant. Quel pourrait être le problème ?
Le problème est que, dès que le produit est disponible depuis un certain
temps, de nouveaux facteurs apparaissent inévitablement, poussant la
société à ajouter de nouvelles fonctionnalités. Ces facteurs sont, entre
autres, les suivants :
les clients aiment le produit, mais souhaitent davantage de
fonctionnalités, plus de fonctions, plus de capacités ;
une entreprise concurrente ajoute de nouvelles fonctionnalités à ses
produits, créant des pressions pour répondre à cette offre et en faire
encore plus afin de devancer la concurrence ;
les clients sont satisfaits, mais les ventes diminuent car le marché est
saturé. Tous ceux qui veulent le produit l’ont déjà. Il est temps
d’ajouter de merveilleuses améliorations qui inciteront les gens à
acquérir le nouveau modèle.
La fonctionnalitite est très contagieuse. Les nouveaux produits sont
toujours plus complexes, plus puissants et de tailles différentes. Vous le
constatez avec les lecteurs de musique, les smartphones et les ordinateurs,
en particulier les smartphones et les tablettes. Les appareils portables
deviennent de plus en plus petits à chaque version, malgré l’ajout de
toujours plus de fonctionnalités (ce qui les rend encore plus difficiles à
utiliser). Certains produits, tels que les automobiles, les réfrigérateurs
domestiques, les téléviseurs et les cuisinières, deviennent de plus en plus
complexes à chaque sortie, devenant de plus en plus imposants et de plus
en plus puissants.
Que les produits deviennent plus gros ou plus petits, chaque nouvelle
édition a toujours plus de fonctionnalités que la précédente. La
fonctionnalitite est une maladie insidieuse et difficile à éradiquer, contre
laquelle il n’existe pas de vaccin. Il est facile pour les commerciaux de
faire pression pour ajouter de nouvelles fonctionnalités, mais il n’est pas
nécessaire de se débarrasser des anciennes fonctionnalités inutiles.
Comment savez-vous quand vous avez contracté la maladie ? Par son
symptôme majeur dont je vais donner un exemple. Regardez la figure 7-1,
qui illustre les changements apportés à la moto Lego depuis ma première
rencontre avec celleci pour la première édition de ce livre. La moto
d’origine (figures 4–1 et 7-1 A) ne comportait que quinze composants et
pouvait être assemblée sans instructions. Elle contenait suffisamment de
contraintes pour que chaque composant ait un emplacement et une
orientation uniques. Maintenant, elle comporte vingt-neuf pièces et j’ai eu
besoin d’instructions.
Le trait caractéristique est la tendance à augmenter le nombre de
fonctionnalités d’un produit, souvent au-delà de toute raison. Il est
impossible pour un produit de rester utilisable et compréhensible s’il
dispose de toutes les fonctionnalités spéciales ajoutées au fil du temps.
Figure 7–1 La fonctionnalitite rattrape Lego. L’image A montre la moto Lego d’origine,
disponible en 1988 et que j’ai utilisée dans la première édition de ce livre (à gauche), à
côté de la version 2013 (à droite). L’ancienne version n’avait que quinze pièces. Aucun
manuel n’était nécessaire pour le montage. Pour la nouvelle version, la boîte indique
fièrement qu’elle contient 29 pièces. La figure B montre l’avancement de la maquette
avant que j’abandonne et que je consulte les instructions. Pourquoi Lego a-t-il cru
devoir changer ? Peut-être parce que les motos de police ont été touchées par le virus,
les rendant plus grandes et plus complexes et, sans doute, Lego estimait que son jouet
devait correspondre à la réalité. Photographies de l’auteur.

Dans son livre Different, Youngme Moon, professeure à Harvard, affirme


que c’est cette tentative d’égaler la concurrence qui rend tous les produits
identiques. Lorsque les entreprises tentent d’augmenter leurs ventes en
récupérant toutes les caractéristiques de leurs concurrents, elles finissent
par se faire du tort. Après tout, lorsque les produits de deux entreprises
correspondent en tout, il n’y a plus aucune raison pour un client de
préférer une solution à une autre. C’est une conception axée sur la
concurrence. Malheureusement, la volonté de récupérer la liste des
fonctionnalités du concurrent envahit de nombreuses sociétés. Même si les
premières versions d’un produit sont bien conçues, centrées sur l’humain
et sur des besoins réels, les sociétés qui se contentent de laisser un bon
produit intact sont rares.
Les entreprises déterminent généralement leurs faiblesses en comparant
leurs caractéristiques à celles de leurs concurrents et cherchent à s’aligner.
C’est une mauvaise stratégie, soutient Moon. Il est préférable de se
concentrer sur les domaines où on est plus fort et à les renforcer. Ensuite,
il convient de se concentrer sur le marketing et les publicités pour mettre
en avant ces points forts. Grâce à cela, le produit se démarque et sort du
troupeau. Quant aux faiblesses, il faut ignorer celles qui n’en sont pas, dit
Moon. La leçon est simple : ne pas suivre aveuglément, se concentrer sur
les forces et non pas sur les faiblesses. Si le produit a de véritables atouts,
il peut se permettre d’être simplement « assez bon » dans les autres
domaines.
Une bonne conception nécessite de s’éloigner des pressions de la
concurrence et de veiller à ce que l’ensemble du produit soit cohérent et
compréhensible. Cette position exige que les dirigeants de la société
résistent aux forces marketing qui ne cessent de supplier d’ajouter telle ou
telle fonctionnalité, chacune étant considérée comme essentielle pour un
segment du marché. Les meilleurs produits viennent en ignorant ces voix
concurrentes et en se concentrant plutôt sur les véritables besoins des
utilisateurs du produit.
Jeff Bezos, fondateur et PDG d’Amazon, qualifie son approche
d’« obsédée par le client ». La concurrence est ignorée, les exigences
marketing traditionnelles sont ignorées. L’accent est mis sur des questions
simples et orientées client : ce qu’il veut, le moyen de satisfaire au mieux
ses besoins, l’amélioration du service client. « Concentrez-vous sur le
client », affirme Bezos, « et le reste viendra de lui-même ». De
nombreuses entreprises prétendent aspirer à cette philosophie, mais peu
sont capables de la suivre. Généralement, cela n’est possible que si le chef
de la société, le PDG, est également le fondateur. Une fois que l’entreprise
passe le contrôle à d’autres, en particulier à ceux qui suivent le dicton
traditionnel du MBA (placer le profit au-dessus des préoccupations des
clients), l’histoire se détériore. Les bénéfices peuvent certes augmenter à
court terme, mais la qualité du produit finit par se dégrader au point que
les clients désertent. La qualité dépend uniquement de l’attention
constante portée aux personnes qui comptent, c’est-à-dire les clients.

Les nouvelles technologies forcent le changement


Aujourd’hui, nous avons de nouvelles exigences. Nous devons maintenant
saisir sur de petits appareils portables qui n’ont pas de place pour un
clavier complet. Les écrans tactiles et la navigation gestuelle impliquent
une nouvelle forme de saisie. Il est possible d’éviter complètement la
dactylographie grâce à la reconnaissance vocale et à celle de l’écriture
manuscrite.
Prenons, par exemple, les quatre produits illustrés à la figure 7-2. Leur
apparence et leur mode de fonctionnement ont radicalement changé au
cours de leur siècle d’existence. Les premiers téléphones n’avaient pas de
clavier. Un opérateur humain intervenait pour établir les connexions.
Lorsque les opérateurs ont été remplacés par des systèmes de commutation
automatique, le dispositif de saisie était un cadran rotatif avec dix trous, un
pour chaque chiffre. Lorsque le cadran a été remplacé par des touches, il a
été affecté par un léger cas de fonctionnalitite, les dix chiffres du cadran
s’étant vu adjoindre les signes * et #.
Figure 7–2 100 ans de téléphones et de claviers. Les figures A et B illustrent
l’évolution du téléphone, en partant de l’appareil Western Electric des années 1910, la
rotation de la manivelle générant un signal alertant l’opérateur, jusqu’à celui des
années 2010. Ils semblent n’avoir rien en commun. Les figures C et D comparent les
claviers de ces deux époques. Les claviers sont toujours disposés de la même
manière, mais le premier nécessite d’enfoncer chaque touche, le second, un rapide
tracé du doigt sur les lettres correspondantes (l’image montre plusieurs propositions
pour le mot saisi).
Crédits : A, B et C, photographies de l’auteur. Objets en A et C avec la permission du
Museum of American Heritage de Palo Alto, Californie. D montre le clavier Swype de
Nuance. Image utilisée avec la permission de Nuance Communications, Inc.

La fusion des appareils est beaucoup plus intéressante. L’ordinateur


humain a donné naissance à des ordinateurs portables. Le téléphone se
trouve maintenant sur de petits appareils portables. Les smartphones
possèdent de grands écrans tactiles actionnés par des gestes. Les
ordinateurs prennent la forme de tablettes. Les caméras sont incorporées
dans les téléphones mobiles. Aujourd’hui, les conversations, les
vidéoconférences, l’écriture, la photographie, la vidéo et les interactions
collaboratives de toute sorte sont de plus en plus effectuées avec un seul
appareil, disponible dans un grand choix de tailles d’écran, de puissance
de calcul et de portabilité. Il n’a aucun sens de les appeler ordinateurs,
téléphones ou appareils photo. Nous avons besoin d’un nouveau nom.
Appelons-les des écrans intelligents. Au XXIIe siècle, aurons-nous encore
des téléphones ? Je prédis que même si nous continuons à nous parler à
distance, nous n’aurons plus d’appareil appelé téléphone.
Comme les pressions pour que les écrans soient plus grands ont forcé la
disparition des claviers physiques (malgré la tentative de fabrication de
périphériques minuscules fonctionnant avec des doigts ou des pouces), les
claviers désormais virtuels s’affichent à l’écran dès que nécessaire, puis on
tape les lettres une par une. Cette procédure est lente, même lorsque le
système tente de prédire le mot à utiliser. Plusieurs systèmes ont
rapidement été développés pour permettre au doigt ou au stylet de tracer
un chemin parmi les lettres du mot, les systèmes mot-geste. Les gestes
sont suffisamment différents les uns des autres pour qu’il ne soit même pas
nécessaire de toucher toutes les lettres. Il importe que le motif généré par
l’approximation de la trajectoire correcte soit suffisamment proche de
celui souhaité. Cela s’avère un moyen rapide et facile de taper (figure 7-2
D).
Avec les systèmes gestuels, une refonte majeure est possible. Pourquoi
garder les lettres dans la même disposition AZERTY ou QWERTY ? La
génération de motifs serait encore plus rapide si les lettres étaient
réorganisées de manière à maximiser la vitesse lorsque vous utilisez un
seul doigt ou un stylet pour tracer les lettres. C’est une bonne idée, mais
lorsque l’un des pionniers dans le développement de cette technique,
Shumin Zhai, alors chez IBM, l’a essayée, il s’est heurté au problème de
l’héritage. Les gens hésitaient à devoir apprendre une organisation
différente. Aujourd’hui, la méthode de saisie mot-geste est largement
utilisée, mais avec les claviers AZERTY (ou QWERTY comme dans la
figure 7-2 D).
La technologie modifie notre façon de faire les choses, mais les besoins
fondamentaux restent inchangés. Il sera toujours nécessaire d’écrire ses
réflexions, de raconter des histoires, d’écrire des articles ou des œuvres (de
fiction ou non). Il sera possible d’utiliser des claviers traditionnels, même
sur de nouveaux appareils, car cela reste le moyen le plus rapide de saisir
des mots dans un système, qu’il soit papier ou électronique, physique ou
virtuel. Certaines personnes préféreront exprimer leurs idées en les dictant.
Toutefois, les mots parlés seront toujours transformés en mots imprimés
(même si l’impression se fait sur un écran), car la lecture est beaucoup
plus rapide et supérieure à l’écoute. Il est possible de lire environ trois
cents mots à la minute et de survoler en avant et en arrière, en acquérant
efficacement des informations à une vitesse de plusieurs milliers de mots
par minute. L’écoute est lente et en série, généralement à une soixantaine
de mots par minute et, bien que ce rythme puisse être doublé ou triplé avec
les technologies de compression de la parole et de formation, il est
toujours plus lent que la lecture et difficile à parcourir. Malgré tout, les
nouveaux médias et les nouvelles technologies viendront compléter les
anciens systèmes, de sorte que l’écriture ne dominera plus autant que par
le passé, alors qu’elle était le seul média largement disponible.
Maintenant, tout le monde peut taper et dicter, prendre des photos et des
vidéos, dessiner et créer des scènes animées, autant d’expériences qui, au
XXe siècle, nécessitaient d’énormes technologies et de vastes équipes de
travailleurs spécialisés. Les types d’appareils qui nous permettent
d’accomplir ces tâches et les façons dont ils sont contrôlés vont se trouver
de plus en plus couramment.
Le rôle de l’écriture dans la civilisation a changé au cours de ses cinq
mille ans d’existence. Aujourd’hui, l’écriture est courante, même si elle
revêt la forme de messages courts et informels. Nous communiquons
maintenant en utilisant une grande variété de supports, la voix, la vidéo,
l’écriture et la dactylographie, parfois avec les dix doigts, parfois
simplement avec les pouces ou encore avec des gestes. Au fil du temps et
avec la technologie, les moyens par lesquels nous interagissons et
communiquons évoluent. Cependant, comme la psychologie fondamentale
des êtres humains reste inchangée, les règles de conception de ce livre
s’appliqueront toujours.
Bien sûr, ce ne sont pas seulement les communications et l’écriture qui ont
évolué. Les changements technologiques ont touché toutes les sphères de
notre vie, l’éducation, la santé, les aliments, les vêtements et les transports.
Nous avons maintenant la possibilité de fabriquer des objets à la maison,
avec des imprimantes 3D. Nous sommes en mesure de participer à des
jeux avec des partenaires du monde entier. Les voitures sont capables de se
conduire toutes seules et leur moteur est passé de la combustion interne à
un assortiment de véhicules électriques et hybrides. Pensez à une industrie
ou une activité et, si les nouvelles technologies ne l’ont pas encore
transformée, ce sera bientôt le cas. La technologie est un puissant moteur
de changement, pour le meilleur ou pour le pire, parfois pour satisfaire des
besoins importants et parfois simplement parce que l’évolution devient
possible.

Quel est le délai pour introduire un nouveau produit ?


Combien de temps faut-il pour transformer une idée en produit ? Et après
cela, quel est le délai avant que le produit devienne un succès dans le
temps ? Les inventeurs et les fondateurs de start-up préfèrent penser que la
transition d’une idée à une réussite est un processus unique et que cela se
mesure en mois. En réalité, il s’agit de processus multiples, où le temps
total se mesure en décennies, parfois en siècles.
La technologie change rapidement, mais les personnes et la culture
évoluent lentement. Le changement est donc à la fois rapide et lent. Il faut
parfois des mois pour passer d’une invention à l’autre, puis plusieurs
décennies pour que le produit soit accepté. Les produits plus anciens
persistent alors qu’ils sont devenus obsolètes et qu’ils auraient dû
disparaître. Une grande partie de la vie quotidienne est dictée par des
conventions vieilles de plusieurs siècles, qui n’ont plus de sens et dont tout
le monde, sauf l’historien, a oublié les origines.
Même nos technologies les plus modernes suivent ce cycle de temps :
rapides à inventer, lentes à accepter, encore plus lentes à disparaître et à
mourir. Au début des années 2000, l’introduction commerciale du contrôle
gestuel pour les téléphones portables, les tablettes et les ordinateurs a
radicalement transformé la façon dont nous interagissons avec nos
appareils. Alors que tous les appareils électroniques précédents
comportaient de nombreux boutons et commandes à l’extérieur, des
claviers physiques et des moyens d’appeler de nombreux menus de
commandes, de les faire défiler et de sélectionner la commande souhaitée,
les nouveaux appareils éliminaient presque tous les contrôles et menus
physiques.
Est-ce que ce développement de tablettes contrôlées par des gestes était
révolutionnaire ? Pour la plupart des gens, c’est le cas, mais pas pour les
technologistes. Les écrans tactiles capables de détecter les positions de
pressions digitales simultanées (même par plusieurs personnes) sont dans
les laboratoires de recherche depuis près de trente ans (ce sont des écrans
multitouch). Les premiers appareils ont été développés au début des
années 1980 par l’université de Toronto. La société Mitsubishi a mis au
point un produit qu’elle a vendu aux écoles de conception et aux
laboratoires de recherche. Pour la plupart, les nombreux gestes et
techniques utilisés aujourd’hui ont été découverts à cette époque. Pourquoi
a-t-il fallu si longtemps pour que ces appareils deviennent des produits à
succès ? De nombreuses petites entreprises ont essayé de fabriquer des
écrans, mais les premiers appareils capables de gérer le multitouch étaient
très coûteux ou peu fiables ; il a fallu des décennies pour transformer la
technologie de recherche en composants fiables et bon marché à
destination des produits de tous les jours.
Il existe un autre problème : le conservatisme général des grandes
entreprises. Les idées radicales échouent presque toutes ; or, les grandes
entreprises ne tolèrent pas l’échec. Les petites entreprises sont plus à
même de proposer de nouvelles idées intéressantes car, si elles échouent,
le coût est relativement faible. Dans le monde de la haute technologie, de
nombreuses personnes trouvent de nouvelles idées, réunissent quelques
amis et des employés à la recherche des risques, puis créent une nouvelle
société pour exploiter leur vision. Seuls quelques-uns auront du succès,
soit en devenant une grande entreprise, soit en étant achetés par une
grande entreprise.
Vous êtes peut-être surpris par le pourcentage élevé d’échecs, mais c’est
uniquement parce qu’ils ne sont pas annoncés. Nous entendons parler
uniquement des quelques succès. Pour la plupart, les start-up échouent,
mais l’échec dans le monde de la haute technologie en Californie n’est pas
considéré comme une mauvaise chose, au contraire, car cela signifie que la
société a perçu un potentiel, pris le risque et essayé. Même si l’entreprise a
échoué, les employés ont appris de quoi rendre leur prochaine tentative
plus probable. Il y a plusieurs raisons à l’échec : le marché n’est peut-être
pas prêt, la technologie n’est pas forcément mûre pour la
commercialisation, la compagnie se trouve à court d’argent avant de
gagner du terrain.
Fingerworks, une jeune start-up, avait du mal à mettre au point une surface
tactile abordable et fiable, capable de distinguer plusieurs doigts de la
main. Elle a presque arrêté car elle était sur le point de manquer d’argent.
Cependant, Apple, désireux de pénétrer ce marché, l’a rachetée. Les
besoins financiers ont été satisfaits et la technologie Fingerworks est
devenue la force motrice des nouveaux produits d’Apple. De nos jours, les
dispositifs contrôlés par des gestes sont omniprésents. Ce type
d’interaction semble naturel et évident mais, à l’époque, ça ne l’était pas
du tout. Près de trois décennies se sont écoulées entre l’invention du
multitouch et le moment où les entreprises ont été en mesure de fabriquer
cette technologie avec la robustesse, la polyvalence et le coût très bas
nécessaires pour un déploiement sur le marché des particuliers. Les idées
mettent longtemps à parcourir la distance qui sépare la conception et le
succès d’un produit.

Vidéophone : créé en 1879, toujours inexistant


« Le dessin animé de George du Maurier d’une camera obscura est
souvent cité comme une des premières prédictions de la télévision et a
également anticipé le visiophone, sur un écran grand format et plat. »
Article de Wikipédia sur les vidéophones, à l’origine de la figure 7-3.
Bien que le titre du dessin donne crédit à Thomas Edison, il n’a rien à voir
avec cela. C’est ce que l’on appelle parfois la loi de Stigler, les noms de
personnages célèbres s’attachent souvent à des idées alors même qu’ils n’y
sont pour rien.
Le monde de la conception de produits offre de nombreux exemples de la
loi de Stigler. On pense qu’un produit est l’invention de la société qui a
tiré le meilleur parti de cette idée et non de la société qui l’a créé. Dans le
monde des produits, les idées originales sont la partie la plus facile ;
transformer l’idée en produit à succès est beaucoup plus difficile.
Considérons l’idée d’une conversation vidéo. Trouver cette idée était si
simple que du Maurier, l’illustrateur du magazine Punch, a pu brosser un
tableau de ce à quoi pourrait ressembler le vidéophone, seulement deux
ans après l’invention du téléphone (figure 7-3). S’il a réussi à l’imaginer,
c’est probablement que l’idée circulait déjà. À la fin des années 1890,
Alexander Graham Bell avait réfléchi à un certain nombre de problèmes
de conception. Néanmoins, le merveilleux scénario illustré par du Maurier
n’est toujours pas devenu réalité, un siècle et demi plus tard. Aujourd’hui,
le visiophone est à peine en train de devenir un moyen de communication
quotidien.

Figure 7–3 Prédire l’avenir. Le vidéophone en 1879. La légende se lit comme suit :
« Le téléphonoscope d’Edison (transmet à la fois la lumière et le son). Tous les soirs,
avant de se coucher, Pater– et Materfamilias installent une caméra électrique sur le
manteau de la chambre à coucher et réjouissent leurs yeux de la vue de leurs enfants
aux Antipodes et discutent joyeusement avec eux à travers le câble. »
Publié dans le magazine Punch du 9 décembre 1878. Extrait de « Telephonoscope »,
Wikipedia.

Il est extrêmement difficile de développer tous les détails nécessaires pour


qu’une nouvelle idée fonctionne, sans parler de la possibilité de trouver
des composants pouvant être fabriqués en quantité suffisante, fiables et
sans faille. Avec un nouveau concept, il faudra peut-être des décennies
avant que le public l’approuve. Les inventeurs croient souvent que leurs
nouvelles idées vont révolutionner le monde en quelques mois, mais la
réalité est plus rude. De très nombreuses nouvelles inventions échouent et
même les rares qui réussissent mettent des décennies à le faire ; oui, même
les réussites que nous considérons rapides. La plupart du temps, la
nouvelle technologie passe inaperçue auprès du public, car elle circule
dans les laboratoires de recherche du monde ou est expérimentée par
quelques start-up peu performantes ou des early adopters.
Les idées arrivées trop en avance échouent souvent, même si elles sont
quelquefois récupérées avec succès. J’ai vu cela se produire à plusieurs
reprises. J’ai par exemple assisté à la sortie d’un des tout premiers
appareils photo numériques (APN), l’Apple QuickTake. Il n’a pas marché.
Vous ne savez probablement pas qu’Apple a fabriqué des appareils photo.
Il a échoué parce que la technologie était chère et limitée et que le monde
n’était pas du tout prêt à se passer des pellicules et du traitement chimique
des photographies. J’étais conseiller d’une jeune entreprise qui a produit le
premier cadre photo numérique au monde. Là encore, ça a échoué ; la
technologie n’était pas tout à fait mûre et le produit était relativement
coûteux. Il est évident qu’aujourd’hui les cadres et appareils photo
numériques sont des produits extrêmement performants, mais ni Apple ni
la start-up avec laquelle j’ai travaillé ne font partie de l’histoire.
Même si les APN commençaient à prendre pied dans la photographie, il a
fallu plusieurs décennies avant que le numérique remplace le film. Cela a
demandé encore plus de temps pour remplacer les vidéos sur film par
celles produites avec des caméras numériques. Au moment où j’écris ces
lignes, encore peu de films sont réalisés ainsi et peu de cinémas projettent
des films numériques. Il a fallu des décennies à la télévision haute
définition pour remplacer la résolution standard très médiocre de la
génération précédente (NTSC aux États-Unis, PAL et SECAM ailleurs).
Pourquoi avoir attendu si longtemps pour obtenir une image et un son bien
meilleurs ? Les gens sont très conservateurs. Les stations de diffusion
devaient remplacer tout leur équipement. Les utilisateurs avaient besoin de
nouveaux téléviseurs. Dans l’ensemble, les seules personnes qui
poussaient vers des changements de ce type étaient les passionnés de
technologie et les fabricants d’équipements. Une lutte acharnée entre les
chaînes de télévision et l’industrie informatique, qui souhaitaient chacune
des normes différentes, en a également retardé l’adoption (chapitre 6).
Dans le cas du vidéophone illustré à la figure 7-3, l’illustration est
magnifique mais les détails manquent étrangement. Où la caméra vidéo
devrait-elle être située pour afficher ce magnifique panorama des enfants
qui jouent ? Notez que « Pater– et Materfamilias » sont assis dans le noir
(parce que l’image vidéo est projetée par une camera obscura, dont la
sortie est très faible). Où est la caméra vidéo qui filme les parents et,
puisqu’ils sont assis dans le noir, comment sont-ils visibles ? Il est
également intéressant de noter que, même si la qualité vidéo semble
encore meilleure que ce que nous atteignons aujourd’hui, le son est
toujours capté par des téléphones en forme de trompette dont les
utilisateurs ont besoin de tenir le tube contre leur visage pour parler
(probablement à voix haute). Penser au concept de connexion vidéo était
relativement facile ; penser à ces détails était très difficile, ainsi que le
construire et le mettre en pratique. Cela fait maintenant plus d’un siècle
que cette image a été dessinée et nous sommes à peine en mesure de
réaliser ce rêve. À peine.
Il a fallu quarante ans pour créer les premiers vidéophones en état de
marche (dans les années 1920), puis dix ans avant le premier produit (au
milieu des années 1930, en Allemagne), qui a échoué. Les États-Unis
n’ont essayé le service de vidéophonie commercial que dans les années
1960, soit trente ans après l’Allemagne ; ce service a également échoué.
Toutes sortes d’idées ont été essayées, instruments de vidéophonie dédiés,
appareils utilisant la télévision à domicile, vidéoconférence avec un
ordinateur personnel, salles de visioconférence spéciales dans les
universités et les entreprises, petits téléphones vidéo, dont certains
pourraient être portés au poignet. Il a fallu attendre le début du vingt et
unième siècle pour que l’utilisation reprenne.
La vidéoconférence a finalement commencé à se généraliser au début des
années 2010. Des salles de vidéoconférence extrêmement coûteuses ont
été mises en place dans les entreprises et les universités. Les meilleurs
systèmes commerciaux vous donnent l’impression de vous retrouver dans
la même pièce que les participants distants, utilisant une transmission
d’images de haute qualité et plusieurs grands écrans pour afficher des
images à taille réelle de personnes assises à la table (une entreprise, Cisco,
vend même la table). Cela fait 140 ans depuis la première conception
publiée, 90 ans depuis la première démonstration pratique et 80 ans depuis
la première commercialisation. En outre, les coûts, tant pour les
équipements de chaque site que pour les frais de transmission de données,
sont bien supérieurs à ceux qu’une personne ou une entreprise moyenne
peut se permettre. Actuellement, ils sont principalement utilisés dans les
bureaux d’entreprise. De nos jours, de nombreuses personnes participent à
des vidéoconférences à partir de leurs écrans, mais l’expérience n’est pas
aussi bonne que celle fournie par les meilleurs établissements
commerciaux. Personne ne confondra ces expériences avec le fait d’être
dans la même pièce que les participants, ce à quoi aspirent les installations
de la plus haute qualité (avec un succès remarquable).
Toutes les innovations modernes, en particulier celles qui changent
radicalement la vie des gens, prennent plusieurs décennies à passer du
concept au succès. Une règle indique qu’il faut vingt ans entre la première
démonstration dans les laboratoires de recherche et la première version
commerciale. Il faut une ou deux dizaines d’années entre la première
sortie commerciale à l’adoption généralisée. En réalité toutefois, presque
toutes les innovations échouent complètement et n’atteignent jamais le
public. Même les idées excellentes qui finiront par réussir échouent
souvent lors de la première introduction. J’ai été associé à un certain
nombre de produits qui ont échoué lors de leur introduction, mais qui ont
très bien réussi par la suite lorsqu’ils ont été réintroduits (par d’autres
sociétés), la vraie différence étant le moment. Parmi ces produits qui ont
échoué lors de la première commercialisation, citons la première
automobile américaine (Duryea), les premières machines à écrire, les
premiers appareils photo numériques et les premiers ordinateurs
domestiques (par exemple, l’ordinateur Altair 8800 de 1975).

Le long processus du développement du


clavier de machine à écrire
La machine à écrire est un ancien appareil mécanique, que l’on trouve
maintenant principalement dans les musées, bien qu’elle soit encore
utilisée dans les pays en voie de développement. En plus d’avoir une
histoire fascinante, elle illustre les difficultés d’introduire de nouveaux
produits dans la société, l’influence du marketing sur la conception et le
chemin long et difficile menant à l’acceptation de nouveaux produits.
L’histoire nous concerne tous, car la machine à écrire a fourni au monde
entier la disposition des touches sur nos claviers actuels, en dépit de la
preuve que ce n’est pas la disposition la plus efficace. La tradition et la
coutume, associées au grand nombre de personnes déjà habituées à un
système existant, rendent le changement difficile, voire impossible. C’est
là encore le problème de l’héritage qui empêche le changement.
Développer la première machine à écrire réussie allait plus loin que
simplement trouver un mécanisme fiable pour imprimer les lettres sur le
papier, même si, toutefois, ce fut une tâche difficile en soi. Une des
questions était l’interface utilisateur. Comment les lettres devraient-elles
être présentées aux dactylographes ? En d’autres termes, comment
concevoir le clavier ?
Considérons le clavier de la machine à écrire, avec son agencement
arbitraire de touches inclinées en diagonale et son agencement encore plus
arbitraire des lettres. Christopher Latham Sholes a conçu le clavier
standard actuel dans les années 1870. Son design est finalement devenu la
machine à écrire Remington, la première à connaître le succès. La
disposition de son clavier a rapidement été adoptée par tout le monde.
Cette conception a une histoire longue et particulière. Les premières
machines à écrire ont expérimenté une grande variété d’organisation du
clavier, en appliquant trois thèmes de base. Une première organisation
était circulaire, avec les lettres disposées par ordre alphabétique.
L’opérateur trouvait le bon endroit, puis enfonçait un levier, levait une tige
ou effectuait toute autre opération mécanique requise par le dispositif. Une
autre disposition populaire ressemblait à un clavier de piano, avec les
lettres disposées dans une longue rangée. Certains des premiers claviers, y
compris une version antérieure de Sholes, avaient même des touches
noires et blanches. La disposition circulaire et le clavier du piano se sont
avérés maladroits. En fin de compte, les claviers de machine à écrire ont
tous utilisé plusieurs rangées de touches dans une configuration
rectangulaire, avec différentes sociétés utilisant différentes dispositions
des lettres. Les leviers manipulés par les touches étaient larges et
disgracieux. La taille, l’espacement et la disposition des touches étaient
dictés par ces considérations mécaniques et non par les caractéristiques de
la main humaine. Par conséquent, le clavier était incliné et les touches
disposées en diagonale pour laisser la place aux liaisons mécaniques.
Même si nous n’utilisons plus de liaisons mécaniques, la conception du
clavier n’a pas changé, y compris pour les appareils électroniques les plus
modernes.
L’ordre alphabétique des touches semble logique et judicieux. Pourquoi
n’a-t-il pas été suivi ? La raison est enracinée dans la technologie ancienne
des claviers. Les premières machines à écrire avaient de longs leviers
reliés aux touches. Ces derniers déplaçaient des barres individuelles pour
taper sur le papier à dactylographier, généralement de l’arrière (les lettres
tapées ne pouvaient pas être vues de l’avant de la machine à écrire). Ces
longs bras se heurtaient souvent et se bloquaient, ce qui obligeait les
dactylographes à les séparer manuellement. Pour éviter le bourrage, Sholes
a organisé les touches et les leviers de sorte que les lettres fréquemment
tapées dans l’ordre ne proviennent pas de barres adjacentes. Après
quelques essais et expériences, une norme est apparue, qui régit
aujourd’hui les claviers utilisés dans le monde entier, avec toutefois des
variations régionales. La rangée supérieure du clavier américain a les
touches QWERTYUIOP, ce qui donne le nom de cette disposition,
QWERTY. Le monde a adopté la structure de base, même si en Europe,
par exemple, on peut trouver QZERTY, AZERTY et QWERTZ.
Différentes langues utilisent différents alphabets. Il est donc évident qu’un
certain nombre de claviers ont dû déplacer les touches pour faire de la
place à des caractères supplémentaires.
Figure 7–4 La machine à écrire de Sholes en 1872. Remington, le fabricant de la
première machine à écrire à succès, fabriqua également des machines à coudre. La
figure A montre l’influence de la machine à coudre sur la conception grâce à l’utilisation
d’une pédale pour ce qui est finalement devenu la touche « retour ». Un poids lourd
suspendu au cadre faisait avancer le chariot après chaque lettre frappée ou lorsque la
grande plaque rectangulaire sous la main gauche des dactylographes était enfoncée (il
s’agit de la « barre d’espace »). On appuie sur la pédale pour soulever le poids. La
figure B montre un éclatement du clavier.
Notez que la deuxième ligne montre un point (.) au lieu de R.
D’après « The Type Writer » de Scientific American (Anonyme, 1872).

Notez que la légende populaire affirme que les touches ont été placées de
manière à ralentir la frappe. C’est faux ; l’objectif était de minimiser les
risques de collision entre les barres de caractères. En fait, nous savons
maintenant que la configuration QWERTY (ou AZERTY) garantit une
vitesse de frappe élevée. En plaçant les lettres qui forment des paires
fréquentes relativement éloignées les unes des autres, la frappe est
accélérée car elle implique de se servir des deux mains.
Il existe une anecdote non confirmée selon laquelle un vendeur a
réorganisé le clavier pour permettre de taper le mot typewriter (machine à
écrire) uniquement avec les touches de la deuxième ligne. Cette
modification enfreignait le principe de conception consistant à séparer les
lettres tapées séquentiellement. La figure 7-4 B montre que le premier
clavier de Sholes n’était pas QWERTY, puisque la deuxième rangée de
touches comportait un point (.) où nous avons aujourd’hui R et que les
touches P et R se trouvaient sur la dernière rangée (entre autres
différences).
Il n’y a aucun moyen de confirmer la validité de l’histoire. De plus, j’ai
seulement entendu parler des changements du point et de la touche R, sans
évocation de la touche P. Pour le moment, supposons que l’histoire soit
vraie ; j’imagine que les ingénieurs ont été indignés. Cela ressemble à la
traditionnelle confrontation entre la logique des ingénieurs et
l’incompréhension de la force de vente. Le vendeur a-t-il eu raison d’agir
ainsi ? Notez que, aujourd’hui, nous appellerions cela une décision
marketing, mais cette profession n’existait pas encore. Avant de prendre
parti, sachez que, jusque-là, les autres entreprises de machines à écrire
avaient échoué. Remington allait sortir une machine à écrire avec des
touches étrangement positionnées sur le clavier. Les vendeurs avaient donc
raison d’être inquiets et d’essayer tout ce qui pourrait améliorer les efforts
de vente. Et en effet, ils ont réussi, car Remington est devenu le leader des
machines à écrire, même si son premier modèle n’a pas marché. Le public
a mis du temps à accepter son produit.
Est-ce que le clavier a vraiment été modifié pour autoriser la saisie du mot
typewriter sur une seule ligne ? Je n’en trouve aucune preuve tangible,
mais il est clair que les touches R et P ont été déplacées vers la deuxième
rangée ; comparez la figure 7-4 B avec le clavier actuel.
Le clavier a été conçu selon un processus évolutif, mais les principales
forces de l’évolution ont été la mécanique et le marketing. Même si, grâce
aux claviers électroniques et aux ordinateurs, il n’y a plus de tiges qui se
cognent, même si le style de frappe a changé, nous restons bloqués sur ce
clavier. Toutefois, ne désespérez pas ; c’est vraiment une bonne
disposition. L’un des sujets légitimes de préoccupation est la forte
incidence d’un type de blessure qui frappe les dactylographes, le syndrome
du canal carpien. Cette affection résulte de mouvements répétitifs
fréquents et prolongés de la main et du poignet. Elle est donc fréquente
chez les dactylographes, les musiciens et les personnes qui écrivent
beaucoup, font de la couture, du sport ou travaillent à la chaîne. Les
claviers gestuels, tels que ceux illustrés à la figure 7-2 D, contribuent à en
réduire l’incidence. Le National Institute of Health des États-Unis
conseille « des aides ergonomiques, telles que des claviers séparés, des
supports de clavier, des orthèses de poignet, peuvent être utilisées pour
améliorer la posture du poignet lors de la frappe. Faites des pauses
fréquentes lors de la frappe et arrêtez-vous toujours en cas de picotement
ou de douleur. »
August Dvorak, un psychologue de l’éducation, a mis au point un meilleur
clavier dans les années 1930. La disposition du clavier Dvorak est en effet
supérieure à celle du QWERTY, mais pas aussi bonne qu’annoncée. Des
études dans mon laboratoire ont montré que la vitesse de frappe sur un
QWERTY n’était que légèrement inférieure à celle d’un Dvorak, pas assez
différente pour se débarrasser de l’héritage car des millions de personnes
devraient apprendre un nouveau style de frappe. Des millions de
dactylographes devraient suivre une formation. Une fois qu’une norme est
en place, les intérêts acquis des pratiques existantes entravent le
changement, même dans les cas où le changement constituerait une
amélioration. De plus, dans le cas de QWERTY versus Dvorak, le gain ne
vaut tout simplement pas la peine.
Maintenant que nous n’avons plus de contraintes mécaniques avec le
clavier, est-ce des touches dans l’ordre alphabétique seraient plus faciles à
apprendre ? Non ; comme les lettres doivent être disposées sur plusieurs
rangées, il n’est pas suffisant de connaître l’alphabet. Vous devez
également savoir où les lignes se séparent et, aujourd’hui, chaque clavier
alphabétique divise les lignes en différents points. Un des grands
avantages du clavier QWERTY (les paires de lettres fréquentes sont
frappées avec des mains opposées) ne serait plus vrai. En d’autres termes,
on peut oublier l’ordre alphabétique. Dans mes études, les vitesses de
frappe QWERTY et Dvorak étaient considérablement plus rapides que
celles des claviers alphabétiques. Et une disposition alphabétique des
touches ne permettait pas une frappe plus rapide qu’une disposition
aléatoire.
Serait-il possible de faire mieux en utilisant plus d’un doigt à la fois ? Oui,
les sténographes judiciaires battent n’importe qui d’autre, grâce à leurs
claviers tapant des syllabes et non des lettres individuelles. Chaque syllabe
est obtenue par l’appui simultané sur les touches, chaque combinaison
étant appelée accord. Le clavier le plus courant pour les enregistreurs
judiciaires américains nécessite l’appui simultané sur deux à six touches
pour coder les chiffres, la ponctuation et les sons de l’anglais.
Bien que les claviers accords soient très rapides (couramment plus de trois
cents mots à la minute), les accords sont difficiles à apprendre et à
conserver. Approchez-vous de n’importe quel clavier AZERTY et vous
pourrez l’utiliser tout de suite ; il suffit de rechercher simplement la lettre
que vous voulez et d’appuyer sur la touche correspondante. Avec un
clavier accord, vous devez appuyer simultanément sur plusieurs touches. Il
n’y a aucun moyen d’étiqueter correctement ces dernières ni de savoir
quoi faire simplement en regardant.

Deux formes d’innovation : incrémentale et


radicale
Il existe deux formes principales d’innovation d’un produit. La première
suit un processus évolutif naturel et lent ; la seconde est obtenue grâce à
un développement radicalement nouveau. En général, on a tendance à
penser que l’innovation est radicale et majeure, alors qu’en fait la forme
progressive est à la fois la plus courante et la plus puissante.
Bien que chaque étape de l’évolution progressive soit modeste, avec le
temps, des améliorations constantes et lentes entraînent des changements
assez importants. Prenons l’exemple de l’automobile. Les véhicules à
vapeur ont été développés à la fin des années 1700. La première
automobile commerciale a été construite en 1888 par l’allemand Karl
Benz (sa société Benz & Cie, qui a ensuite fusionné avec Daimler, est
aujourd’hui connue sous le nom de Mercedes-Benz). C’était une
innovation radicale ; l’entreprise de Benz a survécu, mais ses rivaux ont
pour la plupart disparu.
La première entreprise automobile américaine se nommait Duryea. Elle
n’a duré que quelques années. Être premier ne garantit pas le succès. Bien
que l’automobile soit une innovation radicale, elle a progressé, année
après année, de façon lente et constante, sur plus d’un siècle d’innovations
supplémentaires (avec quelques modifications radicales des composants).
Les voitures d’aujourd’hui sont beaucoup plus silencieuses, plus rapides,
plus efficaces, plus confortables, plus sûres et moins chères (corrigées en
fonction de l’inflation) que les véhicules antérieurs.
L’innovation radicale change les paradigmes. La machine à écrire était une
innovation radicale qui a eu un impact considérable sur la rédaction au
bureau et à la maison. Cela a conduit à la définition du travail de secrétaire
vers une impasse plutôt que d’être le premier pas vers un poste de
direction. De même, l’automobile a transformé la vie de famille,
permettant aux personnes de vivre à distance de leur travail et ayant un
impact radical sur le monde des affaires. Elle s’est également avérée être
une source importante de pollution atmosphérique (bien que cela ait
éliminé le fumier de cheval des rues de la ville). C’est une cause majeure
de décès accidentel, avec un taux de mortalité annuel supérieur à un
million. L’introduction de l’éclairage électrique, l’avion, la radio, la
télévision, l’ordinateur à la maison et les réseaux sociaux ont tous eu un
impact social considérable. Les appareils mobiles ont transformé
l’industrie du téléphone et l’utilisation du système de communication dont
la technique est appelée commutation de paquets a conduit à Internet. Ce
sont des innovations radicales. L’innovation radicale change des vies et
des industries. L’innovation incrémentale améliore les choses. Nous avons
besoin des deux.

Innovation incrémentale
Les conceptions évoluent pour la plupart grâce à des innovations
incrémentales, au moyen de tests et de perfectionnements continus. Dans
le cas idéal, la conception est testée, les zones à problèmes sont
découvertes et modifiées, puis le produit est continuellement soumis à un
nouveau test et à une modification. Si un changement ne fait qu’empirer
les choses, eh bien, il sera encore modifié. Finalement, les mauvaises
caractéristiques sont améliorées et les bonnes sont conservées. Le terme
technique utilisé pour désigner ce processus est l’escalade les yeux bandés.
On déplace le pied dans une direction. S’il va en descente, on teste une
autre direction ; s’il va vers le haut, on fait un pas. On continue de la sorte
jusqu’à ce que l’on atteigne un point où tous les tests iraient en descente.
À ce moment-là, on est au sommet de la colline, ou au moins à un sommet
local.
La méthode de l’escalade est le secret de l’innovation incrémentale. Ceci
est au cœur du processus de conception centré utilisateur (chapitre 6). Est-
ce que l’escalade fonctionne toujours ? Cela garantit que la conception
atteindra le sommet de la colline sur laquelle elle se trouve ; en revanche,
l’escalade ne sait pas trouver de plus hauts sommets. Seule une innovation
radicale vous conduira sur d’autres pentes, même si ce n’est pas toujours
dans le sens de la montée.

Innovation radicale
Alors que l’innovation incrémentale commence par les produits existants
et les améliore, l’innovation radicale, elle, est un nouveau départ, souvent
tiré par les nouvelles technologies. Ainsi, l’invention des tubes à vide était
une innovation radicale, ouvrant la voie à des progrès rapides de la radio et
de la télévision. De même, l’invention du transistor a permis des avancées
considérables en matière d’appareils électroniques, de puissance de calcul,
de fiabilité accrue et de réduction des coûts. Le développement des
satellites GPS a déclenché un torrent de services de localisation.
Un deuxième facteur est la reconsidération de la signification de la
technologie. Les réseaux de données modernes servent d’exemple. Les
journaux, les magazines et les livres étaient autrefois considérés comme
faisant partie de l’industrie de l’édition, très différente de la radio et de la
télévision. Et tous étaient différents des films et de la musique. Pourtant,
une fois qu’Internet s’est installé, avec une puissance informatique et de
meilleurs affichages peu coûteux, il est devenu évident que tous ces
secteurs distincts n’étaient en réalité que des formes différentes de
fournisseurs d’informations, de sorte que tout pouvait être transmis aux
clients par un seul média. Cette redéfinition regroupe les industries de
l’édition, du téléphone, de la télévision, du câble et de la musique. Nous
avons toujours des livres, des journaux et des magazines, des émissions de
télévision et des films, des musiciens et de la musique, mais la façon dont
ils sont distribués a changé, ce qui nécessite une restructuration en
profondeur de leurs industries respectives. Les jeux électroniques, autre
innovation radicale, se combinent avec le film et la vidéo, d’une part, et
les livres, de l’autre, pour former de nouveaux types de participation
interactive. L’effondrement des industries est toujours en cours et ce qui
les remplacera n’est pas encore clairement déterminé.
Beaucoup de gens recherchent une innovation radicale, car c’est la forme
de changement la plus grande et la plus spectaculaire. Cependant, la
plupart des idées radicales échouent et même celles qui réussissent y sont
arrivées après des décennies, voire des siècles. L’innovation graduelle de
produits est difficile, mais ces difficultés sont insignifiantes comparées aux
défis de l’innovation radicale. Des innovations graduelles se produisent
par millions chaque année, l’innovation radicale est beaucoup moins
fréquente.
Quelles sont les industries prêtes pour une innovation radicale ? Essayez
l’éducation, les transports, la médecine et le logement, qui sont tous en
retard pour une transformation majeure.

Le design des objets du quotidien : 1988-


2038
La technologie change rapidement, les personnes et la culture évoluent
doucement. Comme a dit Alphonse Karr, « plus ça change, plus c’est la
même chose ».
Un changement graduel des personnes a toujours lieu, mais l’évolution
humaine est mesurée sur des milliers d’années. Les cultures humaines
changent un peu plus rapidement, au cours de périodes mesurées en
décennies ou en siècles. Les microcultures, par exemple la différence entre
les adolescents et les adultes, peuvent changer d’une génération à l’autre.
Cela signifie que, bien que la technologie introduise continuellement de
nouveaux moyens de faire les choses, les gens résistent aux changements
dans leur façon de procéder.
Prenons trois exemples simples : l’interaction sociale, la communication et
la musique. Voilà trois activités humaines différentes, mais elles sont
toutes si fondamentales dans la vie humaine qu’elles ont persisté au cours
de l’histoire et vont persister, en dépit de changements majeurs dans les
technologies. Il en va de même avec la nourriture ; les nouvelles
technologies vont changer les types d’aliments que nous mangeons et la
façon dont ils sont préparés, mais n’élimineront jamais le besoin de
manger. Les gens me demandent souvent de prédire « le prochain grand
changement ». Ma réponse est de leur demander d’examiner certains
principes fondamentaux, tels que l’interaction sociale, la communication,
le sport, le jeu, la musique et le divertissement. Les changements se
produiront dans des domaines d’activité tels que ceux-ci. On peut ajouter
d’autres fondamentaux : l’éducation (et l’apprentissage), les affaires (et le
commerce), les transports, l’expression de soi, les arts et bien sûr le sexe.
N’oubliez pas le besoin d’une bonne santé, de nourriture, de boissons, de
vêtements et de logements. Les besoins fondamentaux resteront
identiques, même s’ils sont satisfaits de manières radicalement différentes.
Design des objets du quotidien a été publié pour la première fois en 1988
(le titre était The psychology of everyday things). Depuis la publication
initiale, la technologie a tellement changé que, même si les principes sont
restés les mêmes, nombre d’exemples de 1988 ne sont plus pertinents. La
technologie d’interaction a changé. Oh oui, les portes, les interrupteurs et
les robinets offrent toujours les mêmes difficultés qu’à l’époque, mais
nous avons maintenant de nouvelles sources de problèmes et de confusion.
Les principes qui ont fonctionné auparavant sont toujours vrais mais,
maintenant, ils doivent aussi s’appliquer aux machines intelligentes, à
l’interaction continue avec de grandes sources de données, aux réseaux
sociaux ainsi qu’aux systèmes et produits de communication qui
permettent une interaction avec des amis et des connaissances à travers le
monde.
Nous faisons des gestes et dansons pour interagir avec nos appareils et, à
leur tour, ils interagissent avec nous par le son, le toucher et par le biais
d’affichages multiples de toute taille (nous en portons certains, d’autres
sont sur le sol, les murs ou les plafonds et d’autres encore sont projetés
directement dans nos yeux). Nous parlons à nos appareils et ils répondent.
Et à mesure qu’ils deviennent de plus en plus intelligents, ils prennent en
charge de nombreuses activités que nous pensions réalisables uniquement
par des humains. L’intelligence artificielle imprègne nos vies et nos
appareils, de nos thermostats à nos automobiles. Les technologies sont en
constante évolution.

Avec le changement technologique, les personnes


restent-elles identiques ?
Alors que nous développons de nouvelles formes d’interaction et de
communication, quels sont les nouveaux principes à appliquer ? Que se
passe-t-il lorsque nous portons des lunettes de réalité augmentée ou que
nous intégrons de plus en plus de technologie dans notre corps ? Les
gestes et les mouvements du corps sont amusants, mais pas très précis.
Pendant de nombreux millénaires, même si la technologie a radicalement
changé, les hommes sont restés les mêmes. Est-ce que cela sera vrai dans
le futur ? Que se passe-t-il lorsque nous améliorons de plus en plus
l’intérieur du corps humain ? Les personnes ayant des prothèses seront
plus rapides, plus fortes que les joueurs sans prothèses. Les appareils
auditifs implantés, les lentilles et les cornées artificielles sont déjà utilisés.
Les dispositifs de mémoire et de communication implantés signifieront
que certaines personnes auront, en permanence, une réalité améliorée, ne
manquant jamais d’informations. Les dispositifs informatiques implantés
amélioreraient la réflexion, la résolution de problèmes et la prise de
décision. Les gens pourraient devenir des cyborgs : en partie biologie, en
partie technologie artificielle. À l’inverse, les machines ressembleront
davantage à des personnes, avec des capacités de calcul neuronales et un
comportement humain. De plus, de nouveaux développements en biologie
pourraient s’ajouter à la liste des suppléments artificiels, avec modification
génétique des personnes, des traitements biologiques et des appareils pour
les machines.
Tous ces changements soulèvent des problèmes éthiques considérables.
L’idée selon laquelle, même si la technologie évolue, les personnes restent
les mêmes est peut-être devenue fausse. De plus, une nouvelle espèce est
en train de naître, des dispositifs artificiels qui possèdent un grand nombre
des capacités des animaux ou des humains et, parfois des capacités
supérieures. Les machines sont clairement plus puissantes et plus rapides ;
même le simple calculateur de bureau manipule l’arithmétique mieux que
nous et beaucoup de programmes informatiques résolvent des problèmes
de mathématiques avancées qui nous dépassent. Les gens et les machines
changent. Cela signifie que les cultures le font aussi.
Il ne fait aucun doute que l’état de la technologie à un moment donné a un
impact considérable sur la culture humaine, sur nos vies, la taille de nos
familles et nos conditions de vie, ainsi que le rôle joué par les entreprises
et l’éducation dans notre vie. Les technologies de communication
modernes modifient la nature du travail en commun. Tandis que certaines
personnes acquièrent des compétences cognitives avancées grâce aux
implants, certaines machines acquièrent des qualités humaines améliorées
grâce aux technologies de pointe, à l’intelligence artificielle et peut-être
aux technologies bioniques. Technologie, personnes et cultures, davantage
de changements nous attendent encore.

Ce qui nous rend intelligent


Associez l’utilisation des gestes corporels à des appareils auditifs et
visuels de haute qualité qui se superposent aux sons et aux images du
monde pour les amplifier, les expliquer et les annoter, et vous donnez aux
gens un pouvoir qui va au-delà de tout ce que l’on a connu jusqu’alors.
Que signifient les limites de la mémoire humaine lorsqu’une machine peut
nous rappeler tout ce qui s’est passé auparavant, au moment précis où
l’information est nécessaire ? Un des arguments est que la technologie
nous rend intelligents ; grâce à elle, nous nous souvenons beaucoup plus et
nos capacités cognitives sont bien améliorées.
Un autre argument maintient à l’inverse que la technologie nous rend
stupides. Bien sûr, nous avons l’air intelligent avec la technologie mais, si
nous la retirons, notre situation deviendra pire qu’elle était auparavant.
Nous sommes devenus dépendants de nos technologies pour parcourir le
monde, pour avoir une conversation intelligente, pour écrire
intelligemment et pour nous souvenir.
Dès lors que la technologie sait calculer à notre place, se souvenir et nous
indiquer comment nous comporter, nous n’avons plus besoin d’apprendre
ces choses. Cependant, dès l’instant où la technologie disparaît, nous nous
retrouvons sans défense, incapables de remplir les fonctions de base. Nous
sommes maintenant tellement dépendants de la technologie que, lorsque
nous en sommes privés, nous souffrons. Nous sommes incapables de
fabriquer nos propres vêtements à partir de plantes et de peaux d’animaux,
incapables de faire pousser et de récolter des cultures ou de capturer des
animaux. Sans technologie, nous mourrions de faim ou de froid. Irions-
nous jusqu’à tomber dans un état équivalent à l’ignorance ?
Ces craintes existent depuis longtemps. Dans la Grèce antique, Platon
nous raconte que Socrate se plaignait de l’impact des livres, affirmant que
le recours à des écrits réduirait non seulement la mémoire, mais le besoin
même de penser, de débattre, d’apprendre par la discussion. Après tout,
argumentait Socrate, quand une personne vous dit quelque chose, vous
pouvez remettre en question son affirmation, en discuter et en débattre,
améliorant ainsi le contenu et la compréhension. Avec un livre, vous ne
pouvez pas argumenter.
Pourtant, au fil des ans, le cerveau humain est resté à peu près le même.
L’intelligence humaine n’a certainement pas diminué. Certes, nous
n’apprenons plus comment mémoriser de grandes quantités
d’informations. Nous n’avons plus besoin de maîtriser parfaitement
l’arithmétique, car les calculatrices (présentes sur presque tous les
ordinateurs ou téléphones) se chargent de cette tâche pour nous. Pour
autant, cela nous rend-ils stupides ? Le fait que je ne me souvienne plus de
mon numéro de téléphone indique-t-il une croissance de mes faiblesses ?
Non, au contraire, cela libère l’esprit de la petite tyrannie consistant à
tendre vers ce qui est trivial et lui permet de se concentrer sur ce qui est
important et critique.
Le recours à la technologie profite à l’humanité. Le cerveau ne devient ni
meilleur ni pire ; au lieu de cela, c’est la tâche qui change. L’humain plus
la machine donnent un résultat plus puissant que l’homme ou la machine
seuls.
La meilleure machine pour jouer aux échecs parvient à battre le meilleur
joueur humain. En revanche, la combinaison humain plus machine sait
battre le meilleur humain ou le meilleur ordinateur. De plus, cette
combinaison gagnante n’a pas besoin du meilleur humain ou de la
meilleure machine, comme l’a expliqué Erik Brynjolfsson, professeur au
MIT, lors d’une réunion de l’Académie nationale d’ingénierie.
Aujourd’hui, le meilleur joueur d’échecs du monde n’est ni un ordinateur,
ni un humain, mais une équipe d’humains et d’ordinateurs travaillant
ensemble. Dans les compétitions d’échecs freestyle, où des équipes
d’humains et d’ordinateurs s’affrontent, les gagnants ont tendance à ne
pas être les équipes dotées des ordinateurs les plus puissants, ni des
meilleurs joueurs d’échecs. Les équipes gagnantes sont en mesure de tirer
parti des compétences uniques des humains et des ordinateurs pour
travailler ensemble. C’est un atout pour ce que nous pouvons faire pour
l’avenir : faire en sorte que les personnes et la technologie travaillent
ensemble pour créer de la valeur.
Brynjolfsson, 2012.
Brynjolfsson et Andrew McAfee citent Gary Kasparov, champion du
monde humain d’échecs, qui décrivait une équipe gagnante comme suit :
Un ensemble de joueurs amateurs d’échecs américains utilisant trois
ordinateurs en même temps. Leur habileté à manipuler et à « entraîner »
leurs ordinateurs, à examiner très profondément les positions
contrecarrait efficacement la meilleure compréhension des échecs de leurs
adversaires et de la plus grande puissance de calcul des autres
participants. L’ensemble faible d’un humain, plus une machine, plus un
meilleur traitement, était supérieur à l’ensemble fort d’un humain, plus un
ordinateur, plus un faible traitement.
Brynjolfsson et McAfee, 2011.
De plus, Brynjolfsson et McAfee font valoir que le même schéma se
retrouve dans de nombreuses activités, tant commerciales que
scientifiques : « La clé pour gagner la course n’est pas de se battre contre
les machines, mais de se battre avec elles. Heureusement, les humains sont
plus forts là où les ordinateurs sont faibles, créant ainsi un partenariat
potentiellement magnifique. »
Le scientifique cognitif (et anthropologue) Edwin Hutchins de l’université
de Californie à San Diego a défendu le pouvoir de la cognition distribuée,
dans laquelle certaines composantes sont réalisées par des personnes
(éventuellement réparties dans le temps et l’espace) et d’autres par nos
technologies. C’est lui qui m’a appris à quel point cette combinaison nous
rend puissants. La technologie ne nous rend pas stupides, au contraire ;
elle change les tâches que nous faisons. Tout comme le meilleur joueur
d’échecs est une combinaison d’humain et de technologie, nous, en
combinaison avec la technologie, sommes plus intelligents que jamais.
Comme je le dis dans mon livre Things that make us smart (les choses qui
nous rendent intelligents), le pouvoir de l’esprit sans aide est fortement
surestimé. Ce sont les objets qui nous rendent intelligents.
Le pouvoir de l’esprit sans aide est fortement surestimé. Sans aide externe,
un raisonnement profond et soutenu est difficile. La mémoire spontanée, la
pensée et le raisonnement sont tous limités en puissance. L’intelligence
humaine est extrêmement flexible et adaptable et elle est capable
d’inventer des procédures et des objets qui dépassent ses propres limites.
Le véritable pouvoir provient de la conception d’aides externes qui
améliorent les capacités cognitives. Comment avons-nous augmenté la
mémoire, la pensée et le raisonnement ? Par l’invention d’aides externes :
ce sont les choses qui nous rendent intelligents. Une certaine assistance
provient d’un comportement social coopératif, une autre provient de
l’exploitation de l’information présente dans l’environnement. Certaines
informations proviennent du développement d’outils de pensée, d’artefacts
cognitifs, qui complètent les capacités et renforcent les pouvoirs mentaux.
Introduction du chapitre 3, Things that make us smart, 1993.

Le futur du livre
C’est une chose d’avoir des outils qui aident à écrire des livres standards,
mais c’en est une autre lorsque les outils transforment radicalement le
livre.
Pourquoi un livre devrait-il être composé de mots et d’illustrations
destinés à être lus de manière linéaire, du début à la fin ? Pourquoi ne
pourrait-il pas être composé de petites sections à lire dans l’ordre
souhaité ? Pourquoi ne devrait-il pas être dynamique, avec des segments
vidéo et audio, susceptibles de changer en fonction du lecteur ? Pourquoi
ne pourrait-on pas lire les notes rédigées par d’autres lecteurs, ou les
dernières idées de l’auteur ? Pourquoi le contenu du livre ne pourrait-il pas
changer en cours de lecture ? Même le concept de texte complète son
sens : voix, vidéo, images, graphiques et mots.
Certains auteurs, en particulier de fiction, peuvent encore préférer le récit
linéaire, car ils sont des conteurs ; dans les contes, l’ordre dans lequel les
personnages et les événements sont amenés est important pour garder le
lecteur captivé et gérer les hauts et les bas émotionnels qui caractérisent
les grandes histoires. En revanche, pour les ouvrages qui ne sont pas des
fictions, comme celui-ci, l’ordre n’est pas aussi important. Ce livre ne
tente pas de manipuler vos émotions, de vous faire attendre ou d’avoir des
sommets dramatiques. Vous devriez pouvoir en faire l’expérience dans
l’ordre que vous souhaitez, en lisant des éléments hors séquence et en
ignorant tout ce qui ne correspond pas à vos besoins.
Supposons que ce livre soit interactif ; si vous avez du mal à comprendre
quelque chose, vous cliquez sur la page et je surgis pour vous donner des
explications. J’ai essayé cela il y a plusieurs années avec trois de mes
ouvrages, tous combinés dans un seul livre électronique interactif.
Malheureusement, la tentative a été boudée par les démons de la
conception de produits ; les bonnes idées qui apparaissent trop tôt
échouent. Il a fallu beaucoup d’efforts pour produire ce livre. J’ai travaillé
avec une grande équipe de personnes de Voyager Books, qui sont venus à
plusieurs reprises, pendant presque un an, à Santa Monica, en Californie,
pour filmer et enregistrer mes parties. Robert Stein, responsable de
Voyager, a réuni une équipe talentueuse d’éditeurs, de producteurs, de
vidéastes, de concepteurs interactifs et d’illustrateurs. Hélas, le résultat a
été produit dans un système informatique appelé HyperCard, un outil
intelligent développé par Apple mais jamais vraiment suivi. Finalement,
Apple a cessé de le prendre en charge et, même si j’ai encore des copies
des disques originaux, ils ne fonctionneront sur aucune machine existante.
Et, même si c’était le cas, la résolution vidéo est très mauvaise par rapport
aux normes actuelles.
Remarquez la phrase « Il a fallu beaucoup d’efforts pour produire ce
livre ». Je ne me souviens même pas du nombre de collaborateurs
impliqués, mais le générique inclut les éléments suivants : éditeur,
producteur, directeur artistique, graphiste, programmeur, concepteurs
d’interfaces (quatre, moi compris), l’équipe de production (vingt-sept),
puis un merci spécial à dix-sept personnes.
Figure 7–5 Le livre électronique interactif de Voyager. La figure A, à gauche,
représente une page de l’ouvrage. La figure B, à droite, me montre expliquant la
conception des graphes dans mon livre électronique.

Oui, aujourd’hui, tout le monde est capable de filmer une vidéo et d’en
réaliser un rapide montage. En revanche, produire un livre multimédia de
niveau professionnel d’environ trois cents pages ou deux heures de vidéo
(ou une combinaison des deux), qui sera lu et apprécié par des gens du
monde entier, requiert une grande variété de compétences. Les amateurs
peuvent créer une vidéo de cinq ou dix minutes, mais tout ce qui est au-
delà nécessite des compétences exceptionnelles en montage. De plus, il
doit y avoir un écrivain, un cameraman, un preneur de son et un
éclairagiste. Un directeur doit coordonner ces activités et sélectionner la
meilleure approche pour chaque scène (chapitre). Un éditeur habile est
nécessaire pour reconstituer les segments. Un ouvrage électronique sur
l’environnement, Our choice d’Al Gore (2011), répertorie un grand
nombre de collaborateurs : éditeurs (deux), directeur de production,
éditeur de production et production, superviseur, architecte logiciel,
ingénieur d’interface utilisateur, ingénieur, graphismes interactifs,
animations, conception graphique, éditeur de photos, monteurs vidéo
(deux), cameraman, musique et concepteur de couvertures. Comment sera
l’avenir du livre ? Très cher.
L’avènement des nouvelles technologies rend les livres, les médias
interactifs et toutes sortes de matériels éducatifs et récréatifs plus efficaces
et plus agréables. Chacun des nombreux outils facilite la création. En
conséquence, nous assisterons à une prolifération de matériaux. Pour la
plupart, ils seront amateurs, incomplets et quelque peu incohérents.
Cependant, même les productions d’amateurs jouent un rôle précieux dans
notre vie, comme le montre l’immense prolifération de vidéos disponibles
sur Internet. On nous explique tout en matière de cuisson du pajeon
coréen, de réparation d’un robinet, de compréhension des équations ou des
ondes électromagnétiques de Maxwell. Cependant, pour un matériel
professionnel de haute qualité qui raconte une histoire cohérente de
manière fiable, où les faits ont été vérifiés, des experts sont nécessaires.
La combinaison de technologies et d’outils facilite la création rapide, mais
complique la création des documents de qualité professionnelle. La société
du futur, on l’attend avec plaisir, contemplation et crainte.

L’obligation morale de la conception


Que la conception affecte la société n’est pas une nouveauté pour les
concepteurs. Beaucoup prennent au sérieux les implications de leur travail.
Toutefois, la manipulation consciente de la société présente de graves
inconvénients, dont le fait que tout le monde n’est pas d’accord sur les
objectifs à atteindre. La conception prend donc une signification politique.
En effet, les philosophies varient de manière importante selon les systèmes
politiques. Dans les cultures occidentales, la conception reflète
l’importance capitaliste du marché, en mettant l’accent sur les
caractéristiques extérieures jugées attractives pour l’acheteur. Dans
l’économie de consommation, le goût n’est pas le critère retenu dans la
commercialisation d’aliments ou de boissons, pas plus que la convivialité
est le critère principal dans la commercialisation d’appareils domestiques
et de bureau. Nous sommes entourés d’objets de désir et non d’objets pour
l’utilisation.

Fonctions inutiles, modèles inutiles : bon pour les


affaires, mauvais pour l’environnement
Dans un monde de produits de consommation, tels que la nourriture et les
informations, il y a toujours besoin de plus de nourriture et de nouvelles.
Lorsque le produit est consommé, le client est le consommateur. C’est un
cycle sans fin. Dans le monde des services, il en va de même. Quelqu’un
doit cuisiner et servir la nourriture dans un restaurant, prendre soin de nous
quand nous sommes malades, effectuer les transactions quotidiennes dont
nous avons tous besoin. Les services peuvent être autonomes parce que le
besoin existe toujours.
Cependant, une entreprise qui fabrique et vend des biens durables se
heurte à un problème : dès que tous ceux qui veulent le produit l’ont, ils
n’ont plus besoin d’autre chose et les ventes vont cesser. La société va
fermer ses portes.
Dans les années 1920, les fabricants ont délibérément envisagé les moyens
de rendre leurs produits obsolètes (néanmoins, cette pratique existait déjà
depuis longtemps). Les produits ont été construits avec une durée de vie
limitée. Les automobiles ont été conçues pour partir en morceaux. Une
histoire raconte que Henry Ford avait acheté des voitures Ford mises au
rebut et que ses ingénieurs les démontaient pour voir quelles pièces étaient
en panne et lesquelles étaient toujours en bon état. Les ingénieurs ont
supposé que cela visait à trouver les parties faibles et les rendre plus
fortes. Non ! Ford a expliqué qu’il souhaitait trouver les pièces encore en
bon état. La société pourrait gagner de l’argent si elle redessinait ces
pièces pour qu’elles se cassent en même temps que les autres.
Faire tomber les objets en panne n’est pas le seul moyen de maintenir les
ventes. L’industrie du vêtement pour femmes en est un exemple : ce qui
est à la mode cette année ne le sera pas l’année prochaine. Nous
encourageons donc les femmes à remplacer leur garde-robe chaque saison,
chaque année. La même philosophie s’est rapidement étendue à l’industrie
automobile, où de réguliers et radicaux changements de style ont mis en
évidence les hommes qui étaient d’actualité par rapport aux retardataires
conduisant des véhicules à l’ancienne. Il en va de même pour nos écrans
intelligents, nos appareils photo et nos téléviseurs. Même la cuisine et la
buanderie, où les appareils ont duré des décennies, ont été témoins de
l’impact de la mode. Désormais, des fonctionnalités obsolètes, un style
obsolète et même des couleurs obsolètes incitent les propriétaires à
changer. Il y a quelques différences entre les sexes. Les hommes ne sont
pas aussi sensibles que les femmes à la mode vestimentaire, mais ils
compensent largement leur différence par leur intérêt pour les dernières
tendances en matière d’automobile et d’autres technologies.
Pourquoi acheter un nouvel ordinateur alors que l’ancien fonctionne
parfaitement ? Pourquoi acheter une nouvelle table de cuisson ou un
réfrigérateur, un téléphone ou un appareil photo ? Avons-nous vraiment
besoin du distributeur de glaçons dans la porte du réfrigérateur, de l’écran
d’affichage de la porte du four, du système de navigation qui utilise des
images en trois dimensions ? Quel est le coût pour l’environnement de
tous les matériaux et de l’énergie utilisés pour fabriquer les nouveaux
produits, sans parler des problèmes de mise au rebut des anciens ?
Un autre modèle de durabilité est l’abonnement. Avez-vous un livre
électronique, ou un lecteur de musique ou de vidéo ? Abonnez-vous au
service qui fournit des articles et des informations, de la musique et du
divertissement, des vidéos et des films. Ce sont tous des consommables.
Ainsi, même si l’écran intelligent est un bien fixe et durable, l’abonnement
garantit un flux constant d’argent en échange de services. Bien entendu,
cela ne fonctionne que si le fabricant du bien durable est également le
fournisseur de services. Sinon, quelles sont les alternatives ?
Chaque année, un nouveau modèle sort sur le marché. Il est tout aussi bon
que celui de l’année précédente, prétendant seulement être meilleur. Il
augmente toujours en puissance et en fonctionnalités. Regardez toutes les
nouvelles fonctionnalités. Comment faisiez-vous sans elles ? Pendant ce
temps, scientifiques, ingénieurs et inventeurs développent des technologies
encore plus récentes. Aimez-vous votre télévision ? Et si elle était en trois
dimensions ? Avec plusieurs canaux de son surround ? Avec des lunettes
virtuelles pour être entouré d’images sur 360 degrés ? Tournez la tête ou le
corps et voyez ce qui se passe derrière vous. Lorsque vous regardez du
sport, vous faites partie de l’équipe et expérimentez le jeu comme elle. Les
voitures, non seulement conduiront ellesmêmes pour plus de sécurité, mais
fourniront aussi beaucoup de divertissements le long du chemin. Les jeux
vidéo continueront d’ajouter des couches et des chapitres, de nouvelles
lignes d’histoire et de nouveaux personnages et, bien sûr, des
environnements virtuels 3D. Les appareils électroménagers vont se parler,
racontant aux ménages éloignés les secrets de nos habitudes d’utilisation.
La conception d’objets quotidiens risque fort de devenir la conception de
choses superflues, surchargées, inutiles.
Design Thinking and Thinking about design
La conception ne réussit que si le produit final a du succès, si les gens
l’achètent, l’utilisent et l’apprécient, diffusant ainsi le message. Une
conception que les gens n’achètent pas est une conception ratée, quelle
que soit sa qualité.
Les concepteurs doivent créer des produits qui répondent aux besoins des
utilisateurs, qui soient fonctionnels, compréhensibles, utilisables et
capables de générer une satisfaction émotionnelle, une fierté et un plaisir.
En d’autres termes, la conception doit être considérée comme une
expérience totale. Malgré tout, les produits performants nécessitent plus
qu’une belle conception. Ils doivent pouvoir être produits de manière
fiable, efficace et dans les délais. Si la conception complique tellement les
exigences techniques qu’il est impossible de la satisfaire dans le respect
des contraintes de coût et de planification, elle est alors défectueuse. De
même, si la fabrication est incapable de produire le produit, alors la
conception est défectueuse.
Les considérations commerciales sont importantes. Les concepteurs
veulent satisfaire les besoins des gens. Les commerciaux veulent s’assurer
que les gens achètent et utilisent réellement le produit. Ce sont deux
ensembles d’exigences différents, que la conception doit satisfaire
simultanément. Peu importe la qualité de la conception si les gens ne
l’achètent pas. Et peu importe le nombre de personnes qui achètent
quelque chose s’ils ne l’aiment pas quand ils l’utilisent. Les concepteurs
seront plus efficaces à mesure qu’ils en apprendront davantage sur les
ventes et le marketing, ainsi que sur les aspects financiers de l’entreprise.
Enfin, les produits ont un cycle de vie complexe. De nombreuses
personnes auront besoin d’aide pour utiliser un appareil, soit parce que la
conception et le manuel ne sont pas clairs, soit parce qu’ils font quelque
chose de nouveau qui n’a pas été pris en compte dans le développement du
produit, ou pour de nombreuses autres raisons. Si l’aide fournie à ces
personnes est insuffisante, le produit en souffrira. De même, si l’appareil
doit être entretenu, réparé ou mis à niveau, cela affecte l’appréciation
qu’on lui porte.
Dans le monde sensible à l’environnement d’aujourd’hui, le cycle de vie
complet du produit doit être pris en compte. Quels sont les coûts
environnementaux des matériaux, du processus de fabrication, de la
distribution, de l’entretien et des réparations ? Lorsqu’il est temps de
remplacer un produit, quel est l’impact sur l’environnement du recyclage
ou de la réutilisation des anciens produits ?
Le processus de développement du produit est complexe et difficile. C’est
à mes yeux ce qui le rend si gratifiant. Les excellents produits traversent
les défis. Pour satisfaire la myriade de besoins, il faut de la compétence et
de la patience. Ainsi, pour interagir avec les nombreux autres groupes
impliqués, qui ont tous leur propre agenda et qui croient tous que leurs
exigences sont essentielles, il est nécessaire de posséder des compétences
techniques, notamment en affaires et dans les relations sociales.
La conception consiste en une série de défis merveilleux et passionnants,
chacun constituant une opportunité. Comme tous les grands drames, elle a
ses hauts et ses bas émotionnels, ses pics et ses vallées. Les excellents
produits surmontent ces embûches.
Si vous êtes un concepteur, aidez-nous à lutter pour la convivialité. Si vous
êtes un utilisateur, joignez votre voix à celles de ceux qui réclament des
produits utilisables. Écrivez aux fabricants. Rejetez les conceptions
inutilisables. Soutenez les bonnes en les achetant, même si cela signifie
que vous devez dépenser un peu plus. Et faites part de vos préoccupations
aux magasins qui vendent les produits, car les fabricants écoutent leurs
clients.
Lorsque vous visitez un musée des sciences et de la technologie, posez des
questions si vous avez du mal à comprendre. Fournissez des avis sur les
expositions et demandez si elles fonctionnent bien ou mal. Encouragez les
musées à rechercher une utilisation et une compréhensibilité meilleures.
Et amusez-vous. Faites le tour du monde en examinant les détails de la
conception. Apprenez à observer. Soyez fier des petites choses qui vous
aident, pensez gentiment à la personne qui les a si judicieusement mises en
place. Comprenez que même les détails sont importants, que le concepteur
a peut-être dû se battre pour inclure quelque chose d’utile. Si vous
rencontrez des difficultés, n’oubliez pas que ce n’est pas votre faute, que la
conception est mauvaise. Récompensez ceux qui pratiquent le bon design,
envoyez des fleurs. À ceux qui ne le font pas, envoyez des mauvaises
herbes.

L’ascension des petits


Je rêve du pouvoir des individus, seuls ou en petits groupes, de libérer leur
esprit créatif et leurs talents pour développer un large éventail
d’innovations. Les nouvelles technologies promettent de rendre cela
possible. Maintenant, pour la première fois dans l’histoire, les individus
ont un moyen de partager leurs idées, leurs pensées et leurs rêves. Ils
peuvent fabriquer leurs propres produits, leurs propres services et les
mettre à la disposition de quiconque dans le monde. Il est possible de
devenir son propre maître, exerçant ses talents et ses intérêts particuliers.
Qu’est-ce qui motive ce rêve ? La montée en puissance de petits outils
efficaces qui responsabilisent les individus. La liste est longue et ne cesse
de s’allonger. Prenez par exemple la montée de l’exploration musicale à
l’aide d’instruments conventionnels, électroniques et virtuels. Pensez à
l’essor de l’autoédition, en contournant les éditeurs classiques, les
imprimeurs et les distributeurs, en les remplaçant par des éditions
électroniques peu coûteuses, accessibles à tous et téléchargeables sur des
lecteurs de livres électroniques.
Admirez la montée en puissance de milliards de petites vidéos accessibles
à tous. Autopromotionnelles, éducatives, humoristiques ou sérieuses, elles
couvrent tous les sujets, de la fabrication du spaetzle à la compréhension
des mathématiques, en passant par la danse ou la pratique d’un instrument
de musique. Certains films sont purement produits à des fins de
divertissement. Les universités se mettent au travail en partageant des
programmes complets, y compris des vidéos de conférences. Les étudiants
postent leurs devoirs sous forme de vidéos et de textes, ce qui permet au
monde entier de bénéficier de leurs travaux. Considérez le même
phénomène dans l’écriture, le compte rendu d’événements et la création de
musique et d’art.
Ajoutez à ces fonctionnalités la disponibilité immédiate de moteurs,
capteurs, calculateurs et outils de communication peu coûteux. Examinons
maintenant le potentiel des performances des imprimantes 3D tout en
diminuant leur prix, offrant aux utilisateurs l’opportunité de fabriquer des
éléments personnalisés à tout moment. Les concepteurs du monde entier
publieront leurs idées et leurs plans, permettant ainsi à de nouvelles
industries de produire en série sur mesure, en petites comme en grandes
quantités. Les utilisateurs peuvent concevoir leurs propres articles ou
s’appuyer sur un nombre croissant de concepteurs indépendants qui
publieront des plans personnalisables et imprimables dans les ateliers
d’imprimerie 3D locaux ou chez eux.
Pensez à la montée en puissance de spécialistes pour aider à planifier les
repas et à les cuisiner, pour modifier les conceptions en fonction des
besoins et de la situation, pour donner des cours sur un large éventail de
sujets. Les experts partagent leurs connaissances sur des blogs et sur
Wikipédia, tous par altruisme, récompensés par les remerciements de leurs
lecteurs.
Je rêve d’une renaissance des talents, où les gens ont le pouvoir de créer,
d’utiliser leurs compétences et leurs talents. Certains souhaitent la sécurité
du travail en entreprise, d’autres lancent leur propre activité, d’autres
encore agissent par passe-temps. Certains peuvent se regrouper en petits
groupes et coopératives afin de rassembler les compétences variées
requises par la technologie moderne, de partager leurs connaissances,
d’apprendre les uns les autres et de réunir la masse critique dont ils auront
toujours besoin, même pour de petits projets. D’autres s’embauchent pour
fournir les compétences nécessaires aux grands projets, tout en conservant
leur liberté et leur autorité.
Dans le passé, l’innovation existait dans les pays industrialisés et, avec le
temps, chaque innovation devenait de plus en plus puissante, de plus en
plus complexe, avec souvent une surabondance de fonctionnalités. Une
technologie plus ancienne a été donnée aux pays en voie de
développement. Le coût pour l’environnement était rarement pris en
compte. Avec l’ascension du faible, avec les nouvelles technologies
flexibles et peu coûteuses, le pouvoir change. Aujourd’hui, n’importe qui
dans le monde a la possibilité de créer, concevoir et fabriquer. Les pays
nouvellement développés en profitent pour concevoir et construire eux-
mêmes. De plus, ils développent par nécessité des dispositifs avancés
nécessitant moins d’énergie, plus simples à fabriquer, à entretenir et à
utiliser. Ils développent des procédures médicales ne nécessitant ni
réfrigération, ni accès continu à l’électricité. Au lieu d’utiliser la
technologie transmise, leurs résultats apportent une valeur ajoutée à
chacun d’entre nous.
Avec l’essor de l’interconnexion et de la communication mondiales, d’une
conception puissante et de méthodes de fabrication utilisables par tous, le
monde évolue rapidement. Le design est un puissant outil d’égalisation. Il
suffit d’observer, de faire preuve de créativité et de travailler dur – tout le
monde peut le faire. Avec les logiciels open source, les imprimantes 3D et
même l’éducation ouverte, nous avons les moyens de transformer le
monde.

Le monde change, alors qu’est-ce qui reste


immuable ?
Malgré les profondes évolutions, les principes fondamentaux restent
inchangés. Les êtres humains ont toujours été des êtres sociaux. Les
interactions sociales et la capacité de rester en contact avec des personnes
du monde entier, à travers le temps, existeront toujours. Les principes de
conception de ce livre ne changeront pas, car les principes de
découvrabilité, de rétroaction et de puissance des affordances et des
signifiants, du mapping et des modèles conceptuels seront toujours
valables. Même entièrement autonomes, les machines automatiques
suivront ces principes pour leurs interactions. Nos technologies changent,
mais les principes fondamentaux d’interaction sont permanents.
Notes générales

Dans les notes qui suivent, je commence par présenter des lectures
générales.
Ensuite, chapitre par chapitre, j’indique les sources utilisées ou citées dans
le livre.
Dans ce monde où l’accès à l’information est très rapide, vous pouvez
trouver, par vous-même, plus de détails sur les sujets présentés ici. Par
exemple, au chapitre 5, je parle de l’analyse de la cause originelle, mais
aussi de la méthode japonaise nommée les cinq pourquoi. Même si ce que
je dis sur ces concepts est suffisant pour la plupart des applications, les
lecteurs qui veulent en apprendre davantage peuvent utiliser leur moteur
de recherche préféré avec les mots-clés adéquats.
La plupart des informations peuvent donc se trouver en ligne. Le
problème, c’est que les liens Internet sont éphémères. Les emplacements
actuels ne seront pas forcément à la même place demain ou ne
fonctionneront plus, pour différentes raisons. On peut penser que, des
années après la publication de ce livre, de nouvelles méthodes de
recherche, améliorées, vont voir le jour. Il devrait même, dans l’absolu,
être plus facile de trouver plus d’information concernant les concepts
présentés dans cet ouvrage.
Ces notes sont d’excellents points de départ. Je fournis des références
essentielles, mises en relation avec chaque chapitre concerné. Les citations
ont deux fonctions. Elles fournissent d’abord le crédit aux personnes ayant
eu l’idée. Ensuite, elles sont le point de départ parmi d’autres pour obtenir
une compréhension plus poussée des concepts. Pour obtenir des
informations complémentaires, faites des recherches. De bonnes
techniques de recherche sont importantes si l’on veut réussir au XXIe
siècle.
Lectures générales
Lorsque la première édition de cet ouvrage a été publiée, la discipline du
design d’interaction n’existait pas, le champ de l’interaction homme-
machine en était à ses balbutiements et la plupart des recherches se
faisaient autour de l’utilisabilité ou de l’interface utilisateur. Des
disciplines très différentes ont tenté d’éclaircir cette entreprise mais c’était
souvent avec peu ou pas d’interaction entre elles. Les disciplines
académiques de l’informatique, de la psychologie, des facteurs humains et
de l’ergonomie, ont parfois travaillé ensemble mais jamais pour la
conception. Pourquoi ? Parce que les disciplines présentées ici font partie
des sciences et de l’ingénierie, en d’autres termes de la technologie. La
conception était plutôt enseignée dans les écoles d’art ou d’architecture, en
tant que profession et non pas comme discipline académique. Les
concepteurs avaient peu de contact avec les sciences et l’ingénierie. Cela
signifie donc que même si d’excellentes personnes étaient formées, il n’y
avait pratiquement pas de théorie. La conception s’apprenait sur le tas, à
l’aide de mentors.
Peu de personnes issues des disciplines académiques étaient au courant de
l’existence de la conception en tant que source sérieuse de réflexion. Par
conséquent, celle-ci se trouve totalement mise de côté dans l’interaction
homme-machine, cette nouvelle discipline naissante. Des traces de cette
distinction se ressentent encore aujourd’hui, même si la conception
s’appuie de plus en plus sur la recherche puisque les professeurs ont
désormais une expérience de la pratique tout comme les docteurs. Les
frontières s’estompent donc.
Cette histoire de groupes séparés travaillant sur des problèmes similaires
ne facilite pas la recherche de références qui couvrent à la fois le côté
académique de l’interaction, l’expérience de la conception et le côté
applicatif de la conception. La prolifération de livres, de textes et de
journaux sur les sujets donne un nombre de références trop important pour
les citer. Par la suite, je fournis un petit nombre d’exemples. Au départ,
quand j’ai réuni divers titres de travaux que je considérais comme
importants, la liste était trop longue. Je me suis donc servi du livre Le
Paradoxe du choix : Et si la culture de l’abondance nous éloignait du
bonheur ? de Barry Schwartz. Il est facile de trouver d’autres travaux, non
moins importants, qui seront publiés après cet ouvrage. En attendant, je
présente mes excuses à mes nombreux amis dont les travaux majeurs ont
été retirés de ma liste.
Le concepteur Bill Moggridge a eu beaucoup d’influence pour établir une
interaction dans la communauté des concepteurs. Il a joué un rôle essentiel
dans la conception du premier ordinateur portable. Il fait partie des trois
fondateurs de IDEO, l’une des entreprises de design les plus influentes. Il
a écrit deux livres où il interviewe avec les personnes clés du début du
développement de la discipline : Designing Interactions (2007) et
Designing Media (2010).
Comme cela est courant quand il s’agit de discussions au sujet de la
discipline de la conception, ses travaux se concentrent presque entièrement
sur la pratique de la conception, avec peu d’attention portée à la science.
Barry Katz est professeur de design au California College of the Arts de
San Francisco, d.school de Stanford et fellow IDEO. Il fournit un
historique très complet de la pratique de la conception au sein de la
communauté des entreprises de la Silicon Valley, en Californie. L’ouvrage
California : Ecosystem of Innovation: The History of Silicon Valley Design
(2014) fournit une très riche histoire du domaine de la conception de
produits. Le livre de Bürdek, publié à l’origine en allemand mais avec une
excellente traduction anglaise, constitue l’histoire la plus complète de la
conception de produits que j’ai pu trouver. Je le recommande vivement à
ceux qui veulent comprendre les fondements historiques.
Les concepteurs modernes aiment voir leur travail comme une source de
compréhension profonde des problèmes fondamentaux, et non uniquement
comme l’image populaire qu’on lui donne, c’est-à-dire celle de rendre les
choses jolies. Les concepteurs soulignent cet aspect de leur profession en
discutant de leur manière particulière d’aborder les problèmes, une
méthode qu’ils qualifient de « pensée conceptuelle ». Le livre L’esprit
design : Comment le design thinking transforme l’entreprise et inspire
l’innovation (2019), de Tim Brown et Barry Katz en est une bonne
introduction. Brown est PDG de IDEO et Katz membre de l’IDEO (voir
paragraphe précédent).
Hidden Plain Sight (2013) de Jan Chipchase et de Simon Steinhardt offre
quant à lui une excellente introduction à la recherche en conception. Le
livre raconte la vie d’un chercheur en conception qui étudie les gens à
travers le monde, en les observant chez eux, chez leur coiffeur et dans leur
quartier. Chipchase est directeur créatif exécutif de Global Insights chez
Frog Design, du bureau de Shanghai. Les travaux de Hugh Beyer et Karen
Holtzblatt dans l’ouvrage Contextual Design: Defining Customer-
Centered Systems (1998) présentent une méthode puissante d’analyse du
comportement ; ils sont également les auteurs d’un manuel (Holtzblatt,
Wendell and Wood, 2004).
Il existe de nombreux livres, tous excellents. En voici encore quelques-
uns :
Buxton, W. (2007). Sketching user experience: Getting the design right
and the right design. San Francisco, Morgan Kaufmann. (Consultez aussi
le livret qui l’accompagne de Greenberg, Carpendale, Marquardt &
Buxton, 2012.)
Coates, D. (2003). Watches tell more than time: Product design,
information, and the quest for elegance. New York, McGraw-Hill.
Cooper, A., Reimann, R. & Cronin, D. (2007). About face 3 : The
essentials of interaction design. Indianapolis, Wiley Pub.
Hassenzahl, M. (2010). Experience design : Technology for all the right
reasons. San Rafael, Morgan & Claypool.
Moggridge, B. (2007). Designing interactions. Cambridge, MIT Press.
http://www.designinginteractions.com. Le chapitre 10 décrit les méthodes
de la conception de l’interaction :
http://www.designinginteractions.com/chapters/10
Deux manuels fournissent des informations détaillées sur le sujet :
Jacko, J. A. (2012). The human-computer interaction handbook:
Fundamentals, evolving technologies, and emerging applications (3e
édition). Boca Raton, CRC Press.
Lee, J. D., & Kirlik, A. (2013). The Oxford handbook of cognitive
engineering. New York, Oxford University Press.
Il est difficile de dire quel livre choisir. Les deux sont excellents et même
s’ils sont chers, ce sont de bons investissements pour toute personne qui
souhaite travailler dans ces domaines.
Le livre Human-Computer Interaction Handbook, comme le suggère le
titre, se concentre sur l’amélioration des interactions avec l’ordinateur,
alors que le livre Handbook of Cognitive Engineering couvre une étendue
plus large. Quel est le meilleur livre ? Cela dépend du problème sur lequel
vous travaillez. Pour le mien, les deux sont essentiels.
Enfin, je vous recommande deux sites web :
Interaction Design Foundation, qui propose des articles
encyclopédiques : www.interaction-design.org ;
SIGCHI, le pôle de l’ACM (Association for Computing Machinery)
dont l’intérêt principal est l’interaction homme-machine :
www.sigchi.org.

Chapitre 1 – Étude des objets du quotidien


2 Cafetière pour masochistes. Cette cafetière a été créée par l’artiste
français Jacques Carelman (1984). La photo montre une cafetière
inspirée par Carelman mais que je possède. La photographie est de
Aymin Shamma pour l’auteur.
9 Affordance. Le psychologue J. J. Gibson a inventé le terme
affordance pour expliquer comment les personnes se déplacent dans
le monde (Gibson, 1979). J’ai utilisé ce terme lorsque je traitais du
monde du design interactif dans la première version de ce livre.
Depuis, il existe de nombreux ouvrages dédiés. La mauvaise
utilisation du terme m’a conduit à introduire le terme signifiant
(signifier) dans mon ouvrage Living with Complexity (2010). Il en est
question dans l’ensemble du livre mais essentiellement aux chapitres
1 et 4.

Chapitre 2 – La psychologie des actions


quotidiennes
32 Les fossés de l’exécution et de l’évaluation. L’histoire des fossés et
des ponts pour l’exécution et l’évaluation provient d’une recherche
effectuée avec Ed Hutchins and Jim Hollan, qui faisaient partie d’une
équipe jointe de personnes provenant du Naval Personnel Research
and Development Center et de l’université de Californie à San Diego
(Hollan et Hutchins sont maintenant professeurs de sciences
cognitives à l’université de Californie). Le travail consistait à
examiner le développement de systèmes informatiques plus simples à
apprendre et à utiliser que ceux que l’on appelait à manipulation
directe. Le travail initial est décrit dans le chapitre « Direct
Manipulation Interfaces » de l’ouvrage User Centered System
Design: New Perspectives on Human-Computer Interaction
(Hutchins, Hollan, & Norman, 1986). Consultez également les
articles de Hollan, Hutchins et David Kirsh, Distributed Cognition: A
New Foundation for Human-Computer Interaction Research (2000).
37 Levitt : « People don’t want to buy a quarter-inch drill. They want a
quarter-inch hole! » (Les bricoleurs ne veulent pas acheter un foret de
6 mm, ils veulent un trou de 6mm.) Consultez Christensen, Cook et
Hal, 2006. Le fait que l’on attribue au professeur Theodore Levitt
cette phrase sur les forets est un exemple de la loi de Stigler : aucune
découverte scientifique n’est nommée du nom de la personne qui est
à l’origine de la découverte. Par conséquent, Levitt lui-même attribue
cette phrase à Leo McGinneva (Levitt, 1983). La loi de Stigler est un
exemple d’elle-même. Celui-ci, professeur de statistique, a écrit qu’il
tenait cette loi du sociologue Robert Merton. Consultez Wikipédia,
« Stigler’s Law of Eponymy » (Wikipedia contributors, 2013c).
39 Bouton de porte. La question « Dans la maison que vous occupiez,
trois maisons en arrière, lorsque vous entriez par la porte principale,
le bouton de la porte était-il à droite ou à gauche ? » vient de mon
article, « Memory, Knowledge, and the Answering of Questions »
(1973).
41 Viscéral, comportemental et réfléchi. Le livre de Daniel Kahneman,
Système 1 / Système 2 : Les deux vitesses de la pensée (2012), apporte
une excellente introduction à la conception moderne du rôle du
traitement conscient et inconscient. La différence entre viscéral,
comportemental et réflexif est la base de mon livre Emotional Design
(2002, 2004). Ce modèle du système cognitif et émotionnel humain
est présenté de manière plus technique dans l’article que j’ai coécrit
avec Andrew Ortony et William Revelle, « The Role of Affect and
Proto-affect in Effective Functioning » (2005). Consultez aussi
Designers and Users: Two Perspectives on Emotion and Design
(Norman & Ortony, 2006). Emotional Design contient plusieurs
exemples du rôle du design sur les trois niveaux.
48 Thermostat. La théorie de la valve du thermostat provient de
Kempton, avec un article publié dans Cognitive Science (1986). Les
thermostats intelligents essaient de prédire quand ils devront
intervenir en activant ou en désactivant le chauffage plutôt que le
simple thermostat illustré au chapitre 2. Cela permet de s’assurer que
la température souhaitée sera atteinte à l’heure voulue.
53 Psychologie positive. Le travail de Mihaly Csikszentmihalyi sur le
flux se trouve dans ses différents ouvrages sur le sujet (1990, 1997).
Martin (Marty) Seligman a développé le concept de l’impuissance
acquise, puis l’a appliqué à la dépression (Seligman, 1992).
Toutefois, il a pensé qu’il n’était pas bon pour la psychologie de se
centrer continuellement sur les difficultés et les anomalies. Il a donc
fait équipe avec Csikszentmihalyi pour créer un mouvement de
psychologie positive. On trouve une excellente introduction dans un
article qu’ils ont coécrit dans la revue American Psychologist (2000).
Depuis, la psychologie positive s’est répandue dans les livres, les
revues et les conférences.
55 Erreur humaine. Les personnes s’accusent elles-mêmes.
Malheureusement, la mise en cause de l’utilisateur est ancrée dans le
système légal. Lorsque des accidents de grande ampleur se
produisent, on recherche les causes, souvent attribuées à une « erreur
humaine ». Par mon expérience, je peux dire que l’erreur humaine est
généralement le résultat d’une mauvaise conception. Pourquoi est-ce
que le système a-t-il été conçu de sorte qu’une seule action effectuée
par un seul homme provoque une catastrophe ? Le livre de Charles
Perrow, Normal Accidents (1999) est un texte majeur sur le sujet. Le
chapitre 5 de ce livre fait un examen complet de l’erreur humaine.
59 Feedforward. Il s’agit d’un vieux concept de la théorie du contrôle.
La première fois que je l’ai rencontré, il était appliqué aux sept étapes
de l’action dans un article de Jo Vermeulen, Kris Luyten, Elise van
den Hoven et Karin Coninx (2013).
Chapitre 3 – Le savoir dans notre mémoire et
dans le monde
63 Pièces de monnaie américaines. Ray Nickerson et Marilyn Adams,
ainsi que David Rubin et Theda Kontis, ont démontré que les
personnes ne pouvaient ni se souvenir ni connaître avec précision ce
qui se trouvait sur les pièces de monnaie américaines (Nickerson &
Adams, 1979 ; Rubin & Kontis, 1983).
68 Pièces de monnaie françaises. La citation du gouvernement français à
propos de la pièce de 10 francs provient d’un article de Stanley
Meisler (1986), utilisé avec la permission du Los Angeles Times.
68 Descriptions en mémoire. L’idée que le stockage et la récupération de
la mémoire se font à l’aide de descriptions partielles a été développée
dans un article de Danny Bobrow et moi-même (1979). Nous disons,
qu’en général, la description nécessaire et récupérée dépend des
éléments que la personne cherche à retrouver. La récupération
d’information en mémoire peut, par conséquent, demander une série
d’essais durant lesquels les descriptions sont incomplètes ou fausses,
ce qui demande à la personne de réessayer. Chacune des tentatives
s’approche de la réponse et permet de préciser la description.
70 Contrainte des rimes. En donnant simplement des indices pour, les
personnes testées par David C. Rubin et Wanda T. Wallace, devaient
trouver trois mots cibles utilisés dans les exemples. Ils ont eu pour
résultat, respectivement 0 %, 4 % et 0 % à chaque fois. De la même
façon, lorsque les mêmes mots cibles devaient rimer avec d’autres
mots, les résultats étaient aussi mauvais avec respectivement 0 %,
0 % et 4 %. Par conséquent, les indices n’apportent que très peu
d’aide. Mais en combinant ceux sur le sens et ceux sur des rimes, on
obtient une excellente performance, les personnes obtiennent le mot
cible dans 100 % des cas (1989).
72 Ali Baba. Le travail d’Albert Bates Lord est résumé dans son livre
The Singer of Tales (1960). La citation d’Ali Baba et les 40 voleurs
provient de The Arabian Nights: Tales of Wonder and Magnificence,
édité par Padraic Colum et traduit par Edward William Lane (Colum
& Ward, 1953). Les noms sont dans une forme peu habituelle, nous
connaissons tous la phrase « Sésame ouvre-toi » mais, selon Colum,
Simsim est la traduction correcte.
73 Mots de passe. Comment les personnes gèrent leurs mots de passe. Il
existe de nombreuses études (Anderson, 2008 ; Florêncio, Herley, &
Coskun, 2007 ; National Research Council Steering Committee on
the Usability, Security, and Privacy of Computer Systems, 2010 ;
Norman, 2009 ; Schneier, 2000).
Pour trouver le mot de passe le plus utilisé, faites une recherche en
utilisant une phrase telle que « mot de passe le plus utilisé ». Mon
article sur la sécurité, qui conduit vers de nombreuses références, est
disponible sur mon site web et il a également été publié dans le
magazine traitant des interactions homme/machine, Interactions
(2009).
74 Cachettes. La citation au sujet des voleurs professionnels qui savent
où les personnes cachent leurs objets de valeur provient de l’étude de
Winograd et Soloway, On Forgetting the Locations of Things Stored
in Special Places (1986).
78 Mnémotechnique. Les moyens mnémotechniques sont traités dans
mon livre Memory and Attention. Même si le livre est ancien, la
méthode reste identique (1969, 1976). Je parle de l’effort nécessaire
pour se souvenir dans Learning and Memory (1982). Il est facile de
trouver des moyens mnémo-techniques, recherchez ce terme sur le
Web si vous souhaitez trouver des exemples. De même, les propriétés
de la mémoire à court terme et de la mémoire à long terme sont
consultables sur Internet ou dans des textes sur la psychologie
expérimentale, la psychologie cognitive ou la neuropsychologie (par
opposition à la psychologie clinique) ou sur des textes qui traitent de
sciences cognitives. Vous pouvez aussi consulter le livre de Daniel
Schacter, psychologue à Harvard, The Seven Sins of Memory (2001).
84 Whitehead. La citation d’Alfred North Whitehead à propos du
comportement automatique est extraite du chapitre 5 de son ouvrage
An Introduction to Mathematics (1911).
88 Mémoire prospective. De nombreuses recherches sur la mémoire
prospective sont consultables dans les articles de Dismukes pour la
première et dans les articles de Cristina Atance et Daniela O’Neill
pour la deuxième, que les chercheuses appellent la pensée future
épisodique (Atance & O’Neill, 2001 ; Dismukes, 2012).
91 Mémoire transactive. Ce terme a été créé par le professeur de
psychologie d’Harvard Daniel Wegner (Lewis & Herndon, 2011 ;
Wegner, D. M., 1987 ; Wegner, T. G., & Wegner, D. M., 1995).
93 Commandes de cuisinière. La difficulté dans la disposition des
commandes des cuisinières est comprise uniquement par des experts
en facteur humain, depuis plus de cinquante ans. Pourquoi sont-elles
toujours aussi mal conçues ? Le problème a pourtant été soulevé dès
1959, la première année de publication du journal Human Factors
(Chapanis & Lindenbaum, 1959).
96 Culture et design. Mes propos sur l’impact de la culture sur la
disposition tirent leur origine de mes discussions avec Lera
Boroditsky qui était alors à l’université de Standford et qui fait
maintenant partie du département des sciences cognitives de
l’université de San Diego, en Californie. Consultez « How Languages
Construct Time », un chapitre dont elle est l’auteure (2011). Les
observations sur les aborigènes australiens ont été reportées par
Núñez & Sweetser (2006).

Chapitre 4 – Savoir quoi faire : contraintes,


découvrabilité et feedback
102 InstaLoad. Une description de la technologie InstaLoad de Microsoft
pour les contacts de batteries se trouve sur leur site web à l’adresse
www.microsoft.com/hardware /en-us/support/licensing-instaload-
overview.
104 Cadre culturel. Consultez Scripts, Plans, Goals, and Understanding
de Roger Schank et Robert B. Abelson (1977) ou les livres d’Erving
Goffman, La Mise en scène de la vie quotidienne (1959) et Frame
Analysis (1974). Je recommande davantage le premier, il s’agit de son
travail le plus pertinent (et le plus facile à lire).
104 Violer les conventions sociales. « Essayez de violer les normes
culturelles, et vous constaterez à quel point vous, et les autres
personnes, vous sentez mal à l’aise ». Hidden in Plain Sight de Jan
Chipchase et Simon Steinhardt donne de nombreux exemples sur la
manière dont les concepteurs peuvent délibérément violer les
conventions sociales afin de comprendre le fonctionnement d’une
culture. Chipchase rapporte une expérimentation dans laquelle de
jeunes valides demandent aux passagers assis dans le métro de leur
céder la place. Les personnes qui ont conduit l’expérience étaient
surpris par deux choses. D’abord, une grande proportion de personnes
a obéi. Ensuite, les personnes les plus affectées étaient celles qui
conduisaient l’expérience. Ils ont dû se forcer pour accepter la
demande et, ensuite, ils se sont sentis mal pendant une longue
période. Une violation délibérée des contraintes sociales peut être
aussi désagréable pour l’auteur que pour le spectateur (2013).
109 Panneau de commande des lumières. Pour la réalisation du panneau
de commande des lumières de ma maison, je me suis fié au génie
électrique et mécanique de Dave Wardo, qui a réalisé la conception et
l’installation des interrupteurs.
127 Sons naturels. Bill Gaver, maintenant chercheur renommé en design
au Goldsmiths College, à l’université de Londres, m’a d’abord alerté
au sujet des sons naturels dans son mémoire de doctorat, puis dans
d’autres publications (Gaver, W., 1997 ; Gaver, W. W., 1989). Depuis,
une recherche considérable a été effectuée sur le son. Consultez, par
exemple, Gygi & Shafiro (2010).
128 Véhicules électriques. La citation du gouvernement américain au
sujet des sons pour les véhicules électriques peut se trouver sur le site
web du département des transports (2013).

Chapitre 5 – Erreur humaine ? Non,


mauvaise conception
On trouve une grande quantité de travaux concernant l’étude des erreurs,
la fiabilité humaine et la résilience. En plus des éléments présentés par la
suite, un excellent article sur l’erreur humaine se trouve sur le wiki des
sciences (Wiki of Science, 2013). Consultez aussi le livre Behind Human
Error (Woods, Decker, Cook, Johannesen & Sarter, 2010).
Le psychologue britannique James Reason et l’ingénieur danois Jens
Rasmussen sont deux des plus importants chercheurs travaillant sur
l’erreur humaine. Consultez également les livres du Suisse Sidney Dekker
et du professeur du MIT Nancy Leveson (Dekker, 2011, 2012, 2013 ;
Leveson, N., 2012 ; Leveson, N. G., 1995 ; Rasmussen, Duncan, & Leplat,
1987 ; Rasmussen, Pejtersen, & Goodstein, 1994 ; Reason, J. T., 1990,
2008).
Sauf si cela est clairement indiqué, les exemples de ratés dans ce chapitre
ont été collectés par moi-même et proviennent de mes erreurs, celles de
mes associés, mes collègues et mes étudiants. L’impératif est que seules
les erreurs notées immédiatement étaient ajoutées à la collection.
133 Crash du F-22. L’analyse du crash du F-22 de l’US Air Force
provient d’un rapport gouvernemental (Inspector General United
States Department of Defense, 2013). (Ce rapport contient également
le rapport d’origine à l’annexe C.)
137 Ratés et méprises. Les descriptions des comportements basés sur les
compétences, les règles et la connaissance proviennent d’un article de
Jens Rasmussen sur le sujet (1983), l’une des meilleures
introductions sur le sujet. La classification des erreurs en raté et en
méprise a été réalisée par Reason et moi-même. La classification des
erreurs fondées sur les règles et sur la connaissance suit le travail
réalisé par Rasmussen (Rasmussen, Goodstein, Andersen, & Olsen,
1988 ; Rasmussen, Pejtersen, & Goodstein, 1994 ; Reason, J. T.,
1990, 1997, 2008). À l’origine, il n’y avait pas de distinction entre les
défaillances de la mémoire pour les ratés et les méprises. La
différence s’est faite par la suite mais pas de la même manière que je
le fais.
139 Gimli Glider. Il s’agit d’un Boeing 767 d’Air Canada qui est tombé
en panne de carburant et qui a dû planer pour atterrir à Gimli, une
ancienne base aérienne canadienne. Il y a eu beaucoup d’erreurs,
faites une recherche sur Internet.
141 Raté de capture. Cette catégorie d’erreur a été inventée par James
Reason (1979).
144 Airbus. Les difficultés avec les modes sur les Airbus sont décrites
dans (Aviation Safety Network, 1992 ; Wikipedia contributors,
2013a). Pour la description d’un autre problème de conception qui
fait que deux pilotes (le capitaine et le second) peuvent contrôler les
joysticks sans avoir de retour (par conséquent sans savoir ce que fait
l’autre), consultez l’article du journal britannique The Telegraph
(Ross & Tweedie, 2012).
146 L’incendie de la boîte de nuit The Kiss, à Santa Maria au Brésil. On
trouve des descriptions dans de nombreux journaux brésiliens et
américains. J’ai appris ce drame à l’aide du New York Times
(Romero, 2013).
151 Crash de Tenerife. Ma source sur cet accident est un rapport de
Roitsch, Babcock et Edmunds paru dans American Airline Pilots
Association. Il n’est sans doute pas étonnant qu’il diffère du rapport
du gouvernement espagnol (Ministère des transports et des
communications espagnol, 1978), qui diffère à son tour du rapport de
la Dutch Aircraft Accident Inquiry Board. Un article sur l’accident de
1977, écrit en 2007 par Patrick Smith pour le site web Salon.com,
montre l’importance qu’il a encore aujourd’hui.
152 Crash de l’Air Florida. Les informations et les citations à propos de
cet accident proviennent du rapport de la National Transportation
Safety Board (1982). Consultez également deux livres nommés Pilot
Error (Hurst, 1976 ; Hurst, R. & Hurst, L. R., 1982). Les deux sont
différents et le second est meilleur que le premier, certainement parce
qu’il existait peu de preuves scientifiques lors de sa rédaction.
154 Checklists en médecine. Les exemples de Duke University, à propos
des ratés basés sur la connaissance, peuvent se trouver au Duke
University Medical Center (2013). Un excellent résumé de
l’utilisation des checklists en médecine est disponible grâce à Atul
Gawande (2009).
155 Jidoka. La citation de Toyota en ce qui concerne Jidoka et le système
de production de Toyota proviennent du site web du constructeur
(Toyota Motor Europe Corporate Site, 2013). Poka-yoke est décrit
dans de nombreux livres et sites Internet. J’ai trouvé deux livres écrits
et coécrits par Shigeo Shingo, qui fournissent une excellente
perspective (Nikkan Kogyo Shimbun, 1988 ; Shingo, 1986).
156 Sécurité aérienne. Le site web de la NASA Aviation Safety Reporting
System propose des détails sur ce système de rapports, ainsi qu’un
historique de ces derniers (NASA, 2013).
159 Hindsight. Le nom de l’étude de Baruch Fischhoff est Hindsight ?
Foresight: The Effect of Outcome Knowledge on Judgment Under
Uncertainty (1975). Vous pouvez également consulter ses travaux les
plus récents (Fischhoff, 2012 ; Fischhoff & Kadvany, 2011).
160 Concevoir pour l’erreur. J’évoque ce sujet dans un article paru dans
Communications of the ACM, dans lequel j’analyse le nombre de
ratés que font les personnes en utilisant un ordinateur et où je suggère
des principes de conception afin de réduire ces erreurs (1983). Cette
philosophie imprègne également le livre dont notre équipe est à
l’origine, User Centered System Design (Norman & Draper, 1986).
Deux chapitres sont particulièrement pertinents : « Cognitive
Engineering », écrit par mes soins, et celui que j’ai réalisé avec
Clayton Lewis, « Designing for Error ».
161 Multitâche. Il existe de nombreuses études sur les dangers et
l’inefficacité du multitâche. Spink, Cole, & Waller (2008) en donnent
un aperçu. David L. Strayer et ses collègues de l’université de l’Utah
ont réalisé de nombreuses études démontrant les effets négatifs de
l’utilisation du téléphone lorsque l’on conduit (Strayer & Drews,
2007 ; Strayer, Drews & Crouch, 2006). Même les piétons sont
distraits par l’utilisation d’un smartphone, comme le montre une
équipe de chercheurs de l’université Western Washington (Hyman,
Boss, Wise, McKenzie et Caggiano, 2010).
162 Clown sur un monocycle. L’excellente étude du clown invisible sur
un monocycle, Did you see the unicycling clown? Inattentional
blindness while walking and talking on a cell phone, a été réalisée par
Hyman, Boss, Wise, McKenzie et Caggiano (2010).
168 Swiss cheese model. James Reason l’a utilisé en 1990 (Reason, J.,
1990 ; Reason, J. T., 1997).
170 Hersman. La description de la philosophie pour les avions de
Deborah Hersman provient de sa présentation du 7 février 2013, où il
était question des tentatives du NTSB de comprendre les causes des
incendies dans les compartiments des batteries sur les Boeing 787.
Ces incendies ont conduit les pilotes à faire des atterrissages
d’urgence, où aucun passager ou membre d’équipage n’a été blessé :
les multiples couches de protection redondante ont maintenu la
sécurité. Quoi qu’il en soit, les incendies et les dommages résultants
étaient inattendus et suffisamment sévères pour clouer au sol tous les
Boeing 787, jusqu’à ce que les causes de l’accident soient identifiées
par toutes les parties concernées et que l’avion obtienne une nouvelle
certification auprès de l’agence fédérale de l’aviation des États-Unis
(et les agences équivalentes dans le reste du monde). Même si cela a
coûté cher et a posé des problèmes, prendre des mesures avant que les
accidents conduisent à des blessures ou des décès est une bonne
pratique proactive (National Transportation Safety Board, 2013).
171 Ingénierie de la résilience. L’extrait « Prologue: Resilience
Engineering Concepts » du livre Resilience Engineering, est publié
avec la permission des éditeurs (Hollnagel, Woods, & Leveson,
2006).
172 Automatisation. Une grande partie de mes recherches et de mes écrits
a abordé des problèmes d’automatisation. Un de mes anciens articles,
« Coffee Cups in the Cockpit », s’attaque à ce problème ainsi qu’au
fait que, lorsqu’il est question d’incidents survenus dans un grand
pays ou dans le monde entier, un « risque sur un million » ne suffit
pas (1992). Mon livre The Design of Future Things traite en
profondeur de ce problème (2007).
173 Accident du Royal Majesty. Une excellente analyse d’un accident
causé par une erreur de mode se trouve dans le livre de Asaf Degani
sur l’automatisation, Taming HAL : Designing Interfaces Beyond
2001 (Degani, 2004), ainsi que dans les analyses de Lützhöft et
Dekker et dans le rapport officiel de la NTSB (Lützhöft & Dekker,
2002 ; National Transportation Safety Board, 1997).

Chapitre 6 – Design Thinking


Comme indiqué précédemment, une bonne introduction sur le sujet est le
livre Design thinking : Comment le design thinking transforme l’entreprise
et inspire l’innovation de Tim Brown et Barry Katz (2009). Brown est
directeur général d’IDEO, professeur de design au California College of
the Arts de San Francisco, professeur invité à la d.school de Stanford et
fellow IDEO. Plusieurs sources Internet sont disponibles, mais j’apprécie
particulièrement celle-ci : designthinkingforeducators.com.
180 Schéma double divergence-convergence. Ce concept a été introduit
par le British Design Council en 2005, et il se nommait le modèle
double diamant du traitement de la conception, « Double-Diamond
Design Process Model » (2005).
181 Processus CCU. La conception centrée utilisateur comporte de
nombreuses variantes, pour lesquelles l’idée est commune mais où les
détails diffèrent. Un résumé de la méthode que je décris se trouve
dans le livre CCU et le guide de l’entreprise de design IDEO (IDEO,
2013).
185 Prototypage. Consultez le livre et le manuel de Buxton (Buxton,
2007 ; Greenberg, Carpendale, Marquardt & Buxton, 2012). On
trouve plusieurs méthodes utilisées par les concepteurs pour
comprendre la nature des problèmes et pour parvenir à une solution
potentielle. Le livre de Vijay Kumar, 101 Design Methods (2013), ne
les couvre pas toutes. Il se concentre sur l’innovation et non pas la
production de produits ; par conséquent, il ne traite pas du cycle de
développement. Le prototypage physique, les tests et les itérations ne
sont pas traités. Il en est de même avec les préoccupations du marché,
un sujet abordé dans la dernière partie de ce livre et dans tout le
chapitre 7.
185 Technique du magicien d’Oz. Le nom vient du livre de L. Frank
Baum Le Magicien d’Oz (1900). Mon utilisation de cette technique
est décrite dans des articles du groupe conduit par le chercheur en
intelligence artificielle Danny Bobrow, dans ce que l’on appelait le
centre de recherche Xerox de Palo Alto (Bobrow et al., 1977).
L’étudiant assis dans l’autre pièce était Allen Munro, qui a fait une
excellente carrière de chercheur.
187 Nielsen. L’argument de Jakob Nielsen disant que cinq utilisateurs est
le nombre idéal pour la majorité des tests se trouve sur le site web du
groupe Nielsen Norman (2013).
190 Trois objectifs. L’utilisation des trois niveaux d’objectifs par Marc
Hassenzahl se retrouve à de nombreux endroits, mais je recommande
son livre Experience Design (Hassenzahl, 2010). Les trois objectifs
proviennent du travail de Charles Carver et Michael Scheier dans leur
livre sur l’utilisation des modèles de retour, du chaos et de la théorie
dynamique, afin d’expliquer la majorité des comportements humains
(Carver & Scheier, 1998).
200 Âge et performance. Un excellent article sur l’impact de l’âge sur les
facteurs humains est réalisé par Frank Schieber (2003). Le rapport
d’Igo Grossman et de ses collègues est un exemple de la recherche
affirmant qu’une étude soignée montre des performances supérieures
avec l’âge (Grossmann et al., 2010).
206 Temps international Swatch. Le développement du temps
international par Swatch, le temps .beat, ainsi que le temps décimal
français sont présentés dans l’article Wikipédia sur l’heure décimale
(2013b).

Chapitre 7 – Conception dans le monde de


l’entreprise
213 Creeping featurism. Une note pour les historiens en technologie. J’ai
retracé l’origine de ce terme que j’attribue à John Mashey en 1976. À
cette époque, il était informaticien dans les laboratoires Bell, où il
était l’un des premiers développeurs d’UNIX, un système
d’exploitation bien connu (qui existe toujours grâce à Unix, Linux et
le kernel de MacOs d’Apple).
215 Youngme Moon. Son livre Different: Escaping the Competitive Herd
(2010) indique que « S’il existe une idée reçue qui imprègne chaque
entreprise dans chaque secteur, c’est l’importance de rivaliser
férocement avec la concurrence pour s’en différencier. Et pourtant,
cette rivalité – surtout en ce qui concerne les fonctionnalités, les
produits augmentés, etc. – a pour effet pervers de créer ou de faire la
même chose que tout le monde. » (Extrait de la quatrième de
couverture du livre. Consultez
http://youngmemoon.com/Jacket.html.)
216 Système d’écriture gestuelle. Il permet de tracer les lettres sur
l’écran-clavier pour une saisie rapide et efficace (moins toutefois
qu’avec un clavier standard). Ce système est décrit de manière très
détaillée par Shumin Zhai et Per Ola Kristensson, deux des
développeurs de cette méthode (2012).
220 Écrans multitouch. Ces derniers existent depuis plus de trente ans
dans les laboratoires et certaines compagnies ont lancé des produits
qui n’ont pas marché. On en attribue l’invention à Nimish Mehta, il
en est question dans sa thèse de master (1982) à l’université de
Toronto. Bill Buxton (2012), un des pionniers dans le domaine,
fournit une excellente documentation, tout comme Dan Saffer dans
son livre Designing Gestual Interfaces (2009), principalement
concentrée sur le multitouch et les systèmes utilisant la gestuelle en
général. L’histoire de Fingerworks et Apple se trouve rapidement en
faisant une recherche sur Internet.
221 Loi de Stigler : consultez le commentaire dans les notes du chapitre 2.
221 Téléphonoscope. À l’origine, l’illustration a été publiée dans l’édition
du 9 décembre 1878 du magazine britannique Punch (pour son
almanach de 1879). L’image vient de Wikipédia (2013d) où elle fait
partie du domaine public (de par sa date de publication originelle).
226 Le clavier QWERTY. Il est question de ce clavier dans de nombreux
articles (de même pour le AZERTY). Je remercie le professeur Neil
Kay de l’université de Strathclyde pour nos échanges d’e-mails et
pour son article « Rerun the Tape of History and QWERTY Always
Wins » (2013). Cet article m’a conduit vers « QWERTY People
Archive », le site web des chercheurs japonais Koichi et Motoko
Yasuoka. C’est une ressource incroyablement détaillée pour toutes les
personnes intéressées par l’histoire des claviers, et en particulier de la
configuration QWERTY. (Yasuoka & Yasuoka, 2013). L’article sur la
machine à écrire publié en 1872 dans Scientific American est amusant
à lire. Le style de Scientific American a totalement changé depuis
(Anonymous, 1872).
228 Le clavier Dvorak. Estil est plus rapide que le clavier QWERTY ?
Oui, mais pas de beaucoup. Avec Diane Fisher, nous avons étudié
différentes configurations de clavier. Nous pensions qu’un
arrangement alphabétique serait plus rapide pour les débutants. Ce
n’est toutefois pas le cas, car nous avons découvert que la
connaissance de l’alphabet n’est pas utile pour trouver les touches.
Nos études sur les claviers alphabétique et Dvorak ont été publiées
dans le journal Human Factors (Norman & Fisher, 1984).
Les admirateurs du clavier Dvorak disent qu’il est 10 % plus efficace,
mais aussi que sa configuration se retient plus facilement et que son
utilisation est moins fatigante. Je reste cependant fidèle à mes
observations et mes conclusions. Si vous souhaitez en savoir plus,
consultez le livre Cognitive Aspects of Skilled Typewriting de
William E. Cooper. Plusieurs de mes recherches en laboratoire sont
abordées dans différents chapitres (Cooper, W. E., 1963 ; Norman &
Fisher, 1984 ; Norman & Rumelhart, 1963 ; Rumelhart & Norman,
1982).
228 Ergonomie du clavier. Les aspects de la santé sont fournis par le
National Institute of Health (2013).
229 Innovation incrémentale et radicale. Avec le professeur de commerce
italien Roberto Verganti, nous avons évoqué les innovations
incrémentales et radicales (Norman & Verganti, 2014 ; Verganti,
2009, 2010).
230 Escalade. On trouve de bonnes descriptions du processus d’escalade
pour la conception dans le livre de Christopher Alexander Notes on
the Synthesis of Form (1964) et celui de Chris Jones Design Methods
(1992 ; voir aussi Jones, 1984).
234 Hommes contre machines. Les notes d’Erik Brynjolfsson, professeur
au MIT, ont été citées lors de son discours au symposium de
l’Académie nationale d’ingénierie des États-Unis organisé en juin
2012 sur la fabrication, la conception et l’innovation (Brynjolfsson,
2012). Son livre, coécrit avec Andrew McAfee, Race Against the
Machine: How the Digital Revolution Is Accelerating Innovation,
Driving Productivity, and Irreversibly Transforming Employment and
the Economy, contient un excellent traitement de la conception et de
l’innovation (2011).
237 Média interactif. Le livre interactif d’Al Gore se nomme Choisir,
maintenant (2011). Certaines des vidéos de mes premiers livres
interactifs sont toujours disponibles (1994 et 2011b).
241 L’ascension des petits. Cette section provient d’un de mes essais pour
le centième anniversaire de la société Steelcase, qui m’a donné la
permission de publier ici (2011a).
Index

A
accusation
auto 51
action
étapes 34
subconsciente 139
actions opportunistes 36
activité vs tâche 189
ADN 76
affordance 9, 14, 61, 107, 118
trompeuse 15
visible 16
Airbus
erreur de mode 144
Albert Bates Lord 71
Alexander Graham Bell 221
Alfred North Whitehead 84
alphabétisation 70
Alphonse Karr 231
analyse de la cause originelle 36
annuler 164
anthropologie 182
anthropométrie physique 197
anti-affordance 10
Apple 190, 221
Apple QuickTake 222
arithmétique suffisante 86
ascenseur 119
August Dvorak 228
automatisation
paradoxe 172
avion
F-22 133
AZERTY 218

B
Baruch Fischhoff 159
Big data 183
blâmer 54
Bob Abelson 104
Boeing 747 139, 151
brainstorming 185

C
cafetière pour masochiste 2
camera obscura 221
Carelman, Jacques 2
catalogue d’objets introuvables 2
cause originelle 132, 134
analyse 36, 133
cause sous-jacente 134
CCU 111
centrale nucléaire 6
cerveau reptilien 42
Charles Carver 190
checklist 153
Christopher Latham Sholes 225
cinq pourquoi 134
clavier 216
Dvorak 228
clé 103
cloud 21
code secret 73
cognitif 41
cognition 9
consciente 44
combinaison 73
commande centrée
sur l’activité 113
sur le dispositif 114
complexité 201
comportement 64
centré sur l’objectif 36
centré sur les données 36
centré sur les événements 36
humain 6
compréhension 3
conception 122
à double-diamant 179
besoin conflictuel 196
centrée sur l’activité 188
centrée sur l’humain 7
centrée utilisateur 179, 193, 211
compréhension 3
découverte 3
défi 29, 195
inclusive 200
itérative 190
linéaire 190
pour personne spéciale 197
spécialisations 8
universelle 200
conception orientée sur l’humain rôle 8
confirmation 164
confusion 201
connaissance
arbitraire 82
déclarative 67
du comment 67
du quoi 67
extérieure 66, 90
externe 67
intérieure 90
procédurale 67
contrainte 61, 65, 70, 107, 118
culturelle 65, 100, 104, 118
logique 100, 105
naturelle 65
physique 67, 100, 101
rime 70
sémantique 100, 105
sociale 104
convention 65, 106, 118

D
David Kelley 187
David Rubin 71
découverte 3
délais 136
délibération consciente 139
dépassement délibéré 136
design 7
champs du 4
d’expérience 4
d’interaction 4
industriel 4
développement de produit 193
divergence-convergence 180
double divergence-convergence 180
Duryea 224

E
échec 53, 187
écran tactile 216 écriture manuscrite 216
Edwin Hutchins 235 électricité
erreur humaine 134
empreinte
iris 76
rétine 76
ergonomie 4
Erik Brynjolfsson 234
erreur
attitude 132
cause originelle 132
concevoir pour 160
détecter 157
méprise 137
origine 132
protection 156
rapporter 155
raté 137
sept étapes de l’action 139
violation des règles 136
erreur humaine classification 137
erreurs de blocage 163
Erving Goffman 104
esprit humain 37
étapes
action 34
planification 34
sept 35
état
changement 44
états comportementaux 44
ethnographie appliquée 182
expérience 8
cohésive 16
utilisateur 190

F
fabrication 4
feedback 9, 19, 60
Fingerworks 221
flow 47
fonctionnalitite 213
fossé 32
de l’évaluation 32
de l’exécution 32
Freud 140

G
génération d’idées 184
George du Maurier 221
Gibson 10
Gimli Glider 139
GPS 230
H
HCD 7, 179
héritage 102
heure décimale 205
Homère 71
homme-mort 115
horloge non standard 203
Human Centered Design 7, 179
HyperCard 236

I
idée
génération d’ 184
IDEO 187
image système 25, 26
impuissance
acquise 52
apprise 52
ingénierie 4
de la sécurité 115
innovation
incrémentale 211, 230
radicale 211, 230
InstaLoad 102
interaction
homme-machine 5
principes fondamentaux 8
interlock 115
interrupteur homme-mort 115
iPod 190
itération 187
J
Jakob Nielsen 187
James Reason 137
Jeff Bezos 216
Jens Rasmussen 145
Jidoka 155

K
key loggers 76
KLM 151

L
Lego 100, 215
liste de contrôle 153
livre
futur 236
lock-in 115, 116
lockout 115, 117
loi de Stigler 221

M
magicien d’Oz 185
mapping 9, 18, 61, 107, 135
culture 96
naturel 18, 67, 83, 93, 105
spatial 113
Marc Hassenzahl 190
marché analytique 183
Marilyn Adams 63
marketing 183
mémoire 64, 70
à court terme 77, 85
à long terme 77, 80
de travail 77
déclarative 39
du futur 88
procédurale 39
prospective 88
méprise 137, 139
classification 145
défaillance de la mémoire 139, 150
due à la connaissance 149
expliquer 158
fondée sur la connaissance 139
fondée sur la règle 146
fondée sur les règles 139
message d’erreur 164
méthode
en cascade 191
gated 191
porte 191
métrique
système 122
Michael Scheier 190
Microsoft
InstaLoad 102
Mihaly Csikszentmihalyi 47
MIT 234
MLT 80
modèle approximatif 84
modèle conceptuel 9, 18, 21, 60
création 25
modèle mental 25
mot de passe 73
moto 100
multitouch 220

N
National Transportation Safety Board 152
Nest Labs 57
niveau
d’action 46
réflexif 38
normalisation 201
Norman doors 1
norme
culturelle 106
établir 202
NTSB 152

O
observation 181
orateur 70

P
paradoxe de la technologie 27
pensée
consciente 40
de conception 178
subconsciente 40
perception 51
pile 101
planification
étapes 34
poka-yoke 156
porte
conception 2
problème 107
potentialité 12, 108
visible 100
pourquoi 134
pression
institutionelle 150
sociale 150
pression concurrentielle 212
principes fondamentaux de la conception 59
problème
fondamental 178
racine 178
résoudre le bon 178
procédure
inappropriée 137
processus centré utilisateur 181
produit
délai 219
prototype 185
psychologie 6
positive 53
psychologue
cognitif 10
psychopathologie des objets du quotidien 140
pyrotechnie 146

Q
QWERTY 218

R
raté 137, 138
classification 140
de capture 141
de description similaire 141
de mode 141
défaillance de la mémoire 138, 142
erreur de mode 143
fondé sur l’action 138
raté de capture 140
Ray Nickerson 63
Reason, James 133
reconnaissance vocale 76, 216
règle
inappropriée 137
Remington 225
résignation acquise 52
résilience 171
rime 70
Robert Stein 236
robinet 122
Roger Schank 104

S
Sakichi Toyoda 134
Sam Farber 198
savoir 64
extérieur 65
intérieur 65
science du contrôle 19
sciences cognitives 6
sécurité 76
sémantique 105
sensibilité 166
sept étapes de l’action 139
sept principes fondamentaux 59
serrure 103
Shumin Zhai 218
signifiant 9, 11, 12, 14, 16, 61, 67, 107, 108
accidentel 13
sous-jacente
cause 134
souvenir explicite 39
standard 106
standardisation 201
stigmatisation 198
stress 136
subconscient 40
surapprentissage 38
Swatch Internet Time 206
Swiss cheese model 133, 168
système anti-erreur 114
système métrique 122

T
tâche
vs activité 189
technologie 230
normalisation 201
paradoxe 27
test 186
tests A/B 183
Theodore Levitt 37
théorie de l’information 19
Thomas Edison 221
Three Mile Island 6
Toyota 134, 155
traitement
comportemental 43
niveaux 46
réflexif 44
viscéral 42
travail
cognitif 41
émotionnel 41

U
US Air Force 133
UX 190

V
valence positive 44
vidéoconférence 224
vidéophone 221
violation
de situation 137
des règles 136
Voyager Books 236

W
Wanda Wallace 71

Y
Youngme Moon 215
Avez-vous remarqué la cafetière un peu particulière présente sur la
couverture du livre que vous tenez entre les mains ?
Elle est très emblématique de cet ouvrage mais aussi et surtout d’un
inventeur français méconnu : Jacques Carelman.
Si vous êtes à la recherche d’autres inventions aussi loufoques
qu’inutilisables, n’hésitez pas à consulter la référence dans ce domaine, le
Catalogue des objets introuvables, de Jacques Carelman (le cherche midi
éditeur), toujours aussi prisé depuis sa parution en 1969.
Vous y trouverez notamment une gouttière pour parapluie, un landau-
télévision (qui n’est pas sans rappeler le principe des tablettes
d’aujourd’hui) ou encore un soutien-gorge pour trapéziste.
Catalogue d’objets introuvables, Carelman, ISBN : 978-2749116761
Pour suivre toutes les nouveautés numériques du Groupe Eyrolles,
retrouvez-nous sur Twitter et Facebook

@ebookEyrolles
EbooksEyrolles

Et retrouvez toutes les nouveautés papier sur

@Eyrolles

Eyrolles

Vous aimerez peut-être aussi