Vous êtes sur la page 1sur 286

ÉCOLE DOCTORALE Abbé-Grégoire

Centre de Recherche sur le Travail et le Développement (CRTD)

THÈSE
présentée par : Tamari GAMKRELIDZE
soutenue le : 28 novembre 2022

pour obtenir le grade de : Docteur d’HESAM Université


préparée au : Conservatoire national des arts et métiers
Discipline : Psychologie et Ergonomie
Spécialité : Ergonomie

Des discours aux réalités de la conception,


du déploiement et des usages des systèmes
d’Intelligence Artificielle dans les situations
de travail
THÈSE dirigée par :
Mme. BARCELLINI Flore Professeure des Universités, Cnam - CRTD

et co-encadrée par :
M. ZOUINAR Moustafa Professeur associé - Chercheur en ergonomie, Cnam - CRTD &
Orange - SENSE

Jury

M. Marc-Eric BOBILLIER CHAUMON, Professeur du Cnam, Président du jury


Titulaire de la Chaire de Psychologie du Travail, Cnam
T
Mme. Viviane FOLCHER, Professeure des Universités, Rapporteure H
Institut Agro Dijon
M. Pascal SALEMBIER, Professeur, Rapporteur È
Université de Technologie de Troyes
M. Gérard DUBEY, Professeur, Examinateur S
Institut Mines Telecom
E
M. Jean-Nicolas DACHER, Professeur des Universités – Praticien Hospitalier, Invité
CHU et Université de Rouen Normandie
Affidavit

Je soussignée, Tamari Gamkrelidze, déclare par la présente que le travail présenté dans ce
manuscrit est mon propre travail, réalisé sous la direction scientifique de Flore Barcellini et de
Moustafa Zouinar, dans le respect des principes d’honnêteté, d'intégrité et de responsabilité
inhérents à la mission de recherche. Les travaux de recherche et la rédaction de ce manuscrit
ont été réalisés dans le respect de la charte nationale de déontologie des métiers de la recherche.
Ce travail n'a pas été précédemment soumis en France ou à l'étranger dans une version identique
ou similaire à un organisme examinateur.

Fait à Paris, le 07/10/2022


Signature

Affidavit
I, undersigned, Tamari Gamkrelidze, hereby declare that the work presented in this manuscript
is my own work, carried out under the scientific direction of Flore Barcellini and of Moustafa
Zouinar, in accordance with the principles of honesty, integrity and responsibility inherent to
the research mission. The research work and the writing of this manuscript have been carried
out in compliance with the French charter for Research Integrity.
This work has not been submitted previously either in France or abroad in the same or in a
similar version to any other examination body.

Place Paris, date 07/10/2022


Signature
« L'intelligen ce ce n 'est pas ce qu e l'on sait
mais ce que l'on fait quand on n e sait pas »

Jean Piag et
გაჩერებულ დროს
Remerciements

Cette thèse, issue d’un travail de presque quatre années, n’aurait pas vu le jour sans le soutien
et l’implication de nombreuses personnes que je tiens à remercier. Cette liste de remerciements
ne sera certainement pas exhaustive.

A Flore Barcellini et à Moustafa Zouinar qui ont encadré ce travail. Je les remercie pour la
confiance et l’autonomie qu’ils m’ont accordées, mais aussi pour leur disponibilité et leur
soutien sans faille quand j’en avais besoin. Merci pour nos nombreux moments d’échange, pour
votre réactivité, vos encouragements, vos conseils et vos remarques toujours avec beaucoup de
bienveillance, qui ont guidé cette thèse, mes réflexions et m’ont permis d’avancer.

A Marc-Eric Bobillier-Chaumon pour sa contribution au cheminement de mon parcours et pour


ses encouragements depuis plusieurs années maintenant. Merci d’avoir accepté de faire partie
du jury.

A Jean-Nicolas Dacher pour m’avoir ouvert les portes avec beaucoup de gentillesse,
d’enthousiasme et d’intérêt pour mon travail. Je le remercie pour ses contributions, pour nos
multiples discussions très riches et d’avoir accepté de participer au jury.

Aux autres membres du jury, Viviane Folcher, Pascal Salembier et Gérard Dubey, pour avoir
accepté d’accorder de l’intérêt et de lire ce travail.

Aux membres du comité de suivi de thèse, Irène Gaillard, Maria Ianeva et encore une fois
Viviane Folcher, pour des échanges riches d’enseignements et leur écoute bienveillante.

A l’équipe SENSE d’Orange et à l’équipe d’ergonomie du CRTD pour m’avoir accueillie et


soutenue tout au long de cette période. Merci pour nos moments d’échange lors des séminaires
et des pauses café. A tous mes collègues doctorants et post-doctorants avec lesquels j'ai partagé
ces années.

A l’ensemble des personnes ayant directement ou indirectement participé à cette recherche, de


m’avoir accordé leur temps (parfois si précieux). Merci pour leur participation aux entretiens,
pour leur accueil lors de ma venue ainsi que pour nos échanges informels concernant leur
travail. Cette recherche n’aurait pas pu être réalisée sans leur disponibilité et leur implication si
précieuses.

1
A Camille, pour nos nombreuses discussions sur la thèse (mais pas que), les moments de partage
et de travail en présentiel et à distance qui m’ont permis de rester motivée. Merci pour le partage
de toutes nos petites « victoires », merci d’avoir été là (et d’être toujours là) dans les périodes
de désespoirs mais aussi d’espoirs liées à cette thèse.

A ma famille, notamment à ma mère et à mon père, qui m’ont amenée à ce chemin des études
universitaires en France. Je les remercie pour leurs efforts et pour tout ce qu’ils ont pu faire
pour moi. Merci à mon petit frère de m’avoir toujours écouté et d’avoir porté un grand intérêt
à mon travail. Je n’oublie pas mes grands-parents, si éloignés géographiquement mais qui ont
toujours cru en moi.

[მადლობა ჩემი ოჯახის წევრებს რომელთაც ყოველთვის სჯეროდათ ჩემი

შესაძლებლობების, ყოველთვის გვერდში მედგნენ და მოთმინებით ელოდნენ ამ


დისერტაციის დასრულებას.
მადლობა ჩემი ბავშვობის მეგობრებს. ანი, ხატია, თქვენს გარეშე და ჩვენი შეხვედრების
გარეშე ეს ყველაფერი ალბათ ბევრად უფრო რთული იქნებოდა].

A mes amis et à tous mes proches pour leur encouragement, leur soutien et leur présence dans
des moments de doute, malgré des milliers de kilomètres qui nous séparent pour certains. Merci
à Marie-Line, pour ses encouragements depuis toujours. Un grand merci à Elodie et à Isabelle,
qui m’ont beaucoup aidée en relisant ce manuscrit.

Un remerciement particulier à Jordy pour ses encouragements, sa présence et sa compréhension,


si nécessaire durant toutes ces années d’études et encore plus pendant les derniers mois de
travail intense. Merci de m’avoir toujours soutenu et d’être toujours là.

2
Résumé
Les progrès réalisés en Intelligence Artificielle (IA) et sa diffusion annoncée dans la vie
professionnelle sous différentes formes (systèmes d’automatisation, systèmes d’aide à la
décision, robots, etc.) questionnent les transformations du travail et des organisations.
Aujourd’hui, ces transformations sont principalement discutées à travers des réflexions d’ordre
spéculatif mobilisant peu d’études empiriques.
Partant de ce constat, cette thèse vise à identifier et comprendre, de façon empirique : (1) d’une
part, la nature des incidences et plus largement des transformations potentielles ou effectives
du travail et des organisations occasionnées par la conception, le déploiement et les usages des
systèmes d’IA dans les situations de travail ; et (2) d’autre part, les questions soulevées en
termes de démarches de conception de ces systèmes. Pour cela, trois études empiriques
qualitatives différentes ont été menées.
La première étude à visée exploratoire a pour but de comprendre de façon globale et transversale
les enjeux qu’entraînent ces démarches de conception et de déploiement des systèmes d’IA
ainsi que leurs usages et incidences (en termes d’apports, de risques ou d’empêchements et
dégradations) dans différentes situations de travail. A l’aide de deux cas issus d’un secteur
d’activité professionnelle spécifique (la radiologie), la deuxième étude empirique analyse de
manière plus approfondie les usages et les transformations occasionnées par le déploiement
d’une part d’un système de dictée à reconnaissance vocale pour la réalisation des comptes-
rendus radiologiques, et d’autre part, d’un système de détection des fractures pour
l’interprétation des images des radiographies. Enfin, la dernière étude analyse un processus de
conception et de mise en place des systèmes d’IA à travers le cas d’un chatbot juridique déployé
dans une grande entreprise du numérique.
Les résultats montrent qu’une partie des enjeux et des préoccupations mis en avant par notre
travail - place et rôle des systèmes d’IA, répartition des tâches entre humains et IA, opacité des
systèmes, certaines conséquences problématiques de ces systèmes sur le travail – se rapproche
de ceux identifiés par des travaux antérieurs sur l’automatisation et les systèmes experts. En
outre, les résultats mettent en exergue des décalages entre les discours des promoteurs de l’IA
et les préoccupations et expériences des travailleurs sur l’utilité effective des systèmes proposés
par rapport aux problèmes qu’ils rencontrent dans leur travail quotidien. Conditionnés au moins
partiellement par les choix de conception et les démarches de déploiement des systèmes d’IA,
la mise en place et les usages de ces systèmes conduisent à des incidences diverses. D’un côté,
ils apportent certains bénéfices au regard des problématiques socio-organisationnelles

3
auxquelles font face les structures concernées (des hôpitaux ou des cliniques). Mais en même
temps, ils entrainent des transformations, voire, contrairement à certains discours des
promoteurs de l’IA, des risques et des dégradations du travail, variables selon les activités et
les organisations du travail. Enfin, sur le volet conception, les résultats mettent en évidence une
démarche « opportuniste » de conception et d’intégration d’un chatbot juridique à base d’IA.
Elle se traduit par des processus « émergents » qui sont guidés par une vision « classique » des
concepteurs centrée sur des besoins projetés des utilisateurs, parfois éloignés de la réalité de
leur travail. Les résultats donnent matière à réflexion sur les éléments à mobiliser pour l’analyse
des usages et incidences des systèmes d’IA dans les situations de travail. Cela renouvelle le
besoin de recourir à des démarches de conception centrées sur l’activité pour contribuer à la
conception, au déploiement et à la construction des usages des systèmes d’IA.

Mots-clés : Intelligence Artificielle – Travail – Conception – Usages

4
Abstract
The progress made in Artificial Intelligence (AI) and its announced diffusion in working life
under different forms (automation systems, decision support systems, robots, etc.) question the
transformations of work and organizations. Today, these transformations are mainly discussed
through speculative reflections with few empirical studies.
Based on this observation, this thesis aims to identify and understand, in an empirical way: (1)
on the one hand, the nature of the impacts and more broadly of the potential or actual
transformations of work and organizations caused by the design, deployment and uses of AI
systems in work situations; and (2) on the other hand, the questions raised in terms of design
approaches of these systems. To achieve this, three different qualitative empirical studies were
conducted.
The first exploratory study seeks to understand in a global and transversal way the issues raised
by these design and deployment approaches of AI systems as well as their uses and impacts (in
terms of contributions, risks or hindrances and degradations) in different work situations. Based
on two cases from a specific professional sector (radiology), the second empirical study
analyzes in more detail the uses and transformations caused by the deployment of a voice
recognition dictation system for the realization of radiological reports, and of a fracture
detection system for the interpretation of X-ray images. Finally, the last study analyzes a
process of design and implementation of AI systems through the case of a legal chatbot
deployed in a large digital company.
The results show that some of the issues and concerns highlighted by our work - the place and
role of AI systems, the division of labor between humans and AI, the opacity of the systems,
some of the problematic consequences of these systems on work - are similar to those identified
by previous work on automation and expert systems. Moreover, the results highlight a gap
between the discourses of AI promoters and the concerns and experiences of workers about the
actual usefulness of the proposed systems in relation to the problems they encounter in their
daily work. Conditioned at least partially by the design choices and deployment approaches of
AI systems, the implementation and uses of these systems lead to diverse impacts. On the one
hand, they provide certain benefits regarding the socio-organizational problems faced by the
structures concerned (hospitals or clinics). But at the same time, they lead to transformations,
and even, contrary to some of the discourses made by AI promoters, to risks and degradation
of work, which vary according to the activities and the work organizations. Finally, on the
design side, the results highlight an "opportunistic" approach to the design and integration of

5
an AI-based legal chatbot. It results in "emergent" processes that are guided by a "classic" vision
of designers centered on projected user needs, sometimes far from the reality of their work. The
results provide food for thought on the elements to be mobilized for the analysis of the uses and
impacts of AI systems in work situations. This renews the need to use activity-centered design
approaches to contribute to the design, deployment and construction of AI system uses.

Keywords: Artificial Intelligence – Work – Design – Uses

6
Table des matières
Remerciements ........................................................................................................................... 1
Résumé ...................................................................................................................................... 3
Abstract ...................................................................................................................................... 5
Table des matières ...................................................................................................................... 7
Liste des tableaux ..................................................................................................................... 11
Liste des figures........................................................................................................................ 12
Liste des annexes ...................................................................................................................... 14
Introduction ............................................................................................................................ 15
Première partie : Contexte & Cadre d’analyse ................................................................... 20
Chapitre 1. Contexte et état de l’art.......................................................................................... 21
1.1. Intelligence Artificielle (IA) : de quoi parle-t-on ? .................................................. 21
1.1.1. Éléments de définition de l’IA ......................................................................... 21
1.1.2. Dimension historique et fonctionnement de l’IA ............................................. 22
1.1.3. Fonctionnalités et usages (potentiels) des systèmes d’IA de « nouvelle »
génération ......................................................................................................................... 27
1.2. Les enjeux soulevés par des systèmes d’IA dans les situations de travail ............... 30
1.2.1. Vers un « remplacement généralisé » des travailleurs ou une transformation du
travail par les systèmes d’IA ? ......................................................................................... 30
1.2.2. La mise en place et l’utilisation des systèmes d’IA dans les situations de travail :
entre promesses et risques perçus ..................................................................................... 34
1.2.3. Les rapports entre les travailleurs et les systèmes d’IA dans une approche de
complémentarité ............................................................................................................... 36
1.2.4. Les processus de conception et les modalités d'intégration des systèmes d'IA
dans les situations de travail ............................................................................................. 42
1.3. Synthèse et objectifs de recherche............................................................................ 52
Chapitre 2. Cadre d’analyse et démarche de recherche ........................................................... 56
2.1. Construction du cadre d’analyse .............................................................................. 56
2.1.1. La mise en place des technologies et les incidences sur les activités de travail...
.......................................................................................................................... 57
2.1.2. Le problème d’explicabilité des systèmes et les enjeux de la confiance .......... 61
2.1.3. Les usages dans les activités médiatisées par des artefacts .............................. 63

7
2.1.4. Le rôle des démarches de conception et de déploiement dans les usages des
technologies ...................................................................................................................... 66
2.1.5. Synthèse du cadre d’analyse............................................................................. 68
2.2. Démarche de recherche ............................................................................................ 71
2.2.1. Les études empiriques et leurs objectifs ........................................................... 71
2.2.2. La démarche méthodologique globale ............................................................. 73
Deuxième partie : Contributions empiriques ...................................................................... 75
Chapitre 3. Points de vue et expériences des acteurs de l’IA ................................................... 76
3.1. Méthode : enquête qualitative .................................................................................. 77
3.1.1. Démarche globale de l’enquête ........................................................................ 77
3.1.2. Méthodes et outils de recueil des données ....................................................... 78
3.1.3. Population et déroulement du recueil des données .......................................... 81
3.1.4. Traitement et analyse des données recueillies .................................................. 83
3.2. Résultats ................................................................................................................... 85
3.2.1. La compréhension, la conception et l’intégration des systèmes d’IA dans les
situations de travail : démarches et leurs limites .............................................................. 85
3.2.2. La mise en place de l’IA et les transformations potentielles dans le travail .... 95
3.2.3. L’utilité de l’IA et les doutes sur des apports réels ........................................ 100
3.2.4. Utiliser les systèmes d’IA : construire une confiance mais maintenir des
capacités critiques........................................................................................................... 112
3.3. Discussion des résultats .......................................................................................... 120
3.3.1. La division du travail envisagée et les transformations potentielles du travail ....
........................................................................................................................ 120
3.3.2. Les apports potentiels mais mitigés des fonctionnalités de l’IA .................... 121
3.3.3. Une vision technologique de la conception de l’IA ....................................... 122
3.3.4. La construction de la confiance avec le maintien des capacités critiques envers
l’IA ........................................................................................................................ 123
Chapitre 4. Usages effectifs des systèmes d’IA et leurs incidences dans le domaine de la
radiologie ............................................................................................................................. 125
4.1. Contexte et méthode ............................................................................................... 126
4.1.1. La radiologie : un domaine particulièrement concerné par la diffusion des
systèmes d’IA ................................................................................................................. 126
4.1.2. Les cas de déploiement et d’usages des systèmes d’IA : méthodes et outils de
recueil des données ......................................................................................................... 130

8
4.1.3. Traitement et analyse des données recueillies ................................................ 137
4.2. Résultats ................................................................................................................. 138
4.2.1. L’IA comme « réponse » à l’augmentation de la charge de travail et manque de
ressources humaines ....................................................................................................... 138
4.2.2. La mise en place de la dictée à reconnaissance vocale et la réorganisation du
travail ........................................................................................................................ 140
4.2.3. La mise en place du système de détection des fractures : un rôle « palliatif » des
technologies .................................................................................................................... 143
4.2.4. Les usages du système de dictée à reconnaissance vocale pour la production d’un
compte-rendu et leurs incidences sur le travail .............................................................. 145
4.2.5. Les usages du système de détection des fractures dans l’activité d’interprétation
des radiographies et leurs incidences sur le travail ........................................................ 153
4.3. Discussion des résultats .......................................................................................... 162
4.3.1. L’importance du contexte socio-organisationnel : des systèmes d’IA visant à
pallier le manque de ressources dans le secteur hospitalier ........................................... 162
4.3.2. L’organisation du travail et le rôle donné à l’IA : conséquences sur les activités,
la fiabilité et la qualité du travail .................................................................................... 163
4.3.3. Le travail d’adaptation et de recontextualisation face aux limites de l’IA :
s’approprier l’IA pour la rendre bénéfique..................................................................... 165
Chapitre 5. Processus de conception et de déploiement d’un chatbot juridique .................... 168
5.1. Contexte et méthode ............................................................................................... 169
5.1.1. La diffusion généralisée des chatbots : les systèmes d’IA les plus répandus.......
........................................................................................................................ 169
5.1.2. Le cas de la conception et du déploiement d’un chatbot juridique à base d’IA ...
........................................................................................................................ 171
5.1.3. Méthodes, outils et déroulement du recueil des données ............................... 174
5.1.4. Traitement et analyse des données recueillies ................................................ 179
5.2. Résultats ................................................................................................................. 185
5.2.1. Le processus et les enjeux globaux de la conception et du déploiement du chatbot
juridique ........................................................................................................................ 185
5.2.2. Un important travail de conception : le développement technique d’un chatbot
fonctionnel ...................................................................................................................... 198
5.2.3. A la recherche des « besoins » des utilisateurs futurs : une source de
préoccupations et de difficultés ...................................................................................... 205

9
5.2.4. L’inscription pérenne du chatbot dans les usages : optimisation, amélioration et
évaluation ....................................................................................................................... 214
5.3. Discussion des résultats .......................................................................................... 220
5.3.1. Le chatbot juridique comme une « solution » face aux sollicitations récurrentes
adressées aux juristes...................................................................................................... 220
5.3.2. Le « bricolage » comme un moyen d’appropriation d’un processus de
conception émergent....................................................................................................... 221
5.3.3. Le travail humain de la conception du chatbot fonctionnel ........................... 222
5.3.4. La conception du chatbot guidée par des « besoins » projetés et identifiés ... 224
5.3.5. Les enjeux de pérennisation du chatbot dans les usages ................................ 225
Discussion générale & Perspectives de recherche ............................................................. 226
1. Évaluer la pertinence et l’adéquation de l’IA pour chaque situation de travail ......... 227
2. Concevoir conjointement l’organisation du travail et les systèmes d’IA ................... 229
3. Une double facette de l’IA ......................................................................................... 231
4. Place centrale de l’humain : favoriser le développement des capacités et du pouvoir
d’agir soutenu par l’IA ...................................................................................................... 233
5. Dépasser les écueils « classiques » des démarches de conception et de déploiement des
systèmes d’IA .................................................................................................................... 235
6. Vers des démarches de conception et de déploiement des systèmes d’IA centrées sur
l’activité ............................................................................................................................. 236
6.1. Mobiliser une approche participative ................................................................ 237
6.2. Analyser le travail réel pour co-construire des scénarios d’usages potentiels et
pertinents de l’IA .......................................................................................................... 238
6.3. Analyser les incidences effectives ou potentielles de la mise en place et des usages
de l’IA ........................................................................................................................... 238
6.4. Soutenir l’encapacitation : accompagner les travailleurs dans le développement
des capacités critiques et du pouvoir de contrôle face à l’IA ....................................... 239
7. Perspectives de recherche ........................................................................................... 241

10
Liste des tableaux

Tableau 1. Résumé du guide thématique des entretiens semi-directifs .................................... 80


Tableau 2. Exemples de catégorisation thématique ................................................................. 84
Tableau 3. Fonctionnalités des systèmes d’IA décrites comme étant utiles dans le domaine
juridique.......................................................................................................................... 102
Tableau 4. Fonctionnalités des systèmes d’IA décrites comme étant utiles dans le domaine de
la radiologie .................................................................................................................... 107
Tableau 5. Données recueillies lors de la première phase exploratoire (Cas de la dictée RV)
........................................................................................................................................ 132
Tableau 6. Données recueillies lors de la deuxième phase d’approfondissement (Cas de la dictée
RV) ................................................................................................................................. 133
Tableau 7. L’ensemble des structures, la population et les données recueillies (Cas du système
DF).................................................................................................................................. 136
Tableau 8. La division du travail entre secrétaires, radiologues et dictée RV ....................... 141
Tableau 9. L’ensemble des données d’entretiens (Cas du projet du chatbot) ........................ 176
Tableau 10. L’ensemble des données d’observation et de l’enquête documentaire (Cas du projet
du chatbot) ...................................................................................................................... 178
Tableau 11. Principales catégories issues de la 1 ère analyse thématique (Cas du projet du
chatbot) ........................................................................................................................... 181

11
Liste des figures

Figure 1. Les types de fonctionnalités des systèmes d’IA de « nouvelle » génération ............ 27
Figure 2. Transformations des emplois (Giblas et al., 2018) ................................................... 33
Figure 3. The Missing middle (Daugherty & Wilson, 2018) .................................................... 38
Figure 4. Complementarity of humans and AI in decision making situations, typically
characterized by uncertainty, complexity and equivocality (Jarrahi, 2018)..................... 39
Figure 5. Les conditions de mise en place de l’IA (Académie des technologies, 2018) .......... 44
Figure 6. Les mesures de gouvernance pour l’IA centrée humain (Shneiderman, 2020) ........ 48
Figure 7. The Human-Centered AI (HCAI) Framework (Xu et al., 2021) ............................... 49
Figure 8. Les activités de conception d’un agent apprenant (Vayre, 2016) ............................. 51
Figure 9. L’articulation de trois facettes empiriques de la thèse .............................................. 72
Figure 10. Frise chronologique de la phase de découverte et d’immersion ............................. 78
Figure 11. Nombre d’interviewés selon le secteur d’activité ................................................... 82
Figure 12. Nombre d’interviewés selon leurs métiers et fonctions .......................................... 82
Figure 13. Nombre d’interviewés selon la structure organisationnelle .................................... 83
Figure 14. Différentes phases des démarches de conception et de déploiement selon les types
de systèmes d’IA .............................................................................................................. 88
Figure 15. Utilisation de la dictée RV par un radiologue ....................................................... 131
Figure 16. Affichage des images analysées par la première version du système DF............. 134
Figure 17. Deuxième version du système DF ........................................................................ 134
Figure 18. Résultats du système DF : absence de fracture ..................................................... 154
Figure 19. Résultats du système DF : fracture probable (doute) ............................................ 154
Figure 20. Résultats du système DF : présence d’une fracture .............................................. 154
Figure 21. Chatbot juridique accessible par la messagerie instantanée par tous les salariés du
groupe ............................................................................................................................. 172
Figure 22. Chatbot juridique accessible sous format widget sur différentes pages web de
certaines entités .............................................................................................................. 173
Figure 23. Déroulement chronologique du recueil des données (Cas du projet du chatbot) .......
........................................................................................................................................ 179
Figure 24. Extrait d’une des chronologies du projet du chatbot de l’entité n°1 ..................... 184
Figure 25. Les interactions entre le chatbot, les opérationnels et les juristes......................... 186
Figure 26. Implication des différents acteurs dans le projet du chatbot ................................. 188

12
Figure 27. Positionnement des acteurs du projet du chatbot dans l’entreprise ...................... 190
Figure 28. Les rôles des acteurs impliqués vis-à-vis de la conception et l’usage du chatbot ......
........................................................................................................................................ 190
Figure 29. Les acteurs « principaux » et les acteurs « périphériques » du projet du chatbot .......
........................................................................................................................................ 191
Figure 30. Les séquences d’actions identifiées de l’activité de conception et de déploiement du
chatbot ............................................................................................................................ 192
Figure 31. Synthèse de la démarche de conception et de déploiement du chatbot juridique avec
les acteurs du projet ........................................................................................................ 194
Figure 32. Chronologie globale du projet du chatbot ............................................................. 195
Figure 33. Différentes versions du chatbot juridique développées au sein de l’entreprise .... 197
Figure 34. Extrait de l’architecture du bot dans l’interface de l’administration du chatbot
juridique.......................................................................................................................... 199
Figure 35. Extrait de conversation d’un utilisateur anonyme avec le chatbot ....................... 200
Figure 36. Extrait du contenu d’interaction avec le chatbot................................................... 201
Figure 37. Extrait des dialogues rédigés dans un outil des cartes mentales ........................... 203
Figure 38. Extrait sur l’incitation des juristes à mettre en avant le chatbot ........................... 215

13
Liste des annexes
Annexes .................................................................................................................................. 264

Annexe I. Paragraphe introductif généré par le système d’IA « YouWrite » ........................ 265
Annexe II. Paragraphe introductif traduit par le système d’IA DeepL .................................. 266
Annexe III. Liste des séminaires, salons et conférences assistés durant les années 2019-2020-
2021 ................................................................................................................................ 267
Annexe IV. Codes thématiques de la 1ère étude empirique (Chapitre 3) ................................ 269
Annexe V. Guide d’entretien du cas de la Dictée RV (Chapitre 4) ...................................... 271
Annexe VI. Guide d’entretien du cas du système DF (Chapitre 4) ....................................... 273
Annexe VII. Codes thématiques de la 2ème étude empirique (Cas de la dictée RV - Chapitre 4)
........................................................................................................................................ 275
Annexe VIII. Codes thématiques de la 2ème étude empirique (Cas du système DF - Chapitre 4)
........................................................................................................................................ 277
Annexe IX. Traitements réalisés par les algorithmes de la plateforme utilisée pour la conception
du chatbot (Chapitre 5) ................................................................................................... 278
Annexe X. Guide d’entretien CDP - Chatbot (Chapitre 5) .................................................... 280
Annexe XI. Guide d’entretien Acteur (entité n°2) Chatbot (Chapitre 5) ............................... 281

14
Introduction

15
« Le développement rapide de l'intelligence artificielle (IA) a un impact profond sur notre
économie et notre main-d'œuvre. À mesure que la technologie de l'IA devient plus sophistiquée,
elle est de plus en plus utilisée pour automatiser des tâches qui étaient traditionnellement
effectuées par des travailleurs humains. Cette tendance devrait se poursuivre, car les entreprises
cherchent à réduire leurs coûts et à accroître leur efficacité. Bien que cela puisse entraîner
certaines pertes d'emploi, cela représente également une opportunité pour les humains de
travailler aux côtés des systèmes d'IA afin de créer une nouvelle valeur pour les entreprises et
la société. De nombreuses questions doivent être prises en compte lors de l'intégration de l'IA
dans les activités professionnelles. Par exemple, quel sera l'impact des systèmes d'IA sur la
répartition des tâches entre les humains et les machines ? Certains emplois seront-ils
complètement automatisés ou faudra-t-il encore des humains pour les exécuter ? Comment les
travailleurs seront-ils formés pour utiliser efficacement la technologie de l'IA ? Et quelles
considérations éthiques doivent être prises en compte lors de l'utilisation de l'IA dans les
processus décisionnels ? ».
Le paragraphe qui vient d’exposer des réflexions sur les enjeux de l’IA au travail aurait pu être
écrit par un humain. En réalité, il a été généré par un système d’IA anglophone 1, spécialisé dans
l’écriture des textes pour des articles, des essais ou simplement des histoires de toute nature.
De plus, il a été traduit par un autre système également basé sur l’IA2. Hormis le fait que les
thématiques, soient « enjeux de l’intelligence artificielle dans les activités de travail » et
« comment les humains et IA peuvent travailler ensemble »3, ont été indiquées au système afin
qu’il produise un « essai », ce paragraphe n’a subi aucune intervention ou modification de notre
part. Il illustre parfaitement d’une part, quelques idées clés des discours actuels sur l’IA et
d’autre part, annonce une partie des questions qui ont pu guider l’émergence de ce projet de
thèse4. Parmi une multitude de fonctionnalités de l’IA, cet exemple est une bonne illustration
de possibilités technologiques actuelles de l’IA suscitant une multitude de discours et de
réflexions.
Des avancées technologiques sont notamment réalisées dans le domaine de l’apprentissage dit
automatique ou machine (Machine Learning) et plus précisément de l’apprentissage profond

1 Le système d’IA utilisé pour générer le premier paragraphe (pour la version originale, voir Annexe I) de
cette introduction, est « YouWrite », présenté en tant qu’assistant d’écriture par l’entreprise « You ». Il est basé
sur le modèle GPT-3 de traitement du langage naturel.
2 Le paragraphe généré en anglais par le système « YouWrite » a été traduit en français par le traducteur

DeepL basé sur des techniques d’IA comme l’apprentissage machine (Annexe II).
3 Ces thématiques ont été formulées en anglais pour la génération du texte par le système : « issues of

artificial intelligence in work activities » et « How humans and AI can work together ».
4 La thèse a été réalisée dans le cadre de la convention CIFRE avec la société Orange.

16
(Deep Learning), grâce à l’augmentation de la puissance des machines et à la génération et la
disponibilité de données massives (Big Data). C’est à partir des années 2000 qu’une
augmentation importante des publications scientifiques dans le domaine de l’IA (Shoham et al.,
2018) s’est traduit par l’intérêt mondial porté à ce domaine qui pourtant remonte aux années
1950. Aujourd’hui, cet intérêt dépasse largement le domaine scientifique. Par exemple, en
France, nous observons une constitution d’un écosystème autour de l’IA impliquant plusieurs
acteurs : des startups, des cabinets de conseil, des entreprises et des institutions privées et
publiques, des centres de recherche privés et publics ainsi que l’État. Au-delà de la France, l’IA
devient un objet politique et stratégique au niveau mondial (Thibout, 2019). C’est un sujet
exploité et promu dans les secteurs privé et public et ceci, à plusieurs niveaux : social,
économique et politique. Au vu des enjeux socio-économiques, plusieurs pays ont élaboré des
plans stratégiques pour le développement de l’IA. Ainsi, ces dernières années ont été marquées
par la publication de nombreux rapports et des plans de développement de l’IA. Par exemple,
en 2016, les Etats-Unis proposent un plan national stratégique pour la recherche et
développement en IA. En 2017, la Chine dévoile son plan de développement de la nouvelle
génération de l’IA. En 2018, le rapport du député Cédric Villani est publié pour conseiller le
gouvernement français et l’Europe dans le développement de la stratégie française et
européenne en IA. Depuis, le Programme National de Recherche en IA (PNRIA) a été lancé en
France et de nombreuses actions en termes de recherche ont été réalisées.
La question des transformations du travail n’échappe pas à ce développement de l’IA. Or, cette
question du travail est souvent abordée du point de vue de l’emploi. Les notions de travail et
d’emploi semblent être interchangeables pour la plupart des acteurs économiques (Guérin et al.,
2021). Dans le contexte de cette thèse, nous nous intéressons au travail qui peut être défini
comme « l’activité de production, de biens ou de services et l’ensemble des conditions de cet
exercice » (Guérin et al., 2021, p. 38). Il englobe des résultats visés et produits, des tâches et
leur organisation, un milieu, des acteurs du processus et des ressources. Tandis que l’emploi
renvoie à « une convention qui définit le cadre contractuel et institutionnel dans lequel le travail
est réalisé » (Guérin et al., 2021, p. 38). L’emploi se caractérise par un statut, une rémunération
et des droits.
Dans cette thèse, il s’agit de s’intéresser à la conception et au déploiement des systèmes d’IA
ainsi qu’aux enjeux des transformations effectives et/ou potentielles suscitées par des usages de
ces systèmes du point de vue du travail. Les progrès technologiques améliorant sensiblement
les performances de ces systèmes depuis les années 2010, sont accompagnés de plusieurs
discours. Des questions se posent sur la conception des systèmes d’IA, leur utilité réelle, les

17
transformations des métiers, des activités et des organisations du travail. Une autre série
d’interrogations concerne la place que doivent ou peuvent occuper ces systèmes dans des
activités humaines : Comment penser la répartition des rôles ou des tâches entre ces systèmes
et les humains ? Quel type de compétences faut-il acquérir pour travailler avec ces systèmes ?
Qu’en est-il de leurs usages en situation réelle de travail ?
Deux perspectives émergent dans ces discours. (i) Une première est « optimiste » dans la mesure
où elle met l’accent sur les bénéfices (potentiels) qu’apporterait l’IA aux travailleurs et aux
entreprises. Par exemple, il s’agirait d’utiliser l’IA pour « libérer l’humain » des tâches pénibles
(répétitives, dangereuses ou « sans valeur ajoutée ») et/ou augmenter la performance et la
productivité (Mcafee & Brynjolfsson, 2017), voire même dans certains cas améliorer la qualité
de vie au travail. Entre autres, certains de ces discours mettent de plus en plus en avant
l’approche augmentative de l’humain par l’IA. Ainsi, les termes de « collaborateur augmenté »,
« manager augmenté » ou même « entreprise augmentée » voient le jour. (ii) La deuxième
perspective est porteuse de craintes : la diffusion massive de l’IA impliquerait le remplacement
de l’humain dans un grand nombre de secteurs professionnels (Frey & Osborne, 2013), ou
encore l’IA serait vue comme une « super-intelligence » (Bostrom, 2014) – une vision tout de
même minoritaire – qui dépasserait bientôt l’humain dans tous les domaines où il exerce son
intelligence. Si ces discours donnent un aperçu des réponses aux questions soulevées par l’IA
au travail et peuvent, au moins partiellement, contribuer aux réflexions sur ce sujet, la plupart
d’entre eux peuvent être considérés comme spéculatifs. Autrement dit, ils ne s’appuient que
très peu sur des études empiriques, ce qui leur confère un caractère projectif.
Partant de ce constat, l’objectif principal de cette thèse est de contribuer à la compréhension
des enjeux soulevés en termes d’incidences occasionnées par la conception, le déploiement et
les usages des systèmes d’IA dans les situations de travail. Adoptant la perspective de
l’ergonomie de l’activité, elle s’appuie sur trois études empiriques qualitatives pour examiner
la conception et le déploiement des systèmes d’IA ainsi que leurs usages dans les situations de
travail.

Le manuscrit de ce travail de recherche est composé de trois parties.

La première partie est consacrée à la présentation du contexte et du cadre d’analyse mobilisé


dans cette thèse.
Le chapitre 1 expose le contexte de cette thèse. Il s’agit dans un premier temps de clarifier le
terme d’IA et le type de systèmes que cela recouvre. Il propose également une revue de

18
littérature sur les enjeux et les interrogations suscités par les systèmes d’IA dans le travail, pour
enfin préciser les objectifs et les questions de recherche.
En prenant appui sur les travaux antérieurs sur les systèmes experts, l’automatisation, les usages
et la démarche ergonomique de conception, le chapitre 2 propose d’élaborer le cadre d’analyse
qui rassemble des éléments jugés pertinents pour traiter les questions de cette recherche. La
démarche de recherche, présentant l’articulation des études empiriques et l’approche
méthodologique générale, est aussi explicitée dans ce chapitre.

La deuxième partie de la thèse comprend les études empiriques.


La première étude à visée exploratoire, présentée dans le chapitre 3, a pour but de comprendre
de façon globale et transversale les enjeux qu’entraînent les processus de conception et de
déploiement des systèmes d’IA ainsi que leurs usages et conséquences effectives ou potentielles
dans les situations de travail. Pour cela, les points de vue et expériences d’une diversité
d’acteurs, (qu’ils soient du côté de la conception ou du côté de l’utilisation des systèmes)
concernés et impliqués dans les processus de conception, de déploiement mais aussi
d’utilisation des systèmes d’IA, sont analysés.
Focalisée sur un secteur d’activité professionnelle spécifique (la radiologie), la deuxième étude
empirique, détaillée dans le chapitre 4, analyse de manière plus approfondie les usages et les
transformations occasionnés par la mise en place de systèmes d’IA dans différents types de
structures (hôpital, clinique et cabinet privé). Deux cas sont examinés, soient un système de
dictée à reconnaissance vocale pour la réalisation des comptes-rendus radiologiques et un
système de détection des fractures sur des images de radiographies.
La dernière étude empirique, exposée dans le chapitre 5, documente et analyse un processus
de conception et de déploiement des systèmes d’IA à travers le cas d’un chatbot juridique mis
en place dans une grande entreprise du numérique.

Enfin, la troisième et dernière partie propose une discussion générale de cette recherche avec
les mises en perspective.

19
Première partie :
Contexte & Cadre d’analyse

20
Chapitre 1. Contexte et état de l’art

Ce premier chapitre a pour but d’expliciter des éléments contextuels relatifs à l’IA et plus
spécifiquement, les enjeux et questions qu’elle suscite en lien avec le travail. Pour cela, nous
allons d’abord exposer ce que peut recouvrir le terme « intelligence artificielle » ainsi que le
fonctionnement et les caractéristiques d’une diversité des systèmes considérés comme relevant
de l’IA. Les enjeux et les questions posés par ces systèmes dans les situations de travail sont
ensuite détaillés. Ils concernent les craintes liées aux potentielles substitutions des travailleurs
par les systèmes, les transformations des métiers et des organisations, les promesses en termes
d’avantages de l’utilisation des systèmes d’IA avec les risques qui les accompagnent, la manière
dont sont pensées les relations entre les travailleurs et ces systèmes et enfin, les approches de
la conception et de l’intégration des systèmes d’IA dans le travail.

1.1. Intelligence Artificielle (IA) : de quoi parle-t-on ?

1.1.1. Éléments de définition de l’IA


Définir l’intelligence artificielle n’est pas une tâche aisée compte tenu des nombreux points de
vue existants sur celle-ci. L’IA peut d’un côté s’apparenter à un concept flou et abstrait, voire
même de la science-fiction, et de l’autre, un concept très concret, se référant à des machines et
des algorithmes avec des caractéristiques spécifiques ainsi qu’à une discipline à la croisée des
mathématiques, de l’informatique et des sciences cognitives. Le point commun de la majorité
des définitions est la référence à l’humain, à son intelligence, à ses capacités cognitives ; alors
même que la définition de l’intelligence humaine fait l’objet d’un débat (Legg & Hutter, 2007)
et que la pertinence du terme « intelligence artificielle » peut aussi être remise en question (De
Ganay & Gillot, 2017 ; Julia, 2019).
McCarthy (2007), considéré comme « l’inventeur » du terme « Intelligence Artificielle »,
définit l’IA comme une science et l’ingénierie de conception des machines « intelligentes » et
plus spécifiquement des logiciels informatiques « intelligents ». L’objectif de cette science est
de créer des machines qui sont capables de simuler les processus d’apprentissage et
l’intelligence humaine : utiliser le langage, résoudre des problèmes a priori réservés aux
humains et s’auto-améliorer via l’apprentissage (McCarthy et al., 1955). La capacité de
réalisation des tâches cognitives par les machines est également reprise dans la définition de

21
Benhamou et al. (2018). Ils considèrent l’IA comme « l’ensemble des technologies visant à
réaliser par l’informatique des tâches cognitives traditionnellement effectuées par l’humain »
(Benhamou et al., 2018, p. 7). Dans la définition de l’IA proposée par l’IEEE5 (2019), nous
retrouvons la notion d’intelligence attribuée aux machines, qui leur permettrait de fonctionner
de manière appropriée et avec prévoyance dans leur environnement. Contrairement aux
systèmes informatiques classiques dits « non intelligents », les systèmes d’IA reposent donc sur
le principe de « reproduction » a priori des capacités cognitives ou encore perceptives des
humains (par exemple, des capacités d’analyse, de compréhension ou encore de raisonnement).
Les différentes définitions de l’IA nous conduisent à trois types d’approches pour synthétiser
ses objectifs (Trappl, 1985) : une approche orientée comportement qui vise à programmer les
ordinateurs de façon à ce qu’ils aient des comportements « intelligents » ; une approche
cognitive qui cherche à modéliser la pensée humaine afin de mieux comprendre l’esprit humain
et enfin, une approche orientée robotique qui vise à construire des machines et ne s’intéresse
plus uniquement aux programmes informatiques.
Pour résumer, on peut considérer l’IA sous différents aspects : il s’agit à la fois d’une discipline
et de diverses techniques informatiques, reposant sur le principe de « reproduction » des
capacités humaines. Dans cette thèse, le terme « IA » désignera un ensemble d’algorithmes, de
systèmes informatiques, de machines et plus largement de technologies sous différentes formes
(logiciels, robotiques etc.) qui s’inspirent de ou visent à imiter des facultés humaines comme la
perception, la production et la compréhension du langage naturel, la représentation des
connaissances, ou encore le raisonnement (Gamkrelidze et al., 2021).

1.1.2. Dimension historique et fonctionnement de l’IA


L’omniprésence des discours et le fort intérêt actuel pour l’IA pourrait laisser croire qu’il s’agit
d’une nouveauté, pourtant son histoire remonte aux années 1950, voire avant (Buchanan, 2005).
Cette histoire peut se diviser en deux parties :
• l’histoire ancienne, allant de la mythologie grecque et d’Aristote jusqu’aux années 1950,
quand Alain Turing, mathématicien britannique, introduit une réflexion sur la capacité
de penser des machines intelligentes (Turing, 1950). Le terme « IA » n’existe pas
encore ;
• l’histoire moderne, allant de l’année 1956 jusqu’à aujourd’hui. C’est en 1956, lors de la
conférence de Dartmouth qu’on a vu introduire le terme « IA » pour parler d’une

5 the Institute of Electrical and Electronics Engineers

22
nouvelle discipline scientifique (McCarthy et al., 1955). Cette conférence réunit alors
les chercheurs dans cette discipline naissante qui vise à concevoir des machines capables
de réaliser des tâches qui a priori requièrent de l’intelligence humaine.
Depuis les années 1950, de nombreuses recherches ont été menées en matière d’IA (la
perception, la production et la compréhension du langage naturel, la représentation des
connaissances, le raisonnement logique, l’apprentissage automatique etc.) et qui ont donné lieu
aux différentes avancées technologiques. Deux principaux courants se sont alors dessinés :
l’approche symbolique et l’approche connexionniste (Cardon, Cointet & Mazières, 2018 ;
Mcafee & Brynjolfsson, 2017 ; Russel & Norving, 2010). L’approche symbolique, mobilisée
depuis les années 1960, se base sur l’utilisation de symboles et de règles représentant des
connaissances. L’approche connexionniste, datant des années 1940 avec une des premières
applications en 1957 qui était le Perceptron, s’inspire des réseaux de neurones. Dans ce cadre,
la « représentation » des connaissances et le fonctionnement général du système repose sur des
nœuds, des coefficients, des poids qui s’ajustent selon le type de tâche à réaliser et les données
d’entrée. C’est cette approche qui se développe de plus en plus aujourd’hui. Dans les années
1960, des promesses non tenues, un manque de performance et une mise en œuvre rare des
applications des systèmes à base d’apprentissage due aux limitations techniques, ont déclenché
de nombreuses critiques, ce qui a freiné le développement de cette approche connexionniste.
L’Intelligence Artificielle Distribuée (IAD) est une autre approche qui a vu le jour dans les
années 1970. Inspirée de l’intelligence collective des insectes sociaux ou encore des sociétés
humaines (Institut de Recherche en Informatique de Toulouse, 2001), elle étudie des systèmes
multi-agents en visant à concevoir plusieurs agents artificiels avec des capacités d’organisation
dans le but d’accomplir une tâche de manière collective.
Les recherches menées en IA symbolique, qui était le paradigme dominant dans les années
1980, ont abouti à des applications concrètes (Trappl, 1985) comme :
- des systèmes experts permettant de mettre à disposition des utilisateurs les
connaissances d’un ou plusieurs experts. Ces systèmes pourraient ainsi remplacer les
experts humains. Ils étaient les applications de l’IA les plus pertinents et répandus dans
des situations de travail des années 1980. Un système expert correspond à « un logiciel
à base de connaissances dérivées de l’expertise humaine et capable d'une part de
proposer une solution à des problèmes d'un domaine précis et d'autre part d’expliquer
les modalités de raisonnement l’ayant conduit à retenir cette solution » (De Terssac et
al., 1988, p. 463). Il s’agit d’imiter le raisonnement humain (Dubus, 1995) ;

23
- des systèmes de traitement du langage naturel pour les traductions ou encore la
compréhension et génération de textes ;
- enfin, la robotique qui est considérée comme une des applications de l’IA par Trappl
(1985) et qui selon lui, présenterait un certain nombre d’avantages comparativement à
l’humain : les robots peuvent travailler dans des environnements hostiles, où le bruit,
les vibrations, les odeurs ou le danger auraient un effet négatif sur l’humain. L'utilisation
de la puissance hydraulique ou électrique donne à un robot plus de « muscles »
potentiels qu'un homme. Et ils ne s'arrêtent pas pour manger, ils ne veulent jamais
rentrer chez eux et ils ne font pas grève 6 (Trappl, 1985). Cette vision, comme dans le
cas des systèmes experts, s’inscrirait dans une perspective substitutive de l’humain par
la machine.
Ces périodes, relativement glorieuses de l’IA avec le développement des systèmes experts dans
les entreprises, ont été suivies de périodes de ralentissement des recherches (dits « hivers » de
l’IA avec une forte baisse des financements) dues essentiellement à l’incapacité des systèmes à
tenir leurs promesses. Toutefois, certains chercheurs semblaient être plus optimistes quant à
l’avenir de l’IA, c’est par exemple le cas de Trappl (1985). Effectivement, il voyait l’avenir de
l’IA dans les systèmes experts plus grands, dans les systèmes de traitement du langage naturel
mais aussi de la parole, par exemple, en remplaçant la saisie d'informations par une conversation
avec l'ordinateur (Ballantine, 1980), ou encore dans les robots capables de percevoir leur
environnement et de se déplacer librement. Pour pouvoir atteindre ces avancées technologiques,
l’auteur insistait sur la nécessité future de développer le domaine de recherche de l’IA basé sur
l’apprentissage. D’autres, comme Weyrauch (cité dans Trappl, 1985), allaient encore plus loin
dans la réflexion, en proposant de nouveaux programmes d’IA avec une existence continue,
appelés des « individus informatiques ». L’idée se base sur le constat que contrairement aux
humains qui peuvent librement recueillir des informations sur le monde, les programmes d’IA
ont une existence courte et sont limités dans la compréhension du monde. L’objectif était donc
de faire fonctionner ces programmes en continu, sans interruption, afin qu’ils puissent
développer un modèle du monde évolutif à travers les interactions sous forme de dialogues en
langage naturel, puis à travers des informations sensorielles. Certes, ces « individus
informatiques » n’ont jamais vu le jour mais, il faut noter qu’à partir de la fin des années 1990,

6 « They can work in hostile environments, where noise, vibration, smells, or danger would have an adverse
effect on the human system. The use of hydraulic or electric power gives a robot more potential "muscle" than
a man. And they don't stop to eat, they never want to go home, and they don't go on strike. » (Trappl, 1985, p.
10)

24
plusieurs évènements marquants ont suscité à nouveau l’intérêt général pour l’IA. Par exemple,
en 1997, le système DeepBlue d’IBM gagne aux échecs contre le champion du monde Gary
Kasparov. En 2011, c’est encore le système d’IBM appelé Watson qui gagne le jeu de quiz
télévisé Jeopardy.
Un nouveau développement et de nouvelles promesses apparaissent aujourd’hui, grâce à
l’apprentissage automatique ou machine (Machine Learning) basé sur l’approche
connexionniste et notamment une de ses branches la plus populaire aujourd’hui, appelée
l’apprentissage profond (Deep Learning) (Goodfellow et al., 2016). Ces approches ont permis
par exemple de développer le système AlphaGo de Google. En 2017, après avoir gagné en 2016
contre le champion du monde de jeu de Go, le système AlphaGo Zero, basé sur l’apprentissage,
devient autodidacte. Autrement dit, il apprend et s’améliore lui-même, sans mobiliser des
données issues des parties jouées entre humains, en utilisant uniquement les règles du jeu et en
élaborant des nouvelles stratégies inconnues jusqu’à maintenant. Les techniques de
l’apprentissage machine ont pu être réinvesties grâce à l’augmentation de la puissance de
calculs des machines et les données massives (Big Data), essentielles pour le fonctionnement
des algorithmes basés sur ce type d’apprentissage.
Concrètement, pour réaliser une tâche, la machine « apprend » à partir de beaucoup d’exemples
préparés, c’est-à-dire annotés par un humain (par exemple, des clichés radiologiques pour
apprendre au système à reconnaître des anomalies). C’est ce qu’on appelle l’apprentissage
supervisé et qui est le plus couramment utilisé7 (LeCun et al., 2015).
Ainsi, les systèmes basés sur l’apprentissage automatique ne suivent pas des « règles »
préétablies pour la réalisation des opérations. A chaque fois qu’un exemple d’apprentissage est
donné au système, ses algorithmes spécifiques (des fonctions mathématiques interconnectés)
traitent cet exemple en donnant une réponse. Soit la réponse est correcte et d’autres exemples
lui sont administrés, soit la réponse est fausse et les ajustements sont réalisés dans les
paramètres de ces algorithmes jusqu’à ce qu’ils produisent la bonne réponse (LeCun, 2019). A
partir des exemples et d’algorithmes spécifiques, ils élaborent donc des modèles «
d’apprentissage » qui ne sont pas explicitement programmés et qui donnent au système la
capacité de généralisation, c’est-à-dire de pouvoir produire les bonnes réponses même dans le
cas des données qu’il n’a jamais vues. De ce fait, ces modèles évoluent en fonction des données
d’apprentissage et cette évolution peut théoriquement se poursuivre dans le temps en fonction

7 Il y a également deux autres types d’apprentissage moins utilisés que nous ne développerons pas ici :
l’apprentissage par renforcement (basé sur le principe d’essai-erreur et de « récompense ») et l’apprentissage
non supervisé (qui cherche à identifier des catégories de structures sous-jacents aux données non annotés).

25
des données que les systèmes peuvent traiter en situation opérationnelle. Quant à l'apprentissage
profond, elle implique plus spécifiquement des réseaux de neurones artificiels multicouches et
permet aux machines de construire des concepts complexes à partir de concepts plus simples
(Goodfellow et al., 2016).
En dépit des progrès de ces systèmes d’IA dus à l’efficacité des techniques d’apprentissage, ils
rencontrent toujours plusieurs limites. Une des limites est leur opacité ou autrement dit, leur
manque d’explicabilité qui signifie la difficulté à comprendre le fonctionnement et la manière
dont un système basé sur l’apprentissage produit un résultat spécifique. Ce problème se pose
en particulier dans le cas de l’apprentissage profond qui est de plus en plus utilisé dans différents
domaines, notamment dans le traitement du langage naturel et la reconnaissance d'images. Le
fonctionnement des modèles de l’apprentissage machine qui sont basés sur cette technique est
si complexe qu'ils sont considérés comme des systèmes de type boîte noire (Rudin, 2019). Les
spécialistes du domaine ne parviennent pas toujours à expliquer précisément ce qui se passe
quand ce type de systèmes « apprend » (Zouinar, 2020). Il est alors particulièrement difficile
d'expliquer les sorties de ces modèles, autrement dit les résultats qu’ils produisent. Les systèmes
basés sur l’apprentissage profond peuvent être incertains : on ne sait pas toujours comment ils
vont se comporter dans la durée, comment ils vont évoluer (étant donné l’évolution constante
des données, l’implémentation de nouvelles données ou encore la génération des données par
le système lui-même). Cette problématique de l’explicabilité se posait déjà avec des systèmes
d’IA d’ancienne génération, comme les systèmes experts, mais de manière moins ardue.
Une autre critique que l’on peut adresser à ces techniques concerne le terme « apprentissage »
qui peut prêter à confusion ou créer des promesses inatteignables à l’heure actuelle. En réalité,
un algorithme dit d’« apprentissage » n’apprend pas au sens où l’humain peut apprendre. Le
système analyse les données en cherchant à réduire la marge d’erreur entre le résultat attendu
et le résultat qu’il va donner. A ce jour, les systèmes d’IA ne sont ni conscients ni autonomes :
ils ne peuvent pas prendre d’initiative, par exemple d’une idée de création, de liberté de faire
autre chose en dehors d’un cadre prédéfini par une série de programmes et d’instructions qui
balisent leur champ des possibles. On parle alors de l’IA « faible », spécialisée dans des tâches
précises, à l’opposition de l’IA « forte » - terme introduit par le philosophe Searle (1984/2003)
- qui fait référence aux systèmes intelligents autonomes et généralistes avec un sens commun
et une conscience (CNIL, 2017). Or, à l’heure actuelle, l’IA « forte » n’existe pas : « Nous
sommes encore loin d’une intelligence « multi-usage », qui permet de s’adapter à des situations
n’ayant jamais été observées auparavant. » (Askenazy & Bach, 2019, p. 38).

26
1.1.3. Fonctionnalités et usages (potentiels) des systèmes d’IA de « nouvelle »
génération
Dans notre recherche, nous nous intéressons aux différents systèmes d’IA de « nouvelle »
génération qui disposent potentiellement de capacités d’évolution et d’amélioration de leur
performance de manière automatique et/ou manuelle. L’objectif de cette partie est de préciser
ce que sont - ou peuvent être - ces « nouveaux » systèmes d’IA du point de vue de leurs
fonctionnalités et de leurs utilisations. Par fonctionnalités, nous entendons ce que ces systèmes
sont capables de faire par conception. Nous présentons un panorama (synthétique et non
exhaustif) des systèmes basés sur des algorithmes d’apprentissage.
De nombreux secteurs d’activité sont concernés par la diffusion des systèmes d’IA, par
exemple, l’industrie, la défense et la sécurité, la justice, l’éducation, la santé, la relation client,
la finance, le transport, l’environnement, l’agriculture, ou encore les ressources humaines. Bien
que ces systèmes aient été déployés dans certains environnements de travail, il semble que la
plupart d'entre eux soient encore en phase de recherche et de prototype dans la plupart des
secteurs professionnels, du moins en France. Les fonctionnalités de ces systèmes d’IA peuvent
être présentées selon quatre types (Figure 1).

Figure 1. Les types de fonctionnalités des systèmes d’IA de « nouvelle » génération

Le premier type de systèmes d’IA se limite aux systèmes de reconnaissance automatique


d’éléments (par exemple, du texte, des sons, dans les images), d’aide à la recherche
d’informations ou encore d’analyse automatique des données. Le deuxième type regroupe des

27
systèmes plus sophistiqués capables d’effectuer des calculs de probabilités d’apparition
d’événements et/ou de poser un diagnostic. Les systèmes du troisième type vont au-delà du
diagnostic. En se basant sur leurs analyses des probabilités, ils peuvent proposer des choix
d’action possibles à l’utilisateur ou recommander des « décisions ». Enfin, le quatrième type
rassemble des systèmes qui sont capables de prendre une décision ou agir en partie de manière
autonome sans intervention humaine mais toujours dans un cadre prédéfini ou supervisé.
Illustrons ces types de fonctionnalités par des exemples concrets d’applications existantes ou
imaginées dans différents secteurs professionnels.
Dans la relation client du domaine de la banque et assurance, les chargés de clientèle du Crédit
Mutuel8 disposent d’un outil d’assistance basé sur le système Watson d’IBM9. L’objectif est de
les aider dans la recherche d’informations dans leur base documentaire interne via un dialogue
en langage « naturel ». Ici, nous avons donc un système d’IA avec le premier type de
fonctionnalité qui se limite à la recherche d’informations pour apporter une réponse à une
question posée, tout en identifiant la demande ou « l’intention » de l’utilisateur. Le système
fonctionne comme un moteur de recherche sophistiqué qui est censé faciliter le travail des
chargés de clientèle. D’autres systèmes, tels que les chatbots (considérés comme des agents
conversationnels permettant aux utilisateurs de dialoguer en langage « naturel ») ou encore les
systèmes à reconnaissance vocale (capables de reconnaitre, analyser la voix et transcrire
automatiquement la parole en texte) font également partie de ce premier type de systèmes d’IA.
Le deuxième type de fonctionnalités peut être illustré par les systèmes de maintenance
prédictive/préventive. Il s’agit de calculer des risques de dysfonctionnements à venir ou
d’estimer les pièces et les parties des machines qui nécessiteront dans un futur proche une
maintenance. Plusieurs systèmes de ce type existent aujourd’hui sur le marché, déployés dans
différents domaines comme le transport ou l’industrie. Par exemple, dans le domaine de la
motorisation, Otosense10 propose un système permettant de faire une maintenance préventive à
partir de l’analyse du bruit des moteurs. Le système est supposé permettre une réduction du
temps d’arrêt des machines et des coûts de la maintenance, et éviter des accidents. Dans le
domaine juridique, le système Predictice11 permet d’estimer le taux de succès d’une action
contentieuse et les indemnités associées. Des systèmes dits prédictifs sont également proposés

8 https://www.creditmutuel.com/fr/actualites/watson-nouvelle-solution-innovante-au-service-du-reseau-

et-de-la-relation-client.html
9 Watson est un écosystème d’IBM décliné en plusieurs outils, algorithmes et spécialités, qui peuvent servir

de base au développement des systèmes d’IA. https://www.ibm.com/watson


10 https://www.otosense.com/
11 https://predictice.com/

28
dans le domaine de l’agriculture. Par exemple, Microsoft, en partenariat avec The Yield12,
propose un système d’IA qui donne aux agriculteurs des prévisions météorologiques micro-
locales précises à partir d’une douzaine de facteurs (humidité des sols, vent, pluie, etc.) pour
les aider à prendre des décisions (par exemple, de plantation). On retrouve également plusieurs
applications de l’IA dans le domaine de la santé, comme la recherche médicale, la psychiatrie
ou encore la radiologie. Pour ce qui concerne la radiologie, ce développement est notamment
dû à l’amélioration des performances en reconnaissance et analyse des images. Par exemple,
Milvue13 et Arterys14 développent des systèmes avec plusieurs algorithmes spécialisés pour
analyser automatiquement des images radiologiques, réaliser des mesures sur celles-ci ou
encore détecter des variations et des anomalies. Ainsi, le système peut par exemple détecter
automatiquement une fracture, donc contribuer à établir un diagnostic. Par ailleurs, il peut aussi
réaliser une priorisation des examens et ainsi recommander aux médecins les images
radiologiques d'urgence à regarder et interpréter en premier. Cette dernière fonctionnalité de
recommandation relèverait donc du troisième type des systèmes d’IA. Enfin, il existe également
des outils d’assistance à base d’IA avec des fonctionnalités plus avancées de l’ordre de
l’exécution, c’est-à-dire qu’ils peuvent en partie agir de manière « autonome », même si en
réalité ils peuvent être supervisés par les humains. C’est le cas de l’assistant virtuel JulieDesk15
qui est capable de gérer un agenda comme envoyer des mails pour proposer des créneaux
disponibles et ainsi organiser une réunion.

On peut donc constater qu’une grande variété d’applications de l’IA dans différents secteurs
professionnels est proposée, même si la majorité des systèmes restent à l’état de prototype, de
scénarios d’usage ou encore en phase de recherche. Pour recouvrir cette variabilité, il serait
donc plus judicieux de parler de systèmes d’IA plutôt que de l’IA 16 qui « occulte la multiplicité
des dispositifs, des pratiques et des contextes d’usages » (Velkovska & Relieu, 2021, p. 221).
Si une bonne partie des discours sur ces systèmes mettent l’accent sur les bénéfices attendus,
par exemple en termes de performance économique, l’IA soulève toutefois un ensemble de
questions relatives au travail que nous allons explorer dans la partie suivante.

12 https://news.microsoft.com/transform/videos/yield-feed-world-without-wrecking-planet/
13 https://milvue.com/
14 https://www.arterys.com/
15 https://www.juliedesk.com/
16 Ainsi, le terme « IA » employé dans certaines parties de cette thèse sous-entend nécessairement les

systèmes d’IA.

29
1.2. Les enjeux soulevés par des systèmes d’IA dans les situations
de travail
Le développement des systèmes d’IA et leur introduction potentielle dans les situations de
travail ont été accompagnés de nombreux débats et réflexions sur la manière dont ces systèmes
pourraient affecter le travail. Nous identifions deux grandes visions concernant ces effets
potentiels : d’un côté, des promesses dans une perspective optimiste avec les nouvelles
possibilités d’automatisation suscitées par l’IA et les avantages qu’elles représentent en termes
de gain de temps et de productivité, et de l’autre côté, des craintes en termes de dangers que le
développement et la diffusion massive des systèmes d’IA peut représenter pour l’humanité et
notamment pour l’humain au travail. Ainsi, dans la littérature récente, majoritairement
« grise »17, les principales questions et conséquences discutées sont :
- Les craintes de remplacement des humains par les machines et les transformations des
activités et de l’organisation du travail,
- La mise en place des systèmes d’IA qui implique une répartition des tâches entre les
travailleurs et ces systèmes avec les différents apports et risques,
- Les rapports de complémentarité entre les travailleurs et les systèmes d’IA,
- Les démarches de conception et de mise en place des systèmes d’IA dans le travail.
Ces différents points sont abordés dans la suite de cette section.

1.2.1. Vers un « remplacement généralisé » des travailleurs ou une


transformation du travail par les systèmes d’IA ?
Les craintes liées à l’IA sont tout d’abord fondées sur l’idée de l’automatisation des emplois et
de dépassement des humains par les machines qui deviennent de plus en plus performantes. Les
avancées technologiques se sont accompagnées par les incertitudes sur le futur de l’humanité
sur lequel plusieurs personnalités se sont exprimées, comme Elon Musk ou encore Stephen
Hawking, pour qui le développement de l’IA représenterait une menace pour nos sociétés
(Deloitte, 2017). Dans cette réflexion, l’IA est vue comme une « super-intelligence » (Bostrom,
2014) qui dépasserait bientôt l’humain dans tous les domaines où il exerce son intelligence.
Néanmoins, cette conception de l’IA est loin d’être « la réalité » aujourd’hui car comme nous
avons pu voir, pour le moment, tous les systèmes d’IA sont de l’ordre d’une IA dite « faible »,
spécialisée dans la réalisation d’une tâche précise. En revanche, les interrogations sur le futur

17 Il s’agit de rapports institutionnels et des cabinets privés, de livres blancs, etc.

30
du travail avec l’arrivée de l’IA ne sont pas dépourvues de sens et méritent d’être discutées. Ces
réflexions sont donc présentées dans cette partie.

1.2.1.1. Une nouvelle ère d’automatisation par l’IA


En effet, l’arrivée des nouveaux systèmes d’IA est associée à une nouvelle ère d’automatisation
(Davenport & Kirby, 2015). L’automatisation peut se définir comme « l’exécution d’une
fonction par une machine (généralement un ordinateur) qui était auparavant exécutée par un
humain » (Parasuraman & Riley, 1997, p. 231). L’histoire de l’automatisation est plutôt
ancienne et suivant les époques, le terme employé n’était pas le même. Il dépendait
essentiellement de technologies utilisées pour réaliser diverses tâches réservées à l’humain. Si
au début on parlait plutôt de la mécanisation, l’arrivée des technologies électroniques et
numériques ont joué un grand rôle dans l’avancée des systèmes d’automatisation (COE, 2017).
Trois grandes époques sont identifiées (Davenport & Kirby, 2015) durant lesquelles les
domaines d’application de l’automatisation ont été élargis : la première du XIXème siècle, qui
serait donc la mécanisation, où les machines prenaient le relais pour effectuer les tâches
« sales » et dangereuses ; la deuxième du XXème siècle, où avec l’arrivée du numérique les
machines réalisaient des tâches répétitives et enfin, la troisième du XXIème siècle, où on voit
arriver les machines « intelligentes » capables de produire des recommandations, voire prendre
des décisions. Quand on parle de l’automatisation, il faut distinguer des systèmes automatisés
et des systèmes autonomes (Moulieres-Seban, 2017). Les systèmes automatisés font face à des
situations prévisibles car ils sont préprogrammés pour exécuter des opérations. Ils ne peuvent
pas tenir compte de la situation et des événements imprévisibles pour se réadapter. Ils suivent
des règles et des procédures préétablies indépendamment des événements qui peuvent survenir.
Quant aux systèmes autonomes, ils peuvent faire face à des situations imprévues en s’adaptant
aux événements et en optimisant leurs comportements pour atteindre leurs objectifs. Une
distinction doit être également établie entre l’automatisation et les systèmes d’IA : les systèmes
d’IA se présentent comme des moyens d’automatisation ce qui signifie que l’automatisation ne
mobilise pas systématiquement les systèmes d’IA. Trappl (1985) décrivait déjà ce lien entre
l’IA et l’automatisation dans les années 1980 et estimait que l’IA allait continuer de changer
l’automatisation du travail.

1.2.1.2. Les craintes de l’automatisation massive des emplois


Ce sont alors les « nouvelles » possibilités d’automatisation du travail à travers les nouvelles
performances des systèmes qui suscitent des craintes de disparition des emplois, un des enjeux

31
majeurs pour les entreprises. Ces craintes sont liées au fait que « l’ampleur des destructions
d’emplois par la technologie ne pourra être compensée par des créations » (Askenazy & Bach,
2019, p. 33), au moins temporairement. Les craintes liées à la disparition des emplois causée
par l’automatisation ont toujours été l’objet d’un débat dans les différentes époques (Bradshaw
et al., 2018). Une des études récentes la plus populaire sur la question d’automatisation des
métiers est celle de Frey et Osborne (2013). Les auteurs ont estimé que 47% des emplois aux
Etats-Unis avaient une forte possibilité d’être automatisés (par le biais des systèmes basés sur
l’apprentissage). Cependant, c’est une étude controversée du fait de nombreuses limites qu’elle
comporte. Il s’agit notamment de leur unité d’analyse située au niveau des métiers et non au
niveau des tâches. Certaines tâches peuvent être effectivement automatisées dans un même
métier, tandis qu’il est très difficile d’automatiser un métier dans son intégralité. Ainsi, des
chercheurs allemands (Arntz et al., 2016) montrent que seulement 10% d’emplois ont un risque
élevé d’automatisation lorsqu’on analyse les différentes tâches des métiers. Par ailleurs, la
majorité des tâches (90%) vont plutôt évoluer que disparaitre complétement. Velkovska et
Relieu (2021) évoquent également « que les interactions réelles sont bien loin des discours sur
les agents artificiels comme porteurs de déshumanisation, qui seraient destinés à se substituer
aux humains. » (pp. 222-223). En ce qui concerne la France, le COE18 montre aussi que moins
de 10 % des emplois sont menacés de disparaitre et que le contenu va profondément changer
pour environ la moitié des emplois existants (COE, 2017). Ainsi, l’hypothèse la plus probable
sur laquelle il y a un consensus, c’est que la diffusion de l’IA s’accompagnerait non pas de la
disparition des métiers mais par des transformations des métiers, des organisations et plus
largement du travail.

1.2.1.3. Les transformations et évolutions des métiers et des organisations


Certaines tâches et emplois auraient plus de risques d’être automatisés par les systèmes d’IA.
C’est le cas pour des tâches structurées et prévisibles dans des emplois les moins qualifiés,
même si les emplois qualifiés commencent à être de plus en plus concernés (Giblas et al., 2018).
En revanche, on estime que les emplois « manuels » dans des environnements imprévisibles
(les jardiniers, les plombiers…), devraient connaître des niveaux d'automatisation plus faibles,
en raison par exemple du niveau de difficulté technique (Bradshaw et al., 2018). Ainsi, la nature
des transformations serait liée au type d’emploi et de métier (Giblas et al., 2018) comme on
peut le voir sur la Figure 2. Par exemple, cette figure indique que les opérateurs effectuant

18 Le Conseil d’Orientation pour Emploi

32
principalement des tâches administratives seraient susceptibles d’être substitués par les
systèmes. Le travail des ouvriers pourrait être rendu moins pénible mais avec un risque de
déqualification. D’autres métiers, comme des contrôleurs financiers ou des conseillers,
pourraient être soutenus par les systèmes d’IA. Enfin, les artisans seraient peu impactés.

Figure 2. Transformations des emplois (Giblas et al., 2018)

Pour certains, le développement des systèmes d’IA peut même être créateur d’emplois, voire il
l’est déjà. Wilson et al. (2017) ont ainsi identifié l’émergence de trois nouvelles catégories de
métiers : des « trainers », soient des entraineurs qui éduquent et apprennent aux algorithmes
des subtilités du langage naturel mais aussi comment se montrer plus empathique dans leurs
réponses ; des « sustainers », ce sont des personnes qui entretiennent, maintiennent et veillent
sur le bon fonctionnement des systèmes d’IA, ils gèrent aussi des évènements imprévus, par
exemple en surveillant un algorithme dans le respect de l’éthique ; des « explainers » dont le
travail est d’expliquer pourquoi et comment un algorithme d’IA produit les résultats donnés. Ils
doivent donc être capables d'expliquer le fonctionnement des systèmes d’IA et ce, de façon
compréhensible pour des personnes sans connaissances techniques. La part importante de
l’intervention humaine pour faire fonctionner ces systèmes, conduit Casilli (2019) à considérer
l’IA comme étant faite à la main. Il est en effet à souligner que le travail d’étiquetage ou
d’annotation des données d’apprentissage des algorithmes est à l’origine des nouveaux emplois
précaires (Askenazy & Bach, 2019) du digital labor, soit un ensemble des « activités

33
numériques quotidiennes des usagers des plateformes sociales, d’objets connectés ou
d’applications mobiles » (Casilli, 2015, p. 13).
Les transformations futures du travail soulèvent également des questionnements dans les
entreprises sur les nouvelles formes d’organisation. L’introduction des systèmes d’IA ne serait
pas simplement un moyen technologique d’amélioration des processus de travail mais plutôt un
moyen pour repenser l’organisation elle-même (Giblas et al., 2018). Ces futures organisations
sont imaginées comme étant plus transparentes, moins hiérarchiques et plus coopératives grâce
aux systèmes d’IA qui permettent l’exploitation de nombreuses données, mises à disposition
aux différents acteurs de l’organisation avec l’objectif de guider leurs décisions. Ces systèmes
sont donc supposés être « un facteur de partage vertical, en donnant à chaque niveau la visibilité
sur l’ensemble des activités des différents niveaux de l’organisation, et horizontal en agrégeant
les données des différentes entités de l’organisation » (Giblas et al., 2018, p. 40). Selon les
auteurs, cela ferait émerger des nouvelles logiques de pouvoir, de partage d’informations et
transformerait le rôle du management qui passerait du rôle de contrôle au rôle
d’accompagnateur et d’animateur de l’équipe.

1.2.2. La mise en place et l’utilisation des systèmes d’IA dans les situations de
travail : entre promesses et risques perçus

1.2.2.1. Les avantages de répartitions des tâches entre l’IA et les travailleurs
Aujourd’hui, l'un des avantages attendus des systèmes d’IA est qu'ils aideraient les travailleurs
à gagner du temps en automatisant les tâches « répétitives » (Giblas et al., 2018 ; McIntosh,
2018) et par conséquent à augmenter leurs performances (en termes de productivité) ou à se
concentrer sur des tâches plus intéressantes. En supprimant ces tâches « répétitives », en
donnant plus d’autonomie aux travailleurs dans les décisions et en les concentrant sur des
aspects relationnels de leur travail considérés souvent comme tâches « à valeur ajoutées », « la
machine va paradoxalement « remettre de l’humain dans le travail » » (Giblas et al., 2018, p.
33) d’après certains dirigeants d’entreprise. Ferguson (2019) évoque un scénario de « l’employé
réhumanisé » largement mobilisé dans les réflexions actuelles, par exemple dans le rapport de
Villani (2018). Ce scénario renvoie à l’idée de « désautomatisation » en permettant à l’humain
de développer des capacités complémentaires à l’IA. Toutefois, ces avantages hypothétiques
dépendraient de la façon dont ces systèmes d’IA seraient déployés dans les organisations et de
la fonction que l’on va leur attribuer.

34
Cela nous amène à nous interroger sur la place et le rôle de l’IA dans les situations de travail.
Différentes approches spéculatives ont été proposées en ce sens. Par exemple, l’idée la plus
répandue est le fait que les systèmes d’IA pourraient (ou devraient) prendre en charge des tâches
« routinières » tandis que les humains garderaient des tâches caractérisées par l’imprévisibilité
ou encore nécessitant des compétences sociales (Bradshaw et al., 2018). Au lieu d’envisager
des machines en tant que fournisseurs d’informations à l’humain pour l’aider dans la prise de
décision, une autre approche propose que ce soit l’humain qui puisse fournir son jugement et
son avis aux machines prenant des décisions (Mcafee & Brynjolfsson, 2017). De cette manière,
les auteurs proposent de repenser le modèle de partenariat traditionnel entre l’humain et la
machine, où les machines fournissent des données et les humains prennent des décisions. Ce
changement de paradigme se justifierait par des performances grandissantes des machines et
des capacités limitées de l’humain essentiellement sur le plan cognitif en termes de traitement
de l’information. On délèguerait alors toutes les tâches automatisables aux machines en mettant
l’humain hors de la boucle de décision, sauf dans des situations nouvelles et inhabituelles où
l’humain aurait la possibilité de remettre en question les décisions de la machine.

1.2.2.2. Les risques et limites de la mise en place et de l’utilisation des systèmes d’IA
Différents risques de la mise en place de l’IA sur le travail peuvent être soulevés : la polarisation
ou la distinction renforcée des tâches à très forte ou très faible valeur ajoutée, la
complexification des tâches pour l’humain ou encore la déqualification de certains travailleurs
(Ferguson, 2019 ; Giblas et al., 2018). D’autres risques existeraient aussi au niveau de la santé
au travail, par exemple le risque d’accroissement du contrôle des travailleurs par la machine
qui impose le rythme et prescrit certaines tâches, ou encore le risque d’émergence des nouveaux
gestes répétitifs dans le cas des robots à base d’IA. Enfin, une déshumanisation des relations de
travail se présente comme le premier risque perçu par les salariés (Giblas et al., 2018). Cette
deshumanisation consisterait à l’appauvrissement des interactions et liens sociaux (Ferguson,
2019), à la déqualification ou encore à la « déresponsabilisation »19 des travailleurs dont
l’autonomie de prise de décision risque d’être remise en question et influencée par l’IA : « A
mesure que se multiplieront les champs où l’IA prendra ou suggèrera une décision, la pression
grandira sur l’opérateur pour se conformer à cette préconisation » (Giblas et al., 2018, p. 35).
Officiellement, ces systèmes ont un rôle d’aide à la prise de décision mais les risques de
« déresponsabilisation » sont bien réels, notamment dans le contexte où de plus en plus

19 Le terme « déresponsabilisation » est employé par les auteurs.

35
d’études, même si elles sont à nuancer, annoncent que l’IA aurait des performances supérieures
à l’humain. Par exemple, il s’agit de performances en termes de rapidité dans l’analyse d’une
grande quantité des données médicales ou encore en termes de précision dans la détection de
diverses anomalies (Loh, 2018). « Dans le cas où ces annonces s’avéreraient exactes, il pourrait
donc devenir hasardeux pour un médecin d’établir un diagnostic ou de faire un choix
thérapeutique autre que celui recommandé par la machine, laquelle deviendrait dès lors le
décideur effectif » (CNIL, 2017, p. 27). Ainsi, « quand l’IA décide, l’homme est moins
autonome dans le pilotage de ses activités et sa prise de décision » (Ferguson, 2019, p. 30).
Quant au risque de la déqualification, il renvoie à une perte du savoir et de l’expertise humaine
dans le cas où elle est confiée aux systèmes d’IA (Ferguson, 2019). Les craintes de perdre des
compétences et de l’autonomie émergent alors chez les travailleurs, ce qui pourrait même les
conduire à ne plus avoir confiance en leurs capacités. Face à ce fait, ce risque est souvent abordé
sous l’angle de la nécessité du développement des compétences humaines, avec l’idée que
l’humain devrait développer des compétences complémentaires de l’IA, celles dont les
machines ne disposent pas encore (Villani, 2018). Certains soutiennent que le temps (supposé
pouvoir être) libéré par l’automatisation de certaines tâches « routinières » devrait être consacré
au développement des « softskills » (Lemberger et al., 2019) comme des compétences sociales
et relationnelles ainsi que des capacités créatives et de précision. Cette approche est
problématique si la complémentarité est principalement élaborée autour des capacités du
système, l'humain étant considéré comme une « partie auxiliaire » qui doit s'adapter aux
capacités de la machine. La réflexion doit également porter d’une part, sur les risques
d’obsolescence de compétences de l’humain dont l’activité est transformée par l’arrivée de ces
systèmes et d’autre part, sur le développement de nouvelles compétences nécessaires pour
utiliser et travailler à l’aide des systèmes d’IA (Mateescu & Elish, 2018).

1.2.3. Les rapports entre les travailleurs et les systèmes d’IA dans une
approche de complémentarité
Les rapports entre les travailleurs et les systèmes d’IA disposant de nouvelles performances
améliorées 20 constituent un point de réflexion dans les discours actuels, tout en mettant en avant
les approches de la complémentarité. Cela fait fortement écho aux travaux précédents sur les
relations entre les humains et les technologies. Effectivement, nombreuses sont les études,
issues de plusieurs disciplines (par exemple, l’ergonomie, la sociologie, la psychologie,

20 Comme nous avons pu le voir dans la partie 1.1

36
l’ingénierie etc.) et champs de recherche (par exemple, Interaction Homme-Machine (IHM) ou
Human-Computer Interaction (HCI), Travail coopératif assisté par ordinateur ou Computer
Supported Cooperative Work (CSCW) etc.), qui se sont intéressées aux relations entre les
humains et les technologies de toute nature pour pouvoir les caractériser, les modéliser mais
aussi agir sur les conditions de mise en place de ces relations ainsi que sur la conception des
systèmes technologiques 21.

1.2.3.1. Une perspective augmentative


Dans la littérature récente, l'IA est souvent considérée comme un outil qui peut et doit
augmenter les capacités humaines (Daugherty & Wilson, 2018 ; Jarrahi, 2018). L’émergence
du terme « collaborateur augmenté » (Giblas et al., 2018), décliné dans différents métiers, par
exemple la radiologie pour parler de « radiologue augmenté » (Lincoln et al., 2019) est une
bonne illustration de cette idée. En permettant aux travailleurs « de se concentrer sur des tâches
à plus forte valeur cognitive et relationnelle » (Giblas et al., 2018, p. 25), l’IA contribuerait
ainsi à maintenir les travailleurs opérationnels tout au long de leur carrière ainsi qu’à soutenir
l’acquisition et le maintien de leurs compétences. Cette idée d’augmentation de l’humain par
l’IA, qui est une idée ancienne prenant l’origine avec le concept de l’intelligence humaine
augmentée des années 1960 (Engelbart, 1962), est donc très prisée par les entreprises, par les
cabinets de conseil et sous-entend une augmentation de productivité.
Dans la conception de l’idée d’augmentation d’Engelbart (1962), les machines se présentent
comme des éléments qui viennent accroitre des capacités intellectuelles de l’humain. Par
exemple, en lui permettant d’avoir une meilleure compréhension et résolution des problèmes
complexes, la machine ne va pas simplement pallier les déficiences humaines mais elle va plutôt
augmenter les capacités humaines. Ainsi, on sort du paradigme d’un système de type prothèse
dont l’objectif est de pallier les carences de l’humain, pour s’orienter davantage vers une
perspective envisageant des outils en tant qu’instruments (Rabardel, 1995 ; Roth et al., 1987).
Les auteurs montrent que la puissance des machines ne garantit pas la performance effective
dans la réalisation d’une tâche impliquant les humains et les machines, notamment face à des
situations inhabituelles. Pour cela, le rôle actif de l’humain, qui a besoin de comprendre l’état
du système et du processus, demeure essentiel face à la variabilité des situations qui ne peuvent
pas être anticipées par la machine. Il s’agit ici d’envisager une perspective instrumentale des

21 Pour plus de détails sur ces travaux, Hammes-Adelé (2011) a proposé un panorama des approches de la
relation humain-technologie allant des approches centrées sur la technologie et leur utilisabilité aux approches
symbiotiques des technologies-humains-organisation, en passant par les approches de l’acceptation, de la
sociologie des usages et des innovations ou encore de la philosophie des techniques.

37
technologies dans le sens où l’humain mobilise, utilise et adapte ces outils en tant que ressources
pour la réalisation d’un objectif. Dans cette perspective, l’accent est mis sur l’utilisation des
outils technologiques pour aider l’humain dans la réalisation d’une tâche plutôt que déléguer
cette tâche à ces outils. La puissance d’un outil se manifeste en sa capacité à augmenter
l’adaptabilité de l’humain aux différents types de problèmes qui peuvent survenir dans la
poursuite de l’objectif.
A l’ère des systèmes d’IA, l’augmentation est envisagée dans une perspective mutuelle lorsque
l’humain développe et entraîne ces systèmes (Daugherty & Wilson, 2018). Selon Daugherty et
Wilson (2018), à terme, les métiers exigeant de la créativité, du leadership ou encore de
l’empathie seront toujours réalisés par les humains. En revanche, les métiers avec des tâches
répétitives et routinières seront effectués par des machines. Entre ces deux extrêmes, les auteurs
imaginent l’existence d’un « intermédiaire » (missing middle) dans lequel il y aurait des
activités « hybrides » réalisées par les humains et les machines qui s’augmentent mutuellement
(Figure 3). Autrement dit, l’humain augmenterait la machine en l’entrainant avec des données
massives, en donnant des explications sur ses actions et en veillant sur son bon fonctionnement.
En retour, la machine pourrait aussi augmenter l’humain de trois façons : amplifier ses capacités
cognitives, étendre ses capacités interactionnelles et l’augmenter physiquement en
s’incorporant à lui. Dans cet espace « intermédiaire », les humains et les machines ne seraient
plus des adversaires comme dans les approches substitutives mais plutôt des partenaires
symbiotiques qui augmentent mutuellement leurs niveaux de performance.

Figure 3. The Missing middle (Daugherty & Wilson, 2018)

1.2.3.2. Une perspective symbiotique et « collaborative »


L’idée d’augmentation est aussi reprise par d’autres auteurs, comme Jarrahi (2018) qui prône
une relation de « symbiose » Humain-IA dans la prise de décision organisationnelle caractérisée

38
par l’incertitude, la complexité et l’ambiguïté (Figure 4). Le principe est de repérer les aspects
pour lesquels les systèmes d’IA peuvent augmenter les capacités humaines.

Figure 4. Complementarity of humans and AI in decision making situations, typically


characterized by uncertainty, complexity and equivocality (Jarrahi, 2018)

Dans cette perspective, l’IA est envisagée comme un outil d’augmentation plutôt que
d’automatisation. Ainsi, on confierait à l’IA les aspects pour lesquels il peut augmenter
l’humain comme les décisions analytiques ; tandis que les décisions intuitives seraient réservées
à l’humain qui serait meilleur lorsqu’il s’agit de prendre une décision dans une situation
incertaine.
Ce type d’attribution des rôles ou encore les différents modèles des systèmes humains-IA basés
sur le principe d’augmentation se disent s’inscrire plus globalement dans une perspective
collaborative. En effet, dans la littérature récente, un courant de pensée croissant, qui est
également ancien, met l'accent sur les possibilités de relation « collaborative » entre les
systèmes d'IA et les travailleurs, envisagés comme des « partenaires » (Daugherty & Wilson,
2018 ; Norman, 2017). Par exemple, le modèle dit de collaboration humain-IA envisagé dans
le plan stratégique des Etats-Unis pour la recherche et développement de l’IA (National Science
and Technology Council, 2016) évoque la collaboration dans une perspective interactionnelle
en combinant les humains et les systèmes d’IA qui travailleraient ensemble pour atteindre un
objectif. Se référant à la nature complémentaire des humains et des systèmes d’IA, ce modèle
décrit trois niveaux de collaboration entre l’humain et l’IA : (i) l’IA réalise des tâches
périphériques pour soutenir l’humain dans la prise de décision ; (ii) en cas de charge de travail
élevé pour l’humain, l’IA prend en charge des tâches complexes de supervision, de diagnostic
ou de prise de décision ; (iii) l’IA prend en charge différentes fonctions à la place de l’humain,
elle réalise des tâches pour lesquelles l’humain a des capacités limitées.

39
Dans le cadre des travaux sur l’automatisation, les « automatismes intelligents de haut niveau
» étaient déjà envisagés par certains auteurs comme des « coéquipiers » plutôt que des outils
(Amalberti, 2002). En se rapprochant de ces perspectives, différents modèles ont ainsi émergé
dans les années 1980. Au lieu de sortir l’humain de la boucle de décision, des modèles
d’automatisation ont été recentrés sur l’humain et son activité (Billings, 1996 ; Millot et al.,
2015). Ce changement de paradigme a conduit au développement des modèles de coopération
Homme-Machine depuis au moins les années 1980 (Hoc, 2000 ; Millot, 1999 ; Millot & Boy,
2012 ; Woods et al., 1990). Ces modèles, principalement mobilisés dans les études des
situations dynamiques comme le travail des pilotes d’avion ou encore le domaine industriel,
s’appuient notamment sur les travaux fondateurs de Licklider (1960) sur la « symbiose »
Homme-Ordinateur où la partie « ordinateur » peut renvoyer plus généralement aux
technologies. Pour reprendre la définition de l’auteur, la symbiose Homme-Ordinateur est un
développement attendu de l’interaction coopérative entre les hommes et les ordinateurs. Elle
impliquera un couplage très étroit entre les humains et les électroniques membres d’un
partenariat. Les principaux objectifs sont 1) de laisser les ordinateurs faciliter la pensée
formative comme ils facilitent maintenant la résolution de problèmes formulés, et 2) de
permettre aux hommes et aux ordinateurs de coopérer pour prendre des décisions et contrôler
des situations complexes sans dépendre de façon inflexible de programmes prédéterminés 22
(Licklider, 1960). Il s’agit d’un couplage où la machine réalise des tâches routinières et
l’humain définit des objectifs, formule des hypothèses et se charge de l’évaluation. Cette notion
suppose une « coévolution », une « coadaptation » voire un « co-développement » de deux
entités – humain et machine – qui s’influencent mutuellement. Le modèle de symbiose humain-
machine propose qu’il y ait une véritable relation et une collaboration entre l’humain et la
machine pour la prise de décision et le contrôle des situations complexes (Brangier et al., 2009
; Licklider, 1960).
Dans cette perspective symbiotique, Willis et Jarrahi (2019) ont par exemple mobilisé l'analyse
du travail pour proposer une division du travail entre un médecin généraliste et un système d'IA
pour le traitement des dossiers médicaux. En se référant à une approche sociotechnique, cette
analyse a abouti à une répartition hypothétique des tâches. Elle permet notamment de

22 “Man-computer symbiosis is an expected development in cooperative interaction between men and

electronic computers. It will involve very close coupling between the human and the electronic members of the
partnership. The main aims are 1) to let computers facilitate formulative thinking as they now facilitate the
solution of formulated problems, and 2) to enable men and computers to cooperate in making decisions and
controlling complex situations without inflexible dependence on predetermined programs.” (Licklider, 1960, p.
4)

40
comprendre et déterminer les aspects de travail du médecin à automatiser de façon à ce que l’IA
n’empêche pas l’activité mais devienne une ressource pour le praticien. Par exemple, la tâche
d’écriture lors de rencontre avec un patient, qui avait de grandes chances d’être complètement
automatisée, devrait être laissée au médecin. En effet, ils ont mis en évidence une place cruciale
de cette tâche pour le médecin dans l’élaboration de sa réflexion et de son diagnostic. Bien que
cette démarche à base de l’analyse du travail soit intéressante, elle présente des limites
notamment au niveau du modèle de travail qui semble se limiter à l’identification et à la
formalisation des tâches effectuées (Willis et al., 2019).

1.2.3.3. Les limites des approches « collaboratives »


La majorité des modèles de la complémentarité de l’humain et l’IA, développés ces dernières
années, fait très peu référence aux travaux antérieurs sur la « coopération » ou « collaboration »
Humain-Machine. Tandis que les limites des approches de la « coopération » ou
« collaboration » Humain-Machine, démontrées par ces travaux, restent d’actualité malgré les
avancées des systèmes d’IA en termes de performance (Barcellini, 2020 ; Van Den Bosch &
Bronkhorst, 2018 ; Zouinar, 2020)23.
Ces limites consistaient au fait que les systèmes développés dans les années 1980 n’étaient pas
réellement capables de supporter une relation de coopération de type humain (Salembier &
Pavard, 2004). Autrement dit, les systèmes ne disposaient pas de capacités de communication
et de coopération, par exemple la compréhension des intentions, des buts et des actions des
agents humains alors que ce seraient des caractéristiques nécessaires pour que les systèmes
puissent devenir un véritable partenaire de l’humain dans le travail et leur permettre de
développer une relation collaborative (Hancock, 1993 ; Hoc, 2003 ; Klein et al., 2004 ; Woods
et al., 1990). Comme les systèmes ne possédaient pas réellement ces capacités complexes qui
sont caractéristiques de la coopération humaine, employer le terme « coopération » ou «
collaboration » reste alors métaphorique. De plus, ces approches ne tiennent pas compte de
l’asymétrie entre les humains et les machines (Salembier & Pavard, 2004 ; Suchman, 1987).
Par exemple, contrairement à l’humain, une machine n’a au mieux qu’un accès limité au
contexte pertinent de l’action. Enfin, une autre critique que l’on peut adresser à ces approches
est leur tendance à se centrer sur l’activité d’un agent humain unique dans sa relation avec un
agent artificiel (Salembier & Pavard, 2004). Elles délaissent donc les dimensions collectives et
organisationnelles de l’activité.

23A notre connaissance, ce sont les seuls auteurs actuels faisant référence aux travaux des années 1980-
1990 sur les systèmes Humain-Machine et les systèmes experts.

41
Il s’avère que les systèmes d’IA actuels font toujours face à cette limitation technologique (Van
Den Bosch & Bronkhorst, 2018 ; Zouinar, 2020). Incapables de comprendre le contexte dans la
majorité des situations, ils ne nous permettent pas encore de parler véritablement de relation de
collaboration entre l’humain et l’IA. De plus, il y aurait aussi une absence de compréhension
mutuelle entre ces derniers, soit un élément nécessaire pour une relation de collaboration : l’IA
doit avoir la capacité de comprendre l’humain, ses buts, ses intentions, ses caractéristiques ; à
l’inverse l’humain doit également pouvoir comprendre le fonctionnement de l’IA, les résultats
qu’elle fournit, or, les systèmes d’IA se confrontent à la problématique de l’explicabilité24.
Dans ces conditions de systèmes opaques, la collaboration de l’humain et l’IA se résume
davantage aux interactions unidirectionnelles (Van Den Bosch & Bronkhorst, 2018). La
collaboration sous forme d’interactions mutuelles pourrait avoir lieu à partir du moment où les
systèmes d’IA deviennent compréhensibles pour l’humain et acquièrent des capacités
d’explications sur leur processus de raisonnement ou encore sur leurs résultats fournis. La
véritable collaboration entre l’humain et l’IA en tant que membres d’une équipe, ce qu’on
pourrait aussi appeler teamwork (Norman, 2017), pourrait être possible si les deux membres
avaient des capacités de partage de but commun, des capacités d’adaptabilité, de compréhension
de la situation ou encore des relations d’interdépendance (Johnson et al., 2014). Ce type de
relation collaborative, qui pour le moment s’avère inatteignable, comporte des risques,
notamment pour l’autonomie de l’humain qui face à des machines de plus de plus performantes
pourrait se retrouver dans une position d’exécution, voire de soumission, plutôt que de
collaboration.

1.2.4. Les processus de conception et les modalités d'intégration des systèmes


d'IA dans les situations de travail
Si les différentes transformations et conséquences de la mise en place et l’utilisation des
systèmes d’IA sont liées aux perspectives adoptées pour définir le rôle et la place de ces
systèmes dans les situations de travail, elles ne peuvent être traitées indépendamment des enjeux
de processus de conception de ces systèmes ainsi que des modalités de leur intégration 25 dans
des situations de travail.

24 Voir la partie 1.1.2


25 Les termes « intégration », « déploiement », « mise en place » ou encore « introduction » des systèmes
d’IA vont être utilisés de façon indifférenciée dans cette thèse. Ils font référence au fait d’intégrer ces systèmes,
de façon concrète, dans des situations de travail et qui sont destinés à être utilisés par les travailleurs.

42
1.2.4.1. Les démarches de conception et d’intégration de l’IA dans les entreprises
Les travaux menés par le Cigref 26 en 2017, montraient que globalement il y avait une prise de
conscience des enjeux de l’IA dans les entreprises. L’utilisation des systèmes d’IA s’inscrirait
davantage dans une continuité de transformation numérique plutôt que dans une rupture
(Fischer & de Broca, 2018). Cette transformation autour de l’IA, combinant diverses
technologies et compétences, est donc qualifiée d’hybride. Dans les entreprises, elle peut se
traduire soit par le développement d’une stratégie autour de l’IA, soit par des applications
concrètes de l’IA (sous forme d’APIs27) destinées aux différents métiers (Fischer, 2017). Il y a
ainsi une émergence de l’IA comme « un service à l’entreprise » (IA as a service), c’est-à-dire
« une IA accessible depuis cloud qui fournit des APIs qui permettent de faire des prototypages
rapidement, autour de services liés principalement à l’analytics, la reconnaissance vocale,
visuelle etc. » (Fischer, 2017, p. 6).
Ce type de démarches de conception et d’intégration de l’IA s’inscrivent majoritairement dans
une approche « techno-centrée » qui consiste à se focaliser sur la technologie en tant que
solution et à traiter au second plan tous les enjeux concernant l’humain et son travail. Cette
approche a été largement critiquée pour la position résiduelle qu’elle donne à l’humain et à son
travail réel vis-à-vis de l’outil technique (Rabardel, 1995 ; Woods, 1996). Actuellement,
certaines démarches « projectives » prétendent toutefois se démarquer de cette approche en
soulignant la nécessité de donner une place importante aux travailleurs dans la conception et
l’intégration de l’IA dans les situations de travail. A titre d’illustration, examinons certaines de
ces démarches proposées par des entreprises ou encore des cabinets de conseil.
La démarche proposée par Nerce et al. (2018) pour « l’adoption de l’IA dans les organisations
» met en avant son objectif de « garder l’humain au cœur de la transformation » (Nerce et al.,
2018, p. 82). Cette démarche, divisée en plusieurs étapes, prétend répondre aux enjeux humains
par un programme d’acculturation dans le but de démystifier l’IA et d’engager les salariés dans
le projet de transformation ; ou encore par la création des « IA Labs » permettant d’identifier et
de créer des cas d’usages d’IA et la transmission des savoirs concernant ces systèmes et leurs
usages. Enfin, la dernière étape est consacrée aux questions de sécurité du côté technologique
et aux questions éthiques et juridiques du côté humain. Bien que cette démarche soit
intéressante du point de vue de la prise en compte de l’humain dans les projets de

26 « une association représentative des plus grandes entreprises et administrations publiques françaises,
exclusivement utilisatrices de solutions et services numériques, qui accompagne ses membres dans leurs
réflexions collectives sur les enjeux numériques » (https://www.cigref.fr/qui-sommes-nous)
27 application programming interface ou interface de programmation d’applications

43
transformation, la réelle implication des travailleurs et la prise en considération de leurs
activités restent à démontrer.
D’autres démarches mettent en avant plusieurs enjeux qui peuvent être identifiés lors de
l’intégration de l’IA dans une entreprise, comme les questions du budget et des ressources en
termes d’investissements financiers mais aussi de compétences humaines, les enjeux
organisationnels dans le sens où il y aurait une problématique de transversalité et de
cloisonnement des différents métiers ou encore les enjeux techniques comme la nécessité
d’avoir une architecture adaptée (Fischer & de Broca, 2018). La question des compétences
nécessaires pour le développement de l’IA semble être un élément important dans ces
approches. Effectivement, former les personnes en interne mais aussi trouver de l’expertise
humaine à l’extérieur de l’entreprise ainsi que les plateformes adaptées aux besoins sont
souvent considérées comme cruciales pour la réussite de la mise en place de l’IA (Sage, 2020).
D’autres démarches ont davantage tendance à se centrer sur des aspects technologiques et de
l’environnement de l’entreprise. Par exemple, c’est le cas de la représentation hiérarchique des
conditions de mise en place de l’IA à la manière de la pyramide de Maslow28. Il s’agit de créer
des conditions pour « être prête pour l’IA » (« AI-Ready ») (Académie des technologies, 2018).
Dans cette hiérarchisation des besoins (Figure 5), il est difficile d’identifier la place donnée par
l’auteur aux enjeux liés à l’humain et son activité.

Figure 5. Les conditions de mise en place de l’IA (Académie des technologies, 2018)

Nous retrouvons certains de ces éléments similaires dans les prérequis mis en avant par le Cigref
(Fischer & de Broca, 2018) pour la gouvernance de l’IA :
- la gouvernance des données,
- la communication, la sensibilisation et la prise de conscience en interne,

28La pyramide de Maslow, s’inscrivant dans la théorie de la motivation, décrit des besoins humains de
manière hiérarchique.

44
- le bénéfice du support de la Direction Générale,
- l’alignement sur la stratégie globale de l’entreprise,
- un partenariat métiers-DSI (la direction des systèmes d’information) débouchant
souvent sur des équipes projet mixtes,
- le repérage des talents en interne, la stimulation des équipes via des challenges IA,
- le développement d’un centre de compétences dédié à la data intelligence.
Pour évaluer les apports potentiels de l’intégration de l’IA, plusieurs questions peuvent être
posées selon la démarche proposée par Sage (2020) : « 1. L'application de l'IA peut-elle faire
fonctionner votre entreprise de manière plus efficace et efficiente ? 2. L'IA peut-elle résoudre
les problèmes de votre entreprise ? 3. L'IA peut-elle rendre votre entreprise plus rentable ? »29
(p. 11). Les principaux apports potentiels mis en avant sont la sécurité, l’augmentation de la
productivité sans augmenter les effectifs. Pour cela, l’enjeu de l’entreprise serait d’établir une
relation de confiance entre les travailleurs et les systèmes d’IA en « éduquant » les employés
en matière de compréhension de l’IA et son fonctionnement dans l’entreprise mais aussi en
matière de risques d’automatisation des emplois et l’engagement que prend l’entreprise pour
requalifier les employés (Sage, 2020).
Certes, certains enjeux organisationnels et les impacts sur les métiers sont discutés dans ces
démarches, mais sans réellement s’interroger sur la place du travail réel comme nous
l’entendons en ergonomie. De plus, la plupart des réflexions actuelles concernant la conception
et l’intégration des systèmes d’IA est centrée sur la prise en compte des enjeux éthiques.

1.2.4.2. Les processus et approches de conception et d’intégration des systèmes d’IA


guidés par des enjeux éthiques
Les aspects éthiques se présentent aujourd’hui comme une ligne directrice de la conception et
de la diffusion des systèmes d’IA. Face à la problématique de l’explicabilité de ces systèmes,
en particulier ceux à base de l’apprentissage profond, l’éthique apparaît comme une base
essentielle à intégrer dans la conception de ces systèmes mais aussi pour accompagner leur
diffusion dans les entreprises (Ferguson, 2019). L’Europe est un des acteurs le plus actif sur la
réflexion éthique à travers plusieurs commissions ou encore collectifs regroupant le secteur
privé et public. La Commission européenne s'est saisie de cette question et a proposé des
« Lignes directrices en matière d’éthique pour une IA digne de confiance » (AI HLEG, 2019).
Ainsi, selon l'approche proposée, l'IA « digne de confiance » est avant tout une IA centrée sur

291. Can the application of AI make your business run more effectively and efficiently? 2. Can AI solve your
business problems? 3. Can AI make your business more profitable?

45
l'humain, c'est-à-dire qu'elle doit être au service des humains et servir leur bien-être. Outre les
nombreuses opportunités offertes par ces technologies d'IA, elles comportent également des
risques. C'est pourquoi, la question de la confiance dans ces technologies semble être un
élément essentiel dans cette démarche. Une IA digne de confiance devrait donc être légale
(respecter les lois et règlements), éthique (respecter les principes et valeurs éthiques) et robuste
techniquement et socialement. La question semble importante car une approche digne de
confiance serait essentielle « pour permettre une « compétitivité responsable », en établissant
les bases sur lesquelles les personnes concernées par des systèmes d’IA peuvent se fier au
caractère licite, éthique et robuste de leur conception, de leur mise au point et de leur
utilisation » (AI HLEG, 2019, p. 6).
Les questions éthiques et juridiques des systèmes d’IA se posent dans tous les domaines
d’activité, et ceci, dès leur conception. Plusieurs problématiques éthiques et juridiques peuvent
donc être identifiées (Benbouzid & Cardon, 2018 ; CNIL, 2017 ; Villani, 2018) : la question de
la déresponsabilisation ou de la dilution de responsabilité en cas d’erreur 30 ; des biais 31, par
exemple discriminatoires reproduits par des machines « apprenantes » à cause de facteurs
biaisés contenus dans les données d’apprentissage ; le cadre légal des données massives et
personnelles, essentielles et exploitées par les algorithmes d’IA ; la question de formes
d’affects, de dépendance, de confiance et d’attachement, développées chez l’humain vis-à-vis
des machines de plus en plus autonomes ou encore avec des caractéristiques anthropomorphes.
Le rapport de la CNIL32 (2017) insiste par exemple sur la prise en compte de deux principes
fondamentaux dans la conception des systèmes d’IA : le principe de loyauté et le principe de
vigilance. Ces principes s’articulent également aux exigences de « transparence », qualifiées
également d’intelligibilité ou d’explicabilité face à l’opacité des systèmes, comme une
condition de déploiement des systèmes d’IA.
Le principe de loyauté se repose sur la mise en avant de l’intérêt des utilisateurs en encadrant
ce que fait l’algorithme mais limite également la liberté des concepteurs de l’algorithme quant
à son fonctionnement. Avec les systèmes d’IA à base d’apprentissage, ce principe rencontre des
difficultés de mise en œuvre étant donné les résultats de ces systèmes qui peuvent être
inattendus, voir incompréhensibles pour ces mêmes concepteurs. Le deuxième principe qui est

30 Cette problématique de responsabilité se pose notamment avec des systèmes d’aide au diagnostic/d’aide

à la décision. Par exemple, en cas d’erreur médicale, qui peut être tenu responsable : le praticien, le concepteur,
le développeur … ?
31 Les biais renvoient aux résultats tendancieux des systèmes ou encore aux anomalies et erreurs (re)produits

dans leurs résultats.


32 La Commission nationale de l'informatique et des libertés.

46
celui de vigilance renvoie aux caractères évolutifs et imprévisibles des systèmes d’IA. C’est un
principe davantage méthodologique qui devrait orienter les conceptions des systèmes d’IA, en
obligeant les concepteurs et toute personne en charge de mise en place des systèmes d’IA à
prendre en compte ce caractère imprévisible et évolutif des systèmes. L’objectif est la limitation
des phénomènes de sur-confiance ou encore de déresponsabilisation, favorisés par le caractère
opaque des systèmes d’IA. Pour lutter contre ce phénomène de déresponsabilisation, la CNIL
fait une proposition d’introduire « une obligation de redevabilité ou d’organisation de la
responsabilité » (p. 51). Autrement dit, l’intégration d’un système d’IA dans diverses situations
doit être accompagnée par « une attribution explicite des responsabilités impliquées par son
fonctionnement » (p. 51).
Ces principes pointent les limites et les points de vigilance en matière de processus de
conception de l’IA. Dans ce processus, la quantité et la qualité des données sont des éléments
majeurs car ils constituent le cœur de ces algorithmes souvent l’objet de divers biais par
exemple discriminatoires. La conception des systèmes d’IA requiert donc l’utilisation des
données sans quoi ces systèmes à base d’apprentissage machine ne peuvent exister. La quantité
et la qualité de ces données conditionnent en partie la fiabilité, la pertinence, le bon
fonctionnement ou la performance des algorithmes de l’IA (CNIL, 2017). Mais la quantité
n’est pas garant de la qualité. La qualité des données renvoie à la pertinence et à la fiabilité des
informations contenues qui vont être « apprises » et reproduites par le système. Ainsi, « des
données erronées ou tout simplement périmées impliqueront en bout de chaîne des erreurs ou
des dysfonctionnements plus ou moins graves selon le domaine concerné, du simple envoi de
publicités ciblées correspondant mal à [un] profil réel jusqu’à une erreur de diagnostic
médical » (CNIL, 2017, p. 39). La question de la pertinence des données est donc aussi
importante à prendre en compte. Cette pertinence qui dépend des objectifs poursuivis par les
concepteurs des systèmes d’IA renvoie notamment aux biais dans la collecte et sélection des
données, ce qui peut aboutir aux systèmes produisant des résultats discriminatoires ou
favorisant des formes d’inégalités. Dans une certaine mesure, ces systèmes peuvent être des
reflets d’un système de valeur et de choix à travers les données utilisées ou encore les choix des
concepteurs quant aux critères de fonctionnement.

1.2.4.3. Le développement des approches de l’IA centrée humain


Dans le contexte des avancées technologiques de l’IA, des démarches dites centrées humain
émergent. Par exemple, pour rendre les principes éthiques souvent généralistes, utilisables dans

47
la pratique, Shneiderman (2020) propose les mesures pratiques pour une gouvernance de l’IA
centrée humain (Figure 6) avec trois niveaux :
- des systèmes fiables basés sur des pratiques d'ingénierie logicielle solides,
- une culture de la sécurité grâce à des stratégies de gestion d'entreprise éprouvées,
- une certification digne de confiance par une surveillance indépendante.

Figure 6. Les mesures de gouvernance pour l’IA centrée humain (Shneiderman, 2020)

Shneiderman (2020) soutient l’idée qu’il y a eu un changement de paradigme : si dans le passé,


les recherches en IA ont été centrées davantage sur la construction des machines autonomes
plutôt que sur le contrôle humain des interfaces, aujourd’hui, l’approche Human- Centered AI
(HCAI) place les utilisateurs humains au cœur de la réflexion sur la conception, en particulier
sur la conception de l’expérience utilisateur. Ainsi, l’approche HCAI serait centrée sur les
systèmes fiables, sûrs et dignes de confiance (Shneiderman, 2020).
Pour la conception des systèmes d’IA, Xu (2019) et Xu et al., (2021) proposent donc de
développer cette approche compréhensive « Human-Centered AI » (HAI ou HCAI)33. Les
principes de base de cette approche suivent trois objectifs : refléter techniquement les
caractéristiques de l’intelligence humaine pour mieux la comprendre, soutenir plutôt que
remplacer les capacités humaines (pour répondre aux enjeux éthiques) et porter une attention
particulière aux impacts de l’IA sur les humains (concevoir les systèmes d’IA explicables, utiles
et utilisables). Ainsi, cette approche inclut trois éléments de base interdépendants (Xu et al.,
2021) : technologie, humain et éthique (Figure 7). L’entité « humain » renvoie à la démarche
qui se base sur des besoins des humains pour l’identification des scénarios d’utilisation des

33 HAI est aussi un institut de recherche créé récemment par l’université de Stanford, Berkley et MIT.

48
systèmes d’IA. L’objectif est de développer des systèmes d’IA utiles et utilisables avec les
humains qui doivent garder le rôle de décideur. L’entité « technologie » détaille la combinaison
des technologies d’IA, de l’intelligence humaine augmentée par la technologie et l’intelligence
hybride du système humain-machine. L’objectif poursuivi dans cette entité est le
développement des systèmes d’IA évolutifs qui augmentent les capacités humaines au lieu de
les remplacer et qui sont contrôlés par l’humain. Enfin, la dernière entité « éthique » doit
permettre de garantir l’équité, la responsabilité et le pouvoir décisionnel de l’humain pour une
conception d’une IA éthique et responsable.

Figure 7. The Human-Centered AI (HCAI) Framework (Xu et al., 2021)

Inspirée des approches de l’interaction Humain-Machine (IHM) (notamment, l’expérience


utilisateur ou encore la conception centrée utilisateur), la conception de l’IA selon l’approche
HCAI est surtout pensée avec ses critères d’explicabilité, d’utilité et d’utilisabilité.
L’approche HCAI se caractérise pour Xu et al. (2021) par :
- Une place centrale de l’humain qui consiste au fait de veiller à ce que les humains
soient maintenus au centre des systèmes d’IA hybrides humain-machine, de garantir
le contrôle humain sur les systèmes d’IA utiles, utilisables et explicables mais aussi
la conception des systèmes éthiques et humanistes.
- La complémentarité entre l'intelligence humaine et l'intelligence de la machine :
utiliser la complémentarité pour compenser les déficiences du développement de

49
l’IA censée simuler l’intelligence humaine. L’objectif est d’améliorer l’intelligence
des systèmes d’IA à l’aide de « l'intelligence hybride homme-machine » (Johnson
& Vera, 2019).
- L'interdépendance de l'humain, de la technologie et de l'éthique : pour concevoir des
systèmes d’IA centrés sur l’humain (donc utile et utilisable), il faut prendre en
compte l’impact de l’IA sur les humains, par exemple les enjeux éthiques.
- Une conception systématique : cette conception suppose de développer la
complémentarité de l’intelligence humaine et de l’IA dans une perspective du
système humain-machine-environnement. La conception des systèmes d’IA n’est
pas envisagée comme étant uniquement un projet technologique. Elle nécessite donc
la mobilisation de diverses disciplines.
En se basant sur cette approche HCAI, l’auteur propose sa mise en œuvre à travers un domaine
interdisciplinaire émergent qu’il qualifie de « Humain-AI Interaction » (HAII) (Xu et al., 2021).
Ce domaine HAII comprend l’étude de l’interaction et la collaboration humain-IA,
l'augmentation de l'intelligence humaine, l'intelligence hybride homme-machine, l'IA
explicable, l'autonomie contrôlée par l'homme, la conception éthique et l'interaction
intelligente, en mobilisant des méthodes de divers disciplines mais notamment celles de l’IHM,
avec l’objectif de promouvoir et de développer des systèmes d’IA centrés sur l’humain. Certes,
cette approche ouvre des perspectives sur les études centrées sur les interactions entre les
humains et les systèmes d’IA, mais il paraît peu claire quel modèle de l’humain et de son activité
est mobilisé et comment la place centrale de l’humain dans la conception de l’IA peut
concrètement se manifester dans des situations réelles de travail.
Enfin, un dernier point concerne les études sur les activités de conception des systèmes d’IA et
ce qu’elles impliquent par exemple, en termes de processus de développement technique et de
la mise en place de ces systèmes.

1.2.4.4. Le développement technique et la mise en place des systèmes d’IA


A notre connaissance, peu de travaux ont étudié la manière dont les systèmes d’IA sont conçus
et déployés aujourd’hui. Un de ces travaux est celui de Vayre (2016, 2018) qui s’est intéressé
à la conception empirique des agents apprenants, en mettant en avant les différentes étapes
effectivement mises en œuvre dans les activités de conception des systèmes à base
d’apprentissage. Il s’agit d’un processus de découverte avec une exploration et itération des
trois phases (Figure 8) : celle de formalisation de la demande, celle de formalisation du
problème d’apprentissage et celle de développement de l’agent apprenant.

50
Figure 8. Les activités de conception d’un agent apprenant (Vayre, 2016)

Pour synthétiser, les activités de conception impliquent tout d’abord de récupérer des données
d’apprentissage et de définir le projet tout en prenant en compte des contraintes
organisationnelles de « l’implémenteur » qui est un ensemble d’acteurs intégrant le système
dans leur organisation. Ces deux étapes interdépendantes, sont centrales dans « la conception
d’un agent apprenant puisque ce sont à travers elles que les concepteurs découvrent : les attentes
de l’implémenteur ; les environnements techniques et sociaux qui vont constituer les ressources
et les contraintes de leurs activités. » (Vayre, 2016, pp. 405-406). Les projets de conception et
d’intégration de ces systèmes sont souvent flous du point de vue de l’implémenteur et
nécessitent donc d’être précisés à l’aide de l’accompagnement des concepteurs (Vayre, 2018).
Les étapes suivantes de la conception sont la visualisation et la structuration des données qui
permettent de formaliser le problème d’apprentissage. Cela consiste à nettoyer les données mais
aussi créer, ajouter et sélectionner des variables. Bien que la machine puisse réaliser une partie

51
de ces tâches, les compétences des concepteurs humains jouent ici un rôle essentiel. En effet, à
travers ce travail sur les données, les concepteurs introduisent les éléments de l’expertise métier
pour que les apprentissages du système soient pertinents et que le système soit utile et utilisable
du point de vue de l’implémenteur. Enfin, une dernière phase est le développement de l’agent
apprenant. Elle consiste à concevoir l’architecture « cognitive »34 du système et tester ses
performances. Durant cette phase, se pose la question du niveau d’opacité du système. Si le
concepteur avec l’implémenteur juge qu’il n’est pas nécessaire de comprendre l’apprentissage
de la machine, alors une méthode d’apprentissage complexe peut être utilisée (Vayre, 2018).
Tout le long de la conception, les concepteurs réalisent un travail d’accompagnement pour aider
l’implémenteur d’une part, « à découvrir, à partir de ses données, une problématique qui lui
apparaît pertinente en fonction du contexte organisationnel qu’il connaît » (Vayre, 2018, p. 92),
mais aussi à préciser et mobiliser certains éléments de l’expertise métier nécessaires à la
conception. L’auteur qualifie ce travail de « co-création ». Par ailleurs, il montre que
« concevoir un agent apprenant, c’est un art de la recherche qui est guidé par des finalités
pragmatiques. » (Vayre, 2016, p. 459), ce qui n’est pas spécifique au domaine de l’IA. Les
activités de conception de ces systèmes suivraient « une logique de bricolage opérée selon un
régime d’action exploratoire » (Vayre, 2018, p. 92).
Pour résumer, ces éléments permettent de caractériser les activités de conception des systèmes
d’IA avec les différentes étapes, les acteurs impliqués et le travail nécessaire qu’elles peuvent
impliquer.

1.3. Synthèse et objectifs de recherche


Comme nous avons pu voir, nous nous intéressons à l’introduction des systèmes d’IA dans les
situations de travail. La diffusion annoncée de ces systèmes dans nos sociétés soulève de
nombreuses questions et enjeux concernant leurs conséquences (positives ou négatives) sur les
activités professionnelles. Toute une série de réflexions et d’ouvrages qui tentent d’anticiper et
de cerner ces conséquences a donc été produite.
Premièrement, ils discutent de craintes d’un « remplacement généralisé » des travailleurs par
les systèmes d’IA qui seraient en mesure d’automatiser de plus de plus de métiers. Toutefois,
la plupart de ces réflexions conclut que bien que les systèmes d’IA puissent automatiser ou
intervenir dans un certain nombre de tâches, la plupart des métiers ne va pas disparaitre mais
va plutôt évoluer et se transformer. Dans cette perspective, les attentes en termes d’apports sont

34 Les aspects techniques du système avec ses algorithmes.

52
notamment le gain de temps et de performance dans la réalisation des tâches. Des risques sont
entre autres mentionnées, comme celui d’intensification du travail ou encore le risque pour le
développement et le maintien des compétences des travailleurs.
Ensuite, les réflexions actuelles montrent que la place ou la fonction et le rôle attribué à ces
systèmes dans les situations de travail peuvent être différents selon la perspective adoptée. Ces
systèmes peuvent d’un côté s’apparenter à des prothèses pour pallier les carences des capacités
humaines et de l’autre côté, devenir des ressources en tant qu’outils d’aide et d’augmentation
pour la réalisation des tâches. Pour résumer, les rapports en termes de division du travail entre
les travailleurs et les systèmes d’IA dans les situations de travail sont aujourd’hui imaginés
principalement de trois manières :
- (i) les systèmes d’IA prennent en charge des tâches « simples » et « routinières » et
l’humain garde le contrôle sur toutes les décisions. Cette configuration signifie que
les humains ont un rôle principal et disposent d’un pouvoir de contrôle et d’influence
sur les systèmes d’IA ;
- (ii) dans des situations bien connues, les systèmes d’IA peuvent prendre des
décisions et les humains deviennent des fournisseurs d’informations pour ces
machines. Cela traduit le fait que ce sont les systèmes d’IA qui ont un pouvoir
décisionnel et exercent une influence sur les actions des humains ;
- (iii) les systèmes d’IA et les travailleurs sont complémentaires, ils peuvent donc
entretenir des relations de « collaboration » pour accomplir différentes tâches ainsi
que s’augmenter mutuellement pour une meilleure performance. Dans cette
configuration, les humains et les systèmes d’IA accomplissement conjointement les
tâches et s’influencent mutuellement.
Comme discuté dans les précédentes parties, chacune de ces visions comportent des limites.
Les avancées technologiques et l’augmentation des performances des systèmes d’IA ont
contribué à réactualiser ces modèles de relation de complémentarité entre les humains et ces
systèmes. En revanche, la majorité des modèles de la complémentarité de l’humain et l’IA,
développés ces dernières années, fait très peu référence aux travaux antérieurs sur la «
coopération » ou « collaboration » Humain-Machine.
Enfin, nous nous sommes également intéressés aux processus de conception et de déploiement
des systèmes d’IA. On a pu voir que les démarches de développement et d’intégration de l’IA
par exemple dans les entreprises - issues de réflexions projectives et hypothétiques - affichent
une volonté de montrer l’importance des questions relatives aux incidences de l’introduction et
de l’usage des systèmes d’IA sur l’humain, son travail et l’organisation. Or, la prise en compte

53
réelle de ces questions reste à démontrer à travers l’analyse des démarches de conception et de
déploiement des systèmes d’IA qui semblent être fortement orientées par la vision
technologique. Effectivement, la plupart de ces démarches envisage souvent des projets IA en
tant que projets technologiques qui n’abordent pas véritablement les questions
organisationnelles et celles liées à l’activité réelle. Elles explorent des problématiques
majoritairement issues de représentations ou des projections que les concepteurs peuvent se
faire sur le travail et les métiers.
Certes, ces discours sont intéressants et peuvent indéniablement contribuer aux débats et
réflexions sur l’IA dans le travail, mais à notre connaissance, peu d’études empiriques sont
mobilisées pour les illustrer. De plus, bien que les enjeux et effets de l’automatisation et des
systèmes experts soient bien documentés par les anciens travaux (De Terssac et al., 1988 ;
Endsley & Kaber, 1999 ; Parasuraman & Wickens, 2008), ces éléments sont rarement utilisés
dans les réflexions actuelles sur l’IA. La plupart des discours qui contribuent à la réflexion sur
l’utilisation et les conséquences des systèmes d’IA sur le travail sont alors spéculatifs.
Autrement dit, il y a un manque d'études empiriques qui donnent une compréhension de ces
questions du point de vue des acteurs impliqués dans la conception de ces systèmes ainsi que
du point de vue de l’activité réelle, telle que nous l’entendons en ergonomie de l’activité (Guérin
et al., 2007). En outre, les systèmes d’IA se caractérisent par une incertitude concernant leurs
évolutions et usages, ce qui amplifie le caractère spéculatif des réflexions sur les impacts de
l’IA sur le travail et l’emploi (Askenazy & Bach, 2019). Par ailleurs, bien que de nombreux
champs se soient saisis de l’IA en tant qu’objet d’étude en mettant l’accent sur ses différents
aspects (par exemple, le fonctionnement des systèmes d’IA ou encore leurs conséquences sur
le travail), peu d’études « examinent les rapports à ces technologies dans des situations sociales
réelles en dehors des expérimentations en laboratoire. » (Velkovska & Relieu, 2021, p. 217).
Les auteurs expliquent également que les questionnements autour de l’IA ont souvent des
enjeux éthiques comme fil conducteur. Afin de dépasser ces limites, l’IA devrait être abordée à
plusieurs niveaux, soient des « contextes d’interaction, contextes d’usages, contextes
organisationnels, politiques et contextes socio-culturels » (Velkovska & Relieu, 2021, pp. 221-
222). Dans notre recherche, les systèmes d’IA sont notamment étudiés au niveau de leurs usages
inscrits dans des contextes socio-organisationnels.
Dans la lignée de ces réflexions et face à un manque d’études empiriques, cette thèse a pour
objectif d’identifier et de comprendre, de façon empirique, d’une part la nature des
incidences (apports, risques, empêchements ou dégradations) et plus largement des
transformations potentielles et/ou effectives occasionnées par la conception, la mise en

54
place et les usages des systèmes d’IA dans les situations de travail ; d’autre part les
questions soulevés en termes de démarches de conception de ces systèmes.
Ainsi, d’un point de vue ergonomique, cette thèse se focalise sur les questions suivantes :
- Comment les travailleurs, les concepteurs mais aussi les décideurs envisagent la place,
les fonctions et les rôles des systèmes d’IA dans les activités professionnelles ?
- Comment les systèmes d’IA existants sont actuellement utilisés ?
- Quelles démarches de conception et de déploiement des systèmes d’IA sont envisagées
et/ou mises en œuvre dans les situations de travail ?
- Quels enjeux et préoccupations émergent en termes d’incidences potentielles et/ou
effectives de la mise en place et des usages des systèmes d’IA ?
Pour clarifier la manière dont ces questions de recherche sont traitées dans cette thèse, le
chapitre suivant expose la construction du cadre d’analyse mobilisé dans notre thèse. Ce cadre
d’analyse est élaboré à partir des travaux antérieurs :
- sur la mise en place de l’automatisation et les systèmes experts dans les situations de
travail,
- sur les approches qui traitent les usages des technologies et envisagent ces artefacts
comme des médiateurs dans l’activité,
- et enfin, sur le rôle notable des démarches de conception et de déploiement des
technologies dans la construction des usages.

55
Chapitre 2. Cadre d’analyse et démarche de
recherche

D’une part, ce chapitre a pour objectif de présenter de façon synthétique le cheminement et la


construction du cadre d’analyse de cette thèse. D’autre part, la démarche globale adoptée est
explicitée à travers les études empiriques et les approches méthodologiques, pour répondre aux
objectifs et aux questions de recherche qui se posent dans ce travail.

2.1. Construction du cadre d’analyse


Les technologies à base d’IA, leur conception et déploiement ainsi que leurs usages et
incidences, en termes d’apports, de risques ou d’empêchements et de dégradations, dans les
situations de travail constituent le principal objet d’étude de cette recherche. En prenant appui
sur la littérature antérieure notamment sur les rapports entre les humains, leurs activités et les
technologies, ce chapitre a pour objectif d’identifier des éléments d’analyse de cette thèse qui
paraissent particulièrement importants et pertinents. L’enjeu est donc de construire un cadre
d’analyse permettant de traiter les questions de recherche. Pour rappel, ces questions concernent
la manière dont les systèmes d’IA sont conçus, déployés (c’est-à-dire mis en place avec les
fonctions et les rôles assignés) utilisés, et enfin, les incidences potentielles et/ou effectives que
les usages de ces systèmes impliquent dans les situations de travail.
Cette thèse s’appuie sur le postulat des travaux antérieurs que les technologies ne sont pas des
objets neutres car leur mise en place et usage entrainent nécessairement des incidences et plus
largement des transformations dans les situations de travail. Ainsi, plusieurs éléments,
constituant des axes du cadre d’analyse, sont exposés. Il s’agit (i) de la mise en place, soit plus
précisément la division du travail entre humains et technologies située dans un contexte socio-
organisationnel, et ses incidences dans les situations de travail ; (ii) des caractéristiques des
systèmes telles que leurs capacités d’explicabilité, ou encore les enjeux relatifs à la confiance ;
(iii) des usages des artefacts technologiques médiatisant les activités qui se manifestent par des
processus d’appropriation. Enfin, l’ensemble est étroitement lié aux choix de conception mis
en œuvre dans des démarches de conception et d’intégration des technologies qui participent
fortement à la construction des usages et contribuent aux incidences sur les activités. Ces
démarches forment alors un autre élément à retenir dans le cadre d’analyse de cette thèse.

56
2.1.1. La mise en place des technologies et les incidences sur les activités de
travail
Cette partie traite les questions relatives à la mise en place des systèmes d’IA et
d’automatisation plus largement, ce qui implique parfois des choix de division du travail entre
humains et technologies et des incidences que cela peut avoir sur les activités. Elle clarifie d’une
part la notion du contexte socio-organisationnel, et d’autre part, elle montre, à travers le cas de
l’automatisation et des systèmes experts, les incidences générées par la mise en place des
technologies sur les activités et les travailleurs. Par incidence, nous entendons à la fois des
apports ou des bénéfices pour les travailleurs dans la réalisation de leurs tâches qui se voient
transformées, ainsi que des effets néfastes en termes de risques ou de dégradations et
d’empêchements dans leurs activités de travail.
Depuis au moins les années 1960 avec le développement de premiers systèmes informatiques,
se posait la question d’intégration des systèmes technologiques dans les situations de travail et
les transformations que cela pouvait conditionner. Selon Trappl (1985), l’introduction des
technologies n’a pas eu des effets espérés sur l’enrichissement du travail et la libération des
tâches pénibles. Au contraire, le travail serait dégradé car il y aurait eu des contradictions
fondamentales entre l'amélioration de la qualité de la vie professionnelle et de l'efficacité
organisationnelle et l'introduction de nouvelles technologies dans les cadres organisationnels
bureautiques existants 35 (Trappl, 1985). En partant de ces contradictions, un changement
sociotechnique était considéré comme étant nécessaire pour une meilleure intégration de ces
systèmes (Williams, 1983).
L’intégration ou la mise en place des technologies dans les situations de travail renvoie ici à la
division du travail, soit la répartition des tâches et des fonctions entre humains et technologies
au sein des activités de travail qui sont situées dans des contextes socio-organisationnels. Dans
cette recherche, nous utiliserons plus largement le terme « contexte socio-organisationnel »
pour désigner un ensemble de règles, procédures, dispositifs, difficultés par exemple en termes
de moyens techniques et financiers, ou encore de fonctionnement des collectifs de travail. Ce
contexte, qui se construit et se transforme en parallèle de l’activité, constitue les conditions
périphériques de la tâche tout en influençant sa réalisation (Leplat, 2000, 2008).
Afin d’éclairer les enjeux liés à la mise en place des technologies dans les situations de travail,
nous nous référons aux précédents travaux menés d’une part sur l’automatisation avec l’idée de

35« basic contradictions between improving the quality of working life and organizational effectiveness and
introducing new technology within existing bureaucratic organizational frameworks.” (Trappl, 1985, p. 42).

57
la substitution de l’humain par la machine, et d’autre part sur les systèmes experts. Les points
saillants mis en avant par ces travaux font écho aux réflexions actuelles sur les systèmes d’IA
(Zouinar, 2020). Nous avons effectivement évoqué que les systèmes d’IA sont étroitement liés
aux objectifs d’automatisation dont ils peuvent constituer des moyens36. En ce sens, les travaux
sur l’automatisation se présentent comme des points de référence pour analyser les systèmes
d’IA et les enjeux concernant leur mise en place.
L’automatisation du travail, basée principalement sur cette idée de la substitution, renvoie au
remplacement de l’humain par une machine dans l’ensemble ou une partie de ses tâches, là où
la machine est supposée être plus performante et moins coûteuse que les travailleurs. Dans le
cas de l’automatisation partielle, la répartition des tâches entre les humains et les machines est
souvent pensée à partir d’une comparaison et d’une opposition de leurs forces et leurs faiblesses
– une approche initiées par Fitts (1951). Malgré le développement des autres approches de
l’automatisation, par exemple le modèle de l’automatisation adaptative avec une répartition
dynamique des tâches (C. A. Miller & Parasuraman, 2007) ou encore le modèle des niveaux
d’automatisation en prenant en compte les étapes de traitement de l’information (Parasuraman
et al., 2000), les modèles d’automatisation, majoritairement de type MABA-MABA (Men Are
Better At – Machines Are Better At) ont fait l’objet de nombreuses critiques. Envisagée comme
une simple substitution, l’automatisation s’inscrit dans le « mythe de la substitution » (Carr,
2017 ; Dekker & Woods, 2003). Ces critiques renvoient essentiellement au caractère statique
et trop général de ces modèles (Dekker & Woods, 2003) et au fait qu’ils reposent généralement
sur une décomposition des tâches qui ne tient pas compte du travail réel (Bainbridge, 1983).
Ces modèles sont aussi critiqués car ils supposent entre autres une opposition des capacités des
humains et des machines (Zouinar, 2020). Pourtant, certaines réflexions actuelles -
principalement centrées sur l’augmentation et la complémentarité entre les systèmes d’IA et les
travailleurs 37 - semblent se rapprocher de principes de cette approche de l’automatisation de
type MABA-MABA : mobiliser une comparaison des forces et des faiblesses de l’humain et
des systèmes d’IA. En envisageant le rôle des systèmes d’IA à partir de la comparaison des
capacités de l’humain et de l’IA, certaines de ces réflexions ont tendance à accorder un rôle
secondaire au point de vue de l’humain dans les situations de travail, en se concentrant
davantage sur les capacités des technologies. En ce sens, elles peuvent être qualifiées de
technocentriques. Les critiques adressées aux points de vue technocentriques (Rabardel, 1995 ;

36 Voir la partie 1.2.1.1


37 Voir la partie 1.2.3

58
Woods, 1996) sont toujours d’actualité à l’ère de l’IA en dépit des avancées technologiques :
« la place de l’homme désignée par cette perspective est résiduelle : l’homme occupe un espace
de plus en plus restreint, l’espace provisoirement laissé libre, par ce qui n’a pas encore été
technologiquement réglé de façon satisfaisante au regard des critères de fiabilité, de sûreté,
d’efficacité, de performance, d’utilité, d’optimalité, d’automaticité » (Rabardel, 1995, p. 10).
La tendance des années 1980-1990 qui était de « limiter l’intervention humaine, considérée
comme peu efficace ou fiable » (Rabardel, 1995, p. 10) ne semble pas disparaitre avec le
développement de l’IA. Bien au contraire, certaines approches suggèrent même que pour des
tâches de résolution de problèmes, il serait plus judicieux de mobiliser systématiquement les
systèmes d’IA en premier, en donnant un rôle de supervision aux humains : « là où elles [les
équipes] étaient dans l’exécution de procédures, elles sont maintenant en charge de superviser
le travail des machines, d’assurer leur apprentissage continu » (Tata Consultancy Services
Limited, 2018, p. 15).
Or, plusieurs études, par exemple sur des pilotes d’avion, ont déjà montré des risques et des
effets problématiques de l’automatisation mise en œuvre dans une perspective substitutive
partielle et quand elle repose sur une « répartition » théorique des tâches basée sur une telle
comparaison (Billings, 1991 ; Endsley, 1996 ; Endsley & Kiris, 1995 ; Sarter et al., 1997 ;
Wiener & Curry, 1980). L’automatisation, essentiellement centrée sur les performances
techniques du système dans la réalisation d’une tâche (Endsley & Kaber, 1999) a mis l’humain
au second plan ; alors que l’humain s’avère un élément important pour assurer le bon
fonctionnement des machines et éviter des accidents (Parasuraman & Riley, 1997). Lorsque
l’automatisation met l’humain en dehors de la boucle de décision (par exemple, du fait d’un
manque de retour d’informations appropriées), l’humain se retrouve dans une position passive.
Il y a alors un effet paradoxal qui se produit : au lieu d’être aidé et assisté par le système
automatisé, c’est l’humain qui devient l’assistant du système à surveiller, devenu prescripteur
de l’activité dans certains cas. Cette position passive dans son travail a de nombreuses
conséquences comme la baisse de vigilance liée à une sur-confiance dans le système, la perte
de compétences due au manque de mobilisation des savoir-faire et des connaissances ou encore
la dégradation d’une vision globale sur la situation et sa compréhension (situation awareness)
(Endsley, 1996 ; Parasuraman & Wickens, 2008 ; Sarter et al., 1997). Ces éléments dégradent
évidemment la performance de l’humain dans la réalisation des tâches et en cas d’imprévus ou
de dysfonctionnements, la reprise en main des systèmes devient problématique. Dans certaines
situations, par exemple les situations critiques, l’automatisation peut même augmenter la charge

59
de travail (Lee & See, 2004) et donc favoriser l’occurrence d’erreur alors que son objectif est
de diminuer cette charge afin de réduire « l’erreur humaine » (Parasuraman & Riley, 1997).
Quant aux systèmes experts, soit la première génération des systèmes d’IA basés sur l’approche
symbolique introduite dans les situations de travail, elles constituent également un cas de
référence pour aborder les enjeux liés aux systèmes d’IA actuels. En effet, les travaux antérieurs
sur les systèmes experts ont démontré certains enjeux et effets problématiques de la mise en
place et des usages de ces systèmes (De Terssac & Soubie, 1995 ; De Terssac et al., 1988 ;
Pomerol, 1990 ; Freyssenet, 2007).
Ainsi, il s’avère que les systèmes experts exigeaient des travailleurs d’acquérir de nouvelles
connaissances, apprendre comment ils fonctionnent, comment il faut dialoguer avec ces
machines, quelles sont leurs fonctionnalités etc. (De Terssac et al., 1988 ; Woods, 1996). La
problématique liée aux compétences était au cœur de ces travaux (Freyssenet, 2007). En
centralisant des connaissances et des savoir-faire des différents experts, les principaux objectifs
des systèmes experts étaient d’aider les experts dans la résolution des problèmes complexes et
de leur permettre d’augmenter leur niveau d’expertise. Dans certains cas, ces systèmes visaient
également à rendre ces savoirs accessibles aux travailleurs novices, donc moins expérimentés,
dans une perspective de formation. Néanmoins, les systèmes experts ne remplissaient pas
réellement leurs objectifs. Premièrement, ils ne rendaient pas compte de la démarche réelle en
termes de raisonnement et l’ensemble des connaissances mobilisés par les experts lors d’une
résolution de problème. De plus, leur fonctionnement (fournir un diagnostic, puis
éventuellement une explication) n’incitait pas les novices à s’impliquer réellement dans la
résolution de problème et mobiliser les compétences nécessaires pour trouver une solution.
Deuxièmement, les systèmes experts ne constituaient pas réellement une aide pour les experts
étant donné qu’ils étaient utiles uniquement pour la résolution des problèmes connus.
Incapables de fournir des éléments d’aide pour solutionner des pannes nouvelles, ces systèmes
s’avéraient quasi inutiles pour les experts dans des situations inhabituelles. Les systèmes
experts soulevaient également des enjeux au niveau organisationnel et collectif (De Terssac et
al., 1988 ; De Terssac & Soubie, 1995 ; Pomerol, 1990). En cherchant à formaliser les savoirs
et les savoir-faire, ces systèmes étaient supposés faire perdre aux travailleurs leur pouvoir sur
l’organisation effective de leur travail et plus globalement leur autonomie. Ainsi, leur principe
de fonctionnement contribuait à rendre lisible et formaliser les pratiques réelles parfois
clandestines (De Terssac et al., 1988). Les savoir-faire des experts – constituant un certain
pouvoir et une valeur de leur travail, désormais transférés dans les machines – devenaient
banalisés et accessibles à tous. Ce transfert d’expertise était alors vécu comme une perte de

60
pouvoir mais aussi une menace pour ces experts, susceptibles d’être remplacés par les systèmes
experts.
En résumé, la fonction et le rôle assignés à ces systèmes experts dans les situations de travail
ont fait émerger un ensemble d’enjeux liés à leur utilisation, à ce qu’ils pouvaient apporter ou
au contraire dégrader dans les activités et l’organisation du travail.

Il convient de retenir de cette partie que la mise en place des dispositifs techniques dans les
situations de travail n’est pas neutre et entraine nécessairement des transformations dans les
activités et l’organisation du travail (Norman, 1993 ; Woods, 1996). Cette introduction et les
usages qui se développent, peuvent avoir des incidences, en termes d’apports mais surtout
d’effets problématiques comme le montrent les travaux sur l’automatisation et les systèmes
experts, sur les activités de travail et les travailleurs dont il faudrait tenir compte lors de la mise
en place des technologies. Cette mise en place, impliquant des choix de répartition des tâches
et fonctions entre humains et technologies, constitue un élément pertinent pour analyser la
fonction et le rôle donnés aux technologies, en l’occurrence aux systèmes d’IA, dans les
activités de travail ainsi que les incidences sur ces activités. En effet, les incidences dépendent,
au moins en partie, de ces choix qui renvoient de façon plus large au contexte socio-
organisationnel.

2.1.2. Le problème d’explicabilité des systèmes et les enjeux de la confiance


Dans cette partie, on expose le problème d’explicabilité des systèmes, comme un aspect
important à considérer dans cette thèse, et les enjeux qui l’accompagnent, en particulier en
termes de rapports de confiance entre humains et technologies. En effet, l’explicabilité constitue
aujourd’hui un sujet central de l’IA et posent des défis majeurs pour la conception et l’usage
des systèmes à base d’IA.
Les travaux antérieurs sur l’automatisation, les systèmes experts et plus largement sur les
rapports entre les travailleurs et les machines, ont mis en évidence l’importance des
caractéristiques des systèmes dans leur utilisation. L’élément qui nous préoccupe
particulièrement, en référence aux systèmes d’IA, renvoie donc aux capacités d’explicabilité de
ces systèmes et les enjeux de confiance qu’elles soulèvent. En effet, les conséquences d’un
manque d’explicabilité des systèmes sur leurs usages et les activités des travailleurs, comme
l’impact sur la confiance accordée à ces systèmes mais aussi leurs reprise en main en cas de
problèmes (Clancey, 1983 ; Moore & Swartout, 1988 ; Parasuraman & Riley, 1997 ;
Parasuraman & Wickens, 2008 ; Teach & Shortliffe, 1981), ne sont pas nouveaux.

61
Pour aborder ces questions d’explicabilité, les anciens travaux mobilisent davantage le terme
« opacité ». Introduit par Billings (1996), ce terme « opacité » renvoie à un manque de capacités
des systèmes de transmettre à l’humain des informations et des explications claires et
compréhensibles, relatives à leur fonctionnement et les processus qu’ils réalisent. Il s’agit donc
d’un manque de transparence ou encore un manque de retour d’informations appropriées. Or,
doter les systèmes de capacités d’explication de leur fonctionnement, leur « raisonnement » et
les justifications sur les résultats qu’ils produisent, est essentiel pour l’humain dans la
compréhension et la résolution du problème (Karsenty & Brézillon, 1995 ; Roth et al., 1987).
Dans le cas contraire, l'opacité des systèmes peut entraver les activités des travailleurs (Sarter
et al., 1997). L'explicabilité peut également être importante pour que les travailleurs
comprennent les défaillances du système ou ses comportements indésirables. Un autre
problème est que l'opacité des systèmes remet en cause un important principe de conception
centrée sur l’humain, à savoir la prévisibilité de l'automatisation (Sarter et al., 1997). Il a été
démontré que les modèles de l’apprentissage machine peuvent générer des résultats inattendus
et inexplicables. À la lumière de recherches antérieures sur les « surprises » de l'automatisation
(Sarter et al., 1997), cette imprévisibilité peut être problématique car elle peut entraver la
fiabilité du système ainsi que la confiance des travailleurs dans celui-ci, en particulier si ses
décisions ou « comportements » ne correspondent pas aux attentes des travailleurs ou soulèvent
des problèmes. Disposer d’une explication des résultats du système peut en effet être nécessaire
si l'on envisage de prendre des décisions sur la base de ces résultats. Par exemple, dans le
domaine médical, il peut être important pour les médecins de comprendre pourquoi un système
propose un traitement spécifique pour un patient donné. La confiance peut être remise en cause
si l'on est incapable de comprendre la « logique » qui se cache derrière un résultat (Hoff &
Bashir, 2015).
Considérée comme l'un des concepts clés pour décrire et comprendre la relation humaine avec
les technologies, la confiance, ses caractéristiques et son rôle sont étudiés depuis de nombreuses
années (French et al., 2018). D'un point de vue théorique, la confiance est une notion complexe
qui a été conceptualisée et définie de différentes manières. Constituant un des éléments
essentiels d’une relation (Karsenty, 2011), la confiance peut renvoyer à une attitude ou une
volonté d’accepter que l'autre exécute une action particulière importante pour la personne qui
fait confiance (Lee & See, 2004 ; Mayer et al., 1995). Ceci dans une situation caractérisée par
l'incertitude et la vulnérabilité et indépendamment de la capacité de surveiller ou de contrôler
l’autre et son action. En outre, la confiance est considérée comme un processus complexe et
dynamique qui influence et médiatise la relation entre l'Homme et la technologie (Lee & See,

62
2004). Alors, la confiance pourrait être un facteur déterminant dans l'utilisation des machines
et des systèmes automatisés (Parasuraman & Riley, 1997). Même si un système est fiable, les
travailleurs peuvent ne pas lui faire confiance s'ils considèrent que le système n'est pas « digne
de confiance » pour d'autres raisons. En effet, la confiance peut être influencée par différents
facteurs (French et al., 2018) :
- Les caractéristiques des travailleurs : culture, âge, traits de personnalité, états,
confiance en soi, compréhension de la technologie, expertise du sujet ;
- Les caractéristiques des systèmes (ce sont les facteurs les plus étudiés, de sorte qu'on
tend à leur attribuer le rôle le plus important dans la notion de confiance) : fiabilité,
défauts, prévisibilité, transparence et interface, étapes et niveaux d'autonomie,
attributs physiques ou autres comme l'intelligibilité des comportements des
systèmes ou l'explicabilité de ses résultats ;
- L’influence de l'environnement : risque, charge de travail et tâche, organisation.

Cette partie montre que les caractéristiques des systèmes, en particulier les capacités
d’explicabilité dans le cas des systèmes d’IA, peuvent favoriser ou au contraire, entraver la
confiance accordée à ces systèmes et donc leur utilisation. Dès lors, ces éléments constituent
des aspects notables à considérer dans la construction des usages des technologies ainsi que
pour la compréhension des incidences sur les activités de travail.

2.1.3. Les usages dans les activités médiatisées par des artefacts
Les questions relatives aux usages des systèmes d’IA se trouvent au cœur de cette thèse. Dans
cette perspective, cette partie clarifie ce que l’on entend par usage, tout en la situant par rapport
à la notion d’activité.
Tout d’abord, l’activité renvoie à tout ce que l’individu, réalisant le travail, « mobilise et déploie
de subjectivité, de compréhension et d’expertise, d’intelligence mais aussi d’efforts pour faire
face, durant son travail, à ce qui n’est pas décidé, voire aux modifications de ce qui a été décidé
car devenu inadapté dans un contexte donné » (Guérin et al., 2021, p. 34). L’activité est finalisée
et orientée par un ou plusieurs objectifs qui constituent son objet (Daniellou & Rabardel, 2005).
Dans cette thèse, elle est abordée en relation à un système d’IA et dans le cadre de situations de
travail qui correspondent aux contextes concrets où les travailleurs sont engagés dans une
production matérielle ou immatérielle dans des conditions de travail données (Rabardel et al.,
2001). Les situations de travail englobent les caractéristiques des travailleurs, de la tâche, du
contexte organisationnel avec les dispositifs techniques et matériels (Brangier et al., 2003 ;

63
Rabardel et al., 2001). Elles sont aussi structurées par l’organisation du travail qui peut être
définie comme « l’ensemble des règles, prescriptions, dispositifs, procédures et processus qui
structurent, définissent, répartissent et coordonnent le travail » (Gaillard & Mollo, 2021, p.
380).
Les théories de l’activité étudient l’activité humaine dans sa globalité : les individus, les
artefacts, les relations avec un collectif, l’objet de l’activité et le contexte historico-culturel de
manière plus large. Elles prennent alors en considération à la fois l’environnement et le sujet
(Lewandowski & Bourguin, 2009) et accordent une place centrale à la médiation par des
artefacts (Nardi, 1996). En effet, l’activité implique notamment une relation entre un sujet et un
objet, médiatisée et par conséquent, transformée par des artefacts technologiques,
psychologiques ou encore organisationnels (Bannon & Bødker, 1991 ; Bourmaud, 2013 ;
Norman, 1993 ; Rabardel, 1995). L’individu et l’artefact sont des entités asymétriques dans le
sens où l’usage qui en découle est lié à l’intention et aux initiatives de l’individu. En se référant
aux théories de l’activité, Bannon et Bødker (1991) considèrent que les artefacts, en
l’occurrence technologiques, porteurs de partage et de division du travail, acquièrent une
signification dans une « pratique ». L’usage d’un artefact technologique, fait alors partie de
l’activité. C’est pourquoi, ils ne peuvent être étudiés de manière isolée et en tant qu’objet, ce
qui signifie que l’on doit les étudier dans l’usage pour comprendre comment ils médiatisent
l’activité. Effectivement, c’est bien « la mise à l’épreuve de la technologie dans son contexte
réel d’usage qui permet d’évaluer concrètement ses apports et ses limites, et de définir ainsi son
intérêt par rapport à l’activité et au projet de l’individu » (Bobillier-Chaumon, 2013, p. 52).
Plusieurs disciplines et approches théoriques traitent cette notion d’usage, comme la sociologie
des usages, la psychologie ou encore l’ergonomie. Bien que le terme « usage » puisse être
« défini comme une action, le fait de se servir de quelque chose » (Buisine & Roussel, 2008)
(Buisine & Roussel, 2004, p. 45), il comporte plusieurs significations selon s’il s’agit d’une
perspective instrumentale et fonctionnelle ou d’une approche plus sociale et anthropologique.
Dans une perspective instrumentale et fonctionnelle, l’usage renvoie à une action, soit l’emploi
réel d’un objet ou le fait de se servir de cet objet (Bobillier-Chaumon, 2013). Or, Perriault
(1989) explique que « l’usage n’est que très rarement purement instrumental » (p. 211). Inscrit
dans son épaisseur social (Chambat, 1994 ; Jouët, 2000), il traduit également « l’ensemble des
pratiques sociales en lien avec l’objet technique » (Buisine & Roussel, 2004, p. 45) et qui sont
élaborées « pour et dans le fait de se servir de quelque chose » (Buisine & Roussel, 2004 p. 45).
L’objet, qui est « éclos » dans le monde réel en s’échappant au contrôle des concepteurs va
connaître différents contextes (Béguin, 2007). En définissant un certain nombre de « règles

64
d’usages », en plus de ceux directement inscrits dans le dispositif par les concepteurs, le
contexte socio-organisationnel joue un rôle dans l’élaboration et le développement des usages
dits « prescrits » (Bobillier-Chaumon, 2013). Or, une vision « prescrite » de l’usage est
critiquable dans le sens où ici la notion d’usage dépasse le cadre de fonctionnement préétabli et
défini par la conception pour l’utilisation de cet objet. Ainsi, Thévenot (1993) mobilise le terme
« utilisation » « pour indiquer l’encadrement dans une action normale en réservant le terme d’«
usage » à un accommodement qui fait sortir de ce cadre » (p. 87). En conclusion, l’usage est
influencé à la fois par des éléments du contexte socio-organisationnel dans lequel il s’inscrit
(Vitalis, 1994, cité dans Bobillier-Chaumon, 2013), par des caractéristiques de l’objet technique
issus de la conception et des caractéristiques individuels des usagers : « Lorsque l’usager
s’approprie un dispositif technique, il lui donne du sens, il évalue la cohérence des propriétés
du dispositif (facteurs internes, propres au dispositif) en les reliant à ce qui constitue son propre
cadre de référence (facteurs externes, propres à l’usager et son contexte social d’usage). »
(Bobillier-Chaumon, 2013, p. 56).
Plus largement, quelle que soit la signification accordée à l’usage, il sous-entend un lien avec
des activités des utilisateurs (Buisine & Roussel, 2004) qui sont amenés à détourner, contourner,
transformer ou encore (re)créer les usages adaptés aux finalités de leurs activités (Akrich, 1998
; Breton & Proulx, 2012 ; Cros, 2017 ; Folcher, 2015). Dès lors, l’usage des artefacts
technologiques correspondrait à « ce que les gens font effectivement avec ces objets techniques
» (Proulx, 2002, p. 1) mais aussi ce qu’ils ne font pas. Il faut souligner que l’individu ne part
pas de nulle part car l’objet technique s’inscrit toujours dans un environnement préexistant où
il n’y pas de vide technique (Perrin, 1984, cité dans Béguin, 2007). L’usage comme un acte de
re-création (Béguin, 2010), implique le processus d’appropriation des objets techniques,
qualifié de genèse instrumentale par Rabardel (1995), qui dépassent les usages prescrits par les
intentions initiales en mobilisant les capacités d’agir des individus (Bobillier-Chaumon, 2013).
Ainsi, l’appropriation « ne se réduit ni totalement aux règles prescrites par l’organisation
sociale, ni tout à fait aux contraintes imposées par la technique » (Bobillier-Chaumon, 2013, p.
53). Elle correspond « d’une part, au processus d’adaptation de l’outil par l’utilisateur pour son
intégration dans un usage familier et, d’autre part, au processus d’adaptation de l’utilisateur aux
caractéristiques de l’outil et à la nouvelle norme qu’il véhicule » (Dumont et al., 2008, p. 208).
Selon De Vaujany (2006), l’appropriation est « un processus long qui débute bien avant la phase
d’utilisation de l’objet et se poursuit après l’apparition des premières routines d’utilisation » (p.
118). Ainsi, il est important de retenir que l’appropriation ne serait pas uniquement une étape
de l’usage comme mentionnait Breton et Proulx (2012) mais un processus complexe,

65
dynamique et diversifié qui s’inscrit dans le temps et permet de s’adapter et/ou d’adapter l’outil
et de développer les ressources de l’utilisateur pour son activité (De Vaujany, 2006 ; Bobillier-
Chaumon, 2013).

Cette partie fait ressortir des repères pertinents à mobiliser pour aborder la manière dont les
systèmes d’IA, à travers leurs usages, médiatisent les activités, autrement dit les transforment
en suscitant un certain nombre d’incidences. On retient que l’usage fait partie de l’activité
médiatisée par des artefacts qui peuvent être technologiques. Cet usage dépasse le cadre
d’utilisation préétabli par les choix de conception. Il se construit donc à la croisée de des
facteurs individuels des usagers, des choix de conception et du contexte socio-organisationnel.
Les choix de conception et le contexte socio-organisationnel définissent, voire prescrivent, dans
une certaine mesure un certain nombre de règles mais qui peuvent être dépassées par le
processus d’appropriation si le contexte socio-organisationnel le permet. Par conséquent,
l’appropriation, faisant partie d’usage, constitue un aspect important que nous considèrerons
dans cette thèse comme faisant partie d’un processus de développement des usages. Il peut se
manifester de différentes manières, notamment à travers les adaptations de l’outil par
l’utilisateur ou au contraire, toutes les stratégies et des façons de faire des utilisateurs qui, dans
certaines situations, peuvent être contraints de s’adapter à l’outil et ses caractéristiques. En
conclusion, les usages, en étroit lien avec la conception et le contexte socio-organisationnel, se
présentent comme un aspect central permettant de comprendre la manière dont les systèmes
d’IA sont ou peuvent être utilisés et les incidences que cela génère sur les activités.

2.1.4. Le rôle des démarches de conception et de déploiement dans les usages


des technologies
Cette partie explique que les choix de conception des technologies peuvent jouer un rôle dans
les usages et les incidences générées sur les activités. Globalement, les travaux antérieurs
montrent que les choix mis en œuvre dans des démarches de conception et de déploiement des
technologies sont étroitement liés aux représentations, c’est-à-dire visions et connaissances des
concepteurs sur les utilisateurs.
Effectivement, De Terssac et al. (1988) ont avancé l’idée que les incidences des systèmes
experts dans le travail, c’est-à-dire les apports mais aussi les risques et les dégradations générés
pour les travailleurs et leurs activités de travail, dépendent de deux aspects : d’une part, de la
conception et d’autre part, des modalités d’intégration de ces systèmes. Autrement dit, les

66
incidences sont variables selon les objectifs ou fonctions et les tâches assignés aux systèmes 38
qui génèrent différentes logiques d’usages. De plus, ces incidences sont aussi directement liées
à « la conception de ces systèmes dans la mesure où cette conception véhicule un modèle de
l’utilisateur à raisonnement moyen, optimal et limité par les possibilités du système » (De
Terssac et al., 1988, pp. 473-474). Ainsi, chaque acteur de la conception aurait sa propre
représentation en disposant des informations partielles concernant les activités des utilisateurs
(Buisine & Roussel, 2004). Cette idée s’inscrit dans la perspective proposée par Visser (2009) :
au lieu d’envisager l’activité de conception comme une activité de résolution de problème, soit
une perspective de Simon (1996) critiquée pour son analyse « hors contexte », Visser (2009)
aborde la conception comme une activité de construction et de transformation des
représentations. Plus largement, dans cette thèse, les représentations ou visions englobent un
ensemble de croyances et de connaissances que les concepteurs ont sur les utilisateurs, les
besoins et les usages. Si certaines démarches de conception utilisent la notion de besoin pour
désigner les usages potentiels, dans d’autres démarches la notion d’usage peut renvoyer aux
usages effectifs ou futurs.
Dans tous les cas, les représentations des concepteurs sur les besoins des utilisateurs jouent un
rôle déterminant dans les choix de conception (Darses & Wolff, 2006) participant au
développement des usages effectifs. Bien que les concepteurs puissent disposer de certaines
informations sur les utilisateurs, dans la plupart de cas ils n’ont pas d’éléments sur leurs besoins
réels. Face à ce manque d’informations, ils ont recours à leur propre expérience et
connaissances pour se construire les représentations des besoins, soient des usages potentiels.
Cela correspond à l’étape de description de la conception d’après Akrich (1987, 1989) pour qui
la conception renvoie à un travail de script : « par la définition des caractéristiques de son objet,
le concepteur avance un certain nombre d'hypothèses sur les éléments qui composent le monde
dans lequel l'objet est destiné à s'insérer. Il propose un « script », un « scenario » qui se veut
prédétermination des mises en scène que les utilisateurs sont appelés à imaginer à partir du
dispositif technique et des pre-scriptions (notices, contrats, conseils...) qui l'accompagnent. »
(Akrich, 1987, p. 51). L’étape suivante de la conception qui est celle de l’inscription,
correspond à la fabrication concrète de l’objet technique incarnant ces représentations des
concepteurs et qui peuvent donc conduire à des prescriptions dans l’usage effectif. Béguin
(2013) qualifie ces processus de « cristallisation » dans le sens où tout artefact incarne en lui

38 Ce point a été déjà développé dans le cadre de la mise en place des technologies dans les activités de
travail, voir la partie 2.1.1

67
un modèle de l’utilisateur et de son activité représentée par les concepteurs. La conception
implique « un processus de développement conjoint des artefacts et de l’activité de ceux qui en
feront usage » (Béguin, 2013, p. 147). C’est pourquoi, les caractéristiques des artefacts et
l’activité, qui s’influencent mutuellement, devraient être prises en compte de façon simultanée.
Or, les choix de conception sont souvent orientés par les connaissances insuffisantes de
l’humain et de son activité qui nourrissent les représentations des concepteurs. « Singulières,
hétérogènes voire contradictoires, ces représentations ont pour dénominateur commun d’être
une projection dans un futur humain, richement étayé ou au contraire nourri de modèles de
l’homme plus pauvres » (Folcher, 2015, p. 42). La mobilisation des connaissances propres des
concepteurs soulève un risque de ne pas réellement concevoir pour les utilisateurs et leurs
besoins réels mais « pour soi-même » (Nelson, 2011).

En conclusion, nous pouvons retenir que les choix réalisés dans des démarches de conception
et de déploiement des technologies participent dans la construction des usages et les incidences
qu’ils peuvent provoquer sur les activités. Derrière toute activité de conception, il y a des
représentations et connaissances des concepteurs sur les utilisateurs et leurs activités qui sont
« cristallisées » dans l’artefact conçu. Or, ces représentations et connaissances s’avèrent
souvent erronées ou limitées à l’égard de la complexité et la diversité des activités, ce qui peut
avoir des incidences négatives sur les usages et de façon générale sur les activités. Comprendre
les démarches mises en œuvre tout en interrogeant leurs limites, constitue alors un axe
important à considérer dans le cadre d’analyse de cette recherche.

2.1.5. Synthèse du cadre d’analyse


Les parties précédentes, exposant les travaux antérieurs et les discussions suscitées, ont permis
d’établir un ensemble d’éléments conceptuels et ceux issus des études empiriques qui ont guidé
la construction de cette recherche. Ces éléments, considérés comme des aspects utiles et
pertinents pour répondre aux objectifs de la recherche, constituent le cadre d’analyse de cette
thèse qui comprend :
- Le contexte socio-organisationnel ;
- La mise en place des systèmes d’IA, notamment en termes de division du travail entre
humains et technologies ;
- Les incidences effectives et/ou potentielles, en termes d’apports, de risques,
d’empêchements ou de dégradations des activités ;
- Les caractéristiques du système, en particulier les capacités d’explicabilité ;

68
- La confiance accordée aux systèmes ;
- Les usages en incluant l’appropriation, par exemple différentes façons d’utilisation ou
encore des processus d’adaptation ;
- Les démarches de conception et de déploiement des systèmes, en mettant l’accent sur
les choix de conception.
Ce cadre d’analyse s’appuie donc sur le constat qu’un changement technologique n’est jamais
un simple changement d’outil (Woods, 1996). Il entraine des transformations profondes dans
les activités et les organisations du travail dont il faut tenir compte. L’intégration des systèmes
d’IA dans les situations de travail n’est donc pas sans conséquences et transforment
nécessairement les activités dans lesquelles ils sont introduits, mais comment peut-on
appréhender et étudier ces incidences ?
Il a été constaté que les technologies, trouvant une signification dans des pratiques réelles, ne
peuvent être étudiées en tant que telles mais toujours en référence aux activités humaines et
plus concrètement aux usages, inscrits et situés dans un contexte socio-organisationnel. Le point
de vue adopté dans cette recherche est l’activité de travail médiatisée avec les technologies, en
l’occurrence des systèmes d’IA, dont les usages peuvent entraîner diverses incidences. Ainsi,
nous nous intéressons aux usages des systèmes d’IA du point de vue de l’humain engagé dans
une activité orientée par un objectif et médiatisée par des artefacts notamment technologiques.
Si les réflexions actuelles sur les systèmes d’IA ont tendance à mobiliser principalement un
point de vue technocentrique, abordant ainsi le travail davantage à travers les objets techniques
plutôt qu’à travers les activités humaines qui permettent de le réaliser, notre recherche s’inscrit
davantage dans une perspective qualifiée d’anthropocentrique (Rabardel, 1995). Elle consiste à
considérer la conception ainsi que les rapports entre les humains et les technologies à partir de
l’activité humaine telle qu’elle se réalise en situation réelle. Cette orientation permet d’aborder
les incidences et transformations occasionnées par les systèmes d’IA dans les situations de
travail, à travers leurs usages, plutôt que d’adopter un point de vue technique centré sur les
spécificités de ces systèmes et leurs performances techniques qui « fascinent » tant et attirent
un fort intérêt à l’heure actuelle. Adopter le point de vue de l’usage signifie également de ne
pas symétriser les humains et les systèmes d’IA mais de les envisager comme des entités
asymétriques qui ne disposent pas de mêmes capacités relationnelles complexes. Pour résumer,
il s’agit d’approcher les technologies, ici les systèmes d’IA, leur conception et déploiement, en
référence aux usages, inscrits et situés dans des contextes socio-organisationnels.
Il convient de souligner que le contexte socio-organisationnel est un aspect notable à considérer
pour examiner les usages des systèmes d’IA. Par ailleurs, on ne peut ignorer les spécificités

69
technologiques de ces systèmes et leurs caractéristiques techniques issues de la conception qui
s’articulent aux logiques humaines et sociales à travers les processus d’appropriation et qui
devraient donc être prises en compte dans la compréhension des usages. Les spécificités des
systèmes d’IA consistent notamment au fait qu’ils peuvent disposer de capacités d’amélioration
continue grâce aux performances amplifiées avec les techniques d’apprentissage qu’ils
mobilisent, comparativement aux autres systèmes informatiques classiques préprogrammés et
basés sur des règles. Les caractéristiques de ces systèmes, comme leurs capacités
d’explicabilité, se présentent alors comme des éléments essentiels dont il faut tenir compte dans
cette recherche. En effet, ils soulèvent des enjeux relatifs aux rapports de confiance qui peuvent
se poser dans les usages des systèmes d’IA. Par ailleurs, les travaux antérieurs ont permis de
montrer que la mise en place des technologies qui implique de penser une division du travail en
termes de répartition des tâches et des fonctions entre humains et technologies, façonne, au
moins de manière partielle, les usages de ces technologies. C’est également le cas des
démarches de conception et de déploiement des technologies, véhiculant des choix de
conception et qui jouent un rôle important dans le développement des usages et leurs incidences.
Prenant appui sur ces éléments, trois orientations ou dimensions complémentaires et
interdépendantes se concrétisent dans l’objectif de la thèse :
(i) L’analyse de la conception et du déploiement des systèmes d’IA avec des éléments relatifs
aux caractéristiques du système, à la division du travail en termes de répartition des rôles et des
fonctions entre humains et technologies et enfin, des éléments relatifs au rôle des utilisateurs et
à la prise en compte des usages dans ces processus de conception et de déploiement. Cette
dimension mobilise les questions de recherche suivantes :
- Quelles démarches de conception et de déploiement des systèmes d’IA sont envisagées
et/ou mises en œuvre dans les situations de travail ?
- Comment les travailleurs, les concepteurs mais aussi les décideurs envisagent les
fonctions et les rôles des systèmes d’IA dans les activités professionnelles ?
(ii) L’analyse des usages des systèmes d’IA, à travers les processus d’appropriation et les
éléments qui peuvent les façonner, c’est-à-dire contribuer à la construction et le développement
de ces usages. Cette dimension interroge donc les enjeux relatifs à la confiance accordée aux
systèmes d’IA et comment les systèmes d’IA existants sont actuellement utilisés et appropriés.
(iii) L’analyse des incidences effectives et/ou potentielles, étroitement liées à ces usages, en
termes d’apports, de risques ou de dégradations et d’empêchements dans les situations de
travail, ce qui renvoie à la question de recherche suivante : Quels enjeux et préoccupations

70
émergent en termes d’incidences potentielles et/ou effectives de la mise en place et des usages
des systèmes d’IA ?
Nous pouvons faire l’hypothèse que plusieurs liens existent entre les éléments exposés à travers
le cadre d’analyse. Les incidences et transformations occasionnées par l’IA dans les situations
de travail seraient multi-déterminées par les usages que l’on pourrait qualifier d’une part de
collectifs et organisationnels, c’est-à-dire la fonction et le rôle donnés aux systèmes d’IA dans
les activités et l’organisation du travail, et d’autre part, par les usages individuels, à travers les
processus d’appropriation impliquant les capacités d’explicabilité des systèmes et des enjeux
de « relation » de confiance entre les travailleurs et ces systèmes. L’ensemble serait
nécessairement façonné, au moins partiellement, par le contexte socio-organisationnel. Tout
cela conduit à considérer que le modèle compréhensif et analytique exposé à travers le cadre
d’analyse n’est pas linéaire et déterministe mais renvoie plutôt aux processus complexes et
dynamiques examinés dans les chapitres empiriques.

2.2. Démarche de recherche

2.2.1. Les études empiriques et leurs objectifs


Dans l’objectif de répondre aux questions de recherche relatives à la fonction et au rôle des
systèmes d’IA dans les activités de travail, à leurs utilisations, aux démarches de leur conception
et déploiement ainsi qu’aux incidences suscitées, trois études complémentaires ont été réalisées
avec l’objectif de rendre compte : (i) de la manière dont les différents acteurs, soient les
concepteurs mais aussi les utilisateurs potentiels ou actuels envisagent la place de l’IA dans les
activités de travail, (ii) des usages et des incidences effectives et potentielles des systèmes d’IA
sur l’organisation et les activités de travail, (iii) de ce qui peut se jouer, en termes de prise en
compte des usages et des utilisateurs finaux, dans la conception et le déploiement des systèmes
d’IA dans un environnement de travail. La Figure 9 présente les différentes facettes empiriques
de cette thèse.
Une première étude empirique repose sur une enquête basée sur des entretiens à visée
exploratoire (Chapitre 3). Elle a pour objectif de comprendre de façon globale et transversale
les enjeux soulevés par les processus de conception et de déploiement des systèmes d’IA ainsi
que par leurs usages et incidences dans les situations de travail. Ainsi, l’ensemble des éléments
du cadre d’analyse sera abordé dans cette étude.

71
Figure 9. L’articulation de trois facettes empiriques de la thèse

Pour cela, cette première étude s’appuie sur les visions et les expériences, par exemple en termes
d’actions, de ressentis et d’éprouvés liés aux usages des systèmes d’IA, des acteurs concernés
et impliqués dans les processus de conception, de déploiement mais aussi d’utilisation des
systèmes d’IA. Nous abordons cette enquête avec une grille d’analyse permettant de traiter les
thématiques suivantes : la compréhension et l’utilité des systèmes d’IA pour les acteurs
concernés et leurs besoins exprimés ; l’identification et la caractérisation des démarches de
conception et de déploiement de ces systèmes dans les situations de travail et enfin, la place et
les usages des systèmes d’IA.
La deuxième étude porte sur les usages effectifs des systèmes d’IA (Chapitre 4). Dans la
deuxième étude empirique, les usages effectifs et les incidences occasionnées par la mise en
place de systèmes d’IA sont alors analysés. Cette étude permet d’examiner la manière dont
l’ensemble des éléments de notre cadre d’analyse et leurs différents liens se manifestent dans
des situations réelles. Elle s’appuie sur deux cas des systèmes d’IA issus de la radiologie
(appelée également l’imagerie médicale) : un système de dictée à reconnaissance vocale pour
la réalisation des comptes-rendus radiologiques et un système de détection des fractures sur des
radiographies. Cette étude qui a pour objectif d’éclairer les enjeux et les transformations à
travers des usages effectifs des systèmes d’IA, analyse les contextes socio-organisationnels
dans lesquels s’inscrit la mise en place de ces systèmes d’IA, le rôle qui leur a été donné dans
les organisations du travail, la manière dont ces systèmes sont utilisés et ce que cela implique

72
pour les travailleurs, et enfin, les apports, les problèmes ou les risques qui sont soulevés dans
leurs usages.
Quant à la dernière étude, elle vise à décrire et analyser un processus de conception et de
déploiement d’un système d’IA (Chapitre 5). En effet, nous avons souligné le rôle important
des démarches de conception et de déploiement des technologies sur leurs usages. De plus, il a
également été évoqué que la prise en compte réelle de l’activité humaine reste un enjeu majeur
des démarches actuelles de conception et de déploiement des systèmes d’IA. En cherchant à
rendre compte les enjeux de ces démarches et le rôle qu’elles peuvent jouer sur les usages et
leurs incidences potentielles, cette troisième étude est donc centrée sur un des éléments du cadre
d’analyse, soit les démarches de conception et de déploiement des systèmes d’IA. Pour cela,
elle s’appuie sur le cas d’un chatbot juridique déployé dans une grande entreprise du numérique
pour analyser les caractéristiques des processus de conception et de déploiement de ce chatbot
en s’interrogeant par exemple sur les choix de conception et la prise en compte des utilisateurs.

2.2.2. La démarche méthodologique globale


En mobilisant différentes techniques d’entretiens et d’observations dans les études empiriques
de cette recherche, son approche méthodologique est d’ordre qualitative à visée compréhensive.
En effet, « la méthode qualitative s’attache à expliquer un phénomène, à lui donner une
signification voire un sens » (Bioy et al., 2021, p. 23). Elle suit un mode de raisonnement
inductif, c’est-à-dire la logique de la découverte pour contribuer à la génération de nouvelles
connaissances. En ce qui concerne les données recueillies dans cette recherche, elles ont fait
l’objet des analyses qualitatives, notamment thématiques, à l’aide du logiciel Maxqda qui est
un outil d’organisation et de gestion des données qualitatives. Ces analyses s’inscrivent dans
une perspective ascendante (Santarpia, 2021), autrement dit, les catégorisations ou le codage
(St. Pierre & Jackson, 2014) sont tout d’abord réalisés à partir des données telles qu’elles se
présentent pour être ensuite affinées et réagencées. Les méthodologies de recueil mais aussi
d’analyse des données utilisées dans les trois études seront présentées de façon détaillée dans
les chapitres respectifs de ces études.
Il est à souligner que la recherche des terrains a été soumise à des contraintes temporelles et
contextuelles. En effet, la recherche des situations de travail pertinentes vis-à-vis des objectifs
mais aussi des types des systèmes mis en place s’est avéré être un processus relativement long.
Au début de cette recherche (début de l’année 2019), la majorité des terrains avec des systèmes
d’IA (ceux à base d’apprentissage) identifiés comme intéressants, pertinents et accessibles, était
au début de la phase de prototypage. Peu de systèmes identifiés étaient déployés et utilisés dans

73
les situations réelles, alors que l’étude de ces situations d’usages semblait essentielle pour
répondre aux objectifs. Dans ce contexte, des contraintes en termes de recherche mais aussi
d’accès aux terrains d’étude ont émergées et ont été amplifiées par la crise sanitaire de la
COVID-19. La recherche des cas de déploiement et d’usages des systèmes d’IA a été fortement
déterminée par la première phase de découverte et d’immersion de cette recherche (Chapitre 3)
à travers les participations aux différents événements relatifs à l’IA, mais aussi limitée par la
crise sanitaire. Cette recherche des terrains s’inscrit alors dans une approche inductive « où les
faits empiriques constituant l’objet étudié sont mis en lumière par les informations en situation
des acteurs » (Hamel, 1997, p. 35). En ce sens, elle a été orientée par des thématiques et des
domaines d’activités mis en avant par les acteurs rencontrés lors de la première phase de notre
recherche. L’état de l’art et la première étude exploratoire ont donc permis d’identifier les
secteurs d’activité et les cas d’applications des systèmes d’IA pertinents à la vue des objectifs
et de l’approche ergonomique adoptée dans cette recherche. Ainsi, deux domaines d’activité
ont pu être principalement explorés : celui de la radiologie et le domaine juridique. Si une des
premières raisons c’était la possibilité d’accès à l’aide des acteurs rencontrés acceptant de
participer à notre recherche, il s’est également avéré que ces domaines constituaient des cas
exemplaires, fréquemment évoqués dans les discours actuels sur l’IA, pour examiner les
questions posées dans cette recherche. Ce cheminement a fortement contribué à l’identification
des terrains, soient des cas exemplaires pour deux autres études présentées dans le chapitre 4 et
le chapitre 5. Dans cette recherche, le terme « cas » correspond plus globalement à une situation
de travail dont le choix est soumis à différentes contraintes en lien avec les objectifs de la
recherche ainsi que des moyens dont nous disposons (en termes de temps, d’accès aux terrains
pour le recueil des données etc.). A la lumière des objectifs poursuivis dans cette recherche,
deux principaux critères ont guidé la recherche des situations à étudier :
- la pertinence vis-à-vis des objectifs : en quoi le domaine d’activité et la situation de
travail mobilisés sont-ils pertinents vis-à-vis des objectifs de la recherche et de
l’objet d’étude concernant la diffusion des systèmes d’IA ?
- le type de technologie mis en place dans ces situations de travail : s’agit-il d’un
système d’IA tel qu’il est défini dans cette recherche ?
La partie suivante porte sur les contributions empiriques de cette thèse, à travers trois études
concernant : (i) les points de vue et expériences des acteurs de l’IA, (ii) les usages effectifs des
systèmes d’IA et leurs incidences dans le domaine de la radiologie et (iii) le processus de
conception et déploiement d’un chatbot juridique. Ces contributions sont présentées
respectivement dans les chapitres 3, 4 et 5.

74
Deuxième partie :
Contributions empiriques

75
Chapitre 3. Points de vue et expériences des acteurs
de l’IA

Notre travail de recherche a débuté dans un contexte où l’intérêt pour l’IA était omniprésent
dans divers champs socio-économiques et politiques. Comme nous avons pu voir dans le
chapitre 1, de nombreuses discussions existent sur les démarches de conception, de déploiement
et d’utilisation des systèmes d’IA ainsi que sur les conséquences dans différents champs
professionnels ; tandis que relativement peu de systèmes à base d’apprentissage sont réellement
déployés dans les situations de travail en France. En effet, beaucoup de systèmes d’IA identifiés
s’avéraient être en phase de recherche et d’expérimentation au début de cette recherche. De
plus, à cette étape, peu d’études relatives aux enjeux soulevés par l’IA au travail s’appuyaient
réellement sur des données empiriques.
Dans ce contexte évolutif où les avancées technologiques en matière d’IA ne cessent de
s’accroître du point de vue des performances techniques et que la diffusion des systèmes se
concrétise, le premier objectif était d’identifier les acteurs concernés et impliqués dans le champ
de l’IA en lien avec le travail. Le but était de comprendre comment ils abordent l’IA au travail
et quels enjeux ils identifient autour de cette thématique. L’étude empirique, basée sur une
enquête qualitative, présentée dans ce chapitre constituait alors une première étape exploratoire
de notre recherche.
Face à un manque d’études empiriques permettant de comprendre les usages et les implications
réelles et potentielles de l’IA dans les situations de travail, ce chapitre vise à examiner les points
de vue et les expériences des acteurs concernés et impliqués dans les processus de conception,
d’intégration mais aussi des usages des systèmes d’IA. Qu’ils soient du côté de la conception
ou du côté de l’utilisation des systèmes, nous cherchons à croiser leurs points de vue et leurs
expériences afin d’éclairer la manière dont les systèmes d’IA sont pensés et utilisés par cette
diversité d’acteurs issus de différents secteurs d’activité. Cela devait permettre de construire
une compréhension empirique, de façon globale et transversale, des enjeux, des incidences
réelles et potentielles et des préoccupations autour de la conception, de la mise en place et des
usages de ces systèmes dans les situations de travail. Ces points de vue et expériences sont ainsi
examinés à travers les questions suivantes qui prennent appui sur les éléments du cadre
d’analyse de cette thèse :

76
(i) La compréhension, la conception et la mise en place des systèmes d’IA
- Comment ces acteurs caractérisent l’IA ?
- Quels besoins et attentes mettent-ils en avant vis-à-vis des systèmes d’IA ?
- Quelles sont les démarches et processus de conception et de déploiement mis en
œuvre et/ou envisagés ?
- Comment la division du travail en termes de répartition des tâches est envisagée ?

(ii) Les usages des systèmes d’IA et les incidences sur les activités de travail
- Quelles fonctionnalités de l’IA sont identifiées comme étant utiles ?
- Quels sont les apports potentiels et réels des systèmes d’IA ?
- Quelles questions et préoccupations soulève l’usage des systèmes d’IA pour ces
acteurs ?
- En quoi la mise en place et les usages des systèmes d’IA peuvent transformer ou
éventuellement affecter les métiers et les activités de travail ?

3.1. Méthode : enquête qualitative

3.1.1. Démarche globale de l’enquête


Au sens large, l’enquête renvoie à une collecte d’informations auprès d’un échantillon
d’individus (Philogène & Moscovici, 2003) en se reposant sur la logique interrogative
(Ghiglione & Matalon, 1998). Beaucoup utilisée en sciences humaines, une enquête peut
mobiliser plusieurs méthodes et outils selon l’objet de recherche et les objectifs poursuivis
(Paugam, 2012). Ces méthodes et outils permettent de recueillir des données empiriques et de
les confronter aux théories de la recherche. Dans notre recherche, l’enquête, ancrée dans le
terrain, correspond à une étude à visée compréhensive d’un phénomène social avec une
approche globale, dans notre cas l’IA et plus précisément les enjeux relatifs au travail.
La durée totale de l’enquête, qui représente la phase de découverte et d’immersion dans le sujet
de cette recherche, est d’environ un an et demi avec une réalisation effective qui a été
discontinue et perturbée par la crise sanitaire de la COVID-19. La Figure 10 résume le
déroulement temporel de cette phase avec deux parties principales.

77
2019 2020

Figure 10. Frise chronologique de la phase de découverte et d’immersion

Une première étape exploratoire (allant de janvier 2019 à juillet 2020) consistait à participer à
différents séminaires, salons et conférences (Annexe III) portant sur l’IA dans divers secteurs
d’activités. Cette étape a été mise en place pour différentes raisons :
- Comprendre et identifier de manière concrète les techniques d’IA et ses différentes
applications qui se développent aujourd’hui, ainsi que les démarches des concepteurs
dans la mise en place et l’accompagnement des projets IA des entreprises ;
- Comprendre et identifier les différents enjeux et questionnements qui sont soulevés par
le développement et l’introduction des systèmes d’IA dans des activités
professionnelles ;
- Repérer les secteurs d’activité et les cas d’applications de l’IA pertinents pour notre
recherche ;
- Constituer et développer un réseau d’acteurs avec l’objectif de trouver des terrains à
mobiliser pour la réalisation des entretiens de cette enquête, mise en place dans la
deuxième partie de cette phase d’immersion.

3.1.2. Méthodes et outils de recueil des données


La participation aux événements sur l’IA a été documentée par des observations ouvertes
accompagnées de prise de note dans un journal de bord. Ce type d’observations permet
d’appréhender des situations pour identifier un ensemble d’éléments faisant sens vis-à-vis des
objectifs et des questions de recherche. Ces participations ont également abouti à des rencontres
avec des acteurs concernés par l’IA, suivies de nombreux échanges informels qui ont été
consignés dans le journal de bord. Après 6 mois de découverte à travers divers évènements, des
premiers acteurs ont été identifiés et approchés pour effectuer des entretiens. Ces entretiens ont
été menés lors de la deuxième partie de la phase d’immersion qui s’est déroulée de juillet 2019
à octobre 2020. Ils ont été conduits suivant la technique d’entretien semi-directif qui s’avère
plutôt flexible car il « n’est ni complétement structuré à partir d’une liste de questions précises,
ni entièrement libre » (Nils & Rimé, 2003, p. 173). Les questions posées sont ouvertes, ce qui
donne à la personne interrogée une liberté d’expression. La technique d’entretien « fait appel

78
au point de vue de l’acteur et donne à son expérience vécue, à sa logique, à sa rationalité, une
place de premier plan » (Blanchet & Gotman, 2001, p. 23). C’est pourquoi, cette technique s’est
avérée particulièrement pertinente pour interroger et comprendre les visions et les expériences
des acteurs concernés en matière de l’IA. Elle nous permet d’une part, de faire décrire les
visions, les expériences et les activités de travail des acteurs et d’autre part, d’analyser le sens
donné aux pratiques et à ces expériences vécues qui renvoient aux « flux d’actions, émotions,
pensées et sensations perceptives qui émergent dans le cours de l’activité et dont le sujet est, ou
peut être rendu réflexivement conscient via des méthodes idoines » (Cahour et al., 2016, p.
259). L’entretien semi-directif est structuré et cadré par des thématiques à aborder, inscrites
dans un guide avec d’éventuelles relances. D’un point de vue thématique, le guide des entretiens
a été élaboré en tenant compte du cadre d’analyse comme fil conducteur et en s’appuyant d’une
part, sur de la littérature sur l’IA et le travail et d’autre part, sur des éléments issus des
observations ouvertes et des échanges informels. Il est composé de plusieurs thématiques
résumées dans le tableau ci-dessous (Tableau 1) qui ont été adaptées et précisées selon le profil
de l’interviewé et le déroulement de chaque entretien.

79
Thématiques générales Exemples de questions principales
Pouvez-vous vous présenter brièvement ?
En quoi consiste votre activité professionnelle ?
Présentation & Parcours - Dans quel secteur d’activité travaillez-vous ?
- Depuis combien de temps ?
- En quoi consiste votre travail quotidien ?
Comment définiriez-vous l’IA ?
Visions & Que pensez-vous de la notion de justice prédictive ? (Pour les acteurs du domaine juridique)
Compréhension de l’IA Comment voyez-vous le futur des systèmes d’IA dans le domaine de… ?
Comment voyez-vous l’évolution des métiers du domaine de… ?
En quoi les systèmes d’IA pourraient être utiles dans votre travail ?
En quoi consiste l’utilisation de l’IA dans le domaine de… ?
- Qu’est-ce que ça apporte ? A qui ?
Utilisation de l’IA - En quoi ça transforme le métier de… ?
Avez-vous déjà utilisé / Utilisez-vous un ou des systèmes d’IA ?
- Exemples concrets d’utilisation : contexte, objectif, utilité, attentes, apports…
Quelles questions/problèmes l’utilisation de l’IA soulève-t-elle dans le domaine de… ?
Quel est l’origine du système d’IA/projet d’IA ?
- Objectif, attentes
En quoi consiste son utilisation ?
Conception & - Fonctionnalités, utilisateurs finaux, cas d’usages…
Développement des Comment se déroule la conception et la mise en place de ce système d’IA ?
systèmes/projets d’IA - Démarche, acteurs impliqués, ressources mobilisées, techniques d’IA, données, formation et accompagnement, difficultés
rencontrées…
Quels sont les retours d’utilisateurs ?
Quels changements (conséquences, transformations) ont été occasionnés avec la mise en place et l’utilisation du système d’IA ?

Tableau 1. Résumé du guide thématique des entretiens semi-directifs

80
3.1.3. Population et déroulement du recueil des données
Les données recueillies qui seront retenues et analysées en tant que données principales pour
ce chapitre sont issues des entretiens semi-directifs. Quant aux notes d’observations ouvertes,
elles constituent des données complémentaires qui ont permis de construire le guide de ces
entretiens et ne seront pas utilisées en tant que données d’analyses principales. Comme nous
avons pu le voir, la participation aux événements, la recherche des secteurs d’activités
pertinents et le développement du réseau ont permis d’identifier et de solliciter plusieurs acteurs
à interviewer. Au total, 48 personnes ont été interviewées. Les entretiens ont été enregistrés
avec l’accord des participants et ont une durée variant d’une demi-heure à une heure et demie.
Une partie des entretiens a été réalisée en face à face tandis que les autres se sont déroulés à
distance par téléphone à cause de la crise sanitaire et des restrictions mises en place durant
l’année 2020.
En ce qui concerne les caractéristiques de la population, nous faisons tout d’abord une
distinction entre deux grandes catégories de profil des interviewés qui s’avère un élément
pertinent pour notre recherche :
- Des utilisateurs actuels ou potentiels 39 (30 interviewés, soit la majorité des
participants) : des professionnels de secteurs variés qui peuvent potentiellement être
amenés à utiliser les systèmes d’IA dans leur travail, ceux qui les utilisent déjà, ceux qui
peuvent être affectés sans forcément les utiliser et/ou ceux impliqués dans des projets
de réflexion sur l’IA ;
- Des concepteurs (18 interviewés) : des personnes directement impliquées dans les
projets de conception de l’IA, les informaticiens qui développent ainsi que les
représentants et les responsables d’entreprises40 qui commercialisent ces systèmes d’IA.
Du fait des rencontres et des opportunités présentées lors de l’étape exploratoire de cette étude,
la majorité des interviewés font partie du secteur de la radiologie (29 personnes), suivi du
secteur juridique (14 personnes) et d’autres secteurs divers et variés (5 personnes), comme on
peut voir sur la Figure 11. Le secteur de la radiologie et celui du droit se sont en effet avérés

39 Le terme « utilisateur » employé tout au long de ce chapitre renvoie aux utilisateurs actuels et potentiels,

sans que cela soit précisé à chaque usage de ce terme.


40 Certes, les représentants et les responsables d’entreprises ne participent pas toujours directement dans

la conception technique des systèmes en tant que telle, mais ils seront ici considérés comme « concepteurs »
dans le sens où ils sont impliqués de façon globale dans la conception et le déploiement de ces systèmes.

81
des secteurs particulièrement pertinents et accessibles lors de nos observations ouvertes durant
les divers événements41.

Figure 11. Nombre d’interviewés selon le secteur d’activité

Les métiers des participants sont divers, il s’agit des représentants de la direction d’entreprises
(par exemple des fondateurs de ces entreprises), des radiologues qui sont pour certains d’entre
eux chefs de service, des avocats, des magistrats, des manipulateurs en radiologie etc. (Figure
12).

Figure 12. Nombre d’interviewés selon leurs métiers et fonctions

Enfin, concernant les structures organisationnelles des interviewés (Figure 13), la majorité, soit
21 personnes, est issue du secteur public, notamment des hôpitaux (mais aussi des tribunaux de
justice), 13 personnes travaillent dans des start-ups, 9 personnes dans des structures privées
(cabinets juridiques ou cliniques médicales) et 5 personnes de statut « cadre » sont issues de
grandes entreprises du secteur privé.

41 Voir la partie 2.2.2

82
Public Tribunal de justice 3

CH
18

3 Autres
Startup 4 Juridique
6 Imagerie médicale

2
Privé

Grande Entreprise 1
2

Cabinet - Clinique Privé 6


3

Figure 13. Nombre d’interviewés selon la structure organisationnelle

3.1.4. Traitement et analyse des données recueillies


Au début de cette étude, une analyse exploratoire des données issues d’observations ouvertes a
été réalisée afin de faire émerger et compléter les premières interrogations et thématiques à
approfondir à travers les entretiens. Inspirée de la méthode d’analyse par questionnement (Paillé
& Mucchielli, 2012), cette analyse exploratoire consistait à relire les notes d’observations à la
lumière des questions posées au départ de cette étude, de façon à compléter et préciser ces
questions pour le guide thématique des entretiens.
Quant au traitement des entretiens, ils ont été retranscrits puis analysés de manière qualitative.
La méthode d’analyse de ces données d’entretiens s’inspire de l’analyse par théorisation ancrée
qui permet de dégager un sens et une compréhension d’un phénomène étudié, tout en étant
ancré dans les données empiriques (Paillé, 1994). Plus concrètement, nous nous basons sur
l’analyse thématique (Blanchet & Gotman, 2001) qui permet d’identifier le contenu et le sens
des différents thèmes des entretiens.
Pour cela, il s’agit d’identifier des thématiques transversales et spécifiques de chaque entretien
mais aussi les contenus relatifs à ces thématiques. Nous avons donc procédé à une première
lecture de chaque entretien (analyse verticale). Elle a permis de se familiariser avec le corpus
et réaliser un premier découpage thématique de façon inductive, c’est-à-dire en identifiant des
thématiques telles qu’elles se présentent et sont abordées dans un entretien. Les lectures
répétées des entretiens ont permis ensuite d’affiner, de préciser et de réorganiser les différents

83
codes thématiques identifiés et ainsi, construire une grille d’analyse horizontale (le croisement
des différents entretiens).
Pour le traitement de nos données, nous avons utilisé le logiciel Maxqda. Il nous a permis
d’organiser nos données d’entretiens, ainsi que de constituer la liste des thématiques identifiées
de façon inductive (à la première lecture), de catégoriser mais aussi réorganiser les segments
du corpus répartis dans ces thématiques lors des lectures transversales des entretiens.
Le tableau ci-dessous (Tableau 2) présente un extrait des exemples de catégorisation
thématique (l’ensemble des codes thématiques se trouve en Annexe IV) :
Code thématique Définition Exemples de segments
« Ier : Ce que c’est pour vous et puis dans le domaine du droit
également.
Ié(e) : Pour moi, l’intelligence artificielle, c’est vraiment très
personnel, je perçois ça comme une aide, c’est-à-dire que c’est
une intelligence. Elle porte bien son nom, donc une aide à la prise
La manière dont à la décision. Elle va aider l’humain qui est perceptible, mais ça
les interviewés reste artificiel, c’est-à-dire que c’est une aide, mais qui n’est pas
Définition IA
définissent et naturelle et qui doit toujours rester sous contrôle humain. Elle ne
caractérisent l’IA peut pas se substituer pour moi au contrôle humain. Voilà, en gros,
pour moi, ce que c’est l’intelligence artificielle.
Ier : D’accord.
Ié(e) : Et ça s’applique d’autant plus pour le droit, c’est-à-dire que,
pour moi, l’intelligence artificielle doit rester un outil et
certainement pas une fin en soi. » (Avocat 5)
« Ié(e) : pas de rassurer mais moi si vous voulez quand j'ai lancé le
Les éléments sur
produit avec des professeurs, la première chose qu'ils m'ont fait
les façons dont les
c'est allez-y lancez votre algorithme, déjà il vérifie que ça marche
systèmes sont
donc déjà ils sont étonnés et après ils vérifient, je sais pas nous ça
conçus et mis en
Démarches de fait partie des étapes de validation de quand on sort un produit de
place dans
Conception- voir des spécialistes et de leur demander de leur avis quoi et mais
différentes
Intégration bon voilà, après, c'est pour ça que nous lors de nos solutions à
situations : étapes,
chaque fois on permet d'avoir une période d'essai gratuite, on a
principes,
une période d'essai gratuite qui permet aux médecins de tester les
approches…
choses et que si jamais il voit que ça leur plaît et ben ils
l'achètent » (Responsable Marketing – Grande entreprise n°1)
« Ié(e) : Voilà. Sinon, on a des retours outil par rapport à la
fiabilité, où très régulièrement on reçoit des mails ou des retours
Les éléments d’avocats qui nous disent « il s’est passé exactement ce que vous
relatifs à la m’aviez annoncé », et nous on l’utilise aussi dans l’autre sens pour
Fiabilité- fiabilité et aux proposer aux avocats de tester, on leur demande de renseigner un
Performance IA performances dossier pour lequel ils ont déjà la décision, pour voir si la machine
techniques des tape comme aurait fait le juge.
systèmes d’IA Ier : D’accord.
Ié(e) : Et ça matche, donc voilà. » (Concepteur – Start-up IA
Juridique n°3)

Tableau 2. Exemples de catégorisation thématique

84
3.2. Résultats

3.2.1. La compréhension, la conception et l’intégration des systèmes d’IA dans


les situations de travail : démarches et leurs limites
Cette première partie des résultats s’intéresse à la compréhension de l’IA par les interviewés
ainsi qu’aux démarches de conception et d’intégration des systèmes d’IA dans les situations de
travail telles qu’elles sont envisagées ou mises en place par les acteurs rencontrés. Nous
discuterons également des enjeux et des limites soulevées par ces démarches.

3.2.1.1. L’IA comme un « outil » : entre fantasme marketing et réalité


Le point de vue des concepteurs est plutôt centré sur les capacités et les fonctionnalités des
systèmes d’IA : « Ce qui compte, c’est ce que ça [l’IA] fait » (Co-fondateur – Start-up IA
Juridique n°3). Les concepteurs parlent d’un domaine de recherche visant la reproduction des
raisonnements humains par des machines. En synthétisant les définitions données par les
concepteurs, l’IA renvoie aux algorithmes apprenants, aux technologies et aux logiciels
informatiques qui ont besoin de « bons » cas d’usage et de l’humain qui interprète les résultats
du système. Pour certains concepteurs, l’IA est aussi un « supercalculateur », un « support »
ou encore une « assistance » constituant des outils d’automatisation.
Quant à la compréhension de l’IA par les utilisateurs, elle est plutôt focalisée sur ce qu’elle
apporte ou doit apporter à l’humain. Ainsi, ces utilisateurs parlent de l’IA en tant qu’outil d’aide
qui a besoin de l’intelligence humaine et donc doit rester sous contrôle humain : « Elle ne peut
pas se substituer pour moi au contrôle humain. […] l’intelligence artificielle doit rester un outil
et certainement pas une fin en soi. » (Avocat 5). Pour ces personnes, l’IA doit venir en
complément à l’humain pour lui permettre d’être « augmenté », c’est-à-dire, lui faciliter
certaines tâches, permettre d’être plus rapide et donc améliorer son efficacité. Pour les plus
informés, que l’IA soit « faible », « forte » ou encore « hybride », elle englobe un ensemble de
programmes et d’outils (basés sur l’apprentissage automatique, l’apprentissage profond) avec
des capacités de traitements statistiques et d’auto-amélioration avec des données massives. Cela
montre que le sujet de l’IA n’est pas méconnu pour ces utilisateurs disposant un certain nombre
de connaissances sur le fonctionnement des systèmes d’IA. Selon eux, ces systèmes
chercheraient alors à se rapprocher de fonctions intellectuelles humaines sans qu’ils disposent
réellement de capacités d’apprentissage humain.

85
Une certaine différence est donc constatée dans la manière dont les concepteurs et les
utilisateurs envisagent l’IA. Pour résumer les points de vue de l’ensemble des interviewés, les
objectifs de l’IA seraient multiples :
- Reproduire, mimer, s'approcher, simuler des éléments de l'intelligence humaine (ses
fonctions intellectuelles) pour la résolution de problèmes ;
- Aider l'humain, c’est-à-dire d’être un support, lui apporter une assistance et des
solutions à travers cette aide qui doit rester sous contrôle humain ;
- Venir en complément de l'humain avec des possibilités de prendre en charge certaines
de ses tâches et fonctions.
Ces objectifs sont discutés et remis en question par les interviewés qui décrivent un contexte
où le marketing et les stratégies de vente des systèmes d’IA semblent occuper un rôle important
dans les discours sur l’IA. La plupart des concepteurs, mais aussi quelques utilisateurs remettent
en question l’usage du terme de l’IA. Il est décrit comme un terme mal choisi car il ne reflèterait
pas la réalité de ce qu’est l’IA : « je commencerais par ne pas l’appeler intelligence artificielle,
parce qu’il ne s’agit pas, là où en sont les connaissances aujourd’hui, ce n’est pas de
l’intelligence. […] intelligence artificielle, c’est un mauvais nom parce que ça ne dit pas ce que
ça fait. » (Directeur Général – Start-up IA Radiologie n°2). D’après les interviewés, si la
médiatisation et de nombreuses discussions sur l’IA semblent au fur et à mesure diminuer ces
dernières années, l’utilisation de ce terme susciterait toujours des fantasmes. Selon eux, la
stratégie marketing des discours actuels consisterait d’une part, dans l’utilisation du terme d’IA
et d’autre part, dans la mise en lumière de l’aspect innovateur des systèmes d’IA dont il faut se
saisir pour suivre l’évolution des innovations.

3.2.1.2. Les origines des démarches de conception et d’intégration des systèmes d’IA
D’après les résultats, la majorité des systèmes d’IA sont issus des travaux de recherches
académiques réalisés par les fondateurs d’entreprises et de start-ups spécialistes de l’IA, ou
encore des rencontres entre des spécialistes de l’IA et des métiers opérationnels qui sont en
mesure d’identifier des besoins et des problématiques de leur domaine d’activité. Les choix
d’intégrer et d’utiliser des systèmes sont souvent motivés par exemple par des chefs de service
ou des cadres de la direction portant un certain intérêt à l’IA. Pour ces choix, ils ont tendance à
privilégier des entreprises considérées comme « matures », créées depuis plusieurs années. Les
choix sont aussi orientés par de nombreuses propositions de la part des start-ups qui font tester
leurs systèmes par des utilisateurs ciblés, de manière gratuite ou à prix réduit. Différents cadres
de partenariats sont alors explicités par les interviewés, par exemple les collaborations entre les

86
industriels, les start-ups et les opérationnels comme les radiologues qui vont activement
participer au développement d'un système en échange de disposer gratuitement de ce même
système. Or, pour certains radiologues, ces collaborations peuvent être très coûteuses en termes
d'investissement de leur temps.
Selon nos résultats, trois cas de figures peuvent être distingués en termes de démarches de
conception et d’intégration des systèmes d’IA par des start-ups et des entreprises qui
développent, commercialisent et dans certains cas accompagnent d’autres entreprises et
structures dans la mise en place au sein de leurs organisations. Le premier renvoie au
développement d’algorithmes d’IA par des entreprises et des start-ups qui les commercialisent
et que nous qualifions de « génériques », c’est-à-dire des algorithmes conçus et entrainés avec
des données génériques sans qu’ils soient préalablement adressés à des besoins ou de cas
d’application précis nécessitant des produits finalisés avec par exemple, une interface
d’utilisation. Le deuxième cas de figure est le développement et la commercialisation des
systèmes « prêts à l’utilisation », c’est-à-dire finalisés avec une ou plusieurs fonctionnalités et
qui peuvent être déployés dans des situations précises. Les algorithmes « génériques » peuvent
être utilisés ou non pour la conception de ces systèmes. Enfin, le troisième cas de figure
correspond au développement des systèmes d’IA à partir d’une problématique, d’un besoin ou
d’un cas spécifique d’une entreprise. Pour ce développement, les algorithmes « génériques »
déjà existants peuvent être utilisés afin de les adapter aux besoins et aux données spécifiques
de l’entreprise et ainsi, de concevoir un système d’IA que nous pouvons qualifier de
« spécifique aux situations d’usages ». D’après les concepteurs interviewés, le développement
des systèmes d’IA se déroule souvent en mode projet avec des processus itératifs. L’un d’entre
eux explique le choix de développer leur propre système (dans ce cas, un chatbot) en partant
des besoins identifiés au sein de son entreprise, par le fait que certains systèmes « prêts à
l’utilisation » ne sont pas toujours adaptés aux besoins spécifiques de certains métiers.
Plusieurs phases sont identifiables dans ces démarches de conception et d’intégration, qui sont
plus ou moins communes ou spécifiques selon le type de système d’IA développé (Figure 14).

87
Figure 14. Différentes phases des démarches de conception et de déploiement selon les types
de systèmes d’IA

Ces phases, correspondant aux grandes étapes identifiées dans les discours des interviewés, sont
présentées ci-dessous de façon schématique et ne se déroulent pas toujours de manière linéaire
et certaines d’entre elles peuvent ne pas avoir lieu selon les cas. Une des phases importantes
porte sur le recueil et l’utilisation des données qui sont essentielles pour faire fonctionner ces
algorithmes en les entraînant et obtenir des modèles d’apprentissage. Selon le cas et le type de
système à développer, une phase de formulation d’un projet autour de l’IA peut avoir lieu.
D’après nos résultats, cette phase se traduit principalement par le recueil des besoins des métiers
opérationnels (futurs utilisateurs) à travers des ateliers, des discussions, des entretiens ou encore
de l’expérience et des connaissances personnelles de certains concepteurs. Par exemple, un des
fondateurs d’une start-up du domaine juridique explicite leur mode de travail en projet :
« Au départ, il y a un accompagnement parce qu’on n’est pas encore assez gros pour vendre...
Les gens ne nous téléchargent pas pour nous essayer. (…) C’est un mode projet, il y a toujours
un mode projet initial. Dans ce mode projet, il y a en général des gens qui sont dédiés, à qui on
montre l’outil, avec lesquels on fait des discussions toutes les semaines pour obtenir un
ensemble de feedbacks » (Co-fondateur – Start-up IA Juridique n°2).

88
Pour les concepteurs, formuler un projet IA sous-entend l’identification des besoins et
l’interrogation de la faisabilité. Dans certains cas où l’objectif de la start-up ou de l’entreprise
est de commercialiser un système, l’intérêt commercial est aussi pris en considération :
« Le but, c’est d’aboutir pour les deux parties à quelque chose. C’est d’identifier avec le travail
du data scientist et du médecin ce qui est faisable en fonction du besoin. (…) Ils vont nous
parler d’un projet, on va organiser une réunion avec nos data scientists et on a une responsable
plutôt recherche clinique, et de travailler le projet ensemble, d’identifier la faisabilité, de voir
aussi est-ce que c’est un besoin pour le marché français ou autre par rapport à l’activité, que
ce ne soit pas une niche, pour un seul site. Sinon on n’a pas d’intérêt derrière, il faut que ça
devienne un produit. (…) Ensuite ça va prendre 18 à 24 mois pour aboutir au produit. Après il
y a la séance où on identifie le besoin, la problématique, ensuite on va devoir récupérer une
base de données propre » (Responsable Marketing – Start-up IA Radiologie n°4).
Selon un autre concepteur, bien identifier et cadrer les « cas d’usage », c’est-à-dire les
fonctionnalités à intégrer pour telle ou telle utilisation, serait un point important dans le
développement d’un projet IA : « il faut beaucoup réfléchir au cadrage du use-case parce que
sinon on s’égare et on va perdre du temps parce que c'est extrêmement laborieux donc il faut
vraiment bien prendre le temps avant de se lancer dans un projet d’IA » (Product Manager
Relation Client – Grande entreprise n°2). Un des professionnels du domaine de la relation client
met aussi l’accent sur l’importance de cette phase qui devrait permettre de s’interroger sur les
besoins et demandes des travailleurs ainsi que sur des transformations potentielles de leur
travail.
Ensuite, il y a d’autres phases d’amélioration des algorithmes ou encore de développement des
interfaces afin d’aboutir à des systèmes utilisables. Concevoir un système « facile » à utiliser et
qui s’intègre dans l’environnement de travail existant est un enjeu important selon les
concepteurs. Par exemple, face aux problématiques des radiologues confrontés à un flux tendu,
à la multiplicité des outils et des environnements informatiques parfois complexes, les
concepteurs cherchent à prendre en considération ces problématiques du métier, en essayant de
développer des interfaces d’utilisation « simples » et intégrés dans l’environnement
informatique déjà existant. Après des phases de validation réglementaire dans certains
domaines (par exemple, médical) ou encore des phases de tests, une dernière étape correspond
au déploiement et à l’intégration des systèmes d’IA dans les situations de travail. Il s’agit
notamment de réaliser des installations physiques des systèmes et de proposer des formations
ou auto-formations aux utilisateurs (par exemple, formation en ligne avec un questionnaire à
remplir). Différents problèmes peuvent être rencontrés dans cette phase, par exemple des

89
problématiques techniques. Elles concernent l’absence ou le manque de matériel nécessaire et
adéquat en termes de puissance, pour les installations et le bon fonctionnement des systèmes
d’IA, par exemple dans certains hôpitaux. D’autres problématiques, qualifiées de blocage, et de
stratégie de contournement de l’utilisation des systèmes sont aussi évoquées dans nos
entretiens. Autrement dit, certains concepteurs rapportent que les systèmes d’IA mis en place
dans les situations de travail ne sont pas toujours utilisés et sont mis de côté par les travailleurs 42.
Ces problématiques font alors émerger les enjeux de transformation du travail en mettant
l’accent sur la nécessité de disposer de choix et de systèmes souples pour qu’ils puissent être
adaptés dans l’utilisation.

3.2.1.3. Les enjeux des données d’apprentissage pour la conception des systèmes d’IA
performants
Les données d’apprentissage sont des éléments essentiels pour concevoir des systèmes d’IA
performants. Dans nos résultats, trois principales étapes concernant ces données se distinguent.
(i) La première concerne l’accès aux données, qui pose différents enjeux selon le domaine
d’activité. Par exemple, la question de l’accessibilité des données ne se pose pas de la même
manière en radiologie qu’en droit. Dans le domaine juridique, nos résultats soulèvent une
discordance au sujet de la centralisation des données de décisions de justice et de leur
accessibilité libre et ouverte (open-data). En effet, certains concepteurs expliquent accéder et
récupérer ces données à l’aide d’un serveur public, tandis que d’autres témoignent de la
difficulté d’accès réel à ces décisions de justice dont certaines sont principalement récupérées
en passant par des éditeurs juridiques. Certains professionnels interviewés, notamment des
magistrats, expliquent ces difficultés par l’absence de la centralisation de nombreuses décisions
de justice qui sont rendues régulièrement par différentes instances juridiques. De ce fait, selon
eux, les concepteurs pourraient rencontrer des difficultés afin de se procurer une quantité
importante de données, ce qui pourrait les conduire à se procurer des données de manière parfois
douteuse et non transparente43. Ce point soulève un questionnement et une certaine méfiance
envers les pratiques des concepteurs au niveau de l’anonymisation ou de la pseudonymisation
de ces données 44.

42 Ce point est plus largement explicité dans la partie 3.2.1.4


43 Certains cas d’accès potentiellement frauduleux aux données sont aussi évoqués.
44 La pseudonymisation des données permet de ne pas pouvoir attribuer les données personnelles à une

personne physique, sous réserve de ne pas disposer d’informations supplémentaires. A contrario,


l’anonymisation des données, qui est une opération irréversible, rend impossible toute réidentification de la
personne (CNIL, 2022).

90
En ce qui concerne le domaine de la radiologie, l'accès aux données médicales (par exemple,
des images radiologiques et des comptes-rendus radiologiques correspondant permettant
d’avoir des éléments du diagnostic, qui servent à entrainer des algorithmes pour aboutir à des
modèles d’apprentissage) s’effectue dans le cadre de négociations et de partenariats entre les
concepteurs et certaines structures médicales. Certains radiologues rapportent un intérêt fort
des entreprises pour leurs données d’images mais aussi pour leurs données d’analyse et
d’interprétation de ces images. Effectivement, les données, en termes de quantité et de qualité,
constituent un des éléments majeurs pour pouvoir développer des systèmes d’IA performants.
(ii) La deuxième étape consiste à préparer des données dont les caractéristiques, comme la
quantité, l’exhaustivité et la qualité, seraient des éléments majeurs à considérer dans la
conception comme l’expliquent certains concepteurs :
« c'est nous qui lui apprenons et c'est pour ça que la question des biais, de la taille de
l'échantillon donné, de l'exhaustivité des données et de la qualité des données dans
l'apprentissage est majeure, parce que si t’es pas exhaustif, le risque de se tromper est d'autant
plus grand » (Directeur Innovation – Grande Entreprise n°3).
Dans certains cas, des métiers opérationnels sont impliqués durant cette étape qui semble être
la plus compliquée et à fort enjeu pour certains concepteurs. Par exemple, il s’agit de solliciter
des juristes pour leur expertise sur la définition des critères pertinents à retenir dans l’analyse
de la jurisprudence. Selon les interviewés, durant cette étape de préparation se pose aussi la
question d’anonymisation des données et peut soulever différentes problématiques, par exemple
dans le domaine juridique. Si les débats sur les critères d’anonymisation et/ou de
pseudonymisation étaient en cours au moment de nos entretiens, les interviewés soulevaient
tout de même un point de convergence sur la nécessité de nettoyer et d’anonymiser des données
juridiques de manière fiable avant leur mise à disposition pour les différents concepteurs. Par
ailleurs, selon les concepteurs, la préparation des données suppose d’une part, de les nettoyer
et d’autre part, de les enrichir (par exemple, des métadonnées) et les valider par des équipes
spécialistes des données. Dans le domaine de la radiologie, des radiologues peuvent être
recrutés pour un travail d’annotation qui consiste à indiquer des éléments pertinents sur des
images radiologiques, par exemple par des contours sur des images, par une spécification de la
pathologie etc. D’après les concepteurs, les données médicales seraient systématiquement
anonymisées avant leur utilisation dans la phase d’entrainement des algorithmes. Toutefois,
certaines interrogations et vigilances émergent chez certains radiologues sur les critères
d’anonymisation et de sécurisation des données médicales qui sont transmis aux concepteurs.

91
(iii) Enfin, la dernière étape est l’exploitation des données recueillies, nettoyées et enrichies,
pour un entrainement des algorithmes pour d’une part obtenir des modèles d’apprentissage
stabilisés et performants et d’autre part, de les évaluer et améliorer. Ces données se présentent
comme un des leviers importants pour l’amélioration de la performance des systèmes. Cette
phase d’entrainement et d’amélioration des modèles d’apprentissage se déroule en dehors de
l’utilisation du système d’IA. Par exemple, dans le domaine médical, il serait interdit de réaliser
un apprentissage continu et automatique d’un système d’IA durant son utilisation, à partir de
nouvelles données générées. Cet apprentissage doit obligatoirement se dérouler en dehors des
usages et donner lieu à des nouvelles versions du système amélioré. Ce qui signifie dans ce cas
de figure que le système n’apprend pas et ne s’améliore pas de manière automatique, sans
demande et intervention humaine :
« Actuellement dans la réglementation dans le monde entier, il est interdit d’utiliser des
algorithmes qui apprennent au fil de l’eau, comme les algorithmes de Google ou d’Apple qui
continuent d’apprendre à chaque fois qu’il y a plus de données, ça, c’est interdit. On doit
installer et mettre à disposition des médecins des algorithmes qui ont été entraînés sur une base
suivie et déterminée de données. Après, on peut réentraîner avec plus de données, mais à
chaque fois c’est une nouvelle version. On doit garder une trace très claire de quelles données
ont permis de former quel algorithme. » (Directeur Général – Start-up IA Radiologie n°2).

3.2.1.4. Les limites des démarches actuelles de conception et d’intégration des systèmes
d’IA
Plusieurs questionnements et critiques sont adressés aux démarches actuelles dans nos
entretiens. Certains interviewés décrivent ces démarches de conception comme du
« bricolage » ou encore une conception « artisanale » qui laissent parfois à désirer du fait par
exemple de l’augmentation de risques d’introduction des biais dans les résultats des systèmes 45.
Mettre en place une ingénierie de conception, de normes et de standards partagés serait alors
nécessaire selon certains concepteurs afin de s’assurer de la qualité des systèmes et de pouvoir
évaluer leurs impacts. D’autres concepteurs soulèvent également un questionnement sur la
rigueur « scientifique » dans le développement des systèmes d’IA. Il s’agit donc de
s’interroger sur les problèmes suivants : les résultats donnés par tel ou tel système sont-ils
fiables ? sont-ils reproductibles ? Des critiques sont adressées en ce sens à certains systèmes
d’IA du domaine juridique qui ne seraient pas basés sur des données suffisamment exhaustives

45 Concernant les biais, voir la partie 1.2.4.2

92
pour pouvoir donner des résultats fiables de probabilités et de comparaisons pertinentes. Ainsi,
assurer une rigueur et le principe de reproductibilité serait un élément important à prendre en
compte dans la conception des algorithmes d’IA nécessitant plus d’exigence et de cadrage. Or,
certains constatent un développement des start-ups dans le domaine de l’IA et une
commercialisation de ces systèmes de manière assez rapide.
Un autre point de critique concerne certaines démarches de mise en place de ces systèmes, dites
« techno-push » ou « centrées sur la technologie », sans qu’ils soient systématiquement pensés
dans le cadre des situations de travail. Un premier exemple est évoqué par un concepteur du
domaine industriel. Il concerne un système d’IA dans ce domaine industriel qui devrait
permettre de produire une estimation des différents indicateurs (par exemple, des informations
relatives à la production) d’une usine. Le concepteur nous explique la démarche de sa start-up
qui selon lui, était centrée sur la performance de leurs algorithmes et des gains potentiels
annoncés aux différents interlocuteurs. Or, après une analyse rétrospective, ils se rendent
compte des inconvénients d’une telle démarche focalisée sur la technologie et sa performance,
en négligeant d’autres aspects et enjeux organisationnels. Il explique par exemple que malgré
que leur système soit performant en termes de résultats « prédictifs », il a été mis de côté par
les travailleurs :
« en fait on était très dans le focus techno, (…) Et en face le client c’est pas du tout ce qu’il
veut, il s’en fout lui clairement, et donc vous allez arriver dans votre paradigme (…) en disant
moi je te fais gagner de l’argent, à côté vous avez un data scientiste qui vous dit moi je te fais
un outil performant hyper prédictif génial et dans un temps donné, et en face votre client vous
allez lui dire brutement, « en moins d’une minute je te fais un calcul prédictif et regarde tu vas
gagner tant ». Alors pour s’adresser aux patrons c’est bien, tu vas gagner tant, le directeur
qualité c’est « pourquoi t’as fait ça pourquoi tu mesures comme ça » et à l’opérateur c’est
« regarde je vais te fliquer », parce que vous utilisez le même argument pour tout le monde
(…) on s’y est très mal pris en termes de communication, mais très mal et on s’est fait envoyer
bouler mais non pas parce qu’on n’était pas performant (…) le système est performant et on se
disait mais pourquoi on performe pas pourquoi les gens en veulent pas. Et en fait c’est pas que
les gens n’en veulent pas c’est qu’on a vexé les gens parce qu’on est arrivé, on a fait, tient je
te prédis ça en croyant te faire plaisir et en fait les gens ils devinent vite et ils changent
complétement le comportement » (Co-fondateur – Start-up IA Industrie).
Ces problématiques ont conduit ce concepteur à remettre en question la démarche et à changer
d’approche : essayer d’inclure davantage les différents acteurs concernés comme les opérateurs,
adapter les messages et la communication selon les interlocuteurs, ne plus mettre en avant la

93
performance et les capacités de prédiction du système proposé et ainsi, mieux identifier les
souhaits et les besoins des futurs utilisateurs-clients. Le deuxième exemple s’inscrit dans le
domaine de relation client et fait référence au travail des conseillers clients. Dans ce cas, le
concepteur évoque un projet dans lequel les conseillers clients étaient impliqués à travers des
ateliers afin d’identifier différents besoins et définir des cas d’usage de différentes
fonctionnalités de l’IA destinées à ces conseillers. La critique adressée par le concepteur à
l’approche adoptée dans ce projet porte sur son orientation « techno-push », autrement dit, ce
sont les objectifs et les besoins de l’entreprise de développer des projets autour de l’IA qui
semblent primer sur les besoins et les problématiques réelles des conseillers :
« la fibre a été priorisée parce que c'est un objectif prioritaire côté métier donc on a écarté les
autres choses, peut-être y aurait eu d’autres choses mais ça a été écarté parce qu'on a voulu
faire correspondre le besoin de développer un projet IA avec aussi les objectifs de la direction
des métiers […] y a eu quand même un biais au départ qui était un peu techno-push » (Product
Manager Relation Client – Grande entreprise n°2).
Ce concepteur explique que les décisions de développer des projets IA sont prises a priori au
niveau de la direction de l’entreprise, sans qu’elles ne répondent toujours aux besoins réels des
métiers.
Les limites mises en avant dans ces démarches montrent alors un point important, soulevé par
plusieurs interviewés, consistant à questionner des besoins réels et guider la conception par ces
besoins. Afin d’impliquer les (futurs) utilisateurs (les travailleurs) dans les différentes phases
de conception des systèmes d’IA, certains concepteurs proposent de constituer des équipes
mixtes de conception en intégrant les métiers opérationnels. Ces futurs utilisateurs auraient
alors un rôle important à jouer afin de contribuer à la conception des systèmes d’IA : apporter
de l’expertise sur différents critères et éléments pertinents vis-à-vis du contexte d’usage de ces
futurs systèmes. Les résultats montrent que cette mixité des équipes de conception semble déjà
exister dans une certaine mesure à travers des équipes techniques et de recherche et
développement qui réunit des doctorants, des chercheurs, des développeurs, des ingénieurs
spécialisés, des spécialistes en IHM, des spécialistes des données (data scientistes) et enfin, des
métiers opérationnels selon le domaine d’activité (par exemple, des magistrats, des avocats, des
radiologues, des conseillers clients etc.) qui contribuent à la conception mais aussi à la
production de ces systèmes.

94
3.2.1.5. Synthèse
Cette partie met en évidence que l’IA est largement associée aux algorithmes et aux
technologies « apprenants » pour les concepteurs qui la définissent prioritairement par ce
que font ces systèmes, tandis que pour les utilisateurs l’IA est avant tout un outil ou un
système d’aide pour différents aspects de leur travail. Trois cas de figure de démarche de
conception et d’intégration des systèmes d’IA par les entreprises et les start-ups ont été
identifiés, selon qu’elles concernent les algorithmes « génériques », les systèmes « prêts à
l’utilisation » ou les systèmes « spécifiques aux situations d’usages ». Les différentes phases
de ces démarches sont plus ou moins similaires et montrent toute l’étendue du travail humain
nécessaire pour le développement de ces systèmes. Elles font ressortir d’une part la place
majeure des données d’apprentissage dans la conception des systèmes d’IA et d’autre part,
les enjeux d’identification et de prise en compte des besoins des utilisateurs mais aussi des
enjeux des transformations du travail susceptibles d’être occasionnées par le déploiement de
ces systèmes. Certaines de ces démarches comportent des limites, particulièrement lorsqu’elles
ont tendance à être guidées par une vision technologique (centrée sur la performance des
systèmes d’IA). Bien que dans certains cas les métiers opérationnels soient impliqués, il
semblerait que la décision de développer ou de déployer un système d’IA soit déjà prise par la
direction avant la sollicitation des métiers. Par ailleurs, questionner la rigueur de ces
démarches de conception, qualifiée par certains de « bricolage » est un point important dans
le contexte d’un développement plutôt rapide des systèmes d’IA et face à un manque
d’exhaustivité et de fiabilité des données d’apprentissage. C’est pourquoi, pour certains acteurs
de la conception, disposer d’un cadre de conception plus exigeant et plus largement partagé
serait utile.

3.2.2. La mise en place de l’IA et les transformations potentielles dans le


travail
Cette partie a pour objectif de décrire la mise en place des systèmes d’IA en termes de division
du travail envisagée par les acteurs interviewés et les possibilités des transformations des
pratiques professionnelles et des métiers telles qu’elles sont décrites dans les entretiens.

3.2.2.1. La division du travail entre les humains et les systèmes d’IA


La mise en place des systèmes d’IA implique de penser la division du travail. En ce sens,
différentes répartitions des tâches entre les humains et les systèmes d’IA sont envisagées par
les participants ou sont déjà en place dans certaines situations d’après les interviewés.

95
Les systèmes d’IA pourraient prendre en charge un certain nombre de tâches considérées
comme « simples », « rébarbatives », « répétitives » et « subalternes » (par exemple, des tâches
de tri ou de calcul). Ces tâches auraient une faible valeur ajoutée pour l’humain. Ces systèmes
pourraient aussi automatiser des tâches techniques demandant une certaine expertise (par
exemple, des tâches d’analyse des images radiologiques) ou encore prendre en charge celles
difficilement réalisables par l’humain (par exemple, l’analyse des données massives). En
automatisant toutes ces tâches, il resterait à l’humain les tâches de vérification et de supervision
du fonctionnement des systèmes et des résultats produits ainsi que celles exigeant des
compétences sociales et relationnelles. Enfin, au-delà de l’automatisation, les systèmes d’IA
pourraient produire et communiquer des informations (des estimations, des probabilités, des
synthèses…) à l’humain qui serait donc chargé de les analyser et interpréter (par exemple, en
prenant en compte le contexte) afin de prendre une décision finale. Dans cette perspective,
« c’est que finalement, l’intelligence artificielle, en tout cas, actuellement, ce n’est pas d’un
côté l’humain, de l’autre côté l’ordinateur. C’est l’humain + l’ordinateur. C’est un
raisonnement… Il ne faut pas dire « Je fais confiance aveuglément à l’intelligence artificielle »,
c’est qu’il faut dire « Je tiens compte des informations de l’intelligence artificielle, et par
rapport aux autres informations que j’ai, je vais prendre ma décision », parce que finalement,
la décision, ou en tout cas pour l’instant, c’est l’être humain qui la prend qui va arbitrer. »
(Radiologue 11). Dans ce cadre, l’humain réaliserait les tâches complexes qui nécessitent son
expertise et auraient une haute valeur ajoutée pour lui. Par exemple, pour certains radiologues,
il peut être plus intéressant de se concentrer sur des examens anormaux à caractériser, après un
premier tri réalisé par un système d’IA, plutôt que d’analyser tous les examens dont la plupart
risque d’être normal. Toutefois, ce type de répartition des tâches comporterait un risque d’erreur
de diagnostic en cas de faux négatifs du système mais aussi un risque de complexification et
d’intensification du travail, comme explique ce radiologue : « si vous enlevez toutes vos tâches
répétitives et faciles, il vous reste que les tâches difficiles […] c’est pas jouable on tiendra pas
» (Radiologue 2). Dans certaines situations, que ce soit dans le domaine de la radiologie ou
celui du droit, cela impliquerait également un risque de perte de compétences et des difficultés
en cas de panne, mais aussi un risque pour l’apprentissage et le développement de l’expérience
et des compétences, par exemple pour des jeunes professionnels ou ceux en formation :
« de mon expérience de magistrat, il y a beaucoup de choses qui se passent dans les couloirs.
Vous discutez avec les gens (…) tout cet aspect extrêmement humain de la construction d’une
décision judiciaire, qui s’opère comme ça, c’est là où votre stratégie de défense est efficace et
fonctionne et c’est là où les bons avocats, désolé de le dire, n’ont pas besoin de cet outillage-

96
là pour le faire. En revanche, les moins expérimentés, ceux peut-être qui arrivent sur le marché,
qui n’ont pas construit cette expérience-là, ça peut les rassurer, mais ça peut être une forme de
fausse assurance » (Magistrat 2).
Afin d’éviter des situations où « on ne réfléchit plus », par exemple dans le cas de la radiologie
et notamment quand il s’agit des internes en formation, un radiologue devrait d’abord réaliser
sa propre analyse sur les images radiologiques, puis prendre connaissance des résultats
d’analyse des images par le système d’IA, comme explique ce radiologue :
« je trouve qu'il ne faut pas, notamment pour les internes, que le compte rendu s'ouvre
automatiquement en première intention. Parce que, après, on ne réfléchit plus. À mon avis,
l’idéal dans ce genre de méthode c'est, d'abord que le radiologue ouvre la radio telle qu'elle a
été faite, il fait son analyse visuelle dans sa tête, et dans un second temps il regarde si le logiciel
a dit la même chose que lui. Et s'il y a une discordance c'est au radiologue de décider si le
logiciel a raison, ou si c'est lui qui a raison et le logiciel s'est trompé. (…) nous c'est ce qu'on
a mis en place pour la radiographie thoracique, (…) on a la possibilité d'ouvrir, d'abord, la
radiographie brute sans interprétation fournie par l'algorithme. » (Radiologue 15).
En conclusion, un point sur lequel les interviewés se rejoignent est le fait que la décision finale
devrait revenir à l’humain.
Plus largement, une idée émerge de la part d’un professionnel sur la nécessité de donner des
possibilités de choisir à l’humain quand et comment utiliser un système d’IA, c’est-à-dire de
pouvoir décider à tout moment de déléguer ou non certaines tâches ou de se faire assister ou
non par ces systèmes.

3.2.2.2. Les possibilités des transformations des pratiques professionnelles et des


reconfigurations des métiers
Malgré l’existence de quelques craintes en termes de substitution de l’humain par les systèmes
d’IA, pour la plupart des interviewés il n’y aurait pas de substitution ou de remplacement
généralisé des métiers comme ceux des avocats, des magistrats ou encore des radiologues.
Toutefois, la volonté d’automatiser certaines tâches de manière complète est exprimée par un
des concepteurs, par exemple dans le cas de l’analyse de certaines images radiologiques. Mais,
pour ce qui est de la radiologie, il s’avère que cette automatisation complète rencontre certaines
limites techniques à l’heure actuelle, du fait que ces analyses nécessiteraient toujours de
l’intervention humaine dans certains cas cliniques. Il faudrait aussi relativiser le risque de
substitution par rapport au mode d’organisation du travail, c’est-à-dire selon si un radiologue

97
travaille en équipe et participe dans la prise en charge médicale ou se charge uniquement de
l’interprétation des images, comme l’explique un des radiologues :
« ils s’appuieront sur peu de radiologues pour rentabiliser au maximum (…) ils vont chercher
à substituer le radiologue, en particulier dans les officines de téléradiologie, qui font de
l’interprétation à distance (…) Mais dans un établissement, quand vous êtes intégré dans une
équipe, quand vous travaillez en transversalité, l’outil d’intelligence artificielle, le logiciel, il
est là pour vous aider, il n’est pas là pour vous évincer. (…) c’est surtout distinction entre
quelqu’un qui travaille en pluridisciplinarité, en transversalité, (…) et qui fait son exercice
médical, ou celui qui est dans son coin et qui fait juste de l’interprétation, qui ne participe pas
aux décisions pluridisciplinaires, etc. » (Radiologue 12).
Par ailleurs, d’autres concepteurs et utilisateurs insistent sur le fait que les objectifs de ces
systèmes ne sont pas une automatisation complète au sens de substitution. Certains imaginent
quand même que des métiers avec des tâches répétitives ou encore ceux basés sur des règles
écrites et explicites (par exemple, des experts-comptables ou des avocats) pourraient à terme
disparaitre. Il est à noter que cette vision de certains métiers comme ceux du droit semble
erronée d’après les avocats et les magistrats interviewés. En effet, le fonctionnement du droit
et l’expertise des professionnels de ce domaine faisant appel à de nombreuses compétences et
à des dimensions humaines, seraient beaucoup plus complexe qu’uniquement l’application des
règles.
Plus largement, il y aurait pour les interviewés une certaine forme de substitution mais
uniquement dans certaines tâches automatisables à l’aide des systèmes d’IA. Cela entrainerait
des transformations et des évolutions des pratiques professionnelles, des métiers et des rôles
des travailleurs. Ainsi, certains évoquent que ce ne sont pas les systèmes d’IA qui vont
remplacer les travailleurs (par exemple, un radiologue ou un avocat) mais ce sont les travailleurs
utilisant ces systèmes qui vont supplanter ceux qui ne les utiliseraient pas : « les confrères qui
travaillent à l’ancienne, demain n’auront plus de cabinet, plus de clients » (Avocat 4). C’est
pourquoi, suivre l’évolution et l’innovation liées à l’IA serait un point nécessaire d’après
certains interviewés. Du fait des coûts financiers des systèmes d’IA globalement élevés,
plusieurs professionnels soulèvent ici le risque des inégalités en termes d’accès aux systèmes
d’IA et aux informations obtenues. Les possibilités des transformations et de réorganisation du
travail des radiologues et des manipulateurs radio sont discutés par certains interviewés. Ils
estiment que les radiologues doivent se spécialiser et développer plus d’expertise pour certaines
tâches et certains domaines non pris en charge par les systèmes d’IA. Du côté des
manipulateurs, l’accès à l’utilisation de ces systèmes (par exemple, ceux d’analyse automatique

98
des images) pourrait d’un côté, leur ouvrir de nouvelles possibilités en termes d’évolution du
métier avec plus de responsabilité et plus d’autonomie pour la réalisation de certains examens
radiologiques. De l’autre côté, si les systèmes prennent en charge les tâches d’analyse et de
prétraitement des images, cela pourrait au contraire pénaliser et freiner l’évolution du métier
des manipulateurs. En effet, ces tâches sont aujourd’hui officieusement réalisées par des
manipulateurs pour aider et « orienter » le diagnostic des radiologues, ce qui amène, d’après un
concepteur, certains radiologues à considérer qu’un « manipulateur radio, c’est un peu l’IA du
radiologue » (Responsable Marketing – Start-up IA Radiologie n°4). Ainsi, en prenant en
charge des tâches importantes de certains métiers, la mise en place de certains systèmes d’IA
pourrait freiner l’évolution de ces métiers, les appauvrir et ainsi, les rendre facilement
remplaçables par d’autres avec des compétences similaires. Cela conduirait à un risque de
réduction des effectifs mais aussi à des reconfigurations des rôles dans des situations de travail,
par exemple dans le cas du métier des manipulateurs radio. Si les tâches techniques pour
l’acquisition des images devaient être réalisées par les systèmes, les tâches de soins (qui, dans
le travail des manipulateurs, comprennent par exemple l’accueil, la mise en place d’une
perfusion, l’installation du patient etc.) pourraient être déléguées aux infirmiers ou aux aides-
soignants : « ça reste jamais un simple outil, si un jour l'IRM est capable de tourner toute seule
(…) en quoi y a besoin que ce soit le manipulateur qui installe les patients (…) ça peut être
remplacé par un aide-soignant ou un infirmier » (Manipulateur radio 2). Dans une certaine
mesure, ce type de reconfiguration menacerait alors le métier de manipulateur : une partie de
ses tâches techniques pourrait être prise en charge par les systèmes d’IA et l’autre partie par
une autre catégorie de métiers du soin.
Dans le contexte de la diffusion des systèmes d’IA dans le travail et des transformations qu’ils
pourraient occasionner, certains insistent alors sur la nécessité de débattre et analyser ces
transformations et les changements probables.

3.2.2.3. Synthèse
D’après les résultats, plusieurs types de répartition des tâches entre les humains et les systèmes
d’IA peuvent être envisagés. D’un côté, toutes les tâches « simples », « répétitives » mais
aussi celles avec des exigences techniques, pourraient être déléguées aux systèmes, en
laissant ainsi aux humains les tâches plutôt complexes ou les tâches de supervision des
systèmes. De l’autre côté, les systèmes peuvent réaliser des analyses et communiquer des
informations aux humains chargés alors de les interpréter. Dans tous les cas, la décision finale
devrait être prise par des humains. Cependant, dans ces conditions, un risque d’erreur,

99
d’intensification et de complexification du travail humain ou encore un risque de perte des
compétences et d’un empêchement de l’apprentissage pour les jeunes professionnels sont
mis en avant. Une autre possibilité est évoquée pour donner une certaine flexibilité à l’humain
pour décider quand et comment utiliser ou non ces systèmes d’IA. Cette mise en place et les
usages des systèmes d’IA prenant en charge des tâches, pourraient également entrainer, selon
les métiers et les organisation du travail, différentes transformations et reconfigurations des
pratiques et des rôles professionnels : ouvrir ou au contraire freiner des possibilités
d’évolution, favoriser des professionnels utilisant ces systèmes et ainsi entrainer un risque
des inégalités en termes d’accès aux informations données par l’IA ou encore appauvrir
certains métiers et donc les rendre plus vulnérables face aux risques de substitution par
d’autres catégories de métiers. Cela nécessite une analyse et des débats sur ces transformations
avec des incidences diverses et variées selon les situations de travail.

3.2.3. L’utilité de l’IA et les doutes sur des apports réels


La mise en place des systèmes d’IA dans les situations de travail interroge leur utilité et leur
apport pour les travailleurs. En ce sens, plusieurs types de systèmes pourraient s’avérer utiles
dans différentes situations face aux diverses problématiques comme expliquent les interviewés.
De manière générale, les systèmes d’IA seraient utiles pour l’exploitation d’une grande quantité
de données contenant de nombreuses informations. Il s’agit d’aider à la prise de décision en
identifiant et synthétisant les informations importantes pour extraire des connaissances sur
divers sujets. Plusieurs apports potentiels de ces fonctionnalités de l’IA sont identifiables dans
les résultats (en particulier, dans le domaine juridique et celui de la radiologie) en termes de
performance ou d’amélioration de la qualité du travail et qui font plus globalement référence à
l’idée de « l’augmentation » de l’humain par ces systèmes, c’est-à-dire de son efficacité et de
ses capacités à mieux réaliser certaines tâches. Les parties suivantes détaillent les
fonctionnalités considérées comme étant utiles dans le domaine juridique et de la radiologie et
discutent de leurs apports potentiels et effectifs.

3.2.3.1. Le cas du domaine juridique


Plus précisément, les fonctionnalités des systèmes d’IA décrites comme étant utiles face aux
différents problèmes et situations du domaine juridique sont présentées ci-dessous dans le
Tableau 3.

100
Fonctionnalités de l’IA Utilité

Identifier des jurisprudences pertinentes avec potentiellement un degré supérieur pour devancer l’adversaire

Recherche, veille et analyse Disposer d’une meilleure vision de la jurisprudence et renforcer la sécurité juridique c’est-à-dire réduire les erreurs
des décisions de justice : potentielles dans la prise de décision des professionnels du droit :
guidée, fine avec une haute - Identifier des éléments pertinents et cohérents dans les bases de données juridiques qui ne cessent
précision d’augmenter
- Évaluer la cohérence d’une décision, identifier les points à examiner selon les questions juridiques afin
RECHERCHE - SYNTHESE - ANALYSE

d’aider au raisonnement juridique du juge

Synthèse de recherche Identifier et mettre en avant de manière synthétique des informations et des éléments importants et pertinents vis-
d’informations à-vis du sujet traité

Aide à la production des


Élaborer des documents intelligibles avec une forme et un fond amélioré
documents

Effectuer une première analyse de nombreux documents constituant des dossiers juridiques afin d’identifier des
éléments pertinents selon les questions et les points à traiter
Traitement et analyse
automatique des documents
Extraire des informations clés et des éléments de réponse dans des situations où les professionnels du droit doivent
organiser et passer en revue un grand nombre de documents (par exemple, dans le cas des audits juridiques)

101
Identifier des moyennes et des tendances de décisions (par exemple, des tendances prévisionnelles pour
l’administration de la justice, la gestion des tribunaux)

Disposer d’une vision globale sur ces tendances pour aider à la prise de décision (servir de « GPS ») aux :
- magistrats : avoir une vision sur des affaires similaires, aider dans l’acte de juger (utile seulement dans des
cas complexes ou ceux dans lesquels il n’y a pas encore de jurisprudence)
ESTIMATIONS

Calcul de probabilité (de


- professionnels du droit : notamment pour les « généralistes » et les moins expérimentés, aider un avocat dans
succès de l’issue d’un litige),
l’acte de conseiller (utile pour un avocat expert si seulement le système donne une analyse fine et poussée)
d’estimation (des barèmes) :
- assureurs (estimation des indemnisations et des risques)
ensemble de systèmes
- directions juridiques (estimation des risques)
qualifiés de « prédictifs »46
Objectiver certaines décisions de justice (par exemple, les décisions du conseil de prud'hommes qui seraient prises
par des magistrats non professionnels47)

Utile sur la dimension technique du droit (plus de légitimité dans certains domaines comme le civil, commercial et
administratif48)

Tableau 3. Fonctionnalités des systèmes d’IA décrites comme étant utiles dans le domaine juridique

46 Nous utilisons le terme « prédictif » (en référence à la notion de justice dite « prédictive ») comme il est couramment mobilisé dans les discours communs sur l’IA du

domaine juridique, mais il faut noter que ce terme est largement discuté et critiqué dans la littérature (CEPEJ, 2019 ; Meneceur, 2020) mais aussi dans nos entretiens. Plusieurs
professionnels du droit interviewés évoquent l’idée fantasmatique de la notion de « justice prédictive » dans le sens où elle ne correspondrait pas à la réalité des
fonctionnalités des systèmes d’IA actuels. Ainsi, certains discutent de la dangerosité de l’utilisation de cette notion qui véhiculerait des idées et des attentes erronées envers
les systèmes d’IA juridiques :
« une justice prédictive ça voudrait dire qu’une machine va prédire ce que dit le juge et (…) disons plutôt que ça n’a pas de sens parce que justement la machine va prédire
ce que décide les juges aujourd’hui ou dans 3 mois et ça la machine elle ne peut pas savoir, (…) et du coup c’est pire que ça, c’est-à-dire que c’est vraiment dangereux, parce
que si on admet que c’est vrai, ça veut dire qu’on admet finalement que quand on dit justice prédictive, la machine va prédire, c’est-à-dire qu’on va l’interroger pour prédire
et finalement elle ne va pas prédire elle va prescrire. » (Co-fondateur – Start-up IA Juridique n°3).
47 Autrement dit, ces juges ne sont pas des professionnels du droit mais sont des employeurs ou des salariés syndiqués avec une expertise réglementaire et des

connaissances du monde du travail.


48 Contrairement au droit pénal où la dimension humaine serait plus importante, par exemple avec le principe d’individualisation des peines.

102
Comme expliquent et constatent certains interviewés du domaine juridique, les apports de ces
fonctionnalités pourraient se traduire en termes de bénéfices soit par un gain de temps ou par
l’amélioration de l’efficacité et la productivité des professionnels du droit. D’autres bénéfices
sont également décrits au niveau de la qualité du travail. En ce sens, ces systèmes d’IA
permettraient aux professionnels du droit de « louper moins de choses » dans leurs analyses.
Les avocats, notamment les moins expérimentés d’après certains interviewés, disposeraient
alors des éléments pour mieux construire, affiner, orienter et optimiser une stratégie de leurs
affaires juridiques. Les apports se manifesteraient plus globalement par l’amélioration des
pratiques des professionnels du droit. Dans certains domaines comme le droit civil, les systèmes
de calcul de probabilité établissant des simulations (par exemple, des décisions, des barèmes
d’indemnisation etc.) basées sur l’analyse des données massives, permettraient aux avocats de
disposer des éléments « objectivés » afin de mieux conseiller leur client. Ces systèmes de
simulation pourraient également servir de support et de médiateur dans les négociations entre
deux parties et ainsi, améliorer ces processus, favoriser les modalités alternatives de règlement
des litiges (par exemple, les accords à l’amiable sans passer devant un juge). Il s’agit ici de
pratiquer du droit différemment dans le but de désengorger des tribunaux surchargés à l’heure
actuelle. En gagnant du temps dans la recherche d’information, certains avocats disent pouvoir
se concentrer sur l’accompagnement du client et améliorer leur devoir de conseil. De plus, ils
évoquent des bénéfices en termes d’économies ou des gains financiers : par exemple, passer
moins de temps sur la recherche juridique permettrait de baisser le coût des honoraires et
améliorer la satisfaction du client. Du côté des magistrats, les apports principaux des systèmes
d’IA consisteraient à rendre certaines données juridiques (par exemple, des autres tribunaux)
visibles et plus facilement accessibles, en permettant aux juges d’avoir plus d’éléments de
compréhension par exemple sur les disparités des décisions judiciaires :
« C'est une façon de se décloisonner, dès lors que ça ne l'impose pas au juge, on le prendra
comme un outil d'aide à la décision. Alors certes on a des arguments, certes on sait ce qu'on a
pu faire ou dans son tribunal dans des affaires à peu près similaires, mais là on a objectivé de
manière un peu plus scientifique et puis si c'est un juge, il ne sait pas trop ce qui s'est passé les
années auparavant. » (Magistrat 1).
Ce « décloisonnement » permettrait de donner un autre éclairage sur différentes affaires et ainsi,
potentiellement éclairer et améliorer la prise de décision de justice. Toutefois, l’utilisation des
systèmes produisant des analyses et des estimations des décisions juridiques peut conduire à
mettre en évidence les tendances décisionnelles des juges ou des tribunaux selon différents
critères d’un dossier ainsi que les décisions « atypiques ». Cela pourrait donc donner lieu à la

103
mise en visibilité des pratiques des magistrats, autrement dit à leur « profilage ». Selon certains
interviewés, cette mise en visibilité risquerait d’influencer les décisions des juges :
« supposons que ça se mette en place : chaque juge aura une statistique, et la question se pose
de savoir si le juge sait résister à cette question-là, puisqu’il n’y a aucune raison qu’il ait la
même statistique qu’un collègue ailleurs. Il y a une vision qui est assez différente aux États-
Unis, ça ne pose pas de problème (…) Ça permet à l’avocat de dire à son client « On est tombés
sur Machin, on a quelques chances. En tout cas, si on lui présente les arguments sous cette
forme, on aura plus de chances. » (…) On essaye d’éviter ce genre de chose, pour éviter, à mon
avis, le conformisme, car ça peut conduire à ça : le juge qui n’a pas la bonne moyenne va
essayer d’aller vers la bonne moyenne. (Magistrat 3).
Selon les principes du système judiciaire français c’est un élément problématique dans le sens
où les magistrats devraient essayer de ne pas se faire influencer par leur vision du monde et leur
subjectivité. Les magistrats interviewés expliquent qu’ils sont et doivent être indépendants et
impartiaux49 dans leurs décisions. Des craintes de contrôle, de stigmatisation et de
détermination d’un risque de partialité de ces juges sont évoquées dans les entretiens.
Cependant, pour certains concepteurs, cette mise en visibilité des pratiques peut au contraire
constituer une sorte d’avantage, c’est-à-dire un moyen pour des magistrats de se situer et de
mieux connaître leurs juridictions afin de réfléchir sur les besoins de leurs évolutions.
Certains des bénéfices mis en avant sont cependant nuancés dans nos résultats, particulièrement
dans le cas des systèmes de simulation et d’estimation qualifiés de « justice prédictive » testés
par certains professionnels. Si certains avocats avaient pour objectif de gagner du temps en
utilisant ce type de systèmes, d’autres attendaient d’avoir un système capable de les surprendre
en leur faisant découvrir des jurisprudences de cas particuliers qu’ils n’auraient pas forcément
trouvées sans ce système. Concernant les magistrats, ils cherchaient à se rendre compte des
performances de ces systèmes dans l’analyse de la jurisprudence et pour l’amélioration de la
qualité des décisions juridiques. Ces avocats et magistrats expriment alors certaines critiques
qui font principalement référence aux écarts qu’il y aurait entre les apports théoriques de ces
systèmes, mis en avant par les entreprises vendeuses (ayant des intérêts financiers), et les
apports réels pour les travailleurs ; les écarts entre les fonctionnalités promues imaginées et les
utilisations réelles que l’on peut en faire. Si les apports théoriques promus consistent par

49 L’indépendance et l’impartialité des magistrats sont des principes fondamentaux du droit. En effet, le

principe d’indépendance des autorités judiciaires, garantissant une indépendance des magistrats susceptibles
d’être sous pression ou menacé dans leur activité de jugement, est inscrit dans la Constitution de la Vème
République. Quant à l’impartialité, qui renvoie à l’absence de préjugés caractérisant les juges, est notamment
évoqué par l’article 6 de la Convention européenne des droits de l’Homme.

104
exemple en un gain de temps, de productivité et de découverte de nouvelles informations utiles,
les apports réels ne sont pas ou sont peu constatés par les professionnels ayant testé ces
systèmes. Ils se disent alors confrontés à une réalité « décevante » par rapport aux promesses
annoncées. Dans la plupart de cas, ces systèmes semblent communiquer des informations et des
éléments déjà connus par ces professionnels du droit comme explique cet avocat : « ça
n’apportait absolument aucune plus-value. Ça ne sortait rien, ça ne m’apportait rien que je ne
savais déjà […] ça fait 12 ans que je suis avocat, j’avais probablement plus de données
intéressantes » (Avocat 5). Il en conclut alors que « c’est du gadget ». De plus, certaines
informations, par exemple en termes de probabilité de gain ou de perte d’une affaire juridique,
ne sont pas toujours pertinentes vis-à-vis des objectifs du travail d’avocat. En effet, face à une
affaire juridique, un avocat saurait évaluer rapidement l’état de son dossier (« bon » ou
« mauvais » selon les chances de gain). Alors, il ne cherche pas à connaitre ces probabilités de
gain ou de perte (données par un système d’IA) mais il fait plutôt appel à son imagination et
expertise avec l’objectif d’améliorer son dossier et d’interpréter des éléments en faveur de son
client. Il faut noter que ce manque d’apport est rapporté par les avocats spécialisés, dotés d’une
certaine expertise et expérience 50. L’inutilité de ces systèmes et la déception de leurs utilisateurs
pourraient être alors liées au niveau d’expertise et d’expérience des professionnels. Cette
déception s’inscrit plus globalement dans une comparaison qui est faite entre une vision
« fantasmatique » de l’IA comme un élément révolutionnaire et la réalité qui serait toute autre,
moins avancée. Ainsi, les apports promus par les entreprises vendeuses et notamment des
fonctionnalités dites « prédictives », sont parfois jugés (par certains professionnels) comme
exagérés et enjolivés.

3.2.3.2. Le cas du domaine de la radiologie


Du côté de la radiologie, plusieurs fonctionnalités de l’IA seraient également utiles selon les
situations, par exemple pour des pathologies fréquentes, comme détaillées ci-dessous dans le
Tableau 4.

50 Ici, on fait une distinction entre l’expertise, qui renvoie à la spécialisation, aux connaissances et aux
compétences sur un point précis, et l’expérience qui est relative à la durée de l’exercice du métier et de la
diversité des situations rencontrées.

105
Fonctionnalités de l’IA Utilité

Tri et priorisation Effectuer un premier tri, classifier et prioriser les demandes d’examen adressées aux services de radiologie

Aider à la planification médicale : programmation et gestion du personnel et des examens, notamment dans
Aide à la planification et
les conditions où les hôpitaux rencontrent des difficultés comme l’insuffisance des effectifs, le manque de
programmation
temps et la gestion des urgences
RECHERCHE - RECONAISSANCE - ANALYSE

Mesures et calculs Effectuer des calculs et des mesures automatiques sur les images (par exemple dans les examens de suivi
automatiques pour évaluer l’évolution des lésions, des tumeurs etc.)

Trier et analyser automatiquement de nombreux comptes-rendus pour extraire des informations importantes
et faciliter la recherche d’informations en cas de besoin
Traitement, analyse et
Analyser automatiquement des dossiers médicaux afin d’identifier et d’extraire des informations importantes
génération automatique
et pertinentes pour la prise en charge des patients
des documents
Générer automatiquement le contenu d’un compte-rendu radiologique, à vérifier et valider par un radiologue,
avec des éléments essentiels et des résultats synthétisés à partir des informations du patient et de son examen

Dictée à reconnaissance Disposer d’une transcription automatique du texte dicté dans la réalisation des comptes-rendus (accessible en
vocale temps réel sans de nombreuses étapes de relecture et de validation)

Optimiser l’acquisition des images en adaptant différents paramètres de façon automatique selon différents
facteurs pertinents (par exemple, en analysant automatiquement des paramètres physiques d’un patient,
Paramétrages adapter la quantité d’irradiation nécessaire tout en obtenant une bonne qualité d’image ; ou encore en
automatiques lors de cardiologie, détecter automatiquement de l’arythmie pour l’affranchir automatiquement du cycle cardiaque et
l’acquisition des images donc obtenir des images de meilleure qualité)

Effectuer un positionnement automatique des coupes sur les images de l’IRM

106
Proposer des alertes de détection des anomalies dès l’acquisition des images effectuée par un manipulateur
radio
DIAGNOSTIC - RECOMMANDATION

Disposer de diagnostics automatiques (par exemple, des mammographies, soit des radiographies des seins)
dans des pays et des zones en manque de personnel médical (mais avec un bémol sur les possibilités limitées
pour la prise en charge des patients)
Analyses automatiques
Aider à l’interprétation des images (par exemple, celles difficiles à analyser comme les radiographies
des images radiologiques
standards (rayons X) où les plans sont superposés)
avec la détection des
anomalies Face à un manque des effectifs et l’augmentation de l’activité, effectuer un prétraitement, un premier tri des
examens normaux et ceux pathologiques, pour gagner du temps (sur des cas simples) et augmenter la
sensibilité des radiologues en les orientant vers des potentielles anomalies :
- dans les urgences avec un grand volume d’examens et des risques de fatigue
- dans les cas où il y a beaucoup d’examens et la plupart sont normaux (comme des mammographies ou
des radiographies standards)
- utile notamment pour des cabinets privés de la radiologie ou les radiologues moins expérimentés

Tableau 4. Fonctionnalités des systèmes d’IA décrites comme étant utiles dans le domaine de la radiologie

107
Tout comme pour le domaine juridique, les apports de ces fonctionnalités dans la radiologie
consisteraient tout d’abord en gain de temps. Pour les interviewés, gagner du temps est un
bénéfice potentiel des usages des différents systèmes d’IA mais aussi un bénéfice constaté et
rapporté notamment de la part des concepteurs de ces systèmes. Pour les radiologues, ce gain
permettrait d’être plus efficace dans leur travail mais la question se pose sur la manière d’utiliser
ce temps gagné : est-ce qu’il s’agit de faire plus d’examens ou de consacrer ce temps aux autres
types de tâches comme les rencontres avec les patients ? Un risque de réduction des effectifs
ou encore d’intensification du travail, par exemple avec l’interprétation des images « à la
chaîne », est alors soulevé. On pourrait parler d’un risque de la « taylorisation de la
radiologie » (Radiologue 11). Si certains concepteurs ont tendance à envisager de mettre ce
gain au profit de la productivité dans le sens où les radiologues pourraient en effet faire plus
d’examens, d’autres (concepteurs et professionnels) pensent que les radiologues pourraient et
devraient consacrer ce temps aux patients, c’est-à-dire les rencontrer systématiquement (ce qui
n’est pas le cas aujourd’hui dans toutes les structures). Tout de même, un des radiologues
expose une crainte que les aspects « humains » de la radiologie soient encore plus défavorisés
avec la mise en place des systèmes d’IA qui se présentent souvent comme des solutions à des
problèmes fondamentaux de l’organisation des structures médicales :
« ça retire l’humain de la partie radiologique encore plus parce qu’on fait rentrer de
l’intelligence artificielle et du coup, on va avoir tendance à voir la radiologie sur le volet de
l’optimisation de la performance, et pas sur le volet de l’optimisation du contact humain, de la
prise en charge du patient, de la pertinence de l’examen pour lequel il est réalisé (…) on a un
énorme volume de radiographies à faire, il faut réussir à l’interpréter au mieux parce
qu’actuellement on ne les lit pas (…) et le raisonnement n’est pas sur « peut-être qu’on fait
trop de radiographies à des gens qui n’en ont pas besoin ? » et donc il vaudrait mieux
sélectionner les patients sur lesquels on les fait. Ce combat-là, on a l’impression qu’il est perdu
alors qu’il est critique et qu’il améliorerait la situation. (…) J’ai l’impression que c’est reporter
les solutions en fin de chaîne sur un problème qui est à la base et au tout début. C’est sûr que
si on investit énormément là-dedans (dans l’IA), on n’investit pas dans autre chose. »
(Radiologue 10).
Du point de vue des autres interviewés, l’usage de ces systèmes pourrait quand même apporter
des bénéfices au niveau de la qualité du travail : améliorer la qualité des diagnostics en termes
de précision et de diminution des erreurs ou encore optimiser et améliorer la prise en charge
des patients (par exemple, contribuer à une détection précoce des cancers dans les examens de
mammographie). Des fonctionnalités d’aide à l’interprétation des images seraient

108
particulièrement bénéfiques pour faire face à un grand volume d’examens où la plupart sont
normaux ou encore pour des radiologues avec moins d’expertise et d’expérience. Or, comme
mentionné dans la partie 3.2.2.1, ce n’est pas sans risques pour l’apprentissage et le
développement des compétences des jeunes professionnels. Enfin, d’autres bénéfices évoqués
concernent :
- une amélioration potentielle des conditions de travail face à un manque d’effectifs de
radiologues et une charge de travail élevée,
- un sentiment de sécurité pour les radiologues face à une grande responsabilité de
diagnostic afin de créer « un filet de sécurité » contre les éventuels oublis lors de
l’interprétation des images radiologiques,
- une ressuscitation potentielle de l’intérêt des radiologues pour certains examens comme
la radiographie standard pour laquelle l’intérêt et donc l’expertise seraient en train de
diminuer d’après certains.
Toutefois, certains professionnels expriment des doutes quant à ces apports. Certains systèmes
de détection des lésions, qui ont pu être testés par les radiologues, n’apporteraient pas de
résultats réellement utiles pour identifier des lésions ayant un impact sur la prise en charge du
patient et non vues par un radiologue. Par ailleurs, différents apports potentiels, comme un gain
de temps ou une prise en charge améliorée des patients, seraient parfois difficilement vérifiables
dans leurs pratiques et ne seraient pas systématiquement démontrés scientifiquement de
manière externe. Un certain risque de perte de temps est même soulevé par certains radiologues
dans le cas où les systèmes communiqueraient des informations inutiles, des faux résultats ou
des résultats non identifiables et non compréhensibles par d’autres collègues, ce qui pourrait
impliquer une multiplication des sollicitations envers les radiologues experts sur le sujet. Un
des radiologues évoque alors une crainte : la mise en avant systématique de ces apports, qui
restent à démontrer et confirmer, pourrait amener certains décideurs et travailleurs à faire
confiance et à utiliser un système d’IA sans jamais vérifier les apports réels de manière
objective.

Dans ce contexte, les résultats de cette étude permettent d’identifier un certain décalage entre
les besoins réels exprimés par certains professionnels et les fonctionnalités des systèmes d’IA
proposées ou mis en avant. Par exemple, selon certains utilisateurs, les fonctionnalités de
diagnostic ou de recommandation (pour l’aide à la décision médicale ou juridique) semblent
plus attrayantes, bénéficiant de l’intérêt médiatique et celui des concepteurs. Malgré l’utilité

109
potentielle de ces fonctionnalités, il s’avère qu’elles ne sont pas toujours jugées comme étant
les plus utiles par les utilisateurs qui s’expriment sur leurs besoins réels.

3.2.3.3. Un décalage entre les besoins réels des utilisateurs et les systèmes d’IA proposés
Ce décalage est notamment discuté par des radiologues dans le contexte des hôpitaux où ils se
disent particulièrement confrontés aux diverses problématiques socio-organisationnelles
comme le manque d’effectifs et de ressources. Par ailleurs, la dégradation des conditions de
travail, pouvant potentiellement contribuer à l’augmentation des erreurs médicales, est
évoquée : un travail en flux tendu, l’interruption permanente des tâches par des multiples
sollicitations et un manque de fonctionnement adéquat du parc informatique. Ces radiologues
souhaitent diminuer les erreurs médicales, consacrer du temps aux patients en les rencontrant
pour mieux prendre en compte le contexte clinique dans l'interprétation des images ou encore
avoir plus de flexibilité dans leurs plannings afin de faire face aux imprévus. Dans ce contexte,
en particulier des hôpitaux, si certains besoins d’aide font référence principalement aux tâches
considérées « fastidieuses » par certains radiologues (par exemple, le contourage, les mesures
et le calcul des volumes sur les images radiologiques), leurs besoins d’aide prioritaires portent
sur l'organisation du travail : la programmation et la gestion des examens, les tâches de
planification, le tri, la classification et la priorisation des demandes d'examen et la
problématique des informations manquantes dans ces demandes. Les interviewés évoquent
également qu’au niveau de la gestion administrative (tri, planification…) ce ne sont pas
nécessairement les systèmes d’IA qui pourraient être mobilisés mais d’autres technologies
informatiques. Cette partie du travail des radiologues, réalisée en dehors de la phase
d'interprétation des images, semble être moins connue et reconnue, c’est-à-dire valorisée
financièrement. De ce fait, certains radiologues estiment que des innovations, en particulier en
termes de systèmes d’IA, portent moins sur cette partie du travail invisible et même dévalorisée,
alors qu’elle est la plus problématique dans les hôpitaux d’aujourd’hui. Ainsi, ils rapportent que
les systèmes d’IA qu’on leur propose sont notamment de l'ordre de l'aide à l’interprétation des
images car ce sont ces systèmes qui seraient les plus attrayants et vendeurs pour les concepteurs.
Un des radiologues, travaillant dans un hôpital, témoigne de ce fort intérêt des concepteurs sur
les fonctionnalités des systèmes d’IA au niveau de l’interprétation des images et une certaine
focalisation sur la performance technique de ces systèmes sans qu’ils soient en adéquation avec
les besoins réels et immédiats de ces travailleurs :
« typiquement pour le Covid, […] j’ai reçu des tonnes de propositions d’industriels, parce que
les lésions étaient très typiques. Donc l’IA marchait très bien. […] Mais moi ça ne me servait

110
à rien, parce que la lecture de ces scanners, ce n’est pas ça le problème […] la vraie
problématique qu’on avait nous, c’était la gestion des brancardiers qui amenaient les patients
et qui les ramenaient après dans les lits d’hospitalisation. […] dire que la machine lit le
scanner, c’est très plaisant, très sexy […] beaucoup moins que de dire qu’un système d’IA allait
gérer les transports des brancardiers. C’était par contre totalement inutile, […] ces scanners-
là étaient très faciles à lire » (Radiologue 1).
Ce type de décalage est également identifiable dans le domaine juridique, en particulier lorsque
l’on interroge des magistrats. Par exemple, un des magistrats explique que le fait de connaitre
des barèmes d'indemnisation n'est pas la principale difficulté de leur travail alors que les
systèmes d’IA dits « prédictifs » proposent notamment des estimations d'indemnisation, même
si cette fonctionnalité pourrait être utile dans certains cas :
« des outils dits de justice prédictive par les start-up, […] ils se sont ancrés sur des sujets de
type « Essayons de trouver combien on indemnise, par exemple, dans la rupture du contrat de
travail ». Ça présente un intérêt d’avoir un peu le barème mais ces barèmes sont relativement
connus. Ils ne sont pas forcément explicités, mais ils sont connus, et ce n’est pas le plus difficile
du travail » (Magistrat 3).
D’autres évoquent des attentes et des besoins en termes de gestion de la justice et des
estimations fournies par les systèmes pour la compréhension et l’objectivation de certaines
problématiques du système judiciaire. Pourtant, comme dans le cas de la radiologie, peu
d’intérêt est porté sur ces cas d’application de l’IA comme expliquent les magistrats.

3.2.3.4. Synthèse
Pour résumer, les fonctionnalités qui semblent être considérées comme utiles dans différentes
situations de travail sont : la recherche, la reconnaissance et la synthèse d’information ainsi que
les analyses automatiques et de calcul de probabilité pour des simulations, des éléments de
diagnostic ou des recommandations. De nombreux apports de l’utilisation de ces fonctionnalités
sont aussi évoqués par les participants, soit un gain de temps avec une augmentation de
l’efficacité et de la productivité, ainsi qu’une potentielle amélioration de la qualité et des
conditions de travail. Il est à souligner que pour les interviewés, certaines fonctionnalités des
systèmes d’IA trouveraient leur utilité potentielle face à des contextes socio-organisationnels
caractérisés entre autres, par des conditions de travail dégradées avec un manque de
professionnels et une surcharge de travail. Autrement dit, ces fonctionnalités sont
considérées comme étant utiles pour faire face à des besoins qui émergent de ces
problématiques. De plus, la réalité des apports est toujours nuancée face à certains risques

111
et notamment du fait d’un manque de preuves rigoureuses et des expériences d’utilisation
parfois « décevantes » en termes de performance technique des systèmes et de leur utilité
réelle pour une meilleure réalisation du travail. Ces apports potentiels dépendraient de
l’adéquation des fonctionnalités de l’IA par rapport aux objectifs des activités de travail
et du niveau d’expertise et d’expérience des travailleurs amenés à les utiliser. Certains
systèmes d’IA pourraient alors être utiles notamment pour des jeunes professionnels avec peu
d’expérience et d’expertise. Par ailleurs, dans une visée marketing, certaines fonctionnalités
semblent plus valorisées que d’autres, indépendamment de leur utilité réelle. Cette valorisation
creuse un écart entre les besoins réels et prioritaires exprimés par certains utilisateurs
potentiels ou actuels (notamment dans des contextes du secteur publique avec diverses
problématiques socio-organisationnelles) et les fonctionnalités des systèmes d’IA
valorisées et mises en avant par le marketing. Ainsi, ces dernières ne trouveraient pas toujours
une place réellement utile et appropriée dans certaines situations de travail où les besoins
prioritaires et immédiats sont toutes autres.

3.2.4. Utiliser les systèmes d’IA : construire une confiance mais maintenir des
capacités critiques
Dans cette partie, nous examinerons les points de vue des interviewés sur l’usage des systèmes
d’IA qui soulève les enjeux de confiance. Le développement de cette confiance, qui peut
conduire à un certain nombre de risques, est en lien avec les capacités des systèmes (la fiabilité,
la performance technique et les capacités d’explicabilité) rencontrant plusieurs limites.

3.2.4.1. La fiabilité et la performance technique des systèmes d’IA : facteurs de


confiance
Pour la plupart des interviewés, utiliser un système d’IA interroge la question de la confiance
que l’on pourrait accorder ou non à ces systèmes. L’analyse des entretiens montre que la
construction de la confiance des professionnels envers les systèmes d’IA est étroitement liée à
leurs niveaux de fiabilité et de performance sur le plan technique. La fiabilité et la performance
technique des systèmes est en effet un sujet discuté dans nos entretiens. Leur importance peut
être tout d’abord corrélée à un phénomène évoqué par certains interviewés. Il s’agirait des
attitudes et des comportements différents de l’humain face aux erreurs selon qu’elles sont
commises par une machine ou par un humain. Ainsi, comme expliquent certains, les attentes et
les exigences seraient plus élevées envers les machines (dont les systèmes d’IA) qui devraient
être « parfaites ». Or, la plupart des interviewés s’accordent sur un point : les machines fiables

112
à 100% (ou « parfaites ») n’existent pas. Or, la fiabilité et la performance technique sont des
éléments essentiels pour les utilisations de ces systèmes. Les capacités de ces derniers, en
particulier ceux destinés à l’aide au diagnostic et à la prise de décision, peuvent être évaluées
de trois manières par les utilisateurs : par leur mise à l’épreuve à travers des tests, par leur mise
à l’épreuve à travers des études rétroactives et par la disponibilité des preuves scientifiques de
leur fiabilité et performance à travers des études indépendantes et des rapports bénéfices-
risques. Les tests d’utilisation dans des situations réelles peuvent permettre aux professionnels
d’évaluer et de s’assurer de cette fiabilité et performance technique. Il s’agit pour eux de juger
la justesse des résultats donnés par le système, de détecter ses erreurs mais aussi de s’assurer
que le système ne loupe pas des cas qui sont évidents pour ces professionnels. Quant aux tests
réalisés de façon rétroactive, ils consistent à mobiliser un système d’IA dans un cas dont les
résultats sont déjà connus afin de voir si les résultats du système seront similaires aux résultats
réels. Enfin, ce sont des résultats scientifiques, issus notamment des études indépendantes qui
constituent des preuves de fiabilité et de performance, par exemple pour les médecins. Ceci est
particulièrement vrai dans le domaine de la radiologie qui manquerait de ce type d’études selon
certains radiologues, même si dans certains hôpitaux ils réalisent leurs propres études pour
évaluer la performance de tel ou tel système d’IA. La certification, la validation réglementaire
et la validation par des pairs de certains systèmes (en particulier, dans le domaine médical)
seraient des éléments en plus pour s’assurer de leur fiabilité, participant ainsi à la construction
de la confiance envers ces systèmes.
Si l’ensemble de ces évaluations paraît important et nécessaire pour les utilisateurs afin de
s’assurer de la performance du système qu’ils vont être amenés à utiliser, et dans une certaine
mesure, à lui faire confiance, l’objectif de cette démarche des utilisateurs peut être incompris
ou ne pas être partagé par les concepteurs. Par exemple, dans le cas de la radiologie, tester le
système en le mettant à l’épreuve peut être traduit comme le fait de se mettre « en concurrence
avec l’algorithme » d’après un des concepteurs qui explique :
« En première intention, si les radiologues ne se sont informés sur l’IA, ils vont d’abord avoir
un peu une crainte en se mettant en concurrence avec l’algorithme. Si je prends l’outil de
mammographie, ça c’est une des premières réactions, parce que ça a tendance à toucher leurs
compétences diagnostiques. Une des premières réactions c’est d’essayer de mettre en défaut
l’algorithme et de se comparer à lui et d’essayer de voir qui est meilleur, mais c’est vraiment
s’ils ne sont pas informés, si c’est nouveau pour eux, c’est la première réaction généralement
par rapport à l’IA. » (Responsable Marketing – Start-up IA Radiologie n°4).

113
Afin d’éviter une perte de confiance des radiologues envers le système, ce concepteur insiste
sur la nécessité d’expliquer et d’informer ces utilisateurs sur les capacités réelles du système et
« d’être très honnête sur ce que sait faire l’algorithme et ce qu’il ne sait pas faire ».
En plus des facteurs de fiabilité et de performance qui participent dans la construction de la
confiance envers les systèmes d’IA, cette confiance semble aussi dépendre des capacités
d’explicabilité de ces systèmes.

3.2.4.2. L’explicabilité des systèmes d’IA : un autre facteur pouvant jouer sur la
confiance
Des difficultés d’explicabilité des systèmes d’IA sont mises en avant dans nos résultats par ceux
qui ont quelques connaissances sur le fonctionnement de l’apprentissage machine et
l’apprentissage profond. La plupart des interviewés s’accordent généralement sur l’importance
des capacités d’explicabilité, notamment pour des systèmes d’IA intervenant dans la prise de
décision et dans le diagnostic. L’explicabilité, selon certains professionnels, est un moyen
d’évaluation de la fiabilité des résultats des systèmes :
« l'algorithme il a quand même le passé en fait comment est-ce qu'il a appris, fin comment les
tas de données qui sont utilisées… pour arriver au résultat, c'est quoi le cheminement et
comment chaque élément est apprécié parce que ça, ça nous donne une idée de la vraie valeur
de l'outil qu'on nous propose, est-ce que c'est fiable ou pas, parce que on va nous donner une
statistique mais, comment est-ce qu'on va déterminer qu'on va rapprocher mon cas d'un autre
cas qui a été jugé dans tel sens » (Avocat 1).
Elle a beaucoup plus d’importance dans les cas où ces professionnels doivent expliquer, par
exemple leur diagnostic, motiver et justifier leurs décisions envers des tierces personnes comme
des patients ou des clients. Pour certains, il ne s’agit pas de comprendre réellement le
fonctionnement technique de ces systèmes, mais de pouvoir obtenir des informations et des
explications intelligibles. L’explicabilité devrait donc leur permettre de comprendre le
cheminement et fonctionnement « intellectuel » du système et d’avoir des informations
nécessaires à la compréhension des résultats obtenus. De plus, elle aurait aussi un intérêt dans
la résolution des éventuels problèmes techniques du système. Pour les concepteurs, les
capacités d’explicabilité, soit la transparence des systèmes d’IA constituerait un levier de
développement de la confiance envers ces systèmes ou encore un moyen de faire face aux
« résistances », par exemple des médecins, dans le déploiement des systèmes d’IA.
L’explicabilité ou la transparence favoriserait ainsi l’utilisation et l’« acceptation » de ces
systèmes selon certains interviewés. Toutefois, si pour certains ces capacités sont essentielles,

114
d’autres relativisent en évoquant d’abord la prise en compte des rapports bénéfices-risques 51, le
niveau de responsabilité des professionnels et l’importance de la fiabilité technique et
l’efficacité des systèmes.
D’après nos résultats, l’explicabilité peut généralement prendre deux formes principales selon
le type de fonctionnalités. Tout d’abord, pour certains concepteurs, il y aurait une « explicabilité
directe », par exemple dans des systèmes d’IA juridiques comme ceux de recherche et de revue
des contrats. Dans ce type d’explicabilité, les résultats donnés constituent eux-mêmes des
éléments d’explications. En ce sens, certains concepteurs estiment que dans ces cas de figure,
l’utilisateur – censé valider, interpréter et donner du sens à ces résultats – n’a pas besoin d’autres
explications. Une autre forme consisterait à rendre accessible des éléments permettant
d’approfondir et d’expliquer des résultats du système. Ces éléments renvoient par exemple aux
indications de localisation des résultats par zone, aux degrés et scores d’incertitude, aux facteurs
et éléments concrets influençant les résultats produits par un système. Cette forme
d’explicabilité s’applique particulièrement aux systèmes d’IA avec des capacités d’analyse, de
production de probabilités et de diagnostics qui font appel à une certaine forme d’interprétation
et interviennent dans la prise de décision.
Les capacités des systèmes d’IA, en termes de fiabilité, de performance et d’explicabilité,
constituent donc des éléments notables à considérer car contribueraient directement au
développement de la confiance et de l’usage de ces systèmes. Il s’avère que plusieurs de ces
systèmes d’IA, testés par certains professionnels de la santé ou encore du droit, disposeraient
néanmoins de capacités limitées face aux situations réelles complexes.

3.2.4.3. Les limites des capacités des systèmes d’IA : un besoin de contrôle humain
Effectivement, les analyses mettent en exergue des limites des systèmes d’IA dans la prise en
compte de la variabilité et de la diversité des situations.
Pour illustrer certaines de ces limites, nous prenons l’exemple des systèmes juridiques dits
« prédictifs ». En se basant sur les analyses des données de décisions de justice, ils ont pour
objectif de proposer l’évaluation de l’aléa juridique à travers des probabilités en termes de
prévisions sur la décision de justice ou par exemple, des montants possibles des indemnisations.
Une des principales limites de ces systèmes serait l’absence des connaissances fines et expertes
que les professionnels du droit peuvent avoir. Il s’agit par exemple des évolutions des règles

51 Les rapports bénéfices-risques désignent ici le fait que si les besoins d’aide et les bénéfices liés à l’usage
d’un système d’IA sont conséquents, alors les capacités d’explicabilité du système seraient secondaires, c’est-à-
dire qu’elles auraient moins d’importance par rapport à ces bénéfices.

115
juridiques qui changent les décisions de justice dont la compréhension et l’interprétation
doivent se faire en prenant en compte ces évolutions. Différents faits et éléments spécifiques de
chaque dossier peuvent aussi interférer et motiver certaines décisions de justice, alors que ces
éléments (qui ne sont pas systématiquement mentionnés dans une décision écrite) ne seraient
pas appréhendables par ces systèmes d’IA chargés d’analyser ces décisions. C’est alors un
ensemble de facteurs contextuels, des facteurs spécifiques de chaque cas et des facteurs propres
à l’humain (par exemple, des dimensions affectives et émotionnelles comme une évaluation
juridique des souffrances endurées par une personne) que ces systèmes d’IA ne pourraient pas
prendre en compte à l’heure actuelle :
« On ne peut pas se fier toujours qu’aux chiffres, je veux dire, il faut une analyse et encore une
fois c’est de l’humain. Il y a tellement de variables. Les souffrances endurées, c’est un bon
exemple parce que quand on dit un 4/7, ça peut être une amputation, ça peut être une fracture
de jambe, ça peut être un viol, tout ça c’est différent. Parfois, il y a des experts qui mettent 6/7
parce que la victime a eu conscience qu’elle allait mourir, c’est-à-dire qu’on est dans un
accident de la circulation classique, elle a un grave accident et elle a conscience qu’elle va
mourir et elle finit par mourir, donc ils disent : « Elle a souffert moralement, on lui met 6/7 »,
mais à combien vous indemnisez la conscience que vous allez mourir ? Vous ne pouvez pas et
l’intelligence artificielle a beau faire ce qu’elle veut, ça reste de l’humain, profondément de
l’humain. » (Avocat 5).
Le deuxième cas de figure est le domaine de la radiologie où les systèmes, en particulier ceux
d’analyse des images seraient performants dans des cas standardisés et sur des questions
précises. Selon certains radiologues, ces systèmes rencontreraient des problèmes quand il s’agit
d’une évaluation et compréhension d’une situation globale, ce qui nécessite l’intégration d’un
ensemble de facteurs contextuels, de connaissances et d’une certaine expertise dont disposent
les radiologues (par exemple, de nombreuses questions que le radiologue se pose
habituellement pour l’interprétation des images). En effet, un radiologue, contrairement aux
systèmes d’IA, évalue un ensemble d’éléments afin de se constituer une meilleure
compréhension de la situation clinique et du contexte de réalisation de l’examen permettant la
réalisation de son travail. Tandis que ces systèmes ne seraient pas toujours en capacité de
prendre en compte certains de ces facteurs dans leurs analyses et résultats, par exemple
l’évaluation de la qualité des images radiologiques. Par ailleurs, des systèmes d’IA très
spécialisés ne permettraient pas d’obtenir des analyses complètes de l’ensemble des images. De
plus, face à la variabilité des maladies, la diversité de situations et de l’anatomie humaine avec
des éléments inhabituels, ces systèmes d’IA analysant des images commettraient plusieurs

116
erreurs. Ce point est d’autant plus prégnant dans des grandes structures hospitalières qui
accueillent majoritairement des patients avec des maladies complexes et rares qui ne font pas
partie des patients « standards ». En effet, certains radiologues expliquent que dans ces
circonstances, ces systèmes ne peuvent pas toujours prendre en compte ces cas individuels
sortant des standards.
Malgré ces limites, les améliorations des performances techniques de ces systèmes restent
possibles selon certains. Par exemple, il s’agit de la contribution des utilisateurs et des données
qu’ils peuvent produire et mettre à disposition des concepteurs : plus ils les utilisent, plus ces
systèmes peuvent s’améliorer52.
Bien que ces systèmes aient des capacités d’amélioration, les radiologues ainsi que certains
avocats et magistrats expriment tout de même une nécessité de vérifier et de contrôler les
résultats des systèmes d’IA, tout en ayant conscience d’un risque de perte de temps avec ce
besoin de vérification. Concrètement, cela consiste par exemple à pondérer, relativiser et
confronter ces résultats aux éléments contextuels, c’est-à-dire les resituer dans le contexte de
chaque cas clinique ou affaire juridique. Autrement dit, le but est leur donner du sens par rapport
aux situations variables. Or, plusieurs interviewés s’interrogent sur le développement et le
maintien des capacités des travailleurs à pouvoir critiquer les résultats des systèmes et les
contredire. Afin d’assurer ces capacités critiques, certains évoquent que la mise en place et
l’utilisation des systèmes d’IA, devraient être accompagnées de formations et d’informations
pour pouvoir « utiliser ces outils avec discernement » (Concepteur Start-up robots sociaux).
Selon les interviewés, les utilisateurs, dans une certaine mesure, devraient disposer de
connaissances sur le fonctionnement de ces systèmes afin d’avoir les moyens d’évaluer leurs
performances réelles ainsi que leurs limites et les risques associés : « il faudrait déjà que je
sache d'où je pars en termes de performance et en termes de limitation, tous les algos ont des
limites mais aujourd'hui on ne nous les présente pas » (Radiologue 3). Utiliser un nouveau
système d’IA impliquerait, voire nécessiterait, l’acquisition de nouvelles compétences et des
apprentissages, par exemple pour savoir comment interpréter, analyser et se servir de résultats
fournis par le système mais aussi interagir dans le cas de certains systèmes d’IA.
Les capacités critiques des utilisateurs seraient d’autant plus cruciales que le développement de
la confiance envers les systèmes d’IA n’est pas sans risque.

52 Les enjeux liés aux données d’apprentissage pour l’entrainement des algorithmes sont explicités dans la
partie 3.2.1.3

117
3.2.4.4. Les risques liés au développement de la confiance dans l’usage des systèmes
d’IA
Il s’agit tout d’abord d’un risque de sur-confiance ou de confiance « aveugle », c’est-à-dire que
dans certaines situations, les professionnels pourraient se référer uniquement et
systématiquement aux résultats du système sans forcément les vérifier et les remettre en
question. Pour certains, l’expérience et l’expertise du professionnel50 pourrait jouer un rôle dans
l’émergence de ce risque : moins on a de l’expérience, plus on risque de faire une confiance
aveugle aux résultats du système. De plus, cela risquerait de dégrader certaines capacités de
raisonnement et de prise de recul des radiologues, nécessaires pour l’évolution des pratiques
médicales et la production de nouvelles connaissances. Certains interviewés évoquent
également un risque de prescription, par exemple d’une décision de justice dans le cas des
systèmes produisant des probabilités et des estimations. Cela renvoie à ce que les magistrats et
avocats appellent « l’effet performatif ». Autrement dit, les résultats du système pourraient
influencer la décision d’un juge de sorte qu’il suive ces résultats sans prendre en compte des
facteurs contextuels et individuels de l’affaire juridique. Ce risque de prescription pourrait
également conduire à une reproduction des décisions de justice qui seront toujours similaires et
ainsi « tuer toute évolution de la jurisprudence » (Magistrat 3). Des avocats et des magistrats
interviewés évoquent donc un risque de standardisation des décisions de justice. Dans le
domaine juridique, standardiser et uniformiser les décisions irait à l’encontre des principes du
système juridique, notamment français, et des objectifs des avocats. En effet, il s’agit de
principes d’individualisation des décisions et des avocats qui chercheraient à « individualiser »
au maximum chaque affaire juridique. Dans certains cas de la radiologie, une certaine
standardisation pourrait a contrario être un point positif. Par exemple, selon un des concepteurs,
l’utilisation des systèmes d’IA pourrait permettre une reproductibilité des analyses, c’est-à-dire
des résultats d’interprétation des radiologues (qui peuvent parfois différer, par exemple sur
l’appréciation de la gravité des lésions liées à la COVID-19).
Par ailleurs, les risques de sur-confiance et de prescription pourraient être à l’origine d’un
certain nombre d’erreurs chez les professionnels, ce qui impliquerait des risques importants en
termes de responsabilité. En effet, dans certaines situations, l’utilisation des systèmes d’IA
entraineraient de tels risques pour la responsabilité des professionnels (par exemple, des
radiologues) et une remise en question de leur expertise et de leurs compétences comme
explique cet avocat : « le client va me dire mais t’es nul t’avais 90% de chances de gagner
comment est-ce que t’as fait pour perdre » (Avocat 1). Si des discussions sont engagées sur le
cadre juridique de la question de la responsabilité, plusieurs professionnels expliquent qu’à

118
l’heure actuelle, ce sont toujours eux qui sont légalement responsables de leurs décisions et de
leurs diagnostics, quelles que soient l’influence et l’intervention des systèmes d’IA.

3.2.4.5. Synthèse
Plusieurs facteurs et risques peuvent contribuer, favoriser ou au contraire dégrader les rapports
entre les humains et les systèmes d’IA en termes d’usages. L’utilisation de ces systèmes au
travail fait émerger la question de la confiance dont le développement peut être influencé
par les capacités des systèmes en termes de fiabilité, de performance et d’explicabilité. Ces
capacités des systèmes sont évaluées par les utilisateurs en les mettant à l’épreuve dans
des situations réelles mais aussi en prenant en compte des preuves scientifiques dans certains
cas. Les résultats ont aussi montré le rôle de l’explicabilité des systèmes dans la construction
de la confiance notamment quand il s’agit de prendre une décision. Deux types d’explicabilité
ont été distingués : « l’explicabilité directe » par les biais du contenu des résultats et
l’explicabilité donnée à travers des informations supplémentaires et approfondies sur les
résultats du système.
Face à la variabilité des situations de travail, plusieurs limites des capacités de ces systèmes
émergent également : un manque de finesse et d’expertise ou encore une absence de prise
en compte des facteurs contextuels et spécifiques. Ces limites conduisent à un besoin de
contrôle des résultats des systèmes d’IA de la part des utilisateurs afin de les vérifier mais aussi
de les resituer dans chaque situation singulière et ainsi les confronter aux éléments
contextuels. Cela nécessite donc des capacités critiques de la part de ces utilisateurs dont le
maintien et le développement devraient être favorisés par l’acquisition des connaissances sur
le fonctionnement, les limites et les risques liés à ces systèmes. Ces connaissances se
présentent comme des moyens pour limiter de nombreux risques associés à l’usage des
systèmes d’IA et au développement de la confiance envers eux. En effet, utiliser ces systèmes
comporte de risques d’une sur-confiance ou d’une prescription des décisions mais aussi des
risques de reproduction et de standardisation des décisions, alors que la diversité constitue
un principe fondateur de certaines situations de travail. Enfin, ces risques pouvant conduire à
l’occurrence d’erreurs humaines soulèvent des enjeux de responsabilité et de remise en
question de l’expertise des travailleurs.

119
3.3. Discussion des résultats
Ce chapitre apporte un éclairage empirique des enjeux et des préoccupations relatifs aux
systèmes d’IA dans le travail à travers les résultats sur : la caractérisation de l’IA par les acteurs
interviewés, les démarches de conception et d’intégration mobilisées et leurs limites selon les
interviewés, la manière dont les acteurs envisagent la mise en place de ces systèmes en termes
de division du travail et les transformations susceptibles d’émerger, l’utilité potentielle ou
effective de ces systèmes pour les acteurs avec des doutes sur des apports réels dans diverses
situations de travail, et enfin, les enjeux liés aux usages et aux limites des capacités des systèmes
d’IA notamment en termes de la construction de la confiance avec les risques associés.

3.3.1. La division du travail envisagée et les transformations potentielles du


travail
Les définitions de l’IA issues de la littérature se retrouvent dans les discours des interviewés
sur ses caractéristiques et ses objectifs. Plus précisément, les concepteurs ont tendance à se
focaliser sur les capacités et le fonctionnement technique des systèmes à base d’IA,
contrairement aux utilisateurs potentiels ou actuels qui eux définissent l’IA en termes d’apports.
Pour résumer les points de vue de la majorité des acteurs interviewés, les systèmes d’IA, en se
rapprochant et en simulant des capacités de l’intelligence humaine, devraient avoir pour objectif
d’aider et de venir en complément aux humains.
Au niveau de la division du travail qui accompagne la mise en place de ces systèmes dans des
situations de travail, les interviewés envisagent deux types de répartition des tâches entre les
humains et les systèmes d’IA et qui font écho aux réflexions récentes (Bradshaw et al., 2018 ;
Giblas et al., 2018) : soit les tâches répétitives sont effectuées par les systèmes, soit ces derniers
réalisent des tâches que l’humain ne peut pas faire. L’humain de son côté pourrait effectuer des
tâches que ces systèmes ne peuvent pas faire. De plus, il serait également chargé d’interpréter
les résultats et les informations qui lui sont communiqués par ces systèmes. Contrairement au
modèle proposé par Mcafee et Brynjolfssonn (2017) où on déléguerait toutes les tâches
automatisables et les prises de décision aux machines dans certaines situations, nos résultats
montrent que la plupart des interviewés n’envisagent pas ce type de répartition des tâches.
Ainsi, la prise de décision reviendrait toujours à l’humain. Or, en laissant majoritairement
à l’humain les tâches complexes, un risque d’intensification et de complexification du
travail apparaît – un point également soulevé dans la littérature (Ferguson, 2019 ; Giblas et
al., 2018). Introduire une flexibilité dans l’utilisation de ces systèmes, quand cela est

120
possible, pourrait en partie limiter ce risque, c’est-à-dire donner la possibilité aux travailleurs
de choisir et de décider quand et comment se faire aider ou assister par ces systèmes.
Bien qu’une substitution totale des métiers par des systèmes d’IA soit peu probable pour les
acteurs rencontrés, d’autres types de substitutions plutôt partielles et à relativiser selon
l’organisation du travail et les métiers, sont évoqués. Ainsi, selon les conditions de mise en
place et d’usage des systèmes d’IA, ce chapitre a mis en évidence des préoccupations
concernant la nature et le contenu des transformations des métiers et des pratiques
professionnelles. Si d’un côté ces transformations peuvent être de l’ordre de l’ouverture de
nouvelles possibilités pour certains métiers, de l’autre côté, elles peuvent constituer pour eux
des freins et des menaces. Le déploiement des systèmes d’IA peut par exemple remettre en
question l’organisation et les collectifs de travail. Deux possibilités ou craintes ont été
identifiées dans les résultats :
- Une substitution des travailleurs qui n’utiliseraient pas de systèmes d’IA par ceux
qui les utilisent, ce qui introduit d’ailleurs un risque des inégalités en termes d’accès
aux systèmes d’IA et les informations qu’ils peuvent procurer, dû aux coûts financiers
importants pour se procurer ces systèmes ;
- Une substitution de certains métiers dont une partie des tâches peut être prise en
charge par les systèmes d’IA et l’autre partie par d’autres catégories des métiers,
ce qui finalement amplifie un risque de « disparition » pour ces métiers.

3.3.2. Les apports potentiels mais mitigés des fonctionnalités de l’IA


Ce chapitre a également mis en exergue différents types de fonctionnalités de l’IA qui
pourraient s’avérer utiles dans le travail des professionnels interviewés : en termes de recherche,
de synthèse d’informations, d’analyses automatiques ou d’estimations pour de l’aide au
diagnostic et la production des recommandations. Selon les interviewés, ces systèmes
pourraient apporter plusieurs bénéfices en termes d’amélioration de la performance, comme le
gain de temps sur des tâches prétendument « simples » et « répétitives ». Cependant, ce gain
de temps potentiel n’est pas sans risques et peut avoir comme effet d’augmenter le rythme
et la charge de travail - un point soulevé par les utilisateurs interviewés. D’autres bénéfices
seraient de l’ordre de l’amélioration de la qualité du travail : permettre de mieux construire une
stratégie ou améliorer le devoir de conseil des avocats ; améliorer la qualité des diagnostics en
réduisant les erreurs par exemple dans la détection des anomalies et en procurant une certaine
sécurité aux radiologues dans leurs analyses des images radiologiques. Néanmoins, certains de
ces apports sont difficilement vérifiables et généralisables dans la mesure où ils sont mitigés et

121
remis en question car non partagés par certains utilisateurs interviewés. Ces désaccords
apparaissent en particulier dans les expériences d’utilisation de certains systèmes (par exemple,
des systèmes juridiques dits « prédictifs » ou des systèmes d’analyse automatique des
radiographies standards), jugées par les utilisateurs interviewés comme « décevantes » du fait
d’un manque de performance - un point également discuté par Jacquemin et Hubin (2019) - ou
de pertinence des résultats communiqués. Comme le montrent nos résultats, ces apports
semblent alors dépendre de capacités des fonctionnalités de l’IA et de leur adéquation avec les
caractéristiques et les objectifs de l’activité de travail, du niveau d’expertise et d’expérience50
des travailleurs amenés à les utiliser et de situations dans lesquelles ces systèmes sont mobilisés.
L’utilité et les apports des systèmes d’IA devraient alors être contextualisés, c’est-à-dire
identifiés et analysés à partir de l’activité et de l’organisation réelle du travail concernées. Cela
pourrait être nécessaire notamment dans certains contextes socio-organisationnels où un écart
émerge entre les besoins réels et prioritaires exprimés par les professionnels et les
fonctionnalités des systèmes d’IA mises en avant. Cet écart serait aussi lié à la valorisation
de certaines fonctionnalités qui ne sont pas en adéquation avec les besoins prioritaires des
professionnels, notamment dans des structures hospitalières.

3.3.3. Une vision technologique de la conception de l’IA


Pourtant, nous avons vu que l’identification et la prise en compte de besoins des utilisateurs,
tout comme des enjeux des transformations du travail susceptibles d’être occasionnées par le
déploiement des systèmes d’IA, sont des points importants soulevés dans les démarches de
conception et d’intégration de ces systèmes. Malgré la volonté de prendre en compte ces
besoins, ces démarches semblent être orientées par une vision technologique priorisant les
performances techniques et les innovations en matière d’IA, comme c’est effectivement le
cas dans la plupart des démarches autour des stratégies de cette technologie ou de sa mise en
place et de son « adoption » (Académie des technologies, 2018 ; Fischer & de Broca, 2018 ;
Nerce et al., 2018). Certains concepteurs interviewés ont aussi critiqué les processus de
conception des systèmes d’IA. Selon eux, ils s’apparenteraient davantage aux démarches de
conception en termes de « bricolage » plutôt qu’aux démarches avec une grande « rigueur »
technique et scientifique. Ces résultats rejoignent dans une certaine mesure les travaux de Vayre
(2016, 2018) qui décrivaient une logique de bricolage opérée dans les activités de conception
de systèmes à base d’apprentissage. Si ces travaux sont davantage centrés sur les systèmes que
nous considérons « spécifiques aux situations d’usage » en mettant en lumière les grandes
phases centrées sur les données d’apprentissage et le développement technique de l’architecture

122
du système, nos résultats permettent de compléter que la conception des systèmes d’IA ne
s’arrête pas à leur développement technique et se poursuit au cours de leur intégration dans des
situations. De plus, ces résultats permettent de spécifier différentes phases de conception et de
déploiement selon le type des systèmes d’IA.

3.3.4. La construction de la confiance avec le maintien des capacités critiques


envers l’IA
Ce chapitre a également abordé les questions relatives aux usages des systèmes d’IA à travers
notamment la construction de la confiance envers ces systèmes, accompagnée de plusieurs
enjeux et risques. Pour les utilisateurs interviewés, les performances techniques et la fiabilité
des systèmes d’IA, déterminées en partie par la qualité et l’exhaustivité des données
d’apprentissage, constituent des facteurs à évaluer qui influencent le développement de leur
confiance envers ces systèmes. En effet, comme vu précédemment, plusieurs travaux montrent
que la confiance, qui est considérée comme un élément essentiel dans la relation entre les
humains et les machines, est déterminée par différents facteurs dont la fiabilité, la performance
mais aussi la transparence des systèmes (French et al., 2018 ; Lee & See, 2004). Les capacités
d’explicabilité des systèmes à base d’IA pourraient en effet influencer la « relation » de
confiance comme le montrent les résultats. L’explicabilité, qui renvoie d’après les interviewés
au fait de rendre compte le cheminement du système, peut être plus ou moins importante selon
le type de systèmes et les objectifs finaux de leurs utilisations et peut prendre différentes formes.
Par exemple, l’explicabilité serait essentielle lorsqu’il s’agit de prendre une décision à base des
analyses et des interprétations données par le système d’IA. A contrario, elle peut être moins
cruciale lorsqu’il s’agit de la recherche d’informations à une question précise et quand les
résultats ne font pas l’objet d’interprétation et d’analyses supplémentaires par le système.
Si les capacités des systèmes d’IA en termes de performance, de fiabilité et d’explicabilité sont
importantes, elles sont toutefois limitées face aux situations réelles complexes et peuvent alors
affecter la confiance. En effet, les résultats ont mis en évidence plusieurs de ces limites discutées
notamment par les utilisateurs dans le domaine juridique et celui de la radiologie, par exemple
le manque de finesse d’analyse ou d’absence de prise en compte des facteurs contextuels,
ce qui peut dégrader la confiance accordée aux systèmes. Ces éléments ont déjà été soulevés
dans les réflexions actuelles sur l’IA, par exemple dans le domaine juridique (CEPEJ, 2019).
Par ailleurs, utiliser ces systèmes n’est pas sans risque aux yeux des professionnels, en
particulier ceux du droit et de la radiologie. Ils identifient différents risques transversaux (qui
pourraient se manifester de différentes manières selon le domaine d’activité) : un risque de perte

123
des compétences et d’un empêchement de l’apprentissage ; un risque de sur-confiance et de
dégradation des capacités critiques des utilisateurs envers les résultats du système ou un risque
de prescription des décisions de justice ainsi que leur reproduction et de standardisation ; ou
encore, un risque de la mise en visibilité des pratiques des magistrats à travers les analyses et
les statistiques produites sur leurs décisions. Les enjeux sont aussi importants autour des risques
d’erreurs, de la responsabilité et d’une remise en question de l’expertise des professionnels.
Dans ces conditions des limites et des risques associés à l’usage des systèmes d’IA, contrôler
et donner du sens aux résultats des systèmes en les recontextualisant et les confrontant
aux autres informations est une nécessité soulevée par les acteurs interviewés. Néanmoins,
cela engendre un autre risque en termes de perte de temps et interroge le développement et le
maintien des compétences et surtout des capacités critiques des humains face à ces systèmes.
Disposer de connaissances sur le fonctionnement des systèmes et donc des moyens pour les
évaluer, s’avère un point notable pour assurer des capacités critiques des utilisateurs de l’IA.

En conclusion, ce chapitre montre que pour comprendre et analyser la conception, la mise en


place et les usages des systèmes d’IA, il est important d’aborder plusieurs éléments et leurs
articulations, comme :
- les processus et les démarches effectives mobilisées pour concevoir et déployer un
système d’IA ;
- la division du travail mise en place en fonction d’une part des fonctionnalités des
systèmes, et d’autre part des besoins et des problématiques des travailleurs qui renvoient
plus largement aux contextes socio-organisationnels ;
- les enjeux qui se manifestent dans l’usage des systèmes d’IA, d’une part en termes de
la confiance déterminée par les facteurs de fiabilité, de performance, d’explicabilité et
plus largement par les capacités des systèmes, et d’autre part en termes de capacités
critiques des humains envers ces systèmes ;
- les incidences potentielles et effectives en termes de transformations des métiers et des
rôles professionnels, en termes d’apports pour les travailleurs mais aussi de risques qui
peuvent être nombreuses.

Dans le chapitre suivant, nous nous intéressons aux usages effectifs des systèmes d’IA à travers
ces éléments du cadre d’analyse afin de comprendre la manière dont les différents enjeux
identifiés peuvent se manifester dans des situations réelles de travail.

124
Chapitre 4. Usages effectifs des systèmes d’IA et
leurs incidences dans le domaine de la
radiologie

Face à un manque d’études empiriques, l’objectif de cette recherche est de contribuer à la


compréhension des incidences et plus largement des transformations induites ou susceptibles
d’être suscitées par la diffusion massive des systèmes d’IA dans les situations de travail.
S’appuyant sur cet objectif, ce chapitre vise à appréhender un ensemble de transformations et
d’incidences sur les activités et les organisations du travail à travers l’analyse des usages
effectifs de certains types de systèmes d’IA. Deux exemples issus du domaine de la radiologie
sont alors étudiés : un système de dictée à reconnaissance vocale pour la réalisation des
comptes-rendus radiologiques et un système de détection des fractures pour aider à
l’interprétation des images des radiographies. La radiologie est en effet un secteur très concerné
par la diffusion massive et rapide des systèmes d’IA et plus largement des technologies
numériques. Ces systèmes qui ne sont pas complétement nouveaux pour ce domaine, tendent à
se diffuser avec les progrès des techniques de l’IA.
Étudier les transformations et incidences des systèmes d’IA dans les situations de travail est lié
à la compréhension des organisations dans lesquelles elles se produisent et des activités de
travail concernées. C’est pourquoi, il s’agit tout d’abord de décrire les contextes socio-
organisationnels des activités dans lesquelles sont introduits les systèmes d’IA ainsi que les
motivations qui sous-tendent leur mise en place. Il s’agit ensuite d’analyser les rôles donnés à
ces systèmes, leurs modalités de déploiement et leurs usages inscrits dans les activités
médiatisées de travail, pour enfin saisir les effets que l’articulation de ces différentes éléments
produit en termes de transformations et d’incidences : ce que les usages de ces systèmes
apportent ou pourraient apporter (incidences positives) mais aussi ce qu’ils n’apportent pas ou
ce qu’ils empêchent et dégradent (incidences négatives) ou pourraient empêcher et dégrader
(des risques) dans l’organisation et les activités de travail. A l’aide de deux cas53 et en

53 Pour rappel, un cas fait référence plus globalement aux situations de travail comme explicité dans la partie
2.2.2

125
mobilisant les éléments du cadre d’analyse, ce chapitre vise donc à éclairer les questions
suivantes :
(i) La mise en place des systèmes d’IA
- Pourquoi et selon quelles démarches sont introduits les systèmes d’IA dans les
situations de travail ?
- Quelle fonction est donnée à ces systèmes dans l’organisation du travail ?
- En quoi cette organisation du travail est ou peut être transformée ?
(ii) Les usages des systèmes d’IA et leurs incidences sur les activités
- Comment ces systèmes d’IA sont utilisés et appropriés ?
- Qu’est-ce que les usages de ces systèmes impliquent pour les travailleurs et leurs
activités en termes d’enjeux, de problèmes ou de risques ?
- Qu’est-ce qu’ils apportent (en termes d’incidences positives) et empêchent ou
dégradent (en termes d’incidences négatives) pour les travailleurs et leurs activités
?

4.1. Contexte et méthode

4.1.1. La radiologie : un domaine particulièrement concerné par la diffusion


des systèmes d’IA
La radiologie est un des domaines de la médecine à être particulièrement confronté à des
évolutions technologiques et plus récemment à la diffusion massive des systèmes d’IA qui pose
des questionnements sur des possibles transformations du travail. En effet, si le domaine de la
santé est globalement très concerné par le développement de l’IA, la radiologie 54 ou l’imagerie
médicale, étant une spécialité plutôt récente de la médecine, se démarque particulièrement par
les conséquences probables du développement des systèmes d’IA (Ranschaert, 2018 ; Stoeklé
et al., 2021). C’est donc une spécialité connue pour ses évolutions technologiques que ce soit
au niveau de l’évolution des techniques d’imagerie, au niveau de la gestion administrative ou
encore au niveau des tâches assistées par ordinateur (Brunelle & Brunelle, 2019 ; Mayo &
Leung, 2018 ; Tang et al., 2018). Après la mise en place des ordinateurs depuis les années 1950-
1960, différents systèmes informatiques ont vu le jour au sein de la radiologie : le système
d’information radiologique (SIR) ou plus couramment appelé RIS (Radiology Information
System), le système d’archivage et de transmission d’images (PACS : Picture Archiving and

54 Datant de la fin du XIXème siècle avec la découverte des rayons X.

126
Communication System), les systèmes de dictée dont ceux à reconnaissance vocale mais aussi
des systèmes d’aide à la détection des anomalies sur les images et/ou au diagnostic (nommé
également le diagnostic assisté par ordinateur) appelés les CAD 55. Les deux types de systèmes
particulièrement intéressants pour notre recherche et pour lesquels nous avons eu accès aux
terrains, sont les systèmes de dictée à reconnaissance vocale (RV) et les CAD. Utilisés depuis
de nombreuses années dans la radiologie, ces systèmes reposent sur des techniques d’IA.
Les systèmes de dictée à reconnaissance vocale, qui se basent sur l’apprentissage automatique
(Chan et al., 2020), sont en effet mis en place dans la radiologie, depuis au moins les années
1980 (Al-Aiad et al., 2020). A cause d’un manque de maturité de ces systèmes durant les années
1980-1990, leurs usages étaient limités (Mardini & Mehta, 2006). Néanmoins, les améliorations
qui ont eu lieu dans les années 2000 et plus particulièrement durant ces dernières années, ont
contribué à la diffusion massive de la dictée RV (Al-Aiad et al., 2020 ; Mardini & Mehta, 2006).
Au départ, les principales motivations qui sous-tendaient sa mise en place dans la radiologie
consistaient à réduire les coûts financiers des services et les délais de production des comptes-
rendus (CR) radiologiques (White, 2005). De nombreuses études (Alapetite et al., 2009; Kanal
et al., 2000 ; Krishnaraj et al., 2010 ; Pezzullo et al., 2008 ; Ramaswamy et al., 2000 ; Ringler
et al., 2017 ; White, 2005), souvent quantitatives à base de questionnaires ou de l’analyse des
CR, ont portées sur l’évaluation des effets de ce système en se focalisant sur ses précisions, le
taux d’erreurs, le temps gagné ou non dans la production des comptes-rendus ou encore son
acceptation. Certaines relèvent une amélioration de la prise en charge des patients avec la
disponibilité des CR en temps réel, de la réduction du temps de production des CR, de la
possibilité d’apporter des modifications aux CR en temps réel pendant que les images sont
encore visualisées et de la réduction des coûts financiers des services qui est un des éléments le
plus important mis en avant dans certaines de ces études antérieures (Al-Aiad et al., 2020 ;
Ramaswamy et al., 2000 ; White, 2005). Toutefois, certains de ces bénéfices sont nuancées par
d’autres études, par exemple, affirmer qu’il y a une réduction des coûts n’est pas si évident.
D’après Pezzullo et al., (2008), les coûts de production ne sont pas vraiment réduits, au
contraire, les coûts globaux de la dictée RV peuvent être même plus élevés quand on inclut les
coûts engendrés par le temps de correction. D’autres effets négatifs sont aussi mis en avant
(Pezzullo et al., 2008 ; Ramaswamy et al., 2000 ; White, 2005) comme l’augmentation du temps

55La désignation CAD, émergée pendant les années 1980-1990, englobe Computer aided detection et
Computer aided diagnosis mais aussi Computer aided quantification et Computer aided triage (Fujita, 2020;
Oakden-Rayner, 2019). Cette différenciation des CAD selon la tâche accomplie a été établie pour des raisons
réglementaires.

127
de travail des radiologues pour la relecture et correction des CR, les erreurs de transcription
mais aussi des incohérences et des mots qui n’ont pas de sens, une certaine insatisfaction des
radiologues quant à l’usage de la dictée qui engendrerait une augmentation de la fatigue, une
frustration et une altération de leur style de la dictée et du contenu des CR. Par ailleurs, il s’avère
que la réduction des coûts s’est traduite par la suppression de nombreux postes de
« transcripteurs humains » dans les années 2000, qui ont été remplacés par des systèmes de
dictée à reconnaissance vocale (Al-Aiad et al., 2020 ; Mayo & Leung, 2018 ; White, 2005).
En ce qui concerne le développement des CAD, il a débuté dès les années 1950-1960 avec la
première ère de la recherche en IA basée essentiellement sur l’approche symbolique (Fujita,
2020; Oakden-Rayner, 2019). Au départ, ils étaient principalement investis pour le diagnostic
des cancers du sein par le biais de l’examen de mammographie, par exemple, avec le premier
système CAD autorisé aux Etats-Unis en 1998 par la FDA56 (Balleyguier et al., 2005 ; Fujita,
2020) ou encore pour la détection des nodules pulmonaires (Castellino, 2005). L’un de leurs
premiers objectifs était d’améliorer la précision dans la détection des anomalies en réduisant le
taux des faux négatifs dus aux oublis des radiologues (Castellino, 2005). Par exemple, des
études montraient que les CAD en tant que second lecteur assistant les radiologues dans
l’interprétation des images (Shiraishi et al., 2011), pouvaient permettre l’amélioration du taux
de cancers détectés (Balleyguier et al., 2005). Les CAD pouvaient aussi améliorer la
performance des radiologues dans la détection de certains nodules pulmonaires (Sahiner et al.,
2009). Cependant, d’autres études ont montré que ces systèmes n’amélioraient pas les décisions
et la précision des radiologues, notamment pour ceux ayant déjà une sensibilité élevée dans la
détection des anomalies (Kohli & Jha, 2018). Les effets négatifs ont même été soulevés, en
particulier en mammographie (Fujita, 2020 ; Kohli & Jha, 2018 ; Oakden-Rayner, 2019) : la
réduction des précisions et de la sensibilité des radiologues avec l’augmentation des rappels et
des biopsies inutiles, l’augmentation du temps d’interprétation à cause de nombreuses fausses
alertes ou encore un faux sentiment de sécurité pour les novices. Ces CAD, en particulier en
mammographie, présentaient plusieurs limites (Fujita, 2020). Tout d’abord, le coût élevé de
leur développement engendrait des problèmes de rentabilité. Limités aux lésions spécifiques,
ils avaient également un taux élevé de faux positifs et étaient peu performants en raison de la
puissance de traitement insuffisante et de l’apprentissage supervisé qui était dépendant et
influencé par la variabilité de l’interprétation (Kohli & Jha, 2018). En effet, l’interprétation
diffère d’un radiologue à l’autre tandis que ces interprétations variables sont directement

56 Food and Drug Administration

128
utilisées dans l’apprentissage supervisé. Malgré ces limites, les CAD disposaient d’un fort
potentiel et même d’un certain succès relatif avec des performances grandissantes (Balleyguier
et al., 2005). Or, leurs utilisations dans la pratique clinique se sont tout de même avérées
restreintes (Koenigkam Santos et al., 2019). Le développement des CAD durant la deuxième
ère de l’IA des années 1980-1990, a été marqué par des promesses et des attentes élevés de la
part des radiologues, ce qui a donc conduit à une désillusion et une déception dans leur globalité
(Oakden-Rayner, 2019). Les progrès significatifs de la troisième ère de l’IA actuelle, en matière
d’apprentissage automatique et plus particulièrement de l’apprentissage profond (Chartrand et
al., 2017), font émerger le développement des nouveaux CAD qui seraient différents des CAD
dits « traditionnels » (Oakden-Rayner, 2019) mais qui se basaient déjà sur l’apprentissage
automatique (Fujita, 2020). L’apprentissage profond serait donc plus puissant avec des
possibilités d’utiliser et réutiliser des algorithmes qui n’auraient pas besoin d’être entrainés pour
une tâche spécifique (Oakden-Rayner, 2019). Pour certains auteurs, contrairement aux CAD
« traditionnels » où l’humain devait définir les caractéristiques à reconnaitre sur des images,
avec l’apprentissage profond par exemple non supervisé, ce serait l’algorithme qui extrait ces
caractéristiques pendant son processus d’apprentissage. Ces avancées pourraient faire diminuer
considérablement le temps de développement de ces systèmes (Fujita, 2020). Ainsi, de
nouvelles promesses apparaissent avec une vision optimiste sur les nouveaux systèmes à base
d’apprentissage profond qui devraient combler et dépasser les limites des CAD « traditionnels »
(Kohli & Jha, 2018 ; Sahiner et al., 2009).
La radiologie, ayant connu toutes les ères du développement de l’IA, se présente donc comme
un cas modèle. De plus, elle se voit aujourd’hui encore une fois au centre du développement et
de la diffusion des systèmes d’IA à base de l’apprentissage automatique, en particulier profond.
En effet, différentes applications des nouveaux systèmes d’IA, qui ne se limitent pas aux
analyses des images radiologiques, se développent (Lakhani et al., 2018 ; Richardson et al.,
2021). Il s’agit par exemple des applications pour l’automatisation des protocoles des études
médicales, la production des images avec le contrôle et l’évaluation de leur qualité,
l’amélioration du flux et l’organisation du travail de la radiologie par exemple par la priorisation
de la liste de travail ou encore la réalisation et l’optimisation des plannings, l’utilisation du NLP
(Natural Language processing) pour différentes situations comme l’analyse ou la génération
des comptes-rendus automatiques sans passer par exemple par une dictée humaine, etc. Bien
que l’intérêt principal soit porté aux systèmes d’aide à l’interprétation des images, des progrès
sont également réalisés dans l’amélioration des systèmes à reconnaissance vocale (Al-Aiad et
al., 2020 ; Chartrand et al., 2017 ; Hodgson & Coiera, 2016).

129
Ces avancées technologiques se traduisent par des questionnements sur les transformations de
la radiologie (Ranschaert, 2018) : est-ce que le futur du métier des radiologues est en danger ?
L’IA se voit attribuée un caractère révolutionnaire à la fois dans le sens positif, avec des
nouvelles performances techniques comparables à la prise de décision humaine (Jin et al.,
2021), mais aussi négatif, avec des craintes sur l’avenir des professionnels, en particulier des
radiologues (Chockley & Emanuel, 2016 ; Liew, 2018 ; Obermeyer & Emanuel, 2016). L’idée
d’une substitution des radiologues par l’IA a gagné de la visibilité en particulier suite aux divers
pronostics, dont celui de Geoffrey Hinton, un chercheur spécialisé en IA57. Selon lui, il serait
désormais inutile de former des radiologues face à la supériorité de la machine qui devrait
arriver d’ici cinq à dix ans grâce aux techniques de l’apprentissage profond. Toutefois,
différentes réflexions soutiennent plutôt l’idée des transformations du métier des radiologues
(King, 2018 ; Moehrle, 2018) qui pourraient désormais se concentrer sur des tâches à plus
grande valeur ajoutée (Pesapane et al., 2018) ou encore l’idée d’une radiologie « augmentée »
avec une amélioration des performances des professionnels (Lincoln et al., 2019). Selon
Anichini et Geffroy (2021), ces réflexions sont directement liées à la façon dont sont évaluées
les performances de ces systèmes, à savoir par une comparaison des performances entre une
machine et un radiologue mais aussi entre un radiologue assisté par une machine et un
radiologue seul. Il s’agit ici des études cliniques notamment quantitatives ou encore des études
centrées sur les performances techniques des systèmes (Sujan et al., 2019). Ces études sont
jugées insuffisantes pour rendre compte des effets d’un système technique sur le travail et les
pratiques réelles des professionnels (Hartswood et al., 2003). Ces évaluations ignorent alors les
contextes d’usages et la réalité vécue du travail, soient des éléments importants à considérer
dans l’évaluation des effets des usages et du déploiement d’une technologie (Anichini &
Geffroy, 2021 ; Hartswood et al., 2003).

4.1.2. Les cas de déploiement et d’usages des systèmes d’IA : méthodes et


outils de recueil des données
En portant une attention particulière à ces éléments, soient les contextes d’usages et la réalité
du travail, deux cas issus de la radiologie ont pu être retenus à la suite des opportunités qui se
sont présentées avec le développement d’un réseau d’acteurs durant la phase de découverte de
cette recherche (Chapitre 3). Ces cas exemplaires permettent de décrire et d’analyser des
transformations et des incidences de la mise en place et des usages des systèmes d’IA sur les

57 Lors de la conférence « Machine Learning and the Market for Intelligence » en 2016.

130
activités et les organisations du travail. Les systèmes mobilisés dans ces situations relèvent de
l’IA telle qu’elle est définie dans cette recherche. Il s’agit d’un système de dictée à
reconnaissance vocale pour la première situation et d’un système de détection des fractures sur
des radiographies pour la deuxième. Utilisés pour les activités d’interprétation des images et de
réalisation des comptes-rendus, ces systèmes constituent des exemples de référence pour cette
recherche dans le domaine de la radiologie. La différence entre les deux systèmes en termes de
fonctionnalités permet de disposer d’une diversité de situations à la fois distinctes et
complémentaires pour une analyse des incidences de déploiement et des usages des systèmes
d’IA dans la radiologie.

4.1.2.1. Cas n°1 : système de dictée à reconnaissance vocale au sein d’un service
hospitalier d’imagerie médicale
Le premier cas renvoie à un système de dictée à Reconnaissance Vocale (RV) au sein d’un
service d’imagerie médicale d’un centre hospitalier universitaire (CHU) en France (Figure 15).
Le système, constitué d’un logiciel de reconnaissance de la voix, d’une interface de traitement
de texte et d’un micro filaire, est intégré dans le système d’archivage et de transmission
d’images, plus couramment appelé PACS. Le système de la dictée, faisant appel à des
techniques de l’IA en matière de reconnaissance vocale, effectue une transcription automatique
du texte dicté. Dans ce cas, il s’agit du contenu d’un CR radiologique dicté par un médecin
radiologue. Ce compte-rendu s’inscrit dans une partie du travail des radiologues qui consiste à
analyser et interpréter des examens de l’imagerie à visée diagnostique.

Figure 15. Utilisation de la dictée RV par un radiologue

La prise de contact avec le chef de service, intéressé et préoccupé par les enjeux relatifs à l’IA
dans la radiologie, a été initiée par le biais de connaissance et d’un contact commun. D’un
commun accord, une première phase exploratoire a été conduite au sein de ce service hospitalier

131
avec l’objectif de mieux comprendre et décrire le domaine de la radiologie à travers le
fonctionnement de ce service, son organisation du travail, ses différents métiers ainsi que les
usages des différents types de systèmes d’IA ou les projets de leur mise en place potentielle. A
ce stade, aucun système d’IA particulier n’était visé pour cette étude. D’une part, cette phase
exploratoire était l’opportunité pour se familiariser avec les différents métiers de la radiologie,
leurs organisations du travail ainsi que les contraintes et problématiques rencontrées. D’autre
part, les apports pour le service consistait à disposer d’un retour (avec un regard extérieur) sur
les résultats d’analyse concernant leur fonctionnement, leur organisation et les problématiques
du point de vue des travailleurs mais aussi de disposer d’un retour sur les usages des systèmes
d’IA et des réflexions plus larges sur les conséquences de l’introduction de ces systèmes dans
les situations de travail. Dans le but d’analyser le fonctionnement et le travail des différents
métiers de la radiologie, neuf entretiens semi-directifs58 ont été réalisés avec des radiologues,
des manipulateurs, des cadres de santé, des secrétaires et d’un informaticien (spécialiste des
outils de la radiologie). Une trentaine d’heures d’observations libres de leurs activités de travail
ont également pu être menés en complément (Tableau 5).

Entretiens semi-directifs Observations libres in situ

• 2 jours en secrétariat
• 3 radiologues
• 1 jour : 2 manipulateurs en IRM
• 2 manipulateurs
• 1 jour : 2 radiologues en IRM
• 2 cadres de santé
• Demi-journée : 1 radiologue en scanner
• 1 informaticien spécialiste
outils • Demi-journée : 1 interne radiologue et 1
manipulateur en radiologie conventionnelle
• 1 secrétaire
• 1 jour en service d’imagerie des urgences

Tableau 5. Données recueillies lors de la première phase exploratoire (Cas de la dictée RV)

Les buts de ces entretiens et observations étaient de comprendre les activités professionnelles
rencontrées, la compréhension de l’IA par les travailleurs, l’intérêt et les apports potentiels des
systèmes d’IA pour eux mais aussi les usages d’un ou des systèmes d’IA déjà présents et leur
mise en place.
C’est alors cette première phase qui a fait particulièrement émerger la dictée RV comme un cas
pertinent pour étudier des transformations et des incidences de la mise en place et des usages
d’un système d’IA. En effet, plusieurs travailleurs ont mis en avant la dictée RV en tant que

58 Le guide d’entretien dans cette phase exploratoire est le même que celui utilisé pour la première étude
de cette thèse et résumé dans le Tableau 1.

132
système d’IA déjà en place et les transformations occasionnées à la suite de sa mise en place.
Par conséquent, une deuxième phase d’approfondissement a été conduite avec une focalisation
sur la dictée RV utilisée par les radiologues pour la production des comptes-rendus. Dans ce
cadre, il s’agissait de mieux saisir les transformations et les incidences de la mise en place de
la dictée pour différents métiers concernés : des radiologues mais aussi des secrétaires. Afin de
décrire le contexte de la mise en place de ce système mais aussi l’activité de production d’un
CR sans ou avec la dictée, des secrétaires et des radiologues ont été sollicités pour des entretiens
semi-directifs (sept au total ont été interviewés) 59. Ces données sont complétées par des
observations d’un échange collectif et des observations filmées des moments de la production
des CR par des radiologues (Tableau 6).
Entretiens semi-directifs Observations
• Échange collectif (radiologues, secrétaires, cadre de
• 4 radiologues santé…)
• 3 secrétaires • 4 enregistrements vidéo de la dictée d’un compte-rendu
radiologique (durée moyenne de 5 minutes)

Tableau 6. Données recueillies lors de la deuxième phase d’approfondissement (Cas de la


dictée RV)

4.1.2.2. Cas n°2 : système de détection des fractures au sein des structures radiologiques
privées et hospitalières
Le second cas concerne un système de Détection des Fractures (DF) au sein des services
d’imagerie mais aussi des urgences de différents types de structures en France : des centres
hospitaliers mais aussi des cabinets et des cliniques privés. Le système DF qui est à base
d’apprentissage profond réalise un traitement automatique des images de la radiologie
conventionnelle, appelées également radiographies (imagerie par rayons X). Plus précisément,
il permet d’analyser les radiographies osseuses en vue de détecter des lésions. Une fois les
images acquises, elles sont automatiquement envoyées au serveur de ce système (de manière
anonymisée) et reviennent analysées en s’intégrant dans le dossier du patient au sein du PACS.
Ainsi, le radiologue retrouve les images initiales ainsi qu’un rapport d’analyse du système (sous
forme d’un intercalaire) et les images avec les indications des résultats du système selon s’il a
détecté quelque chose. Si dans une première version (Figure 16), le système pouvait détecter
uniquement des fractures, dans la deuxième version (Figure 17) il était désormais capable

59 Le guide d’entretien se trouve en Annexe V.

133
d’identifier d’autres types de lésions (des luxations ou encore des épanchements). Ainsi, le
système vise à fournir des résultats d’analyse des radiographies pour aider à établir le diagnostic
habituellement réalisé par des radiologues. Dans certaines structures, le système peut être
également mis à disposition pour les médecins urgentistes.

Figure 16. Affichage des images analysées par la première version du système DF

Figure 17. Deuxième version du système DF

Les différentes structures disposant du système DF ont été identifiées à l’aide d’un radiologue
lui-même utilisateur et impliqué dans la conception du système qui a accepté de participer à
cette recherche. Les questions de cette recherche font directement écho aux interrogations et
enjeux actuels qui concernent directement les participants. L’intérêt des participants de
contribuer à cette recherche consistait donc principalement à disposer d’un retour sur l’analyse
des résultats obtenus mais aussi d’identifier des pratiques des autres professionnels en matière
des usages du système DF et ses avantages ou inconvénients.
Comme pour le premier cas, les méthodes mobilisées sont également d’ordre qualitatives à base
d’entretiens semi-directifs (Annexe VI) et d’observations libres in situ ainsi que des

134
observations filmées avec des verbalisations simultanées qui étaient spontanées mais aussi
provoquées. Après les sollicitations adressées aux radiologues et urgentistes des différentes
structures, certains d’entre eux ont donné leur accord pour un premier entretien. Le but était de
recueillir leurs visions et expériences sur l’émergence, le développement et les usages des
systèmes d’IA et plus précisément du système DF dans leurs situations professionnelles. Ainsi,
cinq radiologues et deux médecins urgentistes ont été interviewés au sein de trois cabinets et
cliniques privés et trois centres hospitaliers 60. Ayant tous plusieurs années d’expérience en tant
que radiologue ou urgentiste, ils peuvent être considérés comme des experts (seniors) : allant
de cinq ans après leur internat jusqu’à une trentaine d’années d’expérience. Afin d’approfondir
les usages du système DF, certains radiologues ont accepté d’être observés durant leur travail
(des observations libres et/ou filmées pour une vingtaine d’heures au total). Les objectifs plus
précis de ces entretiens et observations étaient principalement d’analyser la démarche de la mise
en place du système DF pour identifier les buts et les motivations et de décrire les usages du
système avec ses incidences. Le choix de recueillir les données auprès de différentes
structures visait à appréhender la variabilité des démarches de déploiement et des usages du
système DF dans une diversité de situations et de contextes différents.
Le tableau ci-dessous (Tableau 7) résume les structures, la population et les données recueillies
pour ce deuxième cas.

60 Les structures sont différentes de celle du cas n°1 portant sur la dictée RV.

135
Données recueillies

Structure61 Population Observations filmées avec Version du système DF


Observations libres in
Entretien semi-directif verbalisations
situ
simultanées
2h30 (Vacation62 en
C1 1 radiologue (senior) 1 entretien radiologue - 1ère (Fractures)
journée)
Demi-journée (Lecture des
11h (Vacations sur une
C2 1 radiologue (senior) 1 entretien radiologue radiographies standards 1ère (Fractures)
journée et demie)
pendant environ 4h)
2h (Vacations en Demi-journée (Lecture des 2ème
C3 2 radiologues (seniors) 1 entretien radiologue journée de deux radiographies standards (Plusieurs types de
radiologues) pendant environ 2h) lésions)

1 radiologue-chef de service 1 entretien radiologue- 1h30 (Visite de service


CH1 - 1ère (Fractures)
(senior) chef de service en journée)

1 radiologue-chef de service
(senior) 1 entretien radiologue 3h30 (Soir pendant une
CH2 - 1ère (Fractures)
1 radiologue (senior) chef de service garde)
1 radiologue (interne)
1 médecin urgentiste-chef - 1ère (Fractures)
de service (senior)
CH3 2 entretiens urgentistes -
1 médecin urgentiste
(senior)

Tableau 7. L’ensemble des structures, la population et les données recueillies (Cas du système DF)

61 C : cabinet-clinique privé ; CH : centre hospitalier


62 Une vacation correspond à un temps consacré à l’interprétation (également appelée la lecture) d’images et au diagnostic des examens radiologiques.

136
Il convient de noter que la deuxième version du système DF a été mise en place au moment de
nos recueils des données uniquement dans une structure (C3). La majorité des données
recueillies concerne donc la première version du système détectant uniquement des fractures.
Notre analyse tient donc essentiellement compte de cette première version du système. Par
ailleurs, les analyses sont majoritairement centrées sur les usages du système par les radiologues
amenés à interpréter les radiographies plutôt que par les urgentistes qui peuvent aussi analyser
les radiographies mais qui n’ont pas pu être observés.

4.1.3. Traitement et analyse des données recueillies


Le traitement et l’analyse de l’ensemble des données ont été similaires pour les deux cas. Les
entretiens ont été retranscrits et les notes d’observations ont été numérisées. Comme dans le cas
de la première étude exploratoire présentée dans le chapitre 3, une analyse thématique a été
réalisée à l’aide du logiciel Maxqda (Annexe VII, Annexe VIII) : tout d’abord de manière
individuelle pour chaque cas puis, en faisant ressortir des similitudes et des différences entre
les deux cas étudiés. Les observations filmées ont été également analysées à l’aide de ces
thématiques identifiées et ont permis de relever des exemples d’illustration de certains usages
et situations évoquées durant les entretiens.
Les analyses sont donc centrées sur les thématiques suivantes constituant une grille d’analyse
inspirée de la première étude empirique qui a permis de mettre en lumière un ensemble
d’éléments importants et leurs articulations pour décrire, analyser et appréhender les
transformations et les incidences des usages des systèmes d’IA :
- Des besoins et des motivations de mettre en place un système d’IA ;
- La mise en place du système et son intégration dans l’organisation du travail ;
- Les caractéristiques du système tels qu’ils sont évalués et décrits par les participants :
ses fonctionnalités, sa fiabilité et performance, son explicabilité ;
- Les usages du système, avec ses enjeux et problématiques rencontrées : pour les cas
étudiés il s’agit des usages dans l’activité de production d’un compte-rendu et dans
l’activité d’interprétation des radiographies à visée diagnostique ;
- Les incidences en termes d’apports (des effets positifs, des problématiques résolues
etc.), d’empêchements ou dégradations (des effets négatifs comme des dommages ou
des pertes pour les travailleurs au niveau du sens ou de leurs conditions de travail) mais
aussi de risques identifiés et soulevés (des effets négatifs potentiels).
Dans la partie suivante, les résultats de ces analyses articulent les deux cas étudiés ainsi que les
différentes thématiques identifiées. Il s’agit tout d’abord de comprendre les contextes socio-

137
organisationnels et les motivations qui sous-tendent la mise en place des systèmes d’IA
approchés. Ensuite, les organisations ou les réorganisations du travail, à la suite de la mise en
place de ces systèmes sont analysées. Enfin, nous présentons les usages de ces systèmes et leurs
incidences sur le travail.

4.2. Résultats
La première partie des résultats met en lumière la manière dont l’IA se présente comme une
« réponse » à certaines difficultés socio-organisationnelles. Ensuite, les motivations de la mise
en place des systèmes d’IA ainsi que les organisations de travail intégrant ces systèmes sont
exposées. Enfin, les résultats explicitent les processus d’appropriation, notamment les
adaptations, identifiés dans les usages des systèmes d’IA étudiés mais aussi les incidences
générées dans les activités de travail.

4.2.1. L’IA comme « réponse » à l’augmentation de la charge de travail et


manque de ressources humaines
L’analyse des données recueillies permet tout d’abord de comprendre le contexte dans lequel
sont introduits les systèmes d’IA : le système de dictée à reconnaissance vocale et le système
de détection des fractures.
De manière globale, le domaine de la radiologie se voit confronté ces dernières années à
l’augmentation du volume d’examen que ce soit dans le secteur privé ou public. Plusieurs
radiologues expliquent que cette augmentation concerne particulièrement les radiographies
standards et interroge la pertinence des demandes d’examens alors que beaucoup d’entre eux
s’avèrent normaux. Pour éliminer des doutes et de poser un diagnostic, le recours à la
radiographie semble être quasi systématique notamment dans le contexte traumatologique des
urgences. Certains radiologues expliquent que les médecins urgentistes ont parfois du mal à
faire repartir les patients sans faire d’examens de radiologie car ils ne sont jamais complétement
sûrs. Du côté des radiologues, il est parfois plus rapide de faire un examen de radiologie que de
refuser la demande des urgentistes car le refus demande des justifications qui peuvent être plus
longues et difficiles, surtout si les demandes sont mal remplies et manquent d’informations. De
plus, le radiologue lui-même n’est jamais sûr à 100% qu’il n’y aura effectivement rien sur
l’examen. Il faut aussi noter que l’examen de radiographie est peu invasif et rapide à réaliser,
ce qui amène les médecins à demander plus facilement, voire systématiquement, un examen de
radiographie. Par ailleurs, un des radiologues explique la valeur, l’importance et la signification

138
d’un examen d’imagerie pour les patients qui contribuent aussi à la systématisation des examens
de radiographie et plus largement de l’imagerie :
« le patient ne comprend pas qu’on ne lui fasse pas un examen en plus, c’est-à-dire que de voir
le médecin, qu’il ait même parfois une prise de sang ne suffit pas si on ne fait pas le scanner,
si on ne fait pas la radio. Ça veut dire qu’on ne l’a pas bien pris en charge, qu’on ne l’a pas
cru, qu’on n’a pas pris en compte ses symptômes, qu’on ne l’a pas écouté. » (Radiologue 10).
Cette augmentation de l’activité de l’imagerie devient problématique dans les conditions où de
nombreuses structures, notamment hospitalières, manquent d’effectifs des radiologues. Ainsi,
ce problème de manque d’effectifs des radiologues est particulièrement soulevé dans nos
résultats. Si ce manque se fait sentir davantage dans le secteur public, le secteur privé, en
particulier en dehors de la région de l’île de France, est également concerné. Face à ce manque
d’effectif et l’augmentation du nombre d’examens, plusieurs radiologues rapportent les
problématiques de manque de temps pour la réalisation de leur travail :
« La radiologie, c'est un petit peu comme partout, vu les problèmes de coût économique et les
problèmes de démographie médicale, on est amené… un radiologue, avant il faisait le travail
d’un radiologue, maintenant il doit faire le travail de deux radiologues. Donc on a une charge
de travail croissante et du coup, il faut aller de plus en plus vite, faire de plus en plus de dossiers
patients avec le même temps disponible. » (Radiologue 11).
Plus largement, les activités de l’imagerie de plusieurs structures rencontrent cette
problématique de manque de temps face à la charge de travail ou encore d’un flux imprévu par
exemple au niveau des urgences. L’augmentation du nombre d’examens impacte directement
la charge de travail des radiologues mais aussi des secrétaires (chargés généralement de gérer
la programmation des examens, la transcription et le suivi des comptes-rendus, l’accueil,
diverses tâches administratives…) et des manipulateurs en radiologie (amenés à accueillir les
patients pour les préparer, réaliser l’examen c’est-à-dire l’acquisition des images selon les
protocoles d’examens préétablis…).
Face aux impératifs économiques et démographiques, l’organisation du travail de l’imagerie
médicale peut être remise en question. C’est le cas dans l’une des structures étudiées. Il s’agit
de la structure C2 regroupant des cabinets et cliniques privés faisant face au manque des
radiologues. Un des radiologues explique que deux choix se présentaient à eux : soit réduire
l’offre des soins, soit revoir leur organisation pour l’optimiser afin de gagner du temps et de
pouvoir faire face à la charge de travail. Pour la plupart des structures observées, l’organisation
du travail est « à l’ancienne » qui signifie que les radiologues sont présents pour chaque
modalité d’examen lors de réalisation des examens par des manipulateurs et interprètent des

139
images au fur à mesure de leur acquisition. Tandis que dans la structure C2, cette organisation
a été rationnalisée en dissociant la production ou la réalisation des examens et leur
interprétation. Ainsi, l’interprétation des examens a été centralisée en mettant en place des
temps dédiés à l’interprétation selon différents types d’examens déjà réalisés : un radiologue
n’est plus systématiquement présent lors de l’acquisition des images, il ne voit pas le patient et
il consacre plusieurs heures d’affilé à l’interprétation des examens déjà réalisés. Le travail est
donc jugé comme étant assez répétitif et « un peu à la chaîne », ce qui ne semble pas être le
plus « agréable » au niveau des conditions de travail.
La radiologie, confrontée à ces problématiques organisationnelles en termes d’augmentation de
la charge de travail et de manque de ressources, semble faire face à des impératifs de
changements et d’évolution. Comme dit un des radiologues interviewés, la mise en place des
systèmes d’IA accompagne alors ces difficultés et les évolutions du travail que nous allons voir
ci-dessous dans le cas de la dictée RV et du système DF.

4.2.2. La mise en place de la dictée à reconnaissance vocale et la


réorganisation du travail

4.2.2.1. Les retards de transcription des comptes-rendus et le projet de réorganisation


Face à la charge de travail élevée des secrétaires en termes de transcription des comptes-rendus
(CR) radiologiques, dictés et enregistrés par les radiologues, un projet de la réorganisation du
secrétariat (plus largement du service) est élaboré. Cette réorganisation a été accompagnée par
la mise en place des groupes de travail des professionnels concernés pour penser une nouvelle
organisation du secrétariat. Le déploiement de la dictée RV dans le service d’imagerie concerné
coïncide avec ce projet de réorganisation. Intégrée dans la nouvelle version de leur système
d’archivage et de transmission d’images (PACS) déployée au moment du projet de
réorganisation du secrétariat, la dictée RV présentait l’opportunité de répondre au problème des
retards importants au niveau de la transcription. Sans la réorganisation et sans la mise en place
de la dictée, certaines secrétaires expliquent qu’il y avait une nécessité de recruter des
secrétaires pour faire face à la tâche de transcription des CR :
« Pendant un moment, on avait 10 jours de retard de dictées de compte rendu au moment où
ça a été fait. Je pense qu'il aurait fallu recruter parce qu'il n'y avait plus assez de secrétaires
pour taper la masse de comptes-rendus qu'il y avait à taper. Et la dictée vocale a permis de ne
pas faire de recrutement et de rendre les résultats beaucoup plus tôt » (Secrétaire : lors d’un
échange collectif).

140
Si cette tâche constituait une majeure partie du travail des secrétaires, avec la réorganisation du
secrétariat et l’arrivée de la dictée RV, ce sont les tâches de gestion par exemple de
programmation d’examens, des rendez-vous ou encore de l’accueil, qui constituent le principal
travail des secrétaires.

4.2.2.2. Intégrer la dictée à reconnaissance vocale et réorganiser le travail : un gain de


temps mais la disparition des dimensions constructives de l’activité des
secrétaires
Avant la dictée RV, le service a connu deux autres types de systèmes de dictée : celui avec des
cassettes et la dictée numérique. Dans le premier cas, les radiologues dictaient les CR qui étaient
enregistrés sur une cassette. Les secrétaires retranscrivaient ces enregistrements (les relisaient
et corrigeaient) pour les imprimer et donner au radiologue pour la validation et signature. Les
radiologues relisaient les CR pour éventuellement apporter des modifications ou des ajouts si
nécessaire et les validaient. Les secrétaires retapaient les CR s’il y avait des corrections, puis
après validation par les radiologues, elles envoyaient les CR aux destinataires (les cliniciens qui
sont les médecins demandeurs d’examen et/ou les patients). Ces différentes étapes asynchrones
(d’enregistrement, de transcription, de correction et de validation) pouvaient prendre plusieurs
jours. Avec la dictée numérique, le processus est resté le même, à la différence que les CR
étaient désormais enregistrés dans un fichier numérique accessible à tout moment et depuis
différents postes de travail. Il s’avère que les enregistrements des CR, également accessibles
aux cliniciens, représentaient un moyen d’échange et de transmission d’informations aux
secrétaires : des indications sur la mise en forme du CR, des modifications ou des erreurs de
dictée du radiologue mais aussi d’autres informations par exemple sur l’envoi du CR.
La mise en place de la dictée RV a nécessité de repenser cette organisation du travail. Si, avant
la dictée RV, les secrétaires retranscrivaient et corrigeaient les CR enregistrés sur des cassettes
ou en format numérique, c’est désormais la dictée qui réalise la tâche de transcription et le
radiologue corrige souvent seul son CR (Tableau 8).
Relire et Envoyer le CR
Dicter/enregistrer Transcrire Valider/signer
corriger le au
un CR l’enregistrement le CR
CR clinicien/patient
Sans
Dictée Radiologue Secrétaire Secrétaire Radiologue Secrétaire
RV
Avec
Dictée Radiologue Dictée RV Radiologue Radiologue Secrétaire
RV
Tableau 8. La division du travail entre secrétaires, radiologues et dictée RV

141
Au début de la mise en place de cette répartition des tâches, une phase de « transition » a eu
lieu et qui s’est avérée courte : certains CR (en particulier ceux des examens complexes et
longs) de certains radiologues étaient transmis informatiquement à l’initiative de ces
radiologues aux secrétaires pour une relecture et correction des fautes :
« Ça n’a pas duré très longtemps, c’était une petite transition, c’est surtout (…) les anciens
médecins ils ont quand même eu un peu de mal, ne plus avoir à faire à une secrétaire, dicter
leur machin, c’était un peu compliqué, donc là, ils aimaient bien que la secrétaire avec laquelle
ils avaient l’habitude relise et puis on leur renvoyait pour que ça soit... une fois que c’était relu
on lui renvoyait par le biais de l’informatique pour que ça soit validé et il nous le renvoyait
pour que ça soit imprimé. » (Secrétaire 4).
Cette répartition des tâches a été au fur et à mesure délaissée du fait que la tâche de relecture
par les secrétaires prenait toujours beaucoup de temps. Elle entrainait donc des retards et la
dictée RV, ayant pour objectif d’accélérer le processus, perdait son sens. De plus, certaines
secrétaires relatent que relire un CR à la recherche des fautes sans l’avoir transcrit était très
fastidieux, inintéressant et dévalorisant pour elles :
« Complètement inintéressant quand vous êtes là, en train de relire le compte-rendu d’un
médecin franchement, on est là pour retrouver les fautes, corriger les fautes. Je vous avoue
que... la déprime totale, c’est complètement inintéressant et puis même, à force de chercher la
faute, on ne la trouve plus » (Secrétaire 4).
Si cette phase de transition n’a pas duré, il s’avère que les radiologues disposent toujours de
cette fonctionnalité de mettre leur CR en correction même si pour la plupart d’entre eux n’ont
plus recours à cette fonctionnalité, du moins pour la correction. Avec l’objectif de gagner du
temps dans le processus de production des CR en évitant des allers-retours entre secrétaires et
radiologues, la tâche de relecture et de correction des CR a été finalement déléguée aux
radiologues.
Plusieurs bénéfices - de la mise en place de la dictée et de la réorganisation du travail - peuvent
être distingués du point de vue de certains radiologues et secrétaires. Il s’agit notamment de la
suppression des retards de transcription des CR, permettant d’améliorer la prise en charge des
patients qui peuvent rapidement en disposer, soit un fait constaté au quotidien d’après certains
radiologues et secrétaires. Globalement, le processus de production semble se fluidifier dans le
sens où les étapes de relecture et correction avec des allers-retours entre secrétaire et radiologue
sont simplifiées. En revanche, la nouvelle organisation du travail a entraîné la disparition de la
partie principale du travail des secrétaires, soit le travail de transcription des CR. Cette tâche –
appelée « le travail de frappe » – avait pourtant pour elles une dimension constructive et

142
développementale dans le sens où elle était une source d’apprentissage et d’enrichissement pour
les secrétaires. Pour cette raison, l’évolution de leur activité 63 a été mal vécue par certaines
d’entre elles (en particulier celles avec une longue expérience de trentaine d’années) :
« Même dans la maladie des gens, malgré le malheur et des choses très graves, on apprenait
quand même des anomalies d’anatomie. On s’enrichissait. Aujourd’hui, on n’a plus cet
enrichissement » (Secrétaire 1).

4.2.3. La mise en place du système de détection des fractures : un rôle


« palliatif » des technologies

4.2.3.1. L’évolution technologique pour faire face aux problématiques socio-


organisationnelles
Pour les radiologues interviewés et observés pour ce deuxième cas, l’introduction et l’utilisation
du système de détection des fractures (DF) répondent aux différents objectifs en lien avec
l’évolution de leur métier et des problématiques socio-organisationnelles (explicitées dans la
partie 4.2.1). Le premier objectif est de suivre l’évolution, notamment technologique, de la
radiologie, participer plutôt que de subir cette évolution :
« L’IA pour les radiologues, ça fait très peur parce que finalement les gens pensent qu’ils vont
perdre leur métier. Donc forcément les plus jeunes s’y intéressent beaucoup en se disant
« qu’est-ce qu’il va se passer plus tard ? ». Donc mon objectif c’était d’être plutôt pro-actif
dans cette évolution c’est-à-dire « de toute façon ça va arriver » globalement la radiologie est
en pleine mutation, et donc on s’est dit qu’il valait mieux participer au changement, s’adapter
et être proactif dans la démarche, plutôt que de la subir » (Radiologue 13).
L’objectif est également de rester concurrentiel et attractif, autrement dit « ne pas être à la
traîne des évolutions » (Radiologue 14). La mise en place du système DF est donc envisagée
comme un moyen pour faire face aux diverses problématiques socio-organisationnelles :
l’augmentation de la charge de travail avec un manque d’effectifs des radiologues, conduisant
à des radiographies qui ne sont pas toujours interprétées (ou tardivement) par des radiologues
en raison de la surcharge d’activité et qui sont vues uniquement par des médecins urgentistes.
Ces éléments entrainent la dégradation des conditions de travail (avec un risque sur la santé et
la performance) et peuvent aboutir à des erreurs et à la baisse des performances dans
l’interprétation des images, du diagnostic et donc de la prise en charge des patients.

63Avec la réorganisation, les effectifs des secrétaires n’ont pas été directement réduits. Elles ont pris en
charge d’autres tâches, par exemple des plannings médicaux.

143
4.2.3.2. Organiser le travail avec le système de détection des fractures destiné aux
radiologues et/ou aux médecins urgentistes
La mise en place du système DF démarre habituellement par une période de tests et se passe
souvent dans le cadre des partenariats avec des entreprises vendeuses 64 des systèmes d’IA.
Contrairement à la dictée RV, ce système de détection des fractures n’assure pas la réalisation
d’une tâche en tant que telle. Par conséquent, l’organisation du travail en termes de répartition
des tâches avec le système DF n’est pas réellement redéfinie dans les structures au moment de
cette étude. Néanmoins, en proposant une analyse supplémentaire en vue de détecter la présence
ou l’absence des fractures sur les radiographies, il intervient dans la tâche d’interprétation des
images et occupe une place d’un outil qui a pour objectif d’aider à la détection des fractures et
donc au diagnostic.
Si au début le système s’adresse notamment aux radiologues, il est également mis en place à
disposition des médecins urgentistes hospitaliers ou ceux des cliniques et qui sont
particulièrement confrontés aux cas de traumatologie. Ces urgentistes sont souvent les premiers
à regarder les radiographies (notamment les nuits ou les week-ends quand les radiographies
sont interprétées le lendemain par les radiologues), voire les seuls dans certaines structures
particulièrement concernées par le manque des radiologues. Dans tous les cas, l’objectif est de
venir en aide aux urgentistes dans l’interprétation de ces radiographies.
Par ailleurs, des réflexions sont proposées au sujet de la mise à disposition du système DF pour
les manipulateurs. D’une part, un projet en discussion est évoqué dans une des structures (CH2)
sur une nouvelle fonctionnalité du système d’évaluation de la qualité des images qui fait partie
du travail des manipulateurs. L’objectif serait de les aider dans l’évaluation de cette qualité
d’images, essentielle pour soutenir les tâches d’interprétation et d’analyse faites par les
radiologues. D’autre part, certaines structures réfléchissent en termes d’accès aux résultats du
système pour des manipulateurs pendant l’acquisition des images. L’objectif est de permettre
et inciter ces manipulateurs à alerter dans certains cas le radiologue sans attendre qu’il consulte
les images de l’examen. Actuellement, ils peuvent certes le faire en cas d’urgences identifiées
pendant l’acquisition des images, mais ce n’est pas systématique.

Pour résumer, la mise en place d’un système d’IA, comme on a pu voir à travers les exemples
de la dictée RV et le système DF, implique nécessairement d’organiser ou de réorganiser le

64 Elles comprennent des entreprises (des grands groupes ou des start-ups) développeuses ou des
entreprises intermédiaires qui font de la distribution des différents systèmes d’IA.

144
travail entre les travailleurs de différents métiers et le système selon les objectifs poursuivis.
Cette organisation du travail en impliquant un système d’IA conduit à expliciter la répartition
des tâches et donc les manières dont ce système peut être utilisé et par qui. Si la mise en place
des systèmes d’IA amène à questionner et repenser l’organisation du travail, les usages de ces
systèmes ne sont pas non plus neutres et auraient des effets transformatifs au niveau des
activités de travail.

4.2.4. Les usages du système de dictée à reconnaissance vocale pour la


production d’un compte-rendu et leurs incidences sur le travail

4.2.4.1. L’activité complexe de réalisation d’un compte-rendu de « qualité » : plus


qu’une « simple » dictée du contenu
Le système de dictée à reconnaissance vocale (RV) est mobilisé par les radiologues dans une
activité de réalisation d’un compte-rendu radiologique dont l’objectif est de donner « tous les
éléments utiles à la prise en charge de la pathologie suspectée » (Radiologue 7). Depuis la mise
en place de cette dictée dans la structure étudiée, la majorité des radiologues dicte leur CR à
l’aide de ce système. Bien qu’à certains moments des mots ou des phrases soient saisis
manuellement, le contenu principal est dicté par les radiologues et transcrit automatiquement
par la reconnaissance vocale dans une interface de traitement de texte.
L’activité de réalisation d’un CR implique de produire un contenu exhaustif, claire (sans avoir
plusieurs interprétations possibles, c’est-à-dire que le niveau de certitude du radiologue doit
être clairement exposé) et compréhensible pour répondre aux questions posées. Un « bon » CR
est globalement décrit comme étant court et répondant à la question posée de manière
synthétique et exhaustive, dans lequel on trouve des informations utiles (pertinentes par rapport
à la question posée, à la spécialité du clinicien et ses compétences supposées) sans les mots
inutiles et qui annonce le niveau de certitude du radiologue avec une conclusion sans
informations secondaires. Plus précisément, un compte-rendu de qualité réunirait plusieurs
critères, d’une part, de qualité que l’on peut considérer de « fonctionnelle » et d’autre part, de
qualité que l’on peut nommer « esthétique ». La qualité « fonctionnelle » renvoie à la qualité
du contenu (par exemple, la pertinence des résultats communiqués, un CR court pour la plupart
des radiologues ou au contraire, un CR avec les formulations « des belles phrases ») et à la
qualité du diagnostic (par exemple, un diagnostic établit de manière continue sans interruptions
majeures et avec une analyse systématique des images). Quant à la qualité « esthétique », elle
englobe la qualité orthographique (par exemple, des fautes d’orthographes, des fautes de frappe

145
ou encore des fautes de formulations) et la qualité de mise en page (par exemple, avec la
manière d’organiser les paragraphes, surligner ou mettre en gras certains passages etc.). Il est à
souligner que la qualité « esthétique » a bien évidemment un rôle important dans la production
et la transmission d’informations.
Réaliser un compte-rendu radiologique est une activité plutôt complexe et itérative qui consiste
à analyser, croiser et synthétiser de nombreuses informations. Elle implique de faire des allers-
retours entre le cas clinique du patient, la demande et les interrogations du clinicien et les images
d’examen. Le compte-rendu se construit donc au fur et à mesure, en alternant l’analyse et la
synthèse de ces différentes informations. Bien que les radiologues soient amenés à apprendre
des termes, des formulations des phrases pour la réalisation d’un CR et à respecter un certain
contenu de base65, ils ont une certaine liberté dans la formulation et la rédaction d’un CR qui
reste propre à chaque radiologue. Ainsi, les façons de réaliser un CR peuvent varier d’un
examen à l’autre mais aussi d’un radiologue à l’autre. Toutefois, pour les examens assez
typiques (par exemple les radiographies), les radiologues ont tendance à analyser les images et
dicter un CR en même temps ou en parallèle en alternant ces deux tâches. Puis, ils regardent et
analysent l’ensemble des images sans dicter, pour enfin revenir et apporter des ajouts ou des
modifications dans le contenu du CR. Pour les examens plus complexes (par exemple, des
scanners ou des IRM) dont les CR peuvent être relativement longs, les radiologues commencent
par analyser les images : certains vont prendre des notes, d’autres vont commencer à dicter des
éléments descriptifs. C’est alors après cette première analyse, qu’ils vont dicter le contenu entier
du CR mais tout en gardant un œil de façon continue sur les images.

4.2.4.2. La construction du contenu et de la forme d’un compte-rendu intelligible et


pertinent soutenue par la dictée à reconnaissance vocale
En permettant de dicter le contenu du CR au fur et à mesure des analyses des images et surtout
de visualiser en temps réel ce contenu, les radiologues expliquent que l’usage de la dictée RV
favoriserait et contribuerait à des stratégies de construction des CR tant au niveau de la forme
qu’au niveau du fond.

65 En plus des données médico-légales (par exemple, la dosimétrie) et des données du patient qui sont

automatiquement renseignées (au sein de la structure étudiée), un compte-rendu radiologique doit


habituellement contenir : une indication (les informations qui se trouvent souvent dans la demande d’examen :
les questions posées, la pathologie suspectée etc.), une technique (utilisée pour faire l’examen), des résultats
(l’interprétation des images, les analyses du radiologue) et une conclusion (la conclusion des résultats, la réponse
aux questions posées). Ayant une valeur juridique, à la fin de chaque CR, le nom du médecin radiologue est
indiqué.

146
Susceptibles d’impacter directement la compréhension du contenu, il s’avère que la forme
visuelle et la formulation des phrases ont une forte importance dans un CR qui est façonné par
le radiologue en fonction de la spécialité de son destinataire clinicien. Pour certains radiologues,
ce CR est un « outil d’échange » avec les autres médecins et donc un « outil vivant » qui peut
être d’ailleurs réutilisé dans le temps. Pour ces raisons, un CR doit être à la fois pertinent à un
instant donné mais doit également garder de la valeur et de la pertinence dans le temps. Pour
cela, le radiologue doit évaluer la pertinence et les objectifs de ses analyses qu’il communique
et procéder à des ajustements dans le contenu du CR. Si certains ont l’habitude d’utiliser des
phrases longues, d’autres privilégient les formulations plus courtes avec l’argument que les
cliniciens n’ont pas le temps de lire entièrement un compte-rendu. Ainsi, les cliniciens, ayant
besoin d’avoir la réponse et le message principal rapidement, auraient tendance à aller
directement à la conclusion alors que l’objectif d’un radiologue qui produit un CR est qu’il soit
lu et que les différents éléments comme les doutes soient identifiés. Pour cela, les radiologues
peuvent avoir recours à différentes stratégies, par exemple au niveau de la conclusion. Certains
vont apporter des conclusions intermédiaires dans les résultats plutôt que de faire une
conclusion générale, d’autres vont omettre la conclusion quand ils estiment que le CR de
l’examen devrait être lu en entier. D’autres stratégies portent aussi sur la mise en page et l’aspect
visuel du CR66 qui devrait faire ressortir l’information principale à transmettre au clinicien.
Les analyses montrent que l’usage de la dictée RV permet aux radiologues de pouvoir
visualiser, organiser et réorganiser le contenu du CR en temps réel, ce qui était plus difficile
pour eux avec les enregistrements transcrits par les secrétaires et visualisables a posteriori.
Cette visualisation du CR favorise et facilite des modifications du contenu en fonction de
l’analyse continue des images. Par ailleurs, d’après certains radiologues, le fait de dicter et
d’alterner cette dictée avec l’analyse des images contribuerait à la structuration et la
systématisation de l’analyse radiologique. L’usage de la dictée RV, rendant plus facile cette
alternance des tâches, participerait alors au développement d’une analyse systématique des
images qui est nécessaire pour certains types d’examens afin de ne pas oublier un certain
nombre d’éléments à analyser et décrire. En outre, cette systématisation, voire standardisation,
est favorisée par l’utilisation des comptes-rendus « types » de la part des radiologues observés
qu’ils soient novices (des internes) ou experts (des seniors). Ces CR « types », soient des
canevas avec un contenu prédéfini, sont devenus plus accessibles avec la mise en place de la

66 Même si les éléments de la mise en page peuvent être dictés (et certains de ces éléments sont en effet
dictés comme la ponctuation), les radiologues réalisent plutôt manuellement cette mise en page (réorganiser les
paragraphes, mettre certains passages en gras etc.).

147
dictée RV même s’ils existaient déjà avant sous une autre forme. Ces CR sont modifiés et
adaptés en fonction des résultats d’interprétation des images et du diagnostic, ce qui est plus
facile et rapide pour certains types d’examens.
L’usage de la dictée RV avec une nouvelle division du travail en termes de répartition des
tâches, semble aussi favoriser la validation immédiate du CR qui ne se fait plus plusieurs jours
après (ce qui nécessitait pour le radiologue de se remémorer le cas potentiellement oublié)
comme c’était le cas sans la dictée RV :
« Je pense que ça aurait tendance à l’améliorer, en tout cas essentiellement parce que le
compte-rendu, là, il est frais du coup. Il est revu, et si les gens font le jeu, c’est-à-dire qu’ils le
valident directement, c’est-à-dire qu’ils sont sûrs, ils ont tout bien fait à un temps donné. Donc
il a une meilleure qualité parce qu’il est disponible tout de suite, en fait, intrinsèquement, et
qu’il est connecté à la réalité du moment, à la question qui est posée. Il n’est pas revalidé
plusieurs jours après lorsqu’on ne se souvient pas trop, qu’on en a 40 à valider, et que du coup,
il faut qu’on fasse autre chose dans la journée, donc on les valide très vite. » (Radiologue 10).
Globalement, l’usage de la dictée RV contribuerait à l’amélioration de la qualité de diagnostic,
d’une part grâce aux analyses systématiques des images favorisées par l’amélioration de la
qualité de mise en page facilitée et désormais réalisée en temps réel, et d’autre part, grâce aux
validations immédiates des CR facilitées par la nouvelle répartition des tâches suite à la mise
en place de la dictée RV.
Néanmoins, les enjeux relatifs à l’acte de validation d’un CR méritent d’être précisés. Il faut
tout d’abord comprendre qu’une fois le contenu d’un CR est réalisé, il doit être validé afin qu’il
soit accessible et transmis aux destinataires. A ce niveau, il y a deux types de validation : une
validation « définitive », c’est-à-dire que le CR devient immodifiable67 et une validation
« préliminaire », ce qui signifie que le CR reste modifiable et devient accessible uniquement
pour des consultations dans le réseau interne 68. Il s’avère qu’au-delà des radiologues internes
(en formation) qui doivent à certains moments et peuvent à leur initiative de mettre un CR en
« préliminaire », certains radiologues seniors, considérés par certains comme « soucieux » ou
« anxieux », ont aussi tendance à mettre les CR en « préliminaire » avec l’objectif de revenir
dessus et apporter des corrections. Or, dû au manque de temps et aux oublis, ces CR peuvent
rester longtemps en « préliminaire » et ne pas être validés de façon définitive. Cela pose un
problème69 en particulier dans le cas des patients externes qui ne reçoivent pas leur CR à temps

67 En cas de modifications à apporter, il faut ajouter un addendum.


68 Il est donc inaccessible aux patients et médecins externes de l’hôpital.
69 De plus, juridiquement cela peut être aussi problématique en cas de contrôle des dossiers.

148
et ce qui peut engendrer des relances de leur part ou de la part de leurs médecins auprès des
secrétaires. Il semblerait que cette problématique soit corrélée à la mise en place de la dictée
RV avec la nouvelle répartition des tâches. En effet, les secrétaires n’interviennent plus sur les
CR donc elles ne relancent plus vraiment les radiologues pour les validations (sauf les cas de
sollicitations de la part des patients ou médecins) alors qu’avant la dictée, elles se chargeaient
directement de faire valider le CR par le radiologue en charge. De plus, les enjeux autour de cet
acte de validation « définitive » pourraient être d’autant plus notables dans les conditions où la
dictée RV comporte plusieurs limites en commettant des erreurs de transcription et qui ne sont
plus « rattrapées » par les secrétaires, suscitant un sentiment de perte de sécurité pour les
radiologues. La partie suivante présente alors ces éléments de manière plus détaillée.

4.2.4.3. Les limites de la dictée à reconnaissance vocale : un risque de dégradation de la


qualité orthographique et une perte de sécurité avec la fragilisation du collectif
Malgré les apports de la dictée, les analyses révèlent que le radiologue peut se confronter à
certaines difficultés d’usage de ce système pour la réalisation d’un CR. Par exemple, il peut être
amené à contrôler et corriger de manière systématique le texte transcrit par la dictée. En effet,
dans le cas étudié, plusieurs radiologues ainsi que les secrétaires ont exprimé un manque de
performance du système : il s’agit de fautes d’orthographe, de mots mal transcrits ou encore de
fautes de grammaire. Certains expliquent que ces limites du système sont une source de perte
de temps pour les radiologues et génèrent un sentiment d’agacement et d’irritation. Face à ces
erreurs du système, les radiologues se disent d’être dans l’obligation de prêter plus d’attention
à l’orthographe. Ils doivent aussi être vigilants sur des mots mal reconnus qui peuvent modifier
le sens des phrases ou les rendre inintelligibles. Pour cela, ils sont amenés à relire
systématiquement leurs CR et apporter des corrections. Bien qu’il y ait un fort attachement à
l’orthographe et au contenu de la part de certains radiologues, des erreurs peuvent passer
inaperçues lors de la relecture (qui peut être rapide ou difficile dans des conditions de fatigue)
ou encore créer des incompréhensions du contenu pour le radiologue lui-même, ce qui peut
compliquer la tâche de correction. La mention que le compte-rendu est fait par reconnaissance
vocale a donc été ajoutée « pour excuser s'il y a quelques fautes qui apparaissent encore »
(Informaticien). Cette tâche de relecture et la surveillance permanente du texte transcrit par la
dictée auraient tendance à augmenter la charge de travail de ces radiologues dans l’activité de
réalisation de CR qui est déjà complexe. Certains estiment alors que l’usage de la dictée RV
change leur façon de travailler en les incitant à se concentrer sur la forme du CR :

149
« je trouve que ça a changé ma façon de travailler quand même où je fais un peu, bah je fais
de la dactylo quoi je fais un peu la secrétaire, euh… et je trouve que on se concentre sur de…
de la forme de compte-rendu et on perd un peu la concentration du fond du compte-rendu qui
était mon job initial » (Radiologue 2).
Certains radiologues et secrétaires évoquent aussi le risque de la dégradation de la qualité du
CR mais qui concerne davantage la qualité orthographique des CR incluant la formulation des
phrases qui n’ont pas de sens. Par exemple, des mots mal reconnus par la dictée peuvent
modifier le sens des phrases ou les rendre inintelligibles70.
Dans ces conditions, avec la nouvelle configuration du travail intégrant la dictée RV et sans la
relecture des secrétaires, les radiologues expriment alors une perte de sécurité au niveau du
contrôle de leur CR garantissant une certaine qualité :
« la secrétaire apportait un élément de contrôle. Ce qui n'est plus le cas aujourd'hui. (…) C'est-
à-dire que quand on dit une grosse bêtise dans un compte rendu, qu'on dicte en reconnaissance
vocale et qu'on va valider ou pas, à un moment donné on finira bien par le valider, le seul
contrôle c'est la personne qui a dicté. Alors qu'avant (…) Ça arrivait de façon non
exceptionnelle que la secrétaire dise : « Non, là tu as dit que le patient a été opéré ou il a eu
ça, mais non, ce n'est pas vrai. » Souvent les secrétaires venaient nous voir en disant : « Non,
il y a un truc qui ne va pas », ou une phrase pas claire, ou tu te contredis entre l'introduction
et la conclusion. Souvent la secrétaire venait nous voir, elle nous redonnait les comptes-rendus
avec des points d'interrogation et on disait : « oui, il y a un problème. » Alors qu'aujourd'hui,
cette barrière, cette espèce de contrôle exercé par la secrétaire n'existe plus. » (Radiologue 1).
Contrairement à la dictée RV, les secrétaires qui « sont des gens sérieux et qui réfléchissent »
(Radiologue 1), constituaient « une barrière humaine de sécurité » pour garantir la pertinence
et la cohérence des CR. En effet, les secrétaires étaient en capacité de relever par exemple des
incohérences dans le contenu et alerter le radiologue. Ainsi, un CR s’apparentait à un support
de création, une production collective des radiologues et des secrétaires avec une relation de
confiance. La contribution des secrétaires était par ailleurs reconnue et reconnaissable à travers
leurs initiales indiquées dans le CR. Tandis qu’avec la dictée RV, seul le radiologue est le garant
de la qualité qui peut être compromise avec l’augmentation de sa charge de travail. La relecture
et la correction du CR effectuées par le radiologue ne sont plus tout à fait les mêmes que lorsque
les CR étaient transcrits par les secrétaires. En effet, les radiologues, faisant confiance aux
secrétaires, relisaient plutôt rapidement leur CR transcris et déjà corrigé par les secrétaires.

70 Toutefois, le risque global sur l’impact de la prise en charge du patient serait faible d’après les participants.

150
Tandis que face à des erreurs de la dictée RV obligeant à relire le CR de manière plus attentive,
la confiance envers le système peine à s’installer. Enfin, avec une perte d’une partie
relationnelle et d’une proximité entre médecins et secrétaires, ce collectif se manifesterait
désormais à travers d’autres tâches comme des échanges ponctuels ou la gestion des rendez-
vous et l’élaboration des plannings des radiologues par les secrétaires. Dans tous les cas, ce
collectif semble se fragiliser :
« C’était une relation de confiance aussi (…) on a tellement l’habitude de certaines formules
avec des médecins, parce qu’on tape, toujours, à peu près les mêmes médecins (…) c’est
relationnel aussi et ça, ça nous a manqué quand même » (Secrétaire 2).

4.2.4.4. L’acquisition des connaissances sur les performances et les limites de la dictée
à reconnaissance vocale : stratégies d’ajustements et d’adaptations des
radiologues
Il existe tout de même des possibilités d’améliorer le fonctionnement et la performance de la
dictée RV en faisant un apprentissage des corrections à apporter ou des nouveaux mots. Or, les
apprentissages du système s’avèrent plutôt contraignants pour certains radiologues. Tout
d’abord, ils doivent configurer leur profil vocal pour permettre à la dictée de reconnaître leur
voix. Mais ce qui est la plus problématique, ce sont certaines demandes de (re)configuration du
profil vocal de la part du système qui n’arrivent pas toujours au moment opportun :
« Ce qui m’énerve aussi, c’est que très régulièrement il redemande d’enregistrer un texte pour
reconnaître mon profil vocal (…) parfois ce n’est pas embêtant, mais parfois on a envie de
démarrer l’ordinateur parce qu’on nous demande un avis au téléphone, et il y a ce truc qui se
fait au démarrage » (Radiologue 7).
Un autre problème concerne également l’opacité ou un manque d’explicabilité de
l’apprentissage des nouveaux mots et de l’amélioration de la dictée RV. Les radiologues
peuvent manuellement réaliser un apprentissage spécifique de certains mots ou des phrases. Or,
malgré les contributions systématiques des radiologues dans cet apprentissage, le système ne
semble pas toujours prendre en compte ces contributions. Il s’avère que la validation et
l’intégration de ces apprentissages ne sont pas immédiates car elles doivent être effectuées
manuellement de la part du développeur du logiciel. Après plusieurs contributions sans succès,
certains radiologues arrêtent d’effectuer ces apprentissages, ce qui évidemment freine
l’amélioration de la performance du système : « souvent il faut corriger plusieurs fois, pour
qu’il finisse par le prendre en compte, mais il y a des choses que je vais corriger 50 fois, et que
j’ai arrêté de le faire parce qu’il ne veut pas comprendre » (Radiologue 7).

151
Les limites du système qui manque de performance sont décelées au fur et à mesure de son
usage, ce qui signifie que les radiologues acquièrent un ensemble de connaissances sur les
limites et les performances du système. Afin de tirer profit de l’usage de la dictée RV, ces
connaissances permettent de pallier les limites du système à travers les adaptations, les
ajustements et les stratégies d’anticipation de la part des radiologues.
Effectivement, il s’avère que le système rencontrerait certaines difficultés à transcrire
correctement le texte quand il est dicté avec un rythme et un langage naturel. Les radiologues
découpent alors les phrases dictées et surveillent en même temps la transcription du texte pour
savoir à quel moment ils peuvent continuer à dicter le reste du texte. Ainsi, ils s’adaptent à la
vitesse de transcription de la dictée RV en prenant en compte ces limites de performance. Afin
d’avoir une transcription correcte de qualité, ce radiologue explique en effet qu’il adapte son
rythme en découpant ses phrases :
« Quand on veut assurer, on parle un peu comme des robots. On va découper... (…) Si je vais
dicter ça, on va dire : « Madame virgule Monsieur virgule à la ligne Je vous remercie de bien
vouloir » on va parler comme ça. Quand il y a des étudiants qui sont là, ils nous prennent un
petit peu pour des farfelus. En parlant comme ça, en découpant bien, ça marche mieux. C'est
un peu agaçant d'être obligé de parler comme ça. Mais on y gagne, au final, en qualité. (…)
On s'en rend compte à l'usage. Et on se rend compte aussi que, quand on découpe un peu, c'est
plutôt un peu mieux. » (Radiologue 1).
Pour limiter les erreurs de grammaire commises par la dictée, le radiologue doit être vigilant
sur la vitesse et ce découpage de ses phrases :
« pour qu’il prenne en compte quelque chose, il faut le dicter assez rapidement, il ne faut pas
s’arrêter au milieu d’une phrase sinon il va perdre le fil et il va perdre l’accord avec le mot qui
est avant. Si je commence « la radiographie… », que je me retourne pour regarder quelque
chose parce que le manipulateur m’interpelle, et je continue « normale », il va le mettre « al »,
c’est sûr (…) il faut savoir que si on s’arrête il va falloir faire attention au mot qui va suivre
l’arrêt » (Radiologue 7).
Par ailleurs, l’environnement parfois bruyant et la présence des autres personnes avec
différentes interruptions peuvent altérer la performance technique du système ainsi que le
processus de la dictée elle-même. Un manque de performance du système sur la reconnaissance
et la transcription correcte de certains mots, incite également les radiologues à faire attention
au choix des mots, ce qui n’était pas forcément le cas quand la transcription était effectuée par
les secrétaires. De fait, pour limiter les corrections, ils cherchent à réduire les erreurs de
transcription en privilégiant certains mots que le système est censé connaitre et transcrire

152
correctement, ce qui pourrait contribuer à une certaine forme de standardisation des CR. Une
autre stratégie de limitation des erreurs pour réduire le temps de correction consiste à privilégier
les phrases et un CR court dans son ensemble. Avec la dictée RV, les radiologues auraient
tendance à réduire le volume de leur CR : plus le CR est long, plus le risque d’erreurs de
transcription, d’orthographe ou encore de grammaires est élevé. Dans ce contexte, les
problèmes de transcription de la dictée RV conduisent d’une certaine manière à prescrire,
imposer ou au moins mettre en avant un CR court et succin comme un des premiers critères de
qualité. Cela peut ébranler le sentiment de « travail bien fait » de certains radiologues pour qui
formuler « des vraies phrases » est aussi une satisfaction et un des critères de travail de qualité :
« Des fois, on peut laisser passer un truc qui veut absolument rien dire parce qu'on a relu mais
on a les yeux fatigués et puis on a sauté une phrase, donc il part un truc mais horrible, qui veut
rien dire (…) ça oblige à faire des comptes-rendus plus concentrés, avant je pouvais faire des
belles phrases maintenant je n’en fais plus » (Radiologue 2).

4.2.5. Les usages du système de détection des fractures dans l’activité


d’interprétation des radiographies et leurs incidences sur le travail

4.2.5.1. Le système de détection des fractures en « première » ou « seconde » lecture

Pour les radiologues participants, l’usage du système de détection des fractures (DF) s’inscrit
dans l’activité d’interprétation ou de « lecture »71 des radiographies en tant qu’outil d’aide. En
proposant une analyse automatique des images des radiographies, ce système fournit trois types
d’informations selon son niveau de certitude et en indiquant les zones de fracture sur les images.
Ce sont les seuls éléments d’explications donnés sur les résultats du système. Elles sont
remontées au radiologue sans besoin d’une manipulation spécifique : absence de fracture
(Figure 18), une ou plusieurs fractures probables (Figure 19) et présence d’une ou plusieurs
fractures (Figure 20). Deux principales modalités sont identifiables dans les usages du système
DF mobilisé pour les activités d’interprétation des radiographies.

71 Le terme utilisé par les radiologues.

153
Figure 18. Résultats du système DF : absence de fracture

Figure 19. Résultats du système DF : fracture probable (doute)

Figure 20. Résultats du système DF : présence d’une fracture

Selon le premier, qui est celui préconisé dans la plupart des structures participantes, le système
DF occupe un rôle complémentaire dans cette activité pour une « seconde lecture », ce qui
signifie que les radiologues ou les urgentistes devraient consulter les résultats du système
seulement après avoir analysées les images indépendamment des résultats du système :
« On voit quelque chose, on se tourne vers (système DF) soit il confirme, soit il ne confirme pas
et à ce moment-là on fait une analyse de données et on regarde. De toute façon c’est le

154
radiologue qui a le dernier mot. (…) le principe il est de faire l’analyse de la radio d’abord et
ensuite de s’appuyer sur le logiciel » (Radiologue 12).
Toutefois, il n’est pas toujours possible de procéder systématiquement de cette manière,
notamment dans les cas où un aperçu des résultats du système est affiché à l’ouverture du
dossier d’un patient. Cet aperçu informe le radiologue sur les fractures présentes ou probables
et oriente potentiellement la façon d’interprétation. Pour certains radiologues, cet aperçu des
résultats permet d’anticiper le contenu du compte-rendu et facilite l’utilisation des comptes-
rendus « types » qui sont préremplis selon la typologie de diagnostic (normal-anormal etc.) et
validés seulement après l’analyse des images par le radiologue :
« c’est une cheville, donc, en principe je clique dessus et puis tout de suite, dans mon système
d’information médicale, j’ai des petites imagettes et j’ai le résultat de l’analyse de l’intelligence
artificielle, c’est marqué : « no fract. » (…) Donc, j’ai déjà un aperçu donc je sais que je vais
pouvoir balancer mon compte rendu type « cheville normale » » (Radiologue 11 – Extrait
Observation Structure C2).
Du côté des urgentistes, certains affirment utiliser le système en « seconde lecture » : regarder
d’abord les images puis consulter les résultats du système. Mais, les résultats du système
orienteraient quand même l’œil de l’urgentiste : « des fois ça te facilite, au lieu de chercher
partout, des fois elle te dit, il y a un truc à cet endroit-là et bien je vais aller voir à cet endroit-
là précis » (Urgentiste 3).
Avec une prévisualisation automatique des résultats du système mais aussi dans des situations
de fatigue, le système DF peut donc s’imposer en « première lecture » : « Après je ne vous dis
pas que quand on est crevé, quand on en a ras le bol et machin, on va direct à (système DF) et
puis quand il nous montre la fracture on dit de toute façon je l’aurais vu. » (Radiologue 12).
Cela signifie que les radiologues ou les urgentistes regardent directement les résultats fournis
par le système et les infirment ou confirment, en quelques secondes : « J’avoue que je regarde
d’abord (système DF), parce que je me fais tout de suite mon idée, c’est-à-dire s’il dit négatif,
s’il dit positif on va tout de suite aller voir ce qu’il dit et vérifier qu’il n’y a pas une autre
fracture qui n’a pas été vue. » (Radiologue 13). Ce rôle du système DF mobilisé en premier se
développe dans le temps, en particulier quand les utilisateurs commencent à connaître les
performances et les limites du système : au lieu d’interpréter les images de manière autonome
sans le système, ils vont désormais consulter directement les résultats du système dans les cas
où ils cherchent un ou plusieurs types de fractures et pour lesquelles ils savent que le système
est performant. Dans ces cas, certains vont attendre les résultats du système (s’ils ne sont pas
encore disponibles au moment de l’interprétation) avant d’interpréter les images et faire un

155
compte-rendu. Pour ces radiologues, le fait d’attendre est d’autant plus judicieux quand le cas
clinique relève de la traumatologie et donc l’usage du système DF a toute sa place.

4.2.5.2. L’acquisition des connaissances sur les performances et les limites du système
de détection des fractures et le développement de la confiance
Globalement, la performance technique du système pour la détection des fractures semble
satisfaisante pour la plupart des médecins mais sa fiabilité reste relative face à des fausses
fractures détectées (des faux positifs) ou encore certaines fractures évidentes non détectés (des
faux négatifs qui sont plus rares). Toutefois, ils constatent une amélioration de la performance
du système au fur et à mesure de leurs utilisations. Par ailleurs, ils ont la possibilité de contribuer
à l’amélioration du système en transmettant au développeur/concepteur des cas intéressants ou
des cas des faux positifs ou négatifs, à l’aide d’une plateforme dédiée. Bien que certains
radiologues aient recours à cette contribution, d’autres le font plus rarement ou sont plus
réticents vis-à-vis du partage de leurs données ayant une certaine valeur.
L’acquisition des connaissances sur les performances et les limites du système se fait à travers
les usages qui permettent d’évaluer le système en le mettant à l’épreuve du réel :
« ils (les radiologues) ne savaient pas si le logiciel allait marcher, n’allait pas marcher, etc.,
et au fur et à mesure des exemples qu’ils ont vus avec des fois des cas faciles, et des fois des
cas difficiles, ils ont commencé à se dire « merde, le logiciel marche bien », et après il arrive à
détecter aussi des points avec des zones, et nous, en regardant, on a l’impression qu’il n’y a
rien. (…) ils te disent « écoute, il m’a poussé une zone de fracture, mais moi, je ne vois rien sur
la radio, qu’est-ce que tu en penses, est-ce que c’est un faux positif ou est-ce que ce ne serait
pas une fracture occultée ? », c’est-à-dire une fracture que l’on ne peut pas voir en radio, et ça
dépend des zones. Moi, je le sais parce que je connais les performances du logiciel en fonction
des zones, je sais qu’il y a certaines zones où il ferait très, très, très peu de faux positifs et où il
est particulièrement bon » (Radiologue 6).
Cet apprentissage, contribuant fortement au développement et à la construction de la confiance
envers le système intervenant dans le diagnostic, serait essentiel pour son usage « optimal »,
éclairé et sans risques d’après les participants. Trois grandes phases sont identifiées par certains
en matière d’acquisition de ces connaissances et du développement de la confiance qui
l’accompagne :
- la première phase sans connaissances sur les capacités du système où face à des doutes
le radiologue contrôlerait systématiquement les résultats du système,

156
- la deuxième phase dite de « confiance aveugle » (Radiologue 11) où le radiologue
surestime les performances et la fiabilité du système,
- la troisième phase où le radiologue se rend compte des limites du système (par exemple,
des faux négatifs) et « se dit, attention finalement, est-ce que l’intelligence artificielle
n’a pas raté quelque chose quand même » (Radiologue 11).
Plusieurs participants évoquent alors un risque qu’à certains moments, cette confiance puisse
devenir une sur-confiance envers le système. Bien que pour certains se fier aux résultats du
système sans les critiquer ou sans pouvoir les critiquer pourrait entrainer des erreurs, pour
d’autres, ce risque de confiance aveugle ou d’erreurs serait faible dans les conditions où les
radiologues connaitraient les limites du système (par exemple, plus ou moins fiable selon le
type de patients) et seraient donc vigilants. Le radiologue suivant illustre ce point en relatant
les faiblesses des capacités du système dans le cas des images pédiatriques et qui demande une
certaine vigilance :
« Il y a très peu de risques avec ce genre de logiciel. C’est peut-être plus compliqué dans
d’autres types de logiciels, mais là pour les fractures des os longs franchement ce n’est pas très
risqué. On est plus vigilant, on le sait, parce qu’il y a eu quelques couacs avec la radio
pédiatrie, mais sinon pour les adultes le risque qu’on se plante en ne faisant confiance qu’au
logiciel il est quasi nul. » (Radiologue 12).
Malgré ce point de divergence sur le niveau de risques lié à la confiance envers le système DF,
pour la plupart des radiologues, il est nécessaire de garder le contrôle sur l’interprétation des
images et de remettre en question les informations fournies par le système qui a ses limites. Par
exemple, lors des analyses des images, contrairement aux radiologues, le système DF ne prend
pas en compte la qualité des images et la manière dont un examen a été réalisée (par exemple,
les images de certains examens réalisés debout ou assis ne peuvent pas être interprétés de la
même manière) qui entrent pourtant en ligne de compte pour l’interprétation. Cependant, cette
exigence de contrôle peut faire surgir un problème de perte de temps potentielle liée au temps
de vérification des résultats du système.
Par ailleurs, dans la première version du système DF observée, le système ne peut détecter que
des fractures, tandis qu’interpréter les images radiologiques signifie analyser de nombreux
autres éléments en vue d’établir un diagnostic : « La fracture, je l’ai vue tout de suite, mais
après je passe mon temps à aller zoomer sur d’autres zones qui ne sont pas concernées, pour
aller détecter d’autres anomalies. » (Observation Radiologue Structure C3). En ce sens, le
développement d’une confiance des radiologues envers le système comporte aussi un risque de
négliger d’autres aspects des images, d’autres fractures ou anomalies et de rester focalisé sur

157
les seules informations fournies par le système, comme l’explique ce radiologue : « des fois, on
fait tellement confiance à (système DF) on ne regarde plus les luxations » (Radiologue 11).
Face à une fracture détectée, les radiologues auraient tendance à analyser plus rapidement et à
moins chercher d’autres fractures et anomalies. Certains parlent alors d’un « biais de
satisfaction » qui pourrait potentiellement être réduit par l’usage du système qui indiquerait
« les fractures un peu plus subtiles qu’on aurait ratées si on va trop vite. » (Radiologue 11).

4.2.5.3. Les modalités d’interprétation des images et la construction du sens des résultats
du système de détection des fractures
Avec le développement de la confiance, l’usage du système DF n’est donc pas neutre, c’est-à-
dire que dans une certaine mesure il oriente le radiologue dans l’activité d’interprétation des
images :
« en pratique, ce qui se passe, comme le logiciel est vraiment très bon, en vrai, je passe moins
de temps à me faire ma propre opinion, quand le logiciel me met « no fract », je me dis « si le
logiciel n’a rien vu et que moi, comme ça, en regardant rapidement, je ne vois rien, c’est que
probablement, il n’y a rien » (…) donc finalement, ça m’influence, mais parce que je fais
confiance au logiciel » (Radiologue 6).
Amenés à jongler entre les images initiales et celles avec une indication des résultats du
système, les radiologues adaptent leurs façons d’interpréter les radiographies en fonction du
type de résultat donné par le système DF. Par exemple, quand le système DF détecte une
fracture, certains expliquent qu’ils passent plus de temps à chercher d’autres fractures que le
système n’aurait pas vues, alors que d’autres se concentrent d’abord sur la confirmation de cette
fracture détectée. A contrario, quand le système ne détecte pas de fracture, certains vont
procéder à l’analyse telle qu’elle était réalisée sans le système DF, c’est-à-dire orientée
principalement selon le contexte clinique, par exemple regarder en premier l’endroit douloureux
du patient puis, analyser les autres zones des images. D’autres, confortés dans leur analyse par
le fait que le système ne détecte pas non plus de fracture, auront tendance à défiler et interpréter
plus rapidement l’ensemble des images. Quel que soient les façons et processus d’interprétation,
c’est toujours le radiologue qui valide son diagnostic final et réalise un compte-rendu.
Afin de pouvoir prendre en compte les résultats du système dans l’interprétation et le diagnostic,
les radiologues doivent d’abord donner du sens à ces résultats. Autrement dit, ils doivent les
interpréter en mobilisant leur expertise du domaine, leurs connaissances sur les performances
et limites du système ainsi qu’en prenant en compte la situation clinique ou en faisant des
examens complémentaires. Plusieurs éléments expliquent la nécessité de construire un sens des

158
résultats du système DF qui ne pose pas de diagnostic et ne répond pas au problème clinique.
En effet, ce sont les radiologues (ou les urgentistes) qui apportent des réponses aux questions
et aux problèmes cliniques en établissant un diagnostic 72.
Tout d’abord, le système, contrairement au radiologue capable de situer la même fracture sur
différentes images d’un même membre, fait une analyse image par image et ne fait pas de lien
entre ces différentes images. Par conséquent, le radiologue doit s’assurer que le système a
analysé l’ensemble des images73. Ensuite, les informations données par le système ne sont pas
toujours utiles ou pertinentes. Par exemple, dans le cas des examens de contrôle de l’évolution
des fractures, le système détecte systématiquement une fracture. Il est alors techniquement
performant mais non pertinent et utile pour le radiologue qui doit analyser et s’exprimer sur
l’évolution de cette fracture et non sur sa présence. Dans ce cas de figure, le radiologue est
amené à juger de la pertinence et de l’utilité des résultats du système vis-à-vis de son objectif
de diagnostic. Enfin, en cas de doutes ou de discordances avec les résultats du système, les
radiologues74 se réfèrent explicitement à la clinique (revoir les informations indiquées sur la
situation du patient, les demander aux manipulateurs, rencontrer le patient si c’est possible etc.).
Certains radiologues constatent que les doutes du système concerneraient souvent à l’absence
de réelles fractures, à des fractures anciennes ou encore à des lésions sans impact majeur sur la
prise en charge du patient. Par exemple, dans la situation suivante, le radiologue est face à un
doute indiqué par le système qui s’avère être une anomalie sans impact pour le patient même
s’il la mentionne dans le compte-rendu :
« Alors, il y a un doute. Je vais tout de suite voir de quoi il s’agit. Donc, là, ce n’est pas une
fracture mais c’est bien qu’il l’ait signalé quand même parce que c’est une petite anomalie un
peu dégénérative, un peu arthrosique (…) donc comme ça, on pourra en parler. (…) Peut-être
que je n’aurais pas prêté plus attention que ça en fait. Comme il l’a tagué, je vais le signaler.
Mais qu’on le signale ou pas, ça ne change rien (…) pour le patient. » (Radiologue 11 – Extrait
Observation).
Plus généralement, l’indication de ces éléments dans le compte-rendu dépend du jugement du
radiologue vis-à-vis de la pertinence clinique : certains expliquent qu’ils n’auraient pas prêté
attention à ces lésions sans le système car ils ne semblent pas les plus importantes vis-à-vis des
objectifs du diagnostic. C’est alors cette confrontation à la clinique qui donne du sens aux

72 Même si les urgentistes sont amenés à analyser les images étant donné les conditions de la charge de
travail des radiologues, il faut noter que seul un radiologue est en droit de réaliser un compte-rendu.
73 Cette information est indiquée dans le rapport synthétique du système sous forme d’un intercalaire.
74 Mais aussi les urgentistes qui sont peu représentés dans cette étude.

159
résultats du système pour permettre aux radiologues de les mobiliser dans leur diagnostic. Au-
delà de cette confrontation explicite au contexte clinique, le radiologue, consultant la demande
d’examen au début de l’interprétation, resitue toujours les résultats du système dans le contexte
clinique quand il dispose de ces informations. En effet, la prise de connaissance de la demande
d’examen et de la situation clinique est une des premières actions dans l’activité
d’interprétation. Cela constitue un point de référence majeur pour orienter l’interprétation et le
diagnostic du radiologue et l’aiguiller dans son analyse à transcrire par le biais de CR.
Si les discordances persistent, par exemple entre les résultats du système et l’analyse du
radiologue ou encore entre les résultats du système et le contexte clinique, et que le radiologue
n’arrive pas trancher, il est possible de réaliser des examens complémentaires. Par exemple,
dans le cas des fractures non visibles à l’œil nu 75, il peut être difficile de montrer et confirmer
la fracture détectée par le système. Il s’agit ici de problèmes d’explicabilité du système qui ne
donne pas d’informations relatives à la fracture détectée autres que la zone entourée et le niveau
de certitude. Or, ces informations semblent insuffisantes pour pouvoir confirmer une fracture
invisible pour le radiologue. Ainsi, afin de confirmer et notamment rendre visible la fracture,
par exemple pour pouvoir la montrer au clinicien, les radiologues procèdent à la réalisation d’un
examen complémentaire (par exemple, un scanner).

4.2.5.4. Les apports du système de détection des fractures : entre un « filet de sécurité »
et un gain de temps mitigé
Tout en ayant conscience d’un risque de sur-confiance et de besoin de contrôle des résultats du
système, pour certains radiologues et urgentistes, l’apport principal du système DF est de les
protéger contre d’éventuels erreurs et ratés dans l’interprétation des radiographies. En
permettant de diriger et focaliser l’attention, l’intérêt du système pour les participants, en tant
qu’aide au diagnostic, se situe notamment au niveau de la détection des fractures secondaires
peu visibles et qui sont donc moins identifiables. C’est pourquoi, ce système est majoritairement
décrit comme « un filet de sécurité », permettant de conforter, rassurer et donc réduire le stress
du radiologue, induit par la peur de rater quelque chose sur les images (parfois difficiles et
nombreuses à analyser, en particulier dans le cas des radiographies) et les risques que cela
soulève pour sa responsabilité. En effet, il s’est avéré que par exemple, certains radiologues
vont désormais attendre les résultats du système avant de réaliser leur analyse. Pour eux, cet
usage du système DF permettrait alors d’avoir « un confort de travail », c’est-à-dire d’être plus

75 Ces cas ne sont pas très fréquents et souvent n’ont pas d’impact sur la prise en charge des patients d’après
les participants.

160
rassuré. Par ailleurs, la place du système serait encore plus importante dans des conditions
dégradées comme le travail de nuit et en cas de fatigue. L’usage du système DF constitue
également une aide plus spécifique pour les urgentistes. Une première analyse des radiographies
réalisée par le système DF donne les possibilités de trier et prioriser des examens afin
d’améliorer la gestion du flux aux urgences. Par ailleurs, en cas de doute, au lieu d’attendre
l’interprétation des images par un radiologue, l’urgentiste ayant accès au système peut se référer
à ses résultats afin d’être conforté dans son diagnostic et prendre une décision thérapeutique
adéquate (par exemple, pouvoir libérer un patient). Les participants expliquent que l’usage du
système DF permet également de sécuriser les urgentistes en attente des comptes-rendus des
radiologues (qu’ils n’ont pas dans l’immédiat, par exemple la nuit). De manière plus globale,
pour les participants, ces différents apports du système DF semblent contribuer à l’amélioration
de la qualité des diagnostics et de la qualité de prise en charge des patients.
Le système DF serait aussi une aide pour des internes, qui sont le plus souvent ceux qui
interprètent les radiographies dans les hôpitaux et pour lesquels les radiologues experts seniors
ne sont pas toujours présents ou disponibles. Or, ce sont les examens difficiles à analyser et
demandent beaucoup d’expertise. Il y a alors un risque soulevé pour l’apprentissage et
l’acquisition des compétences par ces internes, mais aussi pour le maintien des compétences
par les seniors qui interprètent de moins en moins les radiographies.
Si au départ, l’un des objectifs de l’utilisation du système est de gagner du temps dans le
processus d’interprétation des images, ce gain est difficile à évaluer dans la pratique. En effet,
les apports ne se traduisent pas systématiquement en gain de temps conséquent pour tous les
radiologues :
« pour l’instant c’est presque une perte de temps dans le workflow, nous on l’utilise vraiment
plus pour de la qualité qu’une accélération des choses. Parce que le modèle économique au
départ était plutôt « on va faire gagner du temps aux radiologues », etc. Nous pour l’instant,
on ne l’a pas vécu comme ça » (Radiologue 13).
Pour certains, il y aurait même un risque de perte de temps. Par exemple, en cas de fractures
détectées par le système mais qui ne sont pas visibles pour les radiologues ou en cas de faux
positifs (qui peuvent faire douter le radiologue), certains radiologues risquent de passer plus de
temps sur l’analyse des images afin de chercher et confirmer ou infirmer ces fractures. Le gain
ou la perte de temps avec l’usage du système restent donc une question ouverte dans la mesure
où cette évaluation concernant le temps repose sur du vécu subjectif des utilisateurs sans faire
référence aux données « objectives ».

161
4.3. Discussion des résultats
Ce chapitre a montré que les usages des systèmes d’IA apportent des bénéfices pour certains
travailleurs mais soulèvent aussi des risques et des incidences négatives. Ils se caractérisent
alors par une certaine dualité en ce qui concerne leurs apports et leurs incidences négatives dans
les activités. Si la mise en place de la dictée à reconnaissance vocale (RV) conduit à une perte
de sécurité de contrôle de la qualité de CR pour les radiologues, le système de détection des
fractures (DF) au contraire apporte un sentiment de sécurité. Dans les deux cas, l’usage de ces
systèmes influencent les activités dans lesquelles ils interviennent. Face à leur manque de
performance, les utilisateurs développent des connaissances sur leurs performances et leurs
limites (ce qui conduit à la construction d’une certaine confiance différente selon le système et
les buts de l’activité) pour pouvoir s’adapter en permanence à ces systèmes et transformer leurs
usages en ressources pour la réalisation d’un travail de qualité.

4.3.1. L’importance du contexte socio-organisationnel : des systèmes d’IA


visant à pallier le manque de ressources dans le secteur hospitalier
Les résultats montrent que l’introduction de ces systèmes s’inscrit dans un contexte socio-
organisationnel de la radiologie76 confrontée à un manque de ressources humaines et financières
avec une augmentation de la charge de travail, ce qui crée des impératifs d’évolution et de
réorganisations du travail. Face à ces difficultés, les administrations hospitalières (Herbreteau,
2020) évoquent entre autres que les progrès en matière de l’IA sont supposés apporter des
solutions. Les deux cas mobilisés dans ce chapitre, soit la mise en place de la dictée RV et du
système DF, s’inscrivent précisément dans ces approches. Si pour le premier, il s’agissait des
retards de transcription des comptes-rendus liés aux effectifs insuffisants pour absorber la
charge de travail, pour le deuxième système, ces problèmes sont aussi directement liés à une
charge de travail élevée avec l’interprétation des radiographies standards qui ne cesse
d’augmenter à côté d’un manque d’effectifs des radiologues. Ainsi, l’introduction et le choix
des systèmes d’IA sont ici déterminés par le contexte socio-organisationnel de la radiologie
confrontée globalement à une charge de travail élevée et un manque d’effectifs (en particulier
dans les structures hospitalières). Suivre les évolutions technologiques est un autre argument
avancé dans le cas du système DF qui relève de la nouvelle génération des CAD issus de

76Mais aussi plus largement de la santé avec un accent porté sur le secteur public hospitalier qui ferait face
à des multiples crises depuis maintenant de nombreuses années : « Crise de perte de sens, crise financière, crise
managériale et gouvernance, crise structurelle et organisationnelle, crise sociétale et sociale. » (Michot et al.,
2019, p. 109).

162
l’innovation et des avancées techniques de l’IA en matière d’apprentissage profond (Fujita,
2020) de ces dernières années. Cet argument fait directement référence aux discours actuels
mettant au premier plan l’innovation liée à l’IA dont il faut se saisir. Par ailleurs, les débats sur
la substitution des travailleurs, par exemple des radiologues, suscitent des craintes qui sont plus
ou moins dissipées par les résultats du chapitre 3. Le rôle de ces débats ne devrait pas être
négligé dans la propagation de l’argument qu’il faut se saisir des évolutions technologiques de
l’IA pour ne pas les subir. Les fonctionnalités des systèmes d’IA étudiés dans ce deuxième
chapitre empirique présenteraient alors des opportunités pour les structures afin de faire face
aux problèmes énoncés et quelque part freiner la détérioration des conditions de travail, voire
les améliorer.

4.3.2. L’organisation du travail et le rôle donné à l’IA : conséquences sur les


activités, la fiabilité et la qualité du travail
La rencontre entre les besoins, les motivations issus du contexte socio-organisationnel et les
fonctionnalités des systèmes d’IA disponibles, accessibles et mis en avant, conduit au choix
d’introduction de ces systèmes dans les situations de travail. Cette mise en place nécessite pour
les structures concernées de penser ou repenser la division du travail entre les travailleurs
et ces systèmes mais aussi entre les travailleurs eux-mêmes, tout en prenant en compte les
fonctionnalités du système et le rôle qui peut lui être donné.
Par exemple, dans un contexte de réorganisation du service, l’adoption de la dictée effectuant
désormais la tâche de transcription des CR, a été suivie par une nouvelle répartition des tâches
entre radiologues et secrétaires. Ce système a alors ouvert des possibilités face aux difficultés
du service et sa mise en place a conduit à transformer l’organisation du travail. Quant au
système DF destiné principalement aux radiologues chargés d’interpréter des radiographies
standards, sa place a été aussi pensée en fonction de besoins issus du contexte socio-
organisationnel. Dans plusieurs structures hospitalières, il a été aussi mis en place à disposition
des urgentistes, soient les premiers confrontés à la prise en charge des patients et à leurs
radiographies. Ce type d’organisation n’est pas inhabituelle : l’interprétation de ces
radiographies est de plus en plus et progressivement déléguée à d’autres professionnels tels que
des médecins urgentistes ou encore des cliniciens (Anichini & Geffroy, 2021).
Bien que la transformation de l’organisation du travail ait apporté des bénéfices en termes de
résolution de problème de retards de transcription et de gain de temps dans le processus de
production d’un CR, elle a également altéré l’activité des secrétaires en lui enlevant une
source de développement et d’enrichissement professionnel, au moins pour les secrétaires

163
ayant une longue expérience du métier. Une autre division de travail aurait pu être
envisagée dans ce cas de figure : la dictée RV qui réalise la transcription et les secrétaires qui
se chargent de correction et vérification du document (Cora Garcia et al., 2010). Or, nos
résultats montrent que ce type de division du travail, qui a été mise en place pendant une courte
période dans la structure étudiée, ne permet pas de compenser la disparition des dimensions
constructives de l’activité des secrétaires. Bien au contraire, elle accentue sa dévalorisation du
fait que la tâche isolée de correction semble être fastidieuse et sans intérêt pour les secrétaires.
Dans la nouvelle configuration avec la dictée RV, ce système, certes remplace
« techniquement » les secrétaires mais il n’occupe pas le même rôle ou la même place que ces
travailleurs. Envisager une simple substitution des secrétaires par la dictée dans le travail de
transcription est très réducteur de leur travail. En effet, l’activité de transcription fait appel à de
nombreuses connaissances et compétences par exemple en termes de transformation du langage
oral en langage écrit mais aussi pour donner un sens à la dictée des médecins ou encore relever
des incohérences entre les différentes parties (Cora Garcia et al., 2010). Rendre la transcription
intelligible, pertinente et cohérente, nécessite de mobiliser ces compétences, tandis que le
système de reconnaissance vocale réalise des transcriptions littérales et exactes du texte dicté
(van Terheyden, 2005) qui peut nécessiter un travail de correction, d’ajustement en prenant en
compte le contexte, comme c’est le cas dans le cas des CR radiologiques. Avec la « disparition »
des secrétaires dans le processus de production des CR, ce sont toutes ces compétences qui
disparaissent avec elles et la dictée RV, réalisant une transcription littérale, ne peut
remplacer ces compétences. C’est alors aux radiologues de compléter et prendre en charge
ces éléments, ce qui entraine une augmentation de leur charge de travail déjà élevée.
En outre, la nouvelle organisation du travail mise en place en intégrant la dictée RV, a aussi
entrainé une perte de sécurité en ce qui concerne les radiologues. Cette perte de sécurité, liée
au risque de dégradation de la qualité orthographique des CR, s’explique par l’articulation de
la nouvelle répartition des tâches mise en place et des erreurs commises par le système en termes
de transcription. Tout cela est aussi à l’origine d’une perte de temps, au moins potentielle, avec
les corrections à apporter, mais aussi des autres effets négatifs déjà évoqués par les études
antérieures (Pezzullo et al., 2008 ; Ramaswamy et al., 2000 ; White, 2005), par exemple des
irritations et de l’augmentation de la charge de travail des radiologues. Dans ces conditions, il
semble difficile pour les radiologues de faire confiance à la dictée contrairement aux
secrétaires : si les transcriptions réalisées par les secrétaires pouvaient être relues rapidement,
les transcriptions de la dictée nécessitent de nombreuses corrections et modifications continues

164
de la part des radiologues, ce qui les incite à se concentrer sur la forme du CR. Plus qu’une
perte de sécurité, il s’agirait davantage des craintes de perte de fiabilité de la qualité des CR.
Quant au système DF, on a vu qu’il peut être utilisé dans l’activité d’interprétation des
radiographies en première ou seconde lecture (Fujita, 2020). Bien que l’utilisation du système
en seconde lecture soit l’usage préconisé dans la plupart des structures, dans certains cas de
figures, les radiologues ont tendance à l’utiliser en première lecture, c’est-à-dire regarder
directement les résultats du système. Utiliser le système DF en première lecture interroge le
risque de négliger d’autres éléments à analyser sur les images, met à l’épreuve les
capacités critiques du radiologue face aux résultats du système et donc soulève des enjeux
de fiabilité des diagnostics. Cette mobilisation en première lecture s’installe avec le temps, au
fur et à mesure de l’appropriation du système. Elle consiste en acquisition des connaissances
par les radiologues sur les performances et les limites du système mis à l’épreuve dans des
situations réelles. Ces connaissances contribuent directement au développement de la
confiance, un point également évoqué dans les travaux de Hartswood et al. (2003). Notre étude
montre que ce développement de la confiance s’avère être un processus évolutif avec différentes
phases allant du contrôle systématique des résultats du système à une vigilance réfléchie, en
passant par des situations à risque de sur-confiance. Utiliser le système implique alors de
garder le contrôle sur l’interprétation des images, ce qui signifie de remettre en question
et/ou vérifier les informations fournies pour éviter cet écueil, même si cela peut
potentiellement faire perdre du temps.

4.3.3. Le travail d’adaptation et de recontextualisation face aux limites de l’IA


: s’approprier l’IA pour la rendre bénéfique
La dictée RV se caractérise par des contraintes et l’opacité liées à son apprentissage et ses
capacités d’amélioration, ce qui freine les radiologues dans leurs contributions à l’apprentissage
du système. Les situations d’usages de la dictée sont alors à l’origine des conflits ou une absence
de cohérence entre les caractéristiques du système et les objectifs des radiologues (soit la
production d’un CR avec ses critères de qualité). « Cette absence de cohérence est un puissant
facteur de dégradation des conditions de travail. Mais, c’est aussi un sérieux obstacle à
l’action » (Guérin et al., 2021, p. 75). Pour faire face à ces situations, les radiologues
s’adaptent à la dictée RV et effectuent des ajustements dans leur activité. Ce sont les
connaissances sur les performances et les limites du système, développées au cours des usages,
qui leur permettent de s’adapter au système. Ces adaptations s’avèrent nécessaires afin de
rétablir une cohérence et donc pouvoir réaliser un CR à l’aide de ce système et d’en tirer des

165
bénéfices. Il s’agit par exemple d’adapter le rythme de la dictée du contenu de CR, de faire
attention aux choix des mots ou encore privilégier des phrases et des CR courts avec l’objectif
de limiter les erreurs de la dictée RV et donc pallier son manque de performance. Ces résultats
montrent que ce n’est pas le système d’IA qui apporte des bénéfices, dégrade ou
transforme l’activité, mais c’est la rencontre et l’(in)adéquation de ses caractéristiques
avec d’autres composants de l’activité qui peut devenir une source des incohérences et des
incidences.
A côté des risques, des dégradations et d’une certaine nécessité d’adaptation des radiologues,
les résultats ont montré que l’usage de la dictée RV par les radiologues peut aussi les
soutenir dans l’activité de production d’un CR pour la construction du contenu et de sa
forme. Effectivement, en facilitant une visualisation et une structuration du CR en temps réel,
l’usage de la dictée favoriserait les analyses systématiques et donc contribuerait à l’amélioration
de la qualité de diagnostic. En outre, la validation immédiate de CR rendue possible avec la
nouvelle organisation du travail, participerait également à cette amélioration.
Quant aux apports de l’usage du système DF, ils consisteraient notamment à « sécuriser » les
radiologues et les urgentistes et ainsi constituer une aide dans des conditions de travail
dégradées. Cependant, ces apports peuvent aussi s’accompagner de risques par exemple au
niveau des erreurs de diagnostic en cas de sur-confiance ou encore dans le cas d’un « faux
sentiment de sécurité », surtout si le système rencontre des problèmes de performance et de
fiabilité. L’utilisation des résultats du système nécessite aussi de construire et leur donner
du sens afin qu’ils puissent être utiles et mobilisables dans l’analyse des images
radiologiques à visée diagnostique. Il s’agit d’un travail de recontextualisation des résultats de
la part des travailleurs, soit un point déjà identifié dans le chapitre 3. Pour cela, les radiologues
s’appuient sur leur expertise du domaine, leurs connaissances sur les performances et les limites
du système mais aussi sur la situation clinique ou encore sur des examens complémentaires.
Les résultats du système DF acquièrent donc une signification grâce au travail d’expertise des
radiologues, qui rendent d’ailleurs le système responsable à travers et dans leurs propres
pratiques (Hartswood et al., 2003). Ces résultats mettent aussi en lumière les différences entre
le raisonnement humain, ici le radiologue qui ancre son interprétation et son diagnostic dans un
contexte clinique, et le « raisonnement » du système DF, soit une machine « qui ne fait
qu’exécuter des opérations sans comprendre ce pour quoi elle a été conçue et ce qu’elle fait »
(Pelaccia et al., 2020, p. 4). Dans certains cas de figure, le radiologue peut se confronter à un
problème de l’explicabilité sur la visualisation et la compréhension d’une fracture non visible
pour lui. Les explications affichées par le système, soient le degré de certitude et la zone

166
entourée, ne permettent pas toujours de comprendre explicitement ce qui lui permet
concrètement de détecter la fracture. Pour désigner ce type de systèmes, incapables de
communiquer leur cheminement d’analyse, en comparaison aux collègues humains qui peuvent
être interrogés sur leur manière d’interpréter, Hartswood et al. (2003) parlent d’un « collègue
muet » sans vision professionnelle. Cette vision professionnelle est un ensemble de manières et
pratiques socialement incarnées qui permettent de voir et de comprendre les événements qui
répondent aux intérêts distinctifs d’un groupe social particulier (Goodwin, 1994, cité dans Slack
et al., 2010). Pour confirmer ou infirmer le résultat du système mais surtout rendre visible la
fracture pour le clinicien (si elle est bien présente), le radiologue peut être amené à réaliser un
examen complémentaire. Cet élément montre bien le fait que la « lecture » ou l’interprétation
des images n’est pas uniquement une activité « cognitive » isolée mais une activité inscrite dans
des pratiques collectives et sociales, comme évoquaient Slack et al. (2010). Les résultats
fournis par le système DF semblent orienter et influencer cette activité d’interprétation
des images. Sans le système, le radiologue est « seul », mais avec ses connaissances des
pratiques collectives, sa propre expertise et sa responsabilité, face aux images à juger quels
éléments observer, lire et dans quel ordre. Avec ce système, l’activité d’interprétation des
images semble être guidée et orientée par les informations qu’il fournit et qui sont interprétés
par le radiologue. En revanche, c’est toujours le radiologue qui a la capacité d’évaluer la
pertinence de ces informations « à travers la mobilisation du contexte clinique et d’informations
qui relèvent du ressenti du patient » (Anichini & Geffroy, 2021, p. 63).

Les deux chapitres empiriques ont soulevé et illustré des enjeux de la mise en place et des
usages des systèmes d’IA qui entrainent des incidences à la fois bénéfiques et délétères selon
les situations et les activités de travail. Les résultats ont aussi fait émerger des enjeux liés aux
caractéristiques de ces systèmes issues des choix de conception ainsi que des enjeux
d’identification et de la prise en compte des besoins réels des utilisateurs. La question se pose
alors sur la manière dont ces éléments sont ou peuvent être pris en compte dans les démarches
de conception et de déploiement des systèmes d’IA. Le chapitre suivant met l’accent sur un cas
de conception et de déploiement d’un système d’IA afin d’analyser le processus global mis en
place et de comprendre les implications en termes de conception de ce type de système.

167
Chapitre 5. Processus de conception et de
déploiement d’un chatbot juridique

Nous avons évoqué que peu d’études ont analysé de façon empirique les processus de
conception et de déploiement des systèmes d’IA dans les situations de travail, alors qu’ils sont
déterminants dans la construction des usages de ces systèmes. Les chapitres empiriques
précédents ont montré les usages et les incidences en termes d’apports mais aussi en termes de
risques et de dégradations de différents types de systèmes à base d’IA sur les activités et
l’organisation du travail. Les choix en termes de division du travail, ainsi que les
caractéristiques des systèmes issues de la conception, se sont avérés des éléments essentiels
dans le développement des usages de ces systèmes.
Avec l’objectif de compléter ces résultats, ce dernier chapitre empirique décrit et analyse un
des processus de conception et de déploiement des systèmes d’IA à travers le cas d’un chatbot
juridique d’une grande entreprise du numérique et ceci du point de vue des concepteurs. En
s’intéressant à l’activité de conception, a priori collective, il permet d’appréhender l’émergence
d’un processus et la mise en place de la démarche effective de la conception et du déploiement
du chatbot dans les situations de travail, avec les enjeux qui l’accompagnent. L’analyse de ce
processus permet d’interroger et de caractériser d’une part, les enjeux et implications en termes
de travail de conception, et d’autre part la prise en compte et les formes de participation des
utilisateurs potentiels. En suivant le cadre d’analyse de cette thèse, plusieurs questions sont
alors abordées dans cette dernière étude :
- Quelle est la démarche mise en place pour la conception et le déploiement du chatbot
juridique ? Comment se caractérise-t-elle ?
- Comment sont associés les utilisateurs potentiels dans le processus de conception et de
déploiement d’un chatbot ?
- Quels sont les enjeux effectifs rencontrés par les acteurs dans ce processus ?

168
5.1. Contexte et méthode

5.1.1. La diffusion généralisée des chatbots : les systèmes d’IA les plus
répandus
Les chatbots peuvent être considérés comme des cas exemplaires à étudier car ils seraient les
systèmes d’IA les plus répandus (Pélissier, 2021a). Ils sont définis en tant qu’agents
« conversationnels »77 avec lesquels les humains peuvent dialoguer, souvent en langage naturel
écrit78. C’est un système d’interaction avec un humain dans un cadre partiellement restreint qui
repose sur le principe de la compréhension d’une demande formulée par un humain et de
l’apport d’une réponse adaptée par la machine (Buvet, 2019). Deux types de chatbot peuvent
être distingués : ceux capables d’interagir uniquement avec des mots-clés et ceux qui peuvent
analyser et interpréter des phrases afin d’apporter des réponses (Canevet, 2020). Généralement,
ces derniers utilisent une des techniques de l’apprentissage machine, soit le traitement
automatique du langage naturel (NLP : Natural Language Processing) qui se divise lui-même
en deux sous-ensembles (Kavlakoglu, 2020) : la compréhension du langage naturel (NLU :
Natural Language Understanding) et la génération du langage naturel (NLG : Natural
Language Generation). Il convient de souligner que la plupart des chatbots actuels ne
mobilisent pas la génération du langage naturel pour donner des réponses mais font plutôt appel
à des arbres de décision et des bases de connaissances constituées souvent par un humain, ce
qui signifie que les réponses du chatbot sont pré-écrites.
L’histoire des agents conversationnels est ancienne et remonte aux années 1960 avec le premier
agent nommé ELIZA (Weizenbaum, 1966) qui est décrit comme un programme rendant
possible une « conversation » avec un ordinateur en langage naturel. En se basant sur le principe
de reformulation des propos de l’utilisateur, ELIZA simulait un psychothérapeute. La
dénomination « chatbot » est née plus tard, avec le développement d’un jeu nommé TINYMUD
permettant de faire dialoguer les joueurs par écrit et parmi lesquels on trouve un « Chatter bot »,
soit un joueur contrôlé par l’ordinateur et capable également d’échanger par écrit (Mauldin,
1994). C’est en 2016, considérée comme l’année des chatbots (Dale, 2016), que la diffusion de
ces agents se généralise avec les géants de la technologie tels que Microsoft ou encore
Facebook. En effet, Microsoft, en mettant à disposition un cadre de développement de bots,

77 Le caractère « conversationnel » de ces systèmes est discutable (Velkovska et al., 2020).


78 Ou en langage naturel vocal, dans ce cas on parlera de « voicebot » ou encore des « assistants vocaux »
qui ne font pas l’objet de cette étude.

169
propose ses premiers chatbots dans Skype (Følstad & Brandtzæg, 2017). Facebook fait de même
avec une interface de développement des chatbots s’intégrant à sa plateforme de messagerie
(Messenger). Avec la généralisation des plateformes de développement des chatbots accessibles
à tous, il serait désormais possible de concevoir un chatbot sans coder 79 (Emidio et al., 2018).
Il faut également souligner que ce sont les avancées technologiques en matière d’IA qui
renouvèlent fortement cet intérêt pour les chatbots qui étaient supposés constituer des aides
dans différents domaines.
En outre, plusieurs travaux mettent en avant différents avantages de ces agents
conversationnels. Disponibles de façon permanente (Le Corf, 2017) contrairement aux
humains, leur utilisation constituerait un moyen pour augmenter la productivité des services en
automatisant les process des entreprises (Brachten et al., 2021). Dans ce contexte, de plus en
plus d’entreprises s’intéressent et se dirigent vers l’intégration des chatbots qui se présentent
comme des dispositifs « incontournables » pour leur service client (Følstad & Brandtzæg, 2017)
avec le but d’automatiser certaines tâches mais aussi de proposer de nouveaux services (Le
Corf, 2017). Les chatbots commencent à s’adresser de plus en plus aux salariés des entreprises
(Chevalier & Dejoux, 2021 ; Gras Gentiletti et al., 2022), par exemple ceux spécialisés sur des
questions de ressources humaines, comme le recrutement ou en traitant des tâches répétitives
pour soutenir la gestion (Azoulay, 2020 ; Taule et al., 2022) ou encore des chatbots centrés sur
des questions juridiques (Kherrazi & Roquilly, 2021). Leur objectif est d’apporter des réponses
aux salariés de manière automatisée et en temps réel ainsi que de les diriger vers la « bonne »
documentation. Un des critères de « succès » des chatbots, du point de vue des apports aux
utilisateurs, serait leur capacité à soutenir les besoins de ces utilisateurs dans les
« conversations » de façon efficace et transparente (Brandtzæg & Følstad, 2018).
Malgré ce fort intérêt et enthousiasme, les chatbots ont plusieurs limites. Par exemple, ils ne
peuvent traiter que des cas prévus par les scénarios écrits par un humain (Dubois et al., 2019).
La rencontre des cas imprévus peut donc conduire aux échecs de l’interaction entre un humain
et un agent conversationnel. Ces échecs peuvent être aussi liés à un décalage entre les attentes
des utilisateurs, par exemple en termes de niveau d’« intelligence » de l’agent conversationnel,
ses capacités et ses objectifs, et les expériences réelles de l’utilisation de ces systèmes (Luger
& Sellen, 2016).
Certains travaux montrent qu’il n’y aurait pas de « stratégie » de conception largement adoptée
ou d’approche commune de conception des agents conversationnels (Marcondes et al., 2020).

79 Le codage renvoie à la programmation informatique des algorithmes.

170
Certes, de nombreuses études s’intéressent à la perception et aux interactions entre les humains
et les chatbots (Hill et al., 2015 ; Skjuve et al., 2019), à leurs utilisations et améliorations
possibles (Følstad et al., 2021 ; Jain et al., 2018 ; Liao et al., 2018), aux aspects et
caractéristiques techniques comme la conception de l’interface (Shevat, 2017) ou encore aux
principes de conception par exemple pour favoriser la confiance envers les chatbots (Zierau et
al., 2021). Cependant, à notre connaissance, peu de travaux analysent véritablement les
processus de conception et de déploiement de ces agents conversationnels de façon qualitative
et holistique (Esteban, 2020 ; Gras Gentiletti, 2022 ; Le Corf, 2017 ; Pélissier, 2021b ; Vayre,
2016) tout en s’interrogant sur les difficultés rencontrées, l’implication réelle des utilisateurs et
la prise en compte du travail. Or, la démarche de conception est précisément essentielle pour
développer des systèmes d’IA ajustés aux activités et répondant aux besoins réels des
utilisateurs finaux.

5.1.2. Le cas de la conception et du déploiement d’un chatbot juridique à base


d’IA

5.1.2.1. Un cas exemplaire de processus de conception et de déploiement d’un système


d’IA
Ce cas résulte d’une opportunité de découverte de l’existence d’un chatbot juridique par le biais
du réseau social d’une grande entreprise du numérique dans laquelle il est déployé. Il s’agit
d’un projet identifié au début de l’année 2020 durant la phase de découverte et d’immersion
(Chapitre 3) avec une recherche active des terrains et des projets pertinents pour les questions
de recherche abordées dans cette thèse. Avec l’objectif d’obtenir des informations nécessaires
pour une évaluation de la pertinence de ce projet par rapport aux questions de recherche, le chef
de projet (nommé à présent le CDP) a été sollicité pour un entretien. Ce premier échange a
permis de saisir les origines et les objectifs de ce projet de chatbot juridique. Ce projet nous a
semblé pertinent car d’une part, il correspond au système à base d’IA le plus répandu – les
chatbots – d’autre part, parce qu’il prend place dans un domaine lui aussi fortement impacté par
l’IA, et enfin, parce que ce projet se déploie dans un grand groupe du numérique français,
particulièrement concerné par le développement de l’IA. La démarche de conception et de
déploiement de ce chatbot peut être abordée comme un cas de référence pertinent pour
comprendre et analyser un processus de conception et d’implémentation d’un système d’IA
dans une grande entreprise.

171
5.1.2.2. Les fonctionnalités et les principes de conception du chatbot
Dans le projet étudié, le chatbot est accessible aux salariés par le biais des différents canaux :
par une messagerie instantanée de l’entreprise (Figure 21) pour l’ensemble des salariés ou
encore sous forme de widget80 présent sur différentes pages web de certaines entités de
l’entreprise (Figure 22) nommées à présent l’entité n°1, l’entité n°2 et l’entité n°3. La principale
fonctionnalité du chatbot est la recherche de documents et d’informations d’ordre juridique qui
sont consultés, vérifiés et/ou modifiés par les utilisateurs.
Dans le cas de ce projet, le chatbot juridique s’appuie sur un algorithme de traitement, plus
précisément de compréhension du langage naturel, développé par une société prestataire
externe. Il s’agit d’une start-up française qui est un éditeur de logiciels fournissant une
technologie sur étagère (à base d’algorithmes de traitement du langage naturel) pour le
développement technique du bot81.

Figure 21. Chatbot juridique accessible par la messagerie instantanée par tous les salariés du
groupe

80Un widget est comme une vignette active et interactive d’une application ou d’un logiciel présent par
exemple sur des pages web.
81 Le terme « bot » et « chatbot » sont employés comme des synonymes dans ce chapitre.

172
Figure 22. Chatbot juridique accessible sous format widget sur différentes pages web de
certaines entités

Le prestataire fournit donc une plateforme de développement des bots intégrant ces algorithmes,
que nous avons qualifiés d’algorithmes d’IA « génériques »82, avec une interface du type
« cartes mentales »83 mais aussi un accompagnement technique pour le CDP (chef de projet).
C’est à partir de cette plateforme que le chatbot est construit et testé. Les traitements réalisés
par les algorithmes fournis par la plateforme sont détaillés en Annexe IX.
Pour la suite de ce chapitre, il est important de retenir que le fonctionnement des bots comme
celui du chatbot juridique étudié, se base sur le principe des « intentions », qui traduisent ce que
les utilisateurs souhaitent faire (Shevat, 2017) ou obtenir à travers leurs demandes adressées au
bot. Autrement dit, les intentions correspondent aux thématiques, par exemple la thématique de
recherche d’une clause d’un contrat, sur lesquelles le chatbot doit apporter des réponses. En
effet, « les intentions sont des thématiques de résolution de problème, incarnées par un mot ou
un groupe de mots ; elles constituent des formes de balises sémantiques, permettant à l’outil de
reconnaître une requête dans la formulation de l’interlocuteur humain. » (Esteban, 2020). La
définition des intentions par un concepteur et leur intégration dans le bot (ou dans le processus
« d’apprentissage » du bot) constituent des points essentiels pour que le bot puisse « interagir »
avec ses utilisateurs. Pour cela, les variations d’intentions doivent également être formulées et

82Pour rappel, voir la partie 3.2.1.2


83Les cartes mentales ou les cartes heuristiques sont des outils de représentation schématique et visuelle
du cheminement des idées, de la pensée.

173
intégrées dans le bot, soient un ensemble de phrases que les utilisateurs du chatbot peuvent
utiliser pour formuler une même demande. En effet, le bot identifie les intentions avec leurs
variations prédéfinies dans les réponses des utilisateurs et c’est en fonction de cette
identification (ou « compréhension ») des intentions qu’il va fournir les réponses adéquates.
Pour cela, le concepteur doit également définir et intégrer un ensemble de données constituant
des réponses données par le bot aux utilisateurs en fonction de l’intention identifiée. Le
concepteur est donc amené à imaginer et écrire les dialogues potentiels entre un utilisateur et le
chatbot, constituant un script d’interaction à intégrer dans l’architecture du bot. Par exemple,
l’intention « ContactJuriste » peut être définie dans le bot pour traduire la demande d’un
utilisateur concernant la recherche d’un juriste. Les variations de cette intention, autrement dit
la façon dont les utilisateurs sont susceptibles d’écrire leur demande, peuvent être nombreuses,
comme « liste des juristes », « qui est le juriste pour le sujet X », « quel juriste pour le sujet X »
etc. Pour cette intention concernant la recherche d’un juriste, le concepteur devrait alors avoir
rédigé les dialogues, c’est-à-dire les réponses préconçues que le bot doit fournir à l’utilisateur
en fonction de sa demande.

5.1.3. Méthodes, outils et déroulement du recueil des données


Comme mentionné plus haut, cette étude a démarré par un entretien exploratoire avec le CDP
du chatbot juridique. Pour rappel, cet entretien cherchait à saisir les premiers éléments sur les
origines et les objectifs du chatbot84. Afin de mettre en place un suivi du projet pour pouvoir
documenter son développement, un deuxième entretien, plus court et centré sur les points
d’organisation de suivi, a été effectué auprès du CDP. A ce moment-là, il a été convenu
d’assister aux différentes réunions et événements en tant qu’observatrice extérieure sans
intervenir. Le CDP était également intéressé de disposer d’un retour réflexif sur sa démarche et
des discussions sur des problématiques éventuelles du projet.
Du fait des points et des réunions du projet étalés dans le temps et effectués de façon irrégulière
(c’est-à-dire non planifiés sur le long terme), un protocole de suivi auprès du CDP a été mis en
place pour systématiser la documentation des avancées et des événements survenus dans le
projet. Ce protocole consistait à réaliser des points d’échange réguliers, qualifiés d’entretiens
de suivi, toutes les deux à quatre semaines en fonction des disponibilités du CDP. Ces entretiens
de suivi d’une durée moyenne de 25 minutes consistaient à faire un point sur les événements
significatifs85 récents concernant le chatbot juridique. Après un bref rappel des derniers

84 Le guide d’entretien se trouve en Annexe X.


85 du point de vue du CDP.

174
événements abordés dans le dernier entretien, la question principale était : quelles sont les
nouveautés, les avancées dans le projet ? Sans avoir un guide constitué au préalable, chaque
entretien a donc été structuré selon les éléments mis en avant et abordés par le CDP en fonction
des événements survenus ou non dans le projet mais aussi des événements à venir, planifiés ou
non : des réunions, des échanges avec d’autres acteurs, des changements, des décisions etc. Il
s’agissait d’approfondir la compréhension de ces événements, décisions et actions mais aussi
des points de blocage (comment procédaient-ils pour telle ou telle action ?). Afin de s’assurer
de la bonne compréhension des événements, nous faisions des synthèses orales et des
reformulations des événements et des points évoqués dans les entretiens précédents. Selon le
besoin, le CDP pouvait partager, en temps réel ou en différé, différents supports pour illustrer
ses explications et s’appuyer sur des éléments concrets. Ces entretiens ont donc permis de saisir
le déroulement du projet et la manière de procéder pour le développement et le déploiement du
chatbot selon le point de vue du CDP. Des réflexions ont aussi émergé sur des enjeux et
problématiques rencontrés au cours du déroulement.
Au total, 13 entretiens de suivi ont été réalisés entre novembre 2020 et juillet 2021, en plus de
deux premiers entretiens semi-directifs auprès de CDP. De plus, un autre acteur 86 (chargé de
projets transverses), appartenant à une autre entité de l’entreprise (nommée plus bas « entité
n°2 ») et contribuant à la conception du chatbot et des campagnes de communication, a été
interviewé87. L’objectif était de décrire sa contribution et la manière de procéder ainsi que la
visée du chatbot pour cette entité. L’ensemble des données d’entretiens sont résumés dans le
tableau ci-dessous (Tableau 9).
Enfin, des observations non participantes des réunions de travail et de présentation du chatbot
auprès des différentes entités impliquées dans le projet (qui ont été enregistrées) ont été
réalisées. Ces données sont complétées par une enquête documentaire qui a permis de recueillir
le contenu des échanges des mails, des documents produits sur le chatbot ainsi que les mails de
communication adressés aux différentes entités. Au total, les données d’observation et de
l’enquête documentaire, détaillées dans le Tableau 10, contiennent :
- environ 4h d’observations enregistrées,
- communications-newsletter : 8 mails (35 pages),
- échanges sur le chatbot : 34 mails (18 pages),
- documents, rapports, comptes-rendus… : 20 fichiers (111 pages).

86 Il s’agit d’un acteur dont la participation est régulièrement évoquée par le CDP et dont l’entité était
activement impliquée dans le projet. Il a donc été sollicité pour cet entretien.
87 Le guide d’entretien se trouve en Annexe XI.

175
Acteur Type d’entretien Durée d’entretien Date d’entretien

Semi-directif 1 58 min 18/03/2020

Semi-directif 2 27 min 12/06/2020

Suivi 1 49 min 09/11/2020

Suivi 2 27 min 15/01/2021

Suivi 3 (avec supports


29 min 01/02/2021
partagés)

Suivi 4 (avec supports


23 min 12/02/2021
partagés)

Suivi 5 25 min 01/03/2021


CDP
Suivi 6 18 min 12/03/2021

Suivi 7 19 min 29/03/2021

Suivi 8 (supports partagés) 23 min 09/04/2021

Suivi 9 25 min 28/04/2021

Suivi 10 (supports partagés) 24 min 17/05/2021

Suivi 11 18 min 01/06/2021

Suivi 12 (supports partagés) 30 min 18/06/2021

Suivi 13 (supports partagés) 34 min 09/07/2021

Concepteur (Chargé de
projets transverses) Semi-directif 38 min 16/02/2021
Entité n°2

Tableau 9. L’ensemble des données d’entretiens (Cas du projet du chatbot)

176
Observations enregistrées Documentation
Situation observée Durée Type de document Volumétrie
Réunion de travail pour la
préparation d’un atelier 35 min - -
(workshop)
Atelier (workshop) 1h37 Notes d’observation 2 pages
Communications sur le
Entité n°1 - - 2 mails (5 pages)
chatbot
Échanges sur le
- - 13 mails (6 pages)
chatbot
Documents, rapports,
- - 1 carte mentale des dialogues
comptes-rendus…

45 min avec 1min20


Réunion de communication sur
pour la présentation du 1 PPT de la réunion (12 diapositifs)
les nouveautés de l’entité
chatbot
- - Documents, rapports, 1 PPT d’une présentation du chatbot (5 diapositifs)
comptes-rendus… 1 fichier Excel d’état d’avancement des thématiques à intégrer dans le
- -
Entité n°2 chatbot
- - 2 cartes mentales des dialogues à intégrer dans le chatbot
- - 2 fichiers Word des dialogues à intégrer dans le chatbot (3 pages)
- - Newsletters de l’entité 1 mail (6 pages)
Échanges sur le
- - 11 mails (7 pages)
chatbot

177
Communications sur le
- - 1 mail (2 pages)
chatbot
Échanges sur le
- - 10 mails (5 pages)
chatbot

Entité n°3 - - 1 fichier Word des dialogues à intégrer dans le chatbot (7 pages)
- - 1 PPT des bonnes pratiques de l’entité (9 diapositifs)
Documents, rapports,
- - 1 PPT Compte-rendu d’un atelier (14 diapositifs)
comptes-rendus…
- - 1 fichier Word du contenu de l’atelier (9 pages)
- - 1 fichier Excel des thématiques identifiées durant l’atelier

Atelier-réunion avec des


juristes pour la présentation du
1h07 1 fichier Excel des thématiques identifiées durant l’atelier
chatbot et l’identification des
besoins
Documents, rapports, 1 PPT du projet de transformation de la direction juridique (27
Direction - -
comptes-rendus… diapositifs)
juridique
1 fichier Word d’élaboration d’un questionnaire de recueil des retours
- -
des utilisateurs (3 pages)
1 compte-rendu des ateliers « numériques » des juristes (1 mail de 2
- -
pages)
- - Newsletters de l’entité 4 fichiers Word/mails (22 pages)

Documents, rapports,
Autres - - 1 PPT de présentation générale du chatbot (12 diapositifs)
comptes-rendus…

Tableau 10. L’ensemble des données d’observation et de l’enquête documentaire (Cas du projet du chatbot)

178
L’ensemble des données a été recueilli à distance dans le contexte de la crise sanitaire avec le
télétravail généralisé et les acteurs du projet dispatchés géographiquement. La Figure 23 résume
le déroulement chronologique du recueil des données :

Figure 23. Déroulement chronologique du recueil des données (Cas du projet du chatbot)

5.1.4. Traitement et analyse des données recueillies


Tous les entretiens ont été retranscrits pour une première analyse thématique. Cette analyse des
entretiens a permis de mettre en lumière le contexte avec les origines et les objectifs du chatbot,
les actions récurrentes dans l’activité de conception et de déploiement de ce dernier, mais aussi
plusieurs axes de développement du projet du chatbot qui impliquent une diversité d’acteurs et
d’événements avec l’association de trois entités de l’entreprise (entité n°1, entité n°2 et entité
n°3).
Le tableau ci-dessous (Tableau 11) résume les principales catégories thématiques issues du
codage (réalisé avec l’outil Maxqda) avec les exemples des extraits des segments catégorisés,
avec une précision selon l’axe du développement du projet dans les entités de l’entreprise (entité
n°1 en violet, entité n°2 en vert, entité n°3 en orange) mais aussi l’axe général (en noir) non
spécifique aux entités.

179
Catégorie thématique
Définition Exemples des segments
(Élément du cadre d’analyse)

Contexte & Origine du chatbot « On avait un projet, j’avais une lettre de mission à l’époque sur les outils numériques, les outils digitaux et
Motivations et éléments de
(Éléments du contexte socio- le métier de juriste. Donc c’est vrai que c’est dans ce contexte que j’ai croisé XX et d’autres, et que j’avais
départ/déclencheurs du projet
organisationnel) commencé un petit peu à (…) travailler sur ce projet de chatbot. » (CDP-18-03-20)
« L’enjeu pour moi de cet outil, c’est d’amener un service juridique un peu automatisé, bas niveau, parce
Objectifs du chatbot Buts, fonctionnalités et résultats
qu’on n’a pas vocation à remplacer une analyse juridique, ce n’est pas des choses très compliquées, mais
(Caractéristiques du système) attendus du chatbot
qui permettent de libérer du temps à un juriste et à un opérationnel » (CDP-18-03-20)
« Opérationnel : (…) ma remarque c’est que on s’aperçoit que y a une foultitude de documents qui existent
un peu partout sur tous les sujets, plus tous les mails qui nous parviennent de l’information et de
Problèmes des métiers opérationnels et/ou communication tout ça et je trouve qu’on est complétement noyé (…)
Différents problèmes rencontrés par
des juristes Responsable développement des métiers : d’où l’intérêt peut-être des moteurs de recherche aussi, des
des opérationnels et des juristes
(Éléments du contexte socio- possibilités de rechercher…
dans leur travail quotidien
organisationnel) Opérationnel : ouais mais quand on est dans notre quotidien quand on a en plus une partie opérationnelle à
faire c’est extrêmement difficile de se tenir au courant de tout ça » (Extrait Réunion de communication sur
les nouveautés de l’entité n°2)
« On fait entre 150 et 200 échanges par semaine, quand je dis échanges, c’est des messages qui sont
Éléments relatifs aux utilisations du échangés avec (Chatbot). (…) L’outil trouve doucement, plus lentement que ce que j’aurais espéré, mais
Usages & Apports du chatbot chatbot et aux bénéfices constatés, l’outil trouve doucement ses usages, dans le quotidien des utilisateurs. Les retours, en général, quand on
(Usages & Incidences en termes d’apports) rapportés, estimés pour les montre l’outil à un métier ou à des gens pour leur présenter, c’est toujours très positif. Je pense que vous le
utilisateurs verrez. L’outil est relativement simple d’usage, donc en général, c’est plutôt positif et les gens comprennent
tout de suite l’enjeu. Après, c’est beaucoup plus difficile à installer dans la durée » (CDP-18-03-20)
« En fait, je leur ai calé des points ponctuellement, je regardais ce qu’elles faisaient. Mais on s’est avant
tout attaché à la partie technique cette fois, c’est-à-dire que je n’avais pas tellement un rôle de juriste, voire
pas du tout, c’était vraiment sur… Au début, elles partaient dans des directions, je me suis dit : « les
Différentes contributions et
pauvres, ça ne va jamais marcher ». C’était compliqué. Il a fallu s’approprier l’outil, donc je faisais le
Acteurs du projet et leurs rôles participations d’une diversité
soutien, je faisais le support, on a retravaillé ensemble, j’ai retravaillé des dialogues. Du coup, c’était plus
(Démarche de conception et de déploiement) d’acteurs aux différents moments
comme ça, je regardais, je corrigeais, je faisais mes commentaires, je leur glissais des conseils, après elles
du projet
tenaient compte ou pas, aux bornes de ce qu’elles voulaient faire, et on a travaillé comme ça par itération
depuis septembre, depuis ce moment-là, et ce que tu vois, c’est l’aboutissement de leurs travaux. » (CDP-
suivi 3-01-02-21)

180
Caractéristiques techniques « L’avantage du widget, c’est qu’on peut avoir un widget en bot et dédié à XX. C’est-à-dire que c’est un
Aspects techniques de la conception et du
relatives aux processus de embranchement dans (Plateforme de développement), on branche directement le bot, le sous-bot, via le
fonctionnement du chatbot
développement et au widget, qui permet d’avoir des dialogues extrêmement précis dès le premier niveau. (…) Et surtout c’est la
(Démarche de conception et de déploiement
fonctionnement technique du capacité de, au lieu d’avoir une boîte de dialogue où tu tapes tu sais, où tu vas dire « je veux ci, je veux ça
& Caractéristiques du système)
chatbot », là tu peux physiquement cliquer. » (CDP-suivi 1-09-11-20)
« (…) C’est le tout début, on attaque ça avec un atelier avec (Entité n°3) puisque ça vient par (Entité n°3)
donc j’accompagne XXX qui bosse sur ce sujet. On organise un (Outil collaboratif de partage à distance)
courant avril avec les juristes (Entité n°3) pour justement faire un atelier classique d’idéation en mode «
qu’est-ce vous voudriez trouver dans le chatbot ? En quoi le chatbot peut vous aider ? Quelles infos mettre
Éléments relatifs aux enjeux
dedans ? etc. » (CDP-suivi 4-12-03-21)
Identification & d’identification des « besoins », à
« il y a un projet qui s’appelle X, et ça n’a rien à voir avec (Chatbot), pas directement en tout cas, un projet
formalisation des leur définition selon les acteurs, à la
d’évolution ou de réflexion que mène la direction juridique sur son évolution, donc il y a plusieurs ateliers
« besoins » manière dont ils procèdent pour les
qui sont portés par des managers qui recensent… et parmi ces thèmes a surgi celui des questions à faible
identifier et retravailler
valeur ajoutée, des sollicitations pas forcément pertinentes et également, est apparu un use case qui est de
se dire : « Comment je fais pour trouver le bon juriste ? À qui je dois m’adresser pour trouver le bon juriste
? », et spontanément, les porteurs du projet ont dit : « On a un outil qui répond à peu près à ce besoin, qui
Principales est (Chatbot) donc voyons comment on peut faire pour capitaliser là-dessus. » (CDP-suivi 10-17-05-21)
séquences d’actions
Définition des Les enjeux et la manière dont les « Là c’est au feeling en fait, tu vois je me répète, c’est ma petite expérience du bot. Je lis ces textes. En fait,
(Démarche de
interactions – acteurs procèdent pour définir, c’est toujours la logique de l’entonnoir, en fin de compte (…) C’est-à-dire que le tout, c’est d’arriver à
conception et de
Intégration du imaginer les interactions possibles tisser des arborescences et de faire en sorte que le parcours soit relativement fluide. Je dis ça mais tu vas
déploiement)
contenu dans le et les intégrer techniquement dans me dire : « OK » et donc, en gros, ça consiste à ne pas proposer à chaque fois un milliard de choix à
chatbot le bot l’utilisateur (…) » (CDP-suivi 1-09-11-20)
Les enjeux et la manière dont les « C’est-à-dire qu’il y a eu plusieurs communications de faites par (Entité n°2), auprès des (opérationnels),
Lancement &
acteurs s’y prennent pour pour leur expliquer qu’il y avait ce chatbot et qu’ils pouvaient lui demander des informations sur des
Communication sur
communiquer sur la mise en service éléments juridiques pour leur activité, mais ça s’est jamais vraiment transformé. Honnêtement ça ne décolle
le chatbot
du chatbot prêt à être utilisé pas. Il faudrait recommuniquer encore et encore » (CDP-suivi 1-09-11-20)
« Je les regarde, je les suis comme le lait sur le feu, et ça me permet de voir les questions que peuvent être
Les enjeux et la manière dont les
Optimisation & amenés à poser les gens. Des fois, il y a des choses très ésotériques, des questions extrêmement précises
acteurs procèdent pour améliorer et
Amélioration auxquelles le bot… Ça me permet de voir ce que les gens peuvent attendre d’un bot, quand ils demandent :
optimiser le fonctionnement du
continue du chatbot « donne-moi le contrat signé il y a cinq ans avec telle entreprise », clairement c’est impossible. Par contre,
chatbot
là où c’est utile, c’est quand je vois qu’il y a une intention. Par exemple (…) » (CDP-18-03-20)

Tableau 11. Principales catégories issues de la 1ère analyse thématique (Cas du projet du chatbot)

181
Dans cette étude, le traitement et l’analyse des données impliquent l’analyse d’une activité de
conception et de déploiement du chatbot. Nous proposons de décrire cette activité suivant les
séquences d’actions qui la constituent. Ces séquences renvoient aux regroupements, soient un
ensemble d’actions et d’éléments plus globaux selon les objectifs poursuivis qui émergent au
cours de l’activité. Ainsi, le principal critère qui conduit à regrouper différentes actions et
éléments dans une même séquence est leur objectif commun poursuivi.
Concrètement, nous avons tout d’abord repéré les différents éléments et actions telles qu’ils
sont rapportés et décrits dans le corpus des données d’entretiens. Ces actions ont été regroupées
et catégorisées selon leurs objectifs, ce qui permet de dégager les grandes séquences d’actions
constituant l’activité de conception et de déploiement du chatbot. Par exemple, dans l’extrait
suivant, les éléments en gras décrivent les actions et la manière de procéder du CDP qui
répondent à un objectif global qui est la définition des interactions : « Là c’est au feeling en
fait, tu vois je me répète, c’est ma petite expérience du bot. Je lis ces textes. En fait, c’est
toujours la logique de l’entonnoir, en fin de compte (…) C’est-à-dire que le tout, c’est d’arriver
à tisser des arborescences et de faire en sorte que le parcours soit relativement fluide. Je dis
ça mais tu vas me dire : « OK » et donc, en gros, ça consiste à ne pas proposer à chaque fois
un milliard de choix à l’utilisateur (…) » (CDP-suivi 1-09-11-20).
En complément, les éléments identifiés dans le corpus des données d’entretien sont illustrés et
appuyés par des données documentaires et d’observation correspondantes à ces éléments, ce
qui permet de disposer d’autres angles d’analyse et d’approfondissement de ces derniers. Plus
globalement, dans le corpus de l’ensemble des données, nous identifions également une
diversité d’acteurs avec leur rôle dans ce projet.
Une deuxième analyse qualitative, que l’on peut qualifier d’analyse chronologique des
événements, a été réalisée sur ces données catégorisées pour faire ressortir les détails des
événements survenus et des actions réalisées dans l’activité de conception et de déploiement du
chatbot. Cette analyse a permis de (re)constituer des chronologies du projet88 à travers ces
événements et actions, résumés à partir des corpus de données et regroupés selon les axes du
développement du projet : l’axe principal et les axes d’implication des trois entités de
l’entreprise89. Sur ces chronologies, nous avons identifié et indiqué :

88 Pour des raisons de confidentialité, l’ensemble de ces chronologies détaillées ne peut être produit dans la
thèse. Cependant, un extrait d’une de ces chronologies est présenté avec la Figure 24.
89 Une vision synthétique de la temporalité et la chronologie du projet se trouve dans les résultats de la

partie 5.2.1.4, Figure 32.

182
- les regroupements des différentes actions en séquences principales selon leurs objectifs
poursuivis,
- les acteurs impliqués avec leurs rôles et contributions,
- les difficultés rencontrées, les changements et adaptations dans la démarche de
conception et de déploiement du chatbot,
- les événements saisis en tant qu’opportunités pour introduire des nouveautés et
développer le projet du chatbot.
A titre d’exemple, la Figure 2490, soit un extrait synthétisé d’une chronologie concernant l’entité
n°1, illustre cette analyse qualitative. Ainsi, sur cette chronologie, nous retrouvons au milieu
(en bleu) l’axe principal (une ligne temporelle) avec un enchainement des différentes actions et
événements qui ont eu lieu sur un temps donné. En deuxième ligne (en rouge), nous identifions
les séquences d’actions de l’activité de conception et de déploiement du chatbot telles qu’elles
sont explicitées par le CDP et/ou observées et documentées à l’aide des données recueillies. La
troisième ligne (en orange) permet de synthétiser les acteurs impliqués dans ces moments.
Enfin, nous indiquons au-dessus de l’axe principal, les types de données (issues de la
documentation, des observations et des entretiens) qui ont contribué à l’identification et à la
caractérisation d’une telle action ou évènement.

90 Les détails de l’ensemble d’éléments présentés sur la figure ont été synthétisés et raccourcis dans l’intérêt
de la lisibilité du schéma.

183
Figure 24. Extrait d’une des chronologies du projet du chatbot de l’entité n°1
184
5.2. Résultats
La première partie des résultats expose le contexte du projet en explicitant de façon globale
l’activité de conception et de déploiement du chatbot juridique, ses objectifs et les acteurs
impliqués. Ensuite, la deuxième partie est une mise en lumière d’un important travail nécessaire
pour le développement du chatbot, notamment la définition des « intentions » avec la rédaction
des dialogues. La troisième partie rend compte de la manière dont les « besoins »91 des
utilisateurs futurs sont pris en compte et la manière dont ces utilisateurs sont associés au projet.
Enfin, les enjeux liés aux usages et à l’amélioration continue du chatbot sont exposés dans la
quatrième partie.

5.2.1. Le processus et les enjeux globaux de la conception et du déploiement


du chatbot juridique

5.2.1.1. Les débuts du chatbot, ses objectifs et sa place dans l’entreprise


Le projet du chatbot juridique est accompagné de plusieurs enjeux et objectifs consistant à
automatiser des tâches dites à faible valeur ajoutée, faire gagner du temps aux métiers
opérationnels et aux juristes mais aussi contribuer à la « sécurisation » de l’entreprise à travers
la communication des documents adéquats. Plus globalement, ce chatbot, qui devrait s’inscrire
dans un usage quotidien des salariés, est valorisé comme un élément soutenant les
transformations des process déjà engagées par l’entreprise et ses différentes entités.
A ses débuts, le projet de développement et de mise en place du chatbot juridique n’avait pas
de statut formel avec des équipes et des ressources spécifiquement dédiées au sein de
l’entreprise, mais il était plutôt le résultat des initiatives d’un juriste (mentionné en tant que
CDP dans cette étude) missionné par sa direction pour travailler sur un projet plus global
concernant les outils numériques et le métier de juriste. Dans ce cadre, le CDP, qui à ce moment-
là ne disposait pas spécialement de connaissances techniques avancées pour la conception d’un
chatbot, était en contact avec une « communauté » de la direction des systèmes d’information
spécialisée sur les questions de l’IA et les chatbots. L’aide apportée par cette « communauté »
l’a amené à développer un premier cas d’application du chatbot en 2017 sur la thématique du
traitement des données personnelles (en utilisant les algorithmes de Watson d’IBM), ce qui a
attiré l’intérêt de la direction juridique. C’est le point de départ de l’inscription du chatbot dans

91 Le terme utilisé par le CDP.

185
la liste des projets de la direction avec un certain budget alloué permettant de réellement
démarrer le travail de conception en 2018.
Dès le départ, l’objectif principal du chatbot était de diminuer les sollicitations adressées aux
juristes « en essayant de traiter sous forme de réponses automatiques les questions un peu
basiques qui leur font perdre du temps. » (CDP-suivi 1-09-11-20). Si les acteurs du projet,
appartenant à la direction juridique, n’avaient pas pour objectif de remplacer une analyse
juridique par la mise en place de cet agent conversationnel, ils visaient en revanche à faire
gagner du temps aux juristes mais aussi aux métiers opérationnels92 des différentes entités de
l’entreprise, en facilitant la tâche de recherche d’informations qui deviendraient disponibles
dans le chatbot. Ce chatbot, décrit par le CDP comme un service juridique de « bas niveau » et
« automatisé », est envisagé comme un élément susceptible d’interagir avec des opérationnels
(les doubles flèches pleines entre chatbot et opérationnelles, présentées sur la Figure 25) mais
aussi potentiellement avec des juristes qui peuvent le solliciter (les doubles flèches en pointillé
entre chatbot et juristes, présentées sur la Figure 25).

Figure 25. Les interactions entre le chatbot, les opérationnels et les juristes

Ainsi, bien que le but de ce chatbot ne soit pas de se substituer à une analyse juridique, il cherche
tout de même à prendre en charge certaines tâches spécifiques des juristes en matière de
transmission d’informations et de documents.

92 Ils englobent une diversité de métiers qui sollicitent des juristes pour toute question juridique, par
exemple, des acheteurs, des commerciaux etc. Ces interactions entre les juristes et les opérationnels sont
traduites par les doubles flèches pleines sur la Figure 25.

186
Cet objectif prend origine dans les difficultés des travailleurs (des opérationnels mais aussi des
juristes) liées par exemple à la recherche d’informations dans des bases de données
conséquentes présentes sur l’intranet de l’entreprise ou encore à la recherche de documents
stockés à des endroits divers et pas toujours centralisés (serveurs, disques durs etc.) et qui
s’accompagnent des enjeux de sécurité et de fiabilité des documents utilisés. De façon globale,
le CDP explique que les moteurs de recherche de l’intranet semblent être peu performants en
termes de recherche d’informations et de documents pertinents, ce qui peut rendre par exemple
difficile de trouver l’information d’ordre juridique. Par conséquent, le rôle du chatbot est pensé
comme celui « de gare d’aiguillage », c’est-à-dire de moteur de recherche pour orienter « les
opérationnels vers les bons documents et vers les bons canaux » (CDP-suivi 4-12-02-21), ce
qui permettrait aussi de « sécuriser » l’entreprise dans le sens où il s’agit de l’accès à des
éléments juridiques, donc potentiellement à forts enjeux. Par exemple, le CDP relate les
possibles difficultés de recherche des documents sur la plateforme de l’entité n°1 (qui existe
indépendamment du chatbot), en particulier pour les personnes non familières avec cette
plateforme, où la mise en place du chatbot apporte une première aide dans cette recherche :
« C’est bien ce qu’ils ont fait, ils ont tout rassemblé, mais c’est vrai que ça peut être un peu
intimidant quand tu arrives là-dessus. Après, quand tu connais la plateforme, c’est facile, mais
j’imagine que la première fois, tu dis : « où je cherche mon truc ? Je ne sais pas où je dois aller
pour trouver mes informations ». Là, l’avantage, c’est que ça te prend par la main et que ça te
dit : « OK, qu’est-ce que tu cherches ? Je vais t’aider » » (CDP-suivi 3-01-02-21).
En cherchant à répondre aux besoins supposés de la fonction juridique, le CDP et la direction
juridique ont privilégié de développer leurs propres outils plutôt que d’utiliser ceux déjà
existants (par exemple, des systèmes des LegalTechs93) et qui ne seraient pas toujours bien
adaptés aux besoins spécifiques de l’entreprise. En plus de ce choix de conception, le
développement du chatbot s’inscrit dans une logique de production plutôt qu’une logique de
test ou d’expérimentation :
« On n’est pas dans une logique de faire un test, on est vraiment dans une logique de production
avec les équipes avec lesquelles on travaille. Je ne leur dis pas : « venez tester ». On est
vraiment dans une logique industrielle, autant que possible, à petite échelle, mais on veut
vraiment faire quelque chose de pérenne. » (CDP-18-03-20).

93 LegalTech désigne Legal Technology, en français technologie juridique ou au service du droit. Ce terme
englobe un ensemble de technologies, produits et services destinés au droit ou à la justice : « tous types de
sociétés apportant une nouvelle technique au monde du droit. » (Cassar, 2020, p. 32).

187
Les objectifs de départ du chatbot sont alors accompagnés de choix de conception et de
développement, qui ont conduit au fur et à mesure à diversifier les acteurs impliqués.

5.2.1.2. Les acteurs du projet : leurs rôles et contributions


Plusieurs acteurs émergent dans le projet du chatbot, avec des rôles qui se définissent au fur et
à mesure des avancements. Le CDP, étant un juriste initiateur du projet, est au cœur de ce
processus de l’implication progressive d’une diversité d’acteurs, soit des juristes, des
manageurs-responsables 94 et des opérationnels des différentes entités. Pour rappel, les juristes
sont en soutien des entités opérationnelles, plus précisément des métiers opérationnels qui les
sollicitent sur des questions d’ordre juridique.
Les analyses des données recueillies montrent que cette implication se traduit par la
construction des relais vers ces acteurs de la part du CDP (comme indiqué sur la Figure 26 par
la flèche), ce qui contribue dans l’ensemble au développement du projet du chatbot.

Opérationnels

Manageurs - Responsables

Juristes
Implication des acteurs
CDP
Construction des relais

Figure 26. Implication des différents acteurs dans le projet du chatbot

Par exemple, les juristes sont impliqués dès le début du projet dans l’activité de conception du
chatbot pour l’identification et la formalisation des besoins mais aussi pour la rédaction des
dialogues à intégrer dans le chatbot 95. Faisant face à certaines difficultés durant cette phase de
conception, le CDP décide d’associer des métiers opérationnels à la conception du chatbot96.
Pour cela, il s’appuie sur des juristes qui constituent des liens privilégiés avec des entités
opérationnelles. Les manageurs-responsables de ces entités sont approchés par le CDP et/ou les
juristes concernés afin d’impliquer les entités dans le projet du chatbot. Ces manageurs-

94Le terme « manageur-responsable » désigne un ensemble des responsables de différents niveaux, des
manageurs hiérarchiques ou encore des chargés de projets divers.
95 Ce point est explicité dans la partie 5.2.1.3
96 Ce point est explicité dans la partie 5.2.1.4

188
responsables deviennent des porteurs du projet dans leur entité respective. De plus, pour
certains d’entre eux, ils contribuent aux différentes actions de l’activité de conception et de
déploiement du chatbot97 dans leur entité98, soient l’identification et la formalisation des
besoins, les définitions des interactions entre les utilisateurs et le chatbot (élaboration des
dialogues, identification des intentions, intégration et tests techniques…), le lancement et la
communication et enfin, l’optimisation et l’amélioration continue. Enfin, les métiers
opérationnels sont aussi impliqués dans le projet, notamment à l’aide des manageurs-
responsables en lien direct avec eux. La plupart des opérationnels des différentes entités
contribuent principalement à l’identification et à la formalisation des besoins à travers leur
participation aux ateliers mis en place. Il est à souligner que dans le cas de l’entité n°1, deux
personnes opérationnelles interviennent également dans la définition des intentions, l’écriture
des dialogues et leur intégration dans l’architecture du bot mais aussi dans le lancement du
chatbot et la communication sur ce dernier. Toutefois, ce type de contribution des opérationnels
semble être exclusive à cette entité.
La construction des relais par le CDP vers ces différents acteurs aboutit à une certaine évolution
des rôles : en parallèle des avancements du projet, les acteurs des entités impliquées deviennent
de plus en plus autonomes sur certaines tâches de la conception et du déploiement du chatbot.
Dans ce contexte, le CDP assure de plus en plus un rôle de soutien à ces équipes de concepteurs :
« donc là, on l’a mis en place, et aujourd’hui, (le CDP) n’intervient plus, j’ai une intention, je
vais la rajouter, il intervient uniquement si on a des questions juridiques où on n’est pas
capable de répondre, donc là, on a besoin de l’aide de (CDP), mais sinon on est autonome
maintenant sur notre bot. » (Acteur-Chargé de projets transverses - Entité n°2 - 16-02-21).
Ces acteurs issus de différentes directions de l’entreprise contribuent de manière ponctuelle à
ce projet du chatbot. En effet, aucun d’entre eux n’est dédié à temps plein au projet. La Figure
27 montre de manière simplifiée le positionnement de ces acteurs dans l’entreprise.

97 Pour l’activité de conception et de déploiement du chatbot voir la Figure 30, dans la partie 5.2.1.3
98 Les contributions sont variables d’une entité à une autre, d’un manageur-responsable à un autre.

189
Figure 27. Positionnement des acteurs du projet du chatbot dans l’entreprise

L’ensemble de ces acteurs, soient le CDP, les juristes, les manageurs-responsables et les
opérationnels, jouent à la fois un rôle de contributeurs dans la conception et le déploiement du
chatbot (considérés donc comme des concepteurs mais avec des rôles spécifiques 99) mais aussi
un rôle d’utilisateurs du chatbot (Figure 28). Toutefois, il convient de noter que tous les
concepteurs n’ont pas le même rôle dans la conception, notamment les juristes et les
opérationnels qui sont dans la plupart des cas des participants des différents processus mis en
place. Par ailleurs, ce sont les opérationnels qui constituent des « utilisateurs cibles », c’est-à-
dire des utilisateurs potentiels finaux. Tous les autres acteurs faisant partie de l’entreprise
constituent dès lors des utilisateurs potentiels nommés « utilisateurs secondaires ».

Figure 28. Les rôles des acteurs impliqués vis-à-vis de la conception et l’usage du chatbot

99
Dans la suite de ce chapitre, l’utilisation du terme « concepteur » englobera généralement le CDP et les
manageurs-responsables, sauf en cas de précisions particulières.

190
En plus de ces acteurs, que nous pouvons qualifier de « principaux » vis-à-vis de leurs
implications dans le projet et de leurs contributions au chatbot, d’autres acteurs interviennent
également dans ce projet de façon irrégulière et ponctuelle sur des tâches précises, en termes de
support notamment au CDP (Figure 29). Il s’agit des animateurs d’atelier100 ou encore des
équipes techniques des prestataires externes et internes. Nous considérons donc que ces derniers
sont des acteurs « périphériques ».

Figure 29. Les acteurs « principaux » et les acteurs « périphériques » du projet du chatbot

5.2.1.3. La compréhension d’un processus émergent dans l’activité de conception et de


déploiement du chatbot juridique
Les analyses de l’ensemble des données recueillies ont permis de mettre en lumière différentes
actions réalisées dans l’activité de conception et de déploiement du chatbot, qui peuvent être
regroupées en plusieurs séquences (Figure 30). Ainsi, cette activité consiste d’une part à
identifier et formaliser les besoins des futurs utilisateurs. Ces besoins sont notamment
recueillis par le biais des ateliers, mais aussi par divers échanges entre concepteurs (en
particulier le CDP et les manageurs-responsables) et par la mobilisation de leurs propres
connaissances sur les besoins potentiels des futurs utilisateurs. Ils constituent des bases
thématiques pour l’élaboration du contenu des interactions possibles entre l’utilisateur et le
chatbot qui impliquent l’identification des intentions, de leurs variations, l’écriture des
dialogues et l’intégration de l’ensemble dans l’architecture du bot.

100Par exemple, des consultants ou encore des coachs digitaux qui accompagnent les acteurs dans les
techniques de structuration et d’animations des ateliers.

191
Figure 30. Les séquences d’actions identifiées de l’activité de conception et de déploiement
du chatbot

Après les tests techniques, le déploiement du chatbot consiste à le mettre à disposition des
utilisateurs cibles et le faire connaître à l’aide des campagnes de communication. Enfin,
l’activité de conception et de déploiement du chatbot comprend son optimisation et son
amélioration continue qui est réalisée à l’aide des analyses des retours des utilisateurs (obtenus
par le biais des échanges informels, lors de réunions de présentation ou encore par un sondage)
et des historiques des échanges entre les utilisateurs et le chatbot, que l’on peut appeler des
traces d’utilisation, visibles dans l’interface de l’administration. Le but des analyses de ces
traces d’utilisation est d’enrichir les dialogues d’interactions mais aussi d’identifier des besoins
supplémentaires pouvant constituer des nouveaux contenus thématiques du chatbot. Cette
activité de conception et de déploiement de l’agent conversationnel est soutenue, d’une part par
plusieurs outils numériques utilisés par l’ensemble des acteurs du projet pour les différentes
actions mentionnées ci-dessus, tels que des mails, des outils « collaboratifs », la plateforme de

192
développement du bot proposée par le prestataire externe, les outils des cartes mentales 101, les
outils bureautiques et l’intranet de l’entreprise avec ses différents espaces collaboratifs et de
partage ; et d’autre part, par des outils d’échanges tels que des ateliers ou encore des réunions
(principalement à distance depuis l’année 2020) des points d’étape entre différents acteurs,
organisées selon les besoins du projet ou encore les avancements des différentes entités
impliquées.
A travers ces éléments, la démarche de conception et de déploiement du chatbot a donc été
reconstruite. Elle s’inscrit dans un processus itératif et continu, comme montré sur la Figure 30
et expliqué par le CDP :
« c’est par itération, on prend l’expression de besoins, on rédige le script, on leur (les acteurs
impliqués dans la conception) présente, ils testent, on corrige, dans le back-office, on peut voir
les réactions du chatbot face aux différentes demandes, et voir qu’il y a des problèmes pour
corriger. » (CDP-18-03-20).
Bien que les différentes étapes de cette démarche fassent écho à des phases de conception assez
classiques, dans le cas présent elles ont été explicitées et mises en place par le CDP pour
concevoir le chatbot. Les analyses du développement de ce projet montrent en effet qu’il s’agit
d’un processus émergent, c’est-à-dire qu’il n’a pas été planifié a priori de façon précise en
suivant une démarche formalisée. Il se construit d’une part avec une diversité d’acteurs
impliqués au fur et à mesure de l’avancement et d’autre part, selon les changements et les
événements survenus dans l’entreprise qui sont saisis par le CDP en tant qu’opportunités. En
effet, le projet de conception et de mise en place du chatbot n’est pas pensé selon les étapes
prédéfinies, par exemple avec des dates butoirs, des livrables ou encore un cahier des charges,
mais il se construit progressivement suivant ses avancées, les difficultés rencontrées et les
différentes opportunités qui se présentent, que ce soit à travers des rencontres de certains acteurs
ou encore des découvertes de nouvelles possibilités et changements à venir dans l’entreprise.
Ainsi, la démarche effective de la conception et du déploiement du chatbot peut être qualifiée
d’« opportuniste ». Enfin, la Figure 31 synthétise les différentes actions mises en œuvre avec le
positionnement des acteurs du projet afin de rendre compte du processus et des moyens,
mobilisés pour la conception du chatbot.

101 Dans le cas présent, les cartes mentales sont des outils de représentation schématique et visuelle des
interactions possibles imaginées entre un chatbot et un utilisateur.

193
Figure 31. Synthèse de la démarche de conception et de déploiement du chatbot juridique
avec les acteurs du projet

5.2.1.4. La démarche effective et « opportuniste » du projet « chatbot » : impliquer


différents acteurs et saisir des opportunités
Dans cette partie, la temporalité globale du projet est exposée, en mettant l’accent sur les
moments de changements et d’opportunités qui contribuent au développement du projet sur le
plan technique ou encore sur le développement de sa portée dans l’entreprise.
La Figure 32 ci-dessous reconstitue la temporalité du projet du chatbot de façon synthétique,
en mettant en avant les éléments principaux tels que les implications des différents acteurs et
des entités de l’entreprise, les moments des lancements des différentes versions du chatbot mais
aussi les changements et adaptations réalisés dans la démarche et les saisies des nouvelles
opportunités par le CDP.
Après avoir identifié deux contenus thématiques, soient « deux grands pourvoyeurs de trafic de
demandes (adressées aux juristes) que sont le Kbis102 et le NDA103» (CDP-18-03-20), une
nouvelle version du chatbot avec ces deux thématiques voit le jour en fin d’année 2018.

102 Un document officiel, comme une fiche d’identité, qui atteste de l’existence juridique d’une entreprise.
103 Un accord de confidentialité (Non Disclosure Agreement).

194
Implication d’une sous-
entité de l’entité n°3

Implication
de l’entité n°2
Implication
des juristes
Implication
de l’entité n°1

Début Début Début


2017 2018 2019 2021

Début
Origine du
chatbot 2020 Décision des concepteurs Découverte d’une nouvelle
d’intégrer le chatbot en plateforme de développement Lancement d’un nouveau
Lancement du chatbot
format widget en plus de la du bot (une autre technologie contenu thématique du chatbot
dans la messagerie messagerie instantanée avec des avanatges) par le CDP
instantanée de identifié dans le cadre du projet
(décision étendue à et passage à cette plateforme de transformation de la direction
l’entreprise avec les l’ensemble du projet) pour l’ensemble de l’entité n°3 juridique
deux premiers contenus
thématiques
Implication des métiers « Détournement » du chatbot par les
opérationnels à l’aide des concepteurs : le chatbot de l’entité Arrivée des nouveaux outils
juristes pour l’identification n°1 n’est plus uniquement juridique Association du projet du
« collaboratifs » dans
et formalisation des besoins mais davantage « générique » chatbot au projet de l’entreprise avec des nouvelles
intégrant d’autres thématiques des transformation de la possibilités d’intégration et de
métiers opérationnels direction juridique développement du chatbot
Légendes

Lancements du chatbot et ses contenus thématiques Changements et adaptations dans la démarche


dans la messagerie instantanée de l’entreprise de conception et de déploiement du chatbot

Lancements du chatbot et ses contenus Nouvelles opportunités saisies par le


thématiques en format Widget CDP pour développer le projet du chatbot

Implication des trois entités de l’entreprise


Implication des juristes tout au long du projet Figure 32. Chronologie globale du projet du chatbot

195
Ensuite, un premier changement majeur (matérialisé par un sablier rouge sur la Figure 32) qui
participe à la construction de la démarche de conception et de déploiement du chatbot survient
en milieu de l’année 2019. Il s’agit de l’implication des métiers opérationnels des différentes
entités pour l’identification de leurs besoins et ceci, à l’aide des juristes en lien direct avec ces
opérationnels. Cette réorientation fait suite aux difficultés rencontrées par des juristes lors des
ateliers dits « numériques »104 qui visaient l’identification des besoins et notamment la
production, c’est-à-dire l’écriture du contenu des dialogues à intégrer dans le chatbot.
L’implication des opérationnels à l’aide des juristes est maintenue par le CDP tout au long du
projet. Il s’agit donc de s’appuyer sur ces juristes pour identifier et solliciter des entités de
l’entreprise susceptibles d’être intéressées par le chatbot juridique. Les présentations sur le
chatbot réalisées par le CDP lors des réunions internes de la direction juridique est une bonne
illustration de cette approche. En effet, ces présentations visent à inciter et mobiliser des juristes
dans cette recherche et implication de nouvelles entités. Après cette adaptation dans la
démarche (c’est-à-dire l’implication des métiers opérationnels), le projet du chatbot juridique
s’est étendu aux trois entités de l’entreprise, comme l’on peut voir sur la Figure 32. Par ailleurs,
après la mise en place des contenus thématiques de l’entité n°2 dans le chatbot de la messagerie
instantanée, le CDP et les manageurs-responsables de cette entité constatent, à travers des
historiques des échanges, qu’il y a peu de sollicitations adressées au chatbot sur ces nouvelles
thématiques. Découvrant l’exemple d’un autre chatbot en format widget et les avantages105 que
ce format présente, le CDP et les concepteurs de l’entité n°2 décident de mettre en place le
format widget pour leur chatbot juridique avec l’objectif principal d’augmenter sa visibilité.
Cette décision d’utiliser le format widget dans l’entité n°2 est ensuite étendue, par le CDP, à
l’ensemble des entités impliquées dans le projet. Ainsi, il n’y pas qu’une seule version du
chatbot mais plusieurs (Figure 33) :
- la version présente dans la messagerie instantanée de l’entreprise avec des contenus
thématiques destinés à l’ensemble des salariés susceptibles de solliciter des juristes mais
aussi des contenus thématiques spécifiques aux deux entités impliquées dans le projet
(l’entité n°1 et l’entité n°2),

104 Ce point est explicité dans la partie 5.2.3.3


105 Les avantages peuvent être plusieurs. A titre d’exemples, le format widget permet de placer le chatbot
sur des pages web de manière ciblée et stratégique pour augmenter sa visibilité auprès des utilisateurs cibles ;
l’architecture et l’organisation des bots en format widget dans l’interface de développement facilitent le travail
de conception technique ; les fonctionnalités accessibles avec le format widget comme les boutons cliquables,
permettent de mieux cadrer les choix de l’utilisateur lors de ses interactions avec le bot.

196
- les versions du chatbot en format widget mises en place spécifiquement pour les trois
entités.
Le chatbot de la messagerie instantanée est maintenu, tout en étant décliné en format widget
dans trois entités différentes en reprenant des contenus thématiques présents dans la version de
la messagerie instantanée et en l’enrichissant avec des nouveaux contenus spécifiques pour
chaque entité. Il est à souligner qu’à un moment donné, cet enrichissement du contenu du
chatbot a dépassé les thématiques purement juridiques en ce qui concerne l’entité n°1 106, ce qui
témoigne d’une appropriation de la conception du chatbot.
Chatbot en Contenus
format Widget thématiques
spécifiques à
de l’entité n°3
l’entité n°3

Chatbot en Chatbot en
format Widget format Widget
de l’entité n°1 Version du chatbot dans la de l’entité n°2
Enrichissement messagerie instantanée Enrichissement
par des contenus par des
thématiques Récupération des Récupération des contenus
spécifiques à contenus contenus thématiques
l’entité n°1 thématiques thématiques spécifiques à
spécifiques à spécifiques à l’entité n°2
l’entité n°1 l’entité n°2
Contenus Contenus thématiques Contenus
thématiques destinés à l’ensemble thématiques
spécifiques à des salariés spécifiques à
l’entité n°1 l’entité n°2

Figure 33. Différentes versions du chatbot juridique développées au sein de l’entreprise

D’autres événements de l’entreprise et des nouvelles possibilités sont également utilisés par le
CDP comme des moyens pour développer le projet du chatbot ou encore repenser les éléments
techniques (Figure 32). Par exemple, il s’agit de la découverte d’une nouvelle plateforme de
développement du bot, présentant plusieurs avantages en termes de nouvelles fonctionnalités
techniques, par le biais des discussions avec un manageur d’un projet de l’entité n°3. Cette
découverte conduit à des nouveaux développements du chatbot et de ses fonctionnalités dans
cette entité n°3. Un deuxième exemple fait référence à un projet de transformation de la
direction juridique qui se met en place durant l’année 2021. Plus concrètement, c’est un projet
d’évolution et de réflexion de la direction juridique sur différentes thématiques dont le
numérique et le métier de juriste. Les idées exprimées dans les ateliers menés dans le cadre de
ce projet font ressortir l’existence du chatbot juridique déjà en place dans différentes entités.
Cela représente pour le CDP une opportunité de rattacher le chatbot à deux axes de travail

106 Ce point est explicité dans la partie 5.2.3.4

197
identifiés dans ce projet de transformation, soient un « cas d’usage »107 sur la recherche des
juristes et l’axe de réflexion sur les sollicitations et les demandes « à faible valeur ajoutée »
adressées aux juristes. Il s’avère que ce dernier axe constitue déjà un objectif de base du chatbot
avec des contenus thématiques déjà existants. Ainsi, l’inscription du chatbot dans ce projet
global de la direction juridique est un moyen d’augmenter sa visibilité, tout en soutenant les
différents axes de réflexion en termes de transformations. Enfin, un dernier exemple concerne
l’arrivée des nouveaux outils « collaboratifs » dans l’entreprise qui vont avoir un impact sur la
disparition de la messagerie instantanée et donc du chatbot présent dans cette messagerie. Cet
événement constitue une autre opportunité pour le CDP de repenser la place du chatbot dans
l’entreprise, son accessibilité par divers canaux et ses fonctionnalités avec des nouveaux
champs de possibilités techniques qui s’ouvrent avec ces nouveaux outils.
Les résultats montrent que le CDP adapte la démarche selon les difficultés et les
opportunités qui se présentent afin de développer le chatbot, d’augmenter va visibilité et
sa portée.

5.2.2. Un important travail de conception : le développement technique d’un


chatbot fonctionnel
L’activité de conception du chatbot juridique implique pour les concepteurs (le CDP, mais aussi
certains manageurs-responsables, certains juristes ou encore certains opérationnels quand ils
contribuent à la conception) de définir les « intentions » à implémenter dans l’architecture du
bot en anticipant la façon dont un utilisateur pourrait formuler une demande et écrire les
dialogues sur la base des thématiques préalablement choisies. L’écriture des dialogues renvoie
à l’élaboration du contenu des interactions.

5.2.2.1. Les « intentions » comme éléments centraux de conception pour l’élaboration


du contenu des interactions
L’activité de conception du chatbot implique l’élaboration de son contenu et d’un script, c’est-
à-dire la rédaction des dialogues qui vont être implantés afin qu’il puisse produire des réponses
aux questions posées par des utilisateurs. Pour cela, il faut définir un ensemble « d’intentions »,
soient des thématiques sur lesquelles il peut apporter des réponses et qui incarnent des notions

107 Le terme « cas d’usage », ou « use case », employé par le CDP renvoie globalement aux différentes

thématiques sur lesquelles le chatbot peut interagir avec un utilisateur à l’aide des dialogues prédéfinis. Par
exemple, identifier des juristes spécialisés sur une question donnée constitue un « cas d’usage » dans la mesure
où les concepteurs ont élaboré les contenus relatifs à cette thématique pour que le bot puisse apporter des
réponses à cette demande. Ce point est développé dans la partie 5.2.3.1

198
qui mènent à un dialogue108. C’est alors cette « intention qui est captée et comprise par le
moteur et qui le renvoi à un dialogue » (CDP-suivi 7-29-03-21). Comme nous avons déjà
expliqué dans la partie 5.1.2.2, les intentions sont définies par les concepteurs rédigeant des
dialogues, avec leurs différentes variations qui correspondent aux diverses formulations qu’un
utilisateur pourrait utiliser pour exprimer sa demande. Les extraits de ces variations d’intentions
sont entourés en rouge sur la Figure 34 pour le cas du chatbot juridique. Par exemple, les
demandes des utilisateurs sur la politique de l’entreprise sont identifiées par le bot grâce à
l’intention prédéfinie par les concepteurs, soit « policy » (« politique »). Or, un utilisateur peut
formuler de différentes façons cette même demande, en écrivant par exemple, « groupe
policies », « policy », « policies » etc., ce qui correspond aux variations de l’intention
« policy » (constituant les phrases d’entrainement ou d’apprentissage du bot) prédéfinies dans
l’architecture du bot par les concepteurs (entourées en rouge sur Figure 34). Dans les réponses
de l’utilisateur, le bot (en se basant sur des variations d’intentions déjà connues) cherche à
identifier des éléments qui lui permettent de détecter l’intention, pour ensuite, fournir la réponse
prévue pour cette intention à partir de la base des dialogues également pré-écrits par les
concepteurs.

Figure 34. Extrait de l’architecture du bot dans l’interface de l’administration du chatbot


juridique

108 Ce point est explicité dans la partie 5.1.2.2

199
Dans le cas où aucune intention ne peut être détectée dans la réponse de l’utilisateur, le bot ne
sait pas répondre ou alors une réponse générique peut être anticipée par le concepteur pour
informer l’utilisateur sur l’incapacité du bot à satisfaire la demande. Par exemple, sur la Figure
35, l’utilisateur demande un schéma de facturation tandis qu’aucune intention n’est détectée
par le bot (0% de probabilité de correspondance à une des intentions connues par le bot,
entourée en rouge), le chatbot répond alors par un message prévu (entouré en rouge) par les
concepteurs pour ce cas de figure : « je n’ai pas compris votre demande (emoji) ou elle ne fait
pas partie de ma base de connaissance… ».

Figure 35. Extrait de conversation d’un utilisateur anonyme avec le chatbot

Ainsi, un des enjeux majeurs durant l’élaboration des intentions est lié à des variations
d’intentions car il y a une multitude de possibilités de la manière dont un utilisateur va exprimer
sa demande au chatbot. De ce fait, ces variations d’intentions ne peuvent pas être toujours
anticipées et définies de manière exhaustive par les concepteurs. C’est pourquoi, les stratégies,
notamment dans la rédaction des dialogues, sont mises en œuvre, comme celle de balisage et
d’orientation des réponses des utilisateurs.

5.2.2.2. Accompagner les utilisateurs et baliser les interactions : les repères de


conception pour le processus rédactionnel des dialogues
D’après le CDP, les dialogues jouent un rôle majeur dans les usages du chatbot dans le sens où
ce sont précisément ces dialogues qui vont orienter et baliser les interactions entre l’utilisateur
et le chatbot. Par conséquent, un des premiers points consiste à informer l’utilisateur sur les

200
capacités du chatbot et comment il peut interagir avec lui car c’est « toujours un peu compliqué
de dire : « vas-y demande un truc au chatbot ». En général, on n’a pas la moindre idée de ce
qu’on va lui demander, et moi le premier » (CDP-18-03-20). Or, le CDP évoque une tendance
des utilisateurs à poser des questions sans toujours prendre en compte des « compétences » du
chatbot, c’est-à-dire les thématiques sur lesquelles il a la capacité de répondre, malgré qu’elles
soient explicitées au début des interactions. C’est pourquoi les dialogues doivent contribuer
d’une certaine manière à « former » les utilisateurs : « il faut faire en sorte que cible soit
formée » (CDP-12-06-20). Autrement dit, du point de vue du CDP, c’est au concepteur
d’accompagner les utilisateurs dans cette interaction afin de les mener à l’information
recherchée, comme on peut le voir sur la Figure 36.

Figure 36. Extrait du contenu d’interaction avec le chatbot

201
Effectivement, dans cet exemple, le chatbot annonce ce qu’il peut faire et à quoi il peut
répondre : « Mes concepteurs m’ont enseigné quelques notions juridiques. Je peux vous parler
des enjeux relatifs à : la résiliation ou non reconduction d’un contrat, ou de la diminution du
volume de commande, la vente à perte. Répondez-moi avec le mot en gras qui correspond à
votre choix. ». Mettre certains mots en gras est une stratégie dans la rédaction de ces dialogues
afin d’inciter l’utilisateur à saisir ce mot en particulier et ainsi permettre « de baliser l’échange,
de s’assurer que l’utilisateur s’il utilise un des mots en gras on pourra de toute façon le
rattacher à une intention existante. Maintenant ce n’est pas toujours le cas, et je le vois dans
l’interface d’administration, certains utilisateurs pour accéder à un dialogue qu’on a bien
prévu et qui est bien présent, utilisent ou expriment leurs besoins d’une manière pas du tout
anticipée et c’est normal. » (CDP-12-06-20). Pour le CDP, toute la difficulté réside dans
l’élaboration de cet accompagnement des utilisateurs à travers les dialogues pour que le chatbot
puisse apporter des réponses adéquates en amenant l’utilisateur vers l’information recherchée.
C’est en partie pour ces raisons que le chatbot en format de widget a été mis en place dans
l’entité n°2, puis généralisé à d’autres entités109. En effet, à l’aide des boutons préconfigurés, le
widget110 permet de cadrer plus facilement les choix de l’utilisateur mais aussi mieux aiguiller
et orienter cet utilisateur qui ne sait pas toujours ce qu’il cherche et comment poser sa question
ou sa demande.
En tenant compte de ces éléments, le processus rédactionnel mis en œuvre par le CDP se base
sur le principe de l’entonnoir. Les dialogues doivent à la fois « raconter une histoire » et
calibrer, orienter les échanges et les choix de l’utilisateur. Si au début du projet, il n’y avait pas
de canevas pour la rédaction des dialogues réalisées sous forme d’un tableau Excel, avec
l’avancement du projet, le CDP s’est orienté vers l’utilisation des cartes mentales (Figure 37).
Ces cartes mentales contiennent les enchainements des dialogues, autrement dit, les scripts
d’interactions possibles entre un utilisateur et le chatbot sur une thématique donnée, avec les
questions et les réponses du bot selon les choix de l’utilisateur.

109 Ce point est explicité dans la partie 5.2.1.4


110 Pour rappel, voir la partie 5.1.2.1

202
Figure 37. Extrait des dialogues rédigés dans un outil des cartes mentales

Certains acteurs impliqués dans la conception du chatbot ont tenté de contribuer à ce processus
rédactionnel, qui n’est pas toujours une tâche simple, comme le montre le cas des ateliers
« numériques »111 menés avec des juristes rencontrant des difficultés de production des
dialogues. Par ailleurs, certains juristes et responsables juridiques ont par exemple proposé au
CDP des textes faisant office de dialogues. Cependant, ces dialogues rédigés et présentés de
façon linéaire dans un fichier word ne pouvaient pas être intégrés tels quels dans l’architecture
du bot. Effectivement, le CDP se confrontait par exemple à une problématique de certains
dialogues « trop juridiques » rédigés par des juristes qui seraient dans « des postures très
formelles, très doctrinales, très notes juridiques » ou alors à des dialogues restreints à un
format question-réponse sans qu’il y ait un guidage de l’utilisateur. Or, le but du chatbot
est que l’utilisateur, en étant orienté par les réponses du bot, puisse obtenir une réponse concrète
à sa question à travers ces dialogues. Le travail rédactionnel réalisé majoritairement par le CDP,
notamment au début du projet, consiste alors à tisser des arborescences à partir des thématiques
issus des ateliers mais aussi à partir de ces textes rédigés par d’autres acteurs comme des juristes
et qui nécessitent d’être retravaillés. Nous avons vu dans la partie 5.2.1.2 qu’au fur et à mesure

111 Ce point est développé dans la partie 5.2.3.3

203
du développement du projet dans les différentes entités et l’implication des différents acteurs,
certains d’entre eux (des manageurs-responsables, des juristes, des opérationnels) contribuent
ou prennent en charge la rédaction et l’intégration des dialogues dans le chatbot. Toutefois, la
rédaction des dialogues n’a pas été non plus une tâche aisée pour ces acteurs. Si certains
nécessitaient toujours l’intervention du CDP dans la rédaction des dialogues adaptés à
l’architecture et aux principes du chatbot, d’autres, formés et soutenus par le CDP, sont devenus
plutôt autonomes pour produire et intégrer ces dialogues :
« je me retrouve même dans la situation où en pratique, je laisse les équipes concernées
s’approprier l’outil et bosser dessus en fait. On va dire que je fais du support de deuxième
niveau. En fait, je n’ai pas tellement le temps de pouvoir faire les dialogues à leur place, donc
ce que je fais, c’est que je les forme et je fais le soutien. (…) Ça a l’avantage, souvent les gens
qui font ça sont des gens issus des équipes qui vont s’en servir, c’est-à-dire que les besoins
exprimés, les liens et les contenus du bot ont vraiment beaucoup plus de sens pour ces
personnes-là parce que c’est leur univers. Donc il y a aussi une certaine… C’est plus facile. »
(CDP-suivi 2-15-01-21).
Étant donné les objectifs du chatbot, à savoir apporter les informations ou les documents
recherchés par l’utilisateur, le contenu des dialogues doivent intégrer ces éléments.
L’information peut être directement affichée et explicitée par le chatbot dans sa réponse ou
alors il peut renvoyer vers un document demandé. La stratégie du CDP consiste à associer des
liens URL des documents dans ces dialogues car il n’a pas toujours accès lui-même à ces
documents. Son but est aussi d’éviter les problèmes de mise à jour des documents qui peuvent
devenir obsolètes si le chatbot donne directement accès à ces documents plutôt qu’à leurs
emplacements où ces documents sont mis à jour régulièrement. Ces éléments témoignent de la
nécessité pour le CDP de faire appel aux acteurs du terrain qui connaissent et ont accès à ces
documents et informations.
En résumé, du point de vue du CDP, la rédaction des dialogues nécessite de mobiliser le
principe de l’entonnoir afin de produire des dialogues utiles et fonctionnels qui, tout en étant
simples, calibrent les interactions et les choix des utilisateurs et apportent des réponses
concrètes. Ces dialogues préalablement préparés sont ensuite intégrés, par le CDP et/ou les
autres concepteurs, dans l’architecture du bot tout en les rattachant à des « intentions ». Après
l’intégration des dialogues, le chatbot est testé par ces concepteurs pour identifier des erreurs,
des problèmes techniques et les corriger avant de le mettre à disposition des utilisateurs.

204
Pour élaborer le contenu des interactions, il est alors nécessaire de savoir quelles thématiques
développer et intégrer, c’est-à-dire quelles sont les demandes des utilisateurs, qualifiées de
« besoins » dans ce projet. L’objectif de la partie suivante est d’approfondir la manière dont les
« besoins » des utilisateurs futurs sont identifiés et formalisés, soit un des éléments centraux
pour le CDP dans le processus de conception du chatbot. Cela interroge également l’implication
des utilisateurs futurs dans ce processus.

5.2.3. A la recherche des « besoins » des utilisateurs futurs : une source de


préoccupations et de difficultés

5.2.3.1. Qu’est-ce qu’un « besoin » ?


Les analyses font émerger une préoccupation autour de ce que le CDP appelle des
« besoins » en tant qu’élément central dans la démarche de conception et de déploiement du
chatbot. En effet, « l’expression des besoins » fait partie intégrante du processus émergent telle
que l’on a pu voir dans la partie 5.2.1.3. Pour le CDP, « le besoin c’est toujours la question
qu’on pose aux juristes ou aux opérationnels. C’est qu’est-ce qui en matière juridique, quelle
est la question qu’on vous pose régulièrement et à laquelle vous répondez toujours par la même
chose, il n’y a pas vraiment de réflexion. Et qui vous prend un peu de temps parce que tout le
monde est toujours en train de vous solliciter et c’est casse-pieds en fait. Autant se servir du
bot pour satisfaire ce besoin. » (CDP-suivi 1-09-11-20). Selon lui, les besoins correspondent
au contenu des sollicitations, des demandes et des questions des opérationnels adressées aux
juristes qui sont récurrentes, répétitives et « énergivores », en particulier en termes de temps
pour les deux parties et qui peuvent donc être « automatisées » par le biais du chatbot juridique.
A certains moments, les besoins sont aussi qualifiés par le CDP et certains manageurs-
responsables de « point de douleur ». L’extrait suivant d’un mail illustre ce que le CDP entend
par « besoins » : « S’agissant de documents/informations juridiques que cherchent-ils souvent
? quels sont leurs points de douleurs ? Y a t-il des choses que l’on pourrait automatiser ? »
(Extrait d’un mail - Proposition du CDP d’organiser un atelier pour Entité n°1). Ces « points de
douleur » sont censés traduire les problèmes ou les difficultés rencontrés par les opérationnels
dans leur travail en lien avec des thématiques juridiques et pour lesquels le chatbot pourrait
avoir une « plus-value ». Par exemple, dans l’extrait suivant, les concepteurs (le CDP et des
manageurs-responsables) discutent de ce qui constitue un « point de douleur » dans un cas
précis de l’entité n°1 et de l’intérêt du chatbot :
« CDP : Contrat X est un point de douleur du coup qui pourrait être facilité par (Chatbot) ?

205
Manageur-Responsable 2 de l’entité n°1 : c’est pas Contrat X lui-même qui est un point de
douleur, c’est (…) plus d’y accéder (…) c’est-à-dire qu’on accède par un schéma particulier,
toutes ces (premières) cliques, et c’est là je crois que (Chatbot) à la plus-value » (Extrait des
échanges d’une réunion de préparation de l’atelier).
Ces besoins identifiés sont catégorisés par les concepteurs en différentes thématiques et sous-
thématiques, par exemple, la thématique de recherche des contrats avec des sous-thématiques
des différents types de contrats. Ces thématiques correspondent aux « intentions » à intégrer
dans le chatbot et constituent une base pour écrire les dialogues 112, soient le script ou
l’arborescence des interactions possibles entre les utilisateurs et l’agent conversationnel. Bien
que le terme « use case » ou « cas d’usage » soit mentionné par le CDP à certains moments, il
n’en donne pas une définition en tant que telle. De façon indirecte, comme nous l’avons déjà
évoqué dans la partie 5.2.1.4, le « cas d’usage »107 est donc employé par le CDP pour évoquer
les contenus thématiques des interactions possibles entre le chatbot et les utilisateurs. Ces
thématiques traduisent les « besoins » des utilisateurs, soient des problèmes ou des difficultés
liés à leurs activités de travail.

5.2.3.2. L’identification des « besoins » guidée par les visions des concepteurs
D’après nos analyses, les visions du CDP et des manageurs-responsables sur les « besoins »
des opérationnels et les « cas d’usage » du chatbot précèdent et guident l’activité de
conception et de déploiement de cet agent conversationnel. Le choix de la direction
juridique, effectué au début du projet, d’implémenter le chatbot dans la messagerie instantanée
est orienté par les visions de ces concepteurs consistant à rendre ce chatbot accessible au plus
grand nombre d’utilisateurs qui seraient les salariés de l’entreprise. Par ailleurs, il s’avère que
d’une part, l’identification des besoins peut trouver son origine dans les échanges entre
différents concepteurs tels que le CDP et les manageurs-responsables et d’autre part, cette
identification se base sur leurs expériences et connaissances personnelles des différents
métiers concernés. Par exemple, les deux premiers « cas d’usages » ont été identifiés à partir
d’un constat partagé par des juristes notamment le CDP, en se référant à leurs propres
expériences, que certaines demandes qui leur sont adressées peuvent être qualifiées de « sans
valeur » pour l’ensemble des juristes. Ces nombreuses sollicitations concerneraient tout d’abord
la demande des documents Kbis et NDA et qui ont été retenues en tant que « cas d’usages » à
implémenter dans le chatbot113 :

112 Ce point est explicité dans la partie 5.2.2.1


113 Comme nous l’avons déjà pu voir dans la partie 5.2.1.3

206
« ce n’est pas particulièrement exaltant de répondre à un mail, je vais chercher une pièce jointe
qui est toujours au même endroit, je mets le modèle de NDA, je le renvoie, ça m’a pris cinq
minutes, mais je n’ai pas répondu tout de suite à mon interlocuteur, je l’ai peut-être fait le
lendemain ou dans les deux heures qui ont suivies quand j’ai eu un peu de temps à consacrer à
cette tâche. » (CDP-18-03-20).
Les connaissances des concepteurs, tels que le CDP et les manageurs-responsables, sur les
différents métiers opérationnels et les métiers de juriste participent à la définition des contenus
thématiques et plus largement des « cas d’usage ». Or, se baser sur les représentations et les
connaissances que les concepteurs se construisent sur le travail des opérationnels, pourrait
conduire à une vision partielle, voire insuffisante, du travail et des besoins de ces opérationnels.
L’observation d’une des réunions de préparation d’un atelier permet de constater que les
concepteurs se projettent sur le contenu de l’atelier à venir en termes de « besoins »
potentiellement exprimés par les opérationnels, en se basant sur leurs expériences et
connaissances des métiers. Dans l’extrait des échanges lors de cette réunion, présenté ci-
dessous, les concepteurs imaginent et discutent de sujets potentiels que les opérationnels
pourraient mettre en avant, durant l’atelier à venir, en termes de besoins, comme la recherche
des documents basiques, les questions sur des procédures ou encore sur l’utilisation des outils :
« Responsable-manageur 1 de l’entité n°1 : (Chatbot) pour nous il doit aller chercher des
documents froids, de base, à utiliser, tout ce qui va être dans les outils de validation
contractuelle (…) la troisième piste à laquelle je m’attends c’est peut-être des questions sur les
process pour tel genre de document, tel genre de vente, telle catégorie de vente, qui doit valider,
qu’est-ce qui doit être vérifié en amont, ce genre de petits memos de vérification parce que le
process peut être un peu flou (…) c’est un peu ça moi les grandes questions que j’imagine (…)
Responsable-manageur 2 de l’entité n°1 : à mon avis, il faudrait différencier, y aura deux
sujets, y aura vraiment ce qui est process et y aura (…) outils (…) je pense que ce qui est lié
aux outils, là où ça fait mal c’est au niveau de la formation.
CDP : ils cherchent toujours « comment je fais ça ? ou comment je fais ce truc-là ? »
Responsable-manageur 2 de l’entité n°1 : ouais, c’est la formation parce que moi je vois des
fois quand je reçois des documents signés au niveau du workflow ils s’y prennent pas le bon
format du document (etc…) » (Extrait des échanges d’une réunion de préparation de l’atelier).
Toutefois, ces besoins sont principalement identifiés, surtout formalisés, par le biais des ateliers
permettant de faire exprimer les participants (les juristes et/ou les opérationnels) et de construire
des « cas d’usage » de façon plus formelle. Dans le processus de conception du chatbot, deux
types d’ateliers, qualifiés par le CDP de « co-construction », peuvent être différenciés selon les

207
participants : les premiers ateliers dits « numériques » composés uniquement de juristes comme
participants (présentés dans la partie 5.2.3.3) et les ateliers dits « d’idéation » composés des
opérationnels et/ou des juristes (présentés dans la partie 5.2.3.5), mis en place après l’arrêt des
premiers ateliers « numériques ».

5.2.3.3. L’identification des « besoins » accompagnée de l’écriture des dialogues dans


les ateliers composés de juristes : difficultés rencontrées
Les premiers ateliers « numériques » ont été mis en place dès le début du projet. Ces ateliers,
d’une durée de deux heures et animés par le CDP et un « coach digital » (pour l’animation),
étaient uniquement composés de juristes. Il est à souligner que ces premiers ateliers avaient
pour but d’identifier et formaliser des « besoins » sous forme de thématiques à transformer en
« cas d’usages », soient des sollicitations récurrentes adressées aux juristes. Dès le départ, la
stratégie est de formaliser en priorité des « cas d’usage » simples, correspondants à des
demandes concrètes des opérationnels, par exemple en termes de recherche des documents, tel
qu’un Kbis. Ces ateliers visaient également à produire des dialogues sur diverses thématiques
identifiées. Autrement dit, les juristes étaient sollicités durant ces ateliers pour écrire le contenu
des dialogues à intégrer dans le chatbot. Un outil « collaboratif » de gestion des tâches en ligne
était utilisé pour l’organisation de la production de ces différents éléments, soient des besoins
thématiques et des dialogues. Une dizaine d’ateliers ont été réalisés entre fin de l’année 2018
et mi-2019. D’après le CDP, les juristes participants rencontraient des difficultés d’une part, en
termes de disponibilité et du temps nécessaire à consacrer et d’autre part, en termes de
complexité et de contraintes liées à la production des dialogues 114. Pour le CDP, ces difficultés
seraient liées aux difficultés de faire émerger des « besoins concrets », qui correspondent aux
problématiques survenues dans les activités de travail, pour ensuite les retravailler et proposer
des dialogues. En effet, « quand on dit aux juristes, « qu’est-ce que vous voudriez trouver dans
(Chatbot), quelles sont les questions récurrentes qu’on vous pose souvent et qu’on pourrait
mettre dans (Chatbot) parce que ça ne vous intéresse pas d’y répondre et on peut le mettre. »
Les premières réponses c’est systématiquement « mais rien du tout » en fait, ou trois bouts de
ficelle en mode « non, je ne vois pas trop, etc. ». En fait tout l’enjeu qu’on n’a peut-être pas
atteint c’est d’arriver à faire en sorte que les gens puissent se projeter en discutant, en
réfléchissant, en décrivant leur métier, leurs activités » (CDP-12-06-20). Ici, le CDP rapporte
donc des difficultés pour les juristes de se projeter sur les fonctionnalités du chatbot sans

114 Ce point est explicité dans la partie 5.2.2

208
une réflexion et description préalable de leur activité de travail. Malgré plusieurs tentatives
et stratégies mises en place dans le déroulement de ces ateliers, par exemple « se fixer des «
petits » jalons : ne pas s’embarquer sur une rédaction trop ambitieuse qui couvrirait beaucoup
de thèmes, mais plutôt de les compléter intention par intention » (Extrait Compte-rendu ateliers
numériques), « ça n’a pas marché comme on aurait voulu que ça marche » (CDP-12-06-20).
Compte tenu de ces difficultés, ces ateliers « numériques » composés uniquement de juristes
prennent fin mi-2019 (juin/juillet). Effectivement, ces ateliers n’ont pas été jugés propices à la
production des dialogues par les juristes qui « n’arrivaient pas à se mettre dans l’axe de
produire des scripts. Donc on a abandonné cette pratique qui ne marchait pas pour partir plutôt
sur des relations avec les opérationnels. » (CDP-12-06-20). Ainsi, si au départ les juristes
étaient les seuls acteurs mobilisés pour contribuer à la conception, par le biais d’identification
des besoins thématiques et d’écriture des dialogues, les difficultés rencontrées ont conduit à une
réorientation de la démarche (Figure 32) et amené le CDP à partir à la recherche des entités des
métiers opérationnels, soient des utilisateurs cibles.

5.2.3.4. A la recherche des entités opérationnelles : faire porter le projet et impliquer des
métiers opérationnels
Impliquer des opérationnels dans l’activité de conception et de déploiement du chatbot, par
exemple pour l’identification des besoins, a du sens pour le CDP qui considère que « ce sont
bien leurs besoins (des opérationnels) qui sont adressés par les dialogues (à intégrer dans le
chatbot) » (CDP-18-03-20). Suite à l’arrêt des ateliers « numériques », la nouvelle approche de
la démarche a donc consisté à identifier des entités opérationnelles à impliquer dans le processus
de conception et de déploiement du chatbot qui leur est destiné en priorité. Il s’agit de mobiliser
et d’impliquer les opérationnels et ceci, à l’aide des juristes qui sont justement en lien direct
avec eux. Pour cela, le CDP sollicite et tente de mobiliser des juristes afin de faire émerger des
contacts potentiels avec ces opérationnels. Plusieurs problématiques se présentent à ce stade en
termes de temps et de ressources nécessaires pour les entités opérationnelles pour s’investir
dans le projet mais aussi une faible contribution des juristes pour faciliter l’identification des
contacts concrets des opérationnels. Or, impliquer les opérationnels dans la conception du
chatbot pour faire émerger des « cas d’usages » s’est avéré essentiel pour le CDP, comme l’a
montré les ateliers « numériques » sans ces opérationnels, tout comme le rôle des juristes pour
faire ce lien avec les personnes qui peuvent porter le projet dans les différentes entités. Du point
de vue du CDP, le succès du développement du chatbot réside dans les possibilités d’associer
autant que possible les juristes et les opérationnels qui doivent exprimer les besoins en termes

209
de questions récurrentes qui peuvent être automatisées à l’aide du chatbot. Selon le CDP, l’enjeu
est donc d’arriver à créer un lien et un binôme juridique et opérationnel pour d’une part, susciter
de l’intérêt des différentes entités pour le chatbot en associant les manageurs-responsables en
tant que porteurs du projet et d’autre part, impliquer les métiers de manière opérationnelle dans
la production du contenu du chatbot :
« je n’arrive pas à obtenir l’adhésion de (l’entité X) dans la démarche, et comme je ne connais
pas du tout les opérationnels de (l’entité X), j’ai du mal à aller les chercher. Le mode
opératoire, par direction juridique, (c’est) il y a un juriste qui s’empare un peu du sujet, qui
imagine les sujets, donc des propositions de scripts ou des situations qui pourraient l’intéresser
lui, et surtout les métiers qu’on soutient. Après, il fait la démarche d’aller chercher justement
les métiers, qui souvent d’ailleurs eux-mêmes ont entamé des process de transformation ou de
simplification, et l’idée c’est d’arriver en disant : « vous avez mis en place une rationalisation
de vos processus, et vous voulez vous faciliter la vie, nous, direction juridique, on peut vous
proposer cette brique sur toute votre partie juridique, donc contractuelle, documentaire,
d’informations ». C’est ce binôme juridique et métier qui fait des étincelles, qui marche bien,
qui permet d’arriver à produire. Pour ça, il faut que le juriste porteur y croie, il faut qu’il
adhère au projet, et il faut qu’il ait l’adhésion de la ligne managériale. Si on est seul à y croire,
au bout d’un moment on s’essouffle. S’il n’y a pas de relais managériaux ou de sponsorings un
peu plus haut, on sait tous comment ça marche, ça finit par s’éteindre. » (CDP-18-03-20).
Bien que cette « adhésion de la ligne managériale » soit importante pour la réussite du projet
du chatbot, elle n’est pas toujours suffisante pour le CDP sans contributions et implications
directes des métiers opérationnels dans la conception. Le cas de l’entité °3, pour lequel le CDP
est en contact direct avec un seul acteur soit un manageur-responsable, illustre en effet ce point.
Ce manageur-responsable recense généralement les « besoins » des juristes de son entité, par
exemple en discutant lors d’une réunion, et les transmet au CDP pour l’écriture des dialogues
finaux. Bien que ce manageur-responsable soit considéré par le CDP comme un bon
interlocuteur pour faire porter le projet dans cette entité n°3, il s’interroge sur sa pertinence d’un
point de vue opérationnel. En effet, après plusieurs mois de déploiement d’une première version
du chatbot de l’entité n°3, le CDP rapporte :
« il me faut un interlocuteur peut-être plus au fait des plateformes, des besoins et des trucs
comme ça. (…) (Le manageur-responsable) fait le relais entre ses équipes et moi en me
transmettant les liens des documents et tout ça, il l’a fait une fois. (…) Disons que, moi, en tout
cas, je ne vois que lui de ce côté-là, je pense que ses équipes sont associées puisque ce sont
elles qui ont produit les documents, parce qu’il leur a demandé « qu’est-ce que vous voudriez

210
mettre dans le bot, qu’est-ce le bot aurait intérêt à communiquer aux utilisateurs ? », et c’est
eux qui ont produit les liens et les informations qu’on m’a communiquées, donc ils sont au
courant, ils sont associés, mais c’est lui mon interlocuteur, mais je ne sais pas si c’est le bon »
(CDP-suivi 4-12-02-2021).
L’implication plus directe et concrète des opérationnels est donc importante pour le CDP qui
estime que « les mieux placés pour nous indiquer leurs besoins c’est forcément les gens qui
travaillent sur le sujet » (Extrait d’une réunion de préparation de l’atelier). L’exemple de
l’entité n°1 confirme l’intérêt d’associer certains opérationnels à l’activité de conception et de
déploiement du chatbot, non seulement dans l’identification des besoins, mais aussi pour
l’écriture et l’intégration des dialogues. Ainsi, cette entité n°1, où deux personnes
opérationnelles ont pris en charge 115 l’écriture et l’intégration des dialogues dans le chatbot, a
« un peu détourné l’outil, c’est-à-dire qu’au départ ça devait être un outil avant tout direction
juridique, et c’est devenu un outil un peu générique au sens le chatbot de (l’entité n°1), qui a
une dimension juridique, mais pas que » (CDP-suivi 3-01-02-21). D’après le CDP, il peut être
effectivement difficile, voire artificiel, d’extraire et de traiter des questions juridiques sans
prendre en compte leur contexte plus large. En effet, selon lui, ces questions juridiques des
opérationnels s’inscrivent dans des demandes et des interrogations plus globales des métiers,
c’est-à-dire que « traiter uniquement la question juridique, ça ne règle pas forcément leur
souci » (CDP-suivi 3-01-02-21). En ce sens, intégrer les questions juridiques dans les
thématiques plus globales des métiers « fait beaucoup plus de sens » pour ces opérationnels. Ce
qui explique que les équipes de cette entité contribuant à la conception, ont intégré dans le
chatbot des thématiques relatives aux demandes des métiers qui ne sont pas uniquement d’ordre
juridique. Ainsi, elles « sont parties du besoin qu’elles maîtrisent parce qu’elles sont
assistantes de vente, et stagiaires ou CDD, (…) elles sont opérationnelles en fait. Nous, on a
apporté notre soutien. Ça a un peu changé, on a un peu renversé le paradigme avec cette
équipe, mais chaque sujet est très différent. En tout cas, c’est chouette ce qu’elles ont fait. »
(CDP-suivi 3-01-02-21).
Pour résumer, ces éléments montrent, du point de vue du CDP, l’importance de l’implication
des différents acteurs, soient les juristes mais aussi les entités avec leurs équipes managériales
et opérationnelles, et l’intérêt qu’ils peuvent porter à cet agent conversationnel, pour réussir à
concevoir, mettre en place le chatbot dans les situations de travail et faire perdurer son
développement de manière pérenne. Malgré les difficultés qui peuvent se présenter pour trouver

115 Ce point est explicité dans la partie 5.2.1.2

211
et intéresser les opérationnelles par ce chatbot, il a pu être développé dans trois entités
différentes comme on a pu le voir dans la partie 5.2.1.4 (Figure 32, Figure 33).

5.2.3.5. L’identification des « besoins » et processus « d’acculturation » à travers des


ateliers composés d’opérationnels et/ou de juristes
Avec l’implication des entités opérationnelles, l’approche par des ateliers d’identification des
besoins pour lesquels le chatbot peut apporter des réponses, est à nouveau introduite. Or, ces
ateliers ne sont pas systématiquement mis en place dans chaque entité impliquée dans le projet
du chatbot. C’était par exemple le cas au début de l’implication de l’entité °3, au sein de laquelle
c’est un manageur-responsable qui recensait des besoins et donc des thématiques potentielles à
intégrer dans le chatbot de cette entité 116. A l’image des premiers ateliers « numériques », ces
« nouveaux » ateliers appelés « d’idéation » ayant pour objectif d’identifier et de formaliser ces
besoins, sont mis en place avec différents acteurs qui peuvent y contribuer : les juristes
(spécifiques de chaque entité), les opérationnels, les animateurs et le CDP qui relate que « c’est
difficile cette étape. Ce n’est pas toujours facile, donc autant que possible on est présent et on
essaye de mettre des pièces dans la machine pour faire en sorte que les gens s’approprient,
parlent, s’expriment, et qu’on les aide à identifier… » (CDP-12-06-20). Ces ateliers sont
souvent à l’initiative du CDP qui les propose aux manageurs-responsables portant le projet du
chatbot dans leur entité. Généralement, ce sont ces derniers, proches des juristes et des
opérationnels de leur entité, qui proposent et choisissent des participants potentiels (des juristes
et/ou des opérationnels) susceptibles d’être intéressés par le sujet.
Les exemples suivants issus des observations d’un de ces ateliers et des données documentaires,
décrit les principes de leur déroulement et le contenu produit. Après la présentation du chatbot
(son objectif et ses fonctionnalités existantes) et des objectifs de l’atelier, l’animateur amène
une première question principale qui vise à faire ressortir les besoins :
- des opérationnels : quelles actions ou tâches d’ordre juridique vous prennent le plus de
temps quotidiennement ?
- et/ou des juristes : quels sont les documents et informations que vous êtes amenés à
partager le plus fréquemment ?
Dans les deux cas, les participants sont invités à partager leurs idées à l’aide des post-it117 qui
sont organisés au fur et à mesure par l’animateur selon les thématiques. Dans les ateliers avec
les juristes, des questions supplémentaires concernent les emplacements et l’accessibilité de ces

116 Ce point est explicité dans la partie 5.2.3.4


117 Il s’agit de post-it virtuel dans les exemples présentés.

212
documents et informations. Dans le cas des opérationnels, ils sont invités à prioriser leurs idées
exposées et à préciser la nature de l’information qu’ils souhaitent obtenir à l’aide du chatbot.
Or, en posant des questions de façon directe aux participants sur les demandes récurrentes ou
les tâches qui leur prennent du temps, le CDP et les animateurs rencontrent quelques difficultés.
Autrement dit, faire exprimer et ressortir ce qu’ils considèrent comme des besoins n’est pas
toujours une tâche aisée :
« quand on part de zéro et qu’on dit « qu’est-ce qu’on met dedans », c’est « non, rien », moi je
ne suis pas, mon boulot, chaque chose est différente, je ne suis jamais sollicité pour des trucs
inutiles. En fait très vite on se rend compte que ce n’est pas forcément le cas, ou alors …. Ce
n’est évidemment pas la moitié de l’activité ni même pas 25 %, aux franges on essaye d’être à
5-10 % des sujets pour pouvoir les mettre dedans. » (CDP-12-06-20).
Le CDP constate cet élément rencontré dans les derniers ateliers mais aussi dans les premiers
ateliers menés avec des juristes, au fur et à mesure de plusieurs ateliers et de la conduite du
projet du chatbot. Dès lors, il explique que ce sont les échanges et les discussions plus générales,
parfois informelles en dehors des ateliers, sur le travail de ces personnes qui permettent de faire
émerger les « besoins » traduisant des problèmes ou difficultés rencontrées dans leur travail.
Non seulement ces ateliers sont un point de départ pour l’identification de ces besoins, mais
pour le CDP, ils ont aussi un rôle important à jouer dans le processus « d’acculturation », en
particulier des juristes et des opérationnels : expliquer ce que c’est un chatbot, comment il
fonctionne et ce qu’il peut leur apporter. Par conséquent, l’utilité de ces ateliers se manifesterait
notamment au début du processus dans l’identification des premiers besoins et un premier
lancement du chatbot dans les entités concernées. Au fur et à mesure de plusieurs ateliers et les
premières versions du chatbot, d’autres façons de procéder émergent chez les concepteurs de
manière plus ou moins active selon les entités : certaines entités deviennent (semi)autonomes
dans la formalisation des besoins et des dialogues sans forcément passer par des ateliers,
d’autres continuent à mettre en place des ateliers avec le CDP en tant que support. Par exemple,
après quelques ateliers menés dans l’entité n°2, un tableau Excel partagé, recensant des
thématiques à implémenter dans le chatbot et les noms de juristes de cette entité prenant en
charge la rédaction de ces thématiques, a été mis en place. L’objectif est que ces juristes
remplissent le tableau au fur et à mesure des avancées de production des dialogues et par des
nouvelles thématiques à intégrer.

Pour résumer, identifier des besoins des utilisateurs constitue pour le CDP une tâche importante
de l’activité de conception qui est réalisée aux différents moments et de différentes manières.

213
Bien que la volonté soit d’impliquer les utilisateurs pour comprendre leurs demandes, les
visions des concepteurs sur l’activité des utilisateurs semble quand même guider en grande
partie l’identification des besoins et l’élaboration des thématiques à intégrer dans le chatbot. Le
travail des concepteurs ne s’arrête pas là avec l’identification des besoins. En effet, une fois que
le chatbot est fonctionnel et mis en place, il se pose les questions de son usage et de son
amélioration continue.

5.2.4. L’inscription pérenne du chatbot dans les usages : optimisation,


amélioration et évaluation

5.2.4.1. La communication comme un levier majeur mais peu efficace face aux enjeux
de pérennisation des usages du chatbot
Au-delà des enjeux de conception du chatbot, l’inscrire dans un usage quotidien des différents
métiers autrement dit, lui trouver une place parmi d’autres outils pour la recherche des
documents ou informations juridiques, demeure un enjeu important pour le CDP tout au long
du projet. Il s’avère que le projet du chatbot juridique se caractérise par des incertitudes depuis
son début, liées à ses utilisations et à son inscription pérenne dans les usages quotidiens.
Conscient que ce chatbot ne relève pas d’une « nécessité absolue », le CDP cherche à lui donner
une place parmi d’autres outils de l’entreprise. Pour lui, son inscription dans l’usage quotidien
signifierait que le chatbot se présente comme le premier élément à solliciter pour trouver une
information ou un document juridique. La pérennité du projet du chatbot serait alors
directement déterminée par son usage : « il y a la réalité de l’usage qui sera pour moi le
déterminant ou non du projet et de sa continuité ou pas. » (CDP-18-03-20). Or, le CDP constate
que ces usages restent fluctuants selon les moments mais aussi des entités dans lesquelles est
déployé le chatbot.
Face à ces enjeux de pérennisation, l’accompagnement de l’utilisateur par le biais des dialogues
dans ses interactions avec le chatbot118 et le processus « d’acculturation » des utilisateurs à
travers des ateliers 119, jouent un rôle important selon le CDP. Mais, ce sont notamment les
campagnes de communication qui sont envisagées par le CDP comme un levier majeur pour la
pérennisation du chatbot. Pour lui, l’objectif premier de ces communications est de faire
connaître l’existence du chatbot et favoriser « la connaissance et l’appropriation » de cet agent
conversationnel. En effet, une fois que le chatbot est prêt à être utilisé, le but est de le présenter

118 Ce point est explicité dans la partie 5.2.2.2


119 Ce point est explicité dans la partie 5.2.3.5

214
et communiquer sur son existence et son fonctionnement auprès des utilisateurs potentiels.
Plusieurs informations relatives à l’accès au chatbot ainsi qu’à ses fonctionnalités et ses
nouveautés sont donc diffusées par plusieurs canaux de communication, soient des espaces
« collaboratifs » sur le réseau social de l’entreprise, différentes réunions des entités ou encore
des lettres d’information (newsletter) des entités transmises régulièrement par mail. Ces
communications visent à inciter les utilisateurs cibles à solliciter le chatbot ainsi qu’à contribuer
à son amélioration avec les possibilités de soumettre aux concepteurs de nouvelles idées. Si
tous les concepteurs participent dans ces campagnes de communication, les diffusions
d’informations et les présentations du chatbot sont majoritairement réalisées par les manageurs-
responsables et le CDP, à leurs initiatives, souvent au moment de la mise en place du chatbot
fonctionnel. Par ailleurs, quand le CDP est sollicité en tant que juriste, par les opérationnels
qu’il soutient, sur certaines questions rentrant dans le périmètre des « compétences » du chatbot,
il explique renvoyer ces opérationnels vers cet agent conversationnel, dans le but d’augmenter
sa visibilité :
« Je prends un plaisir non dissimulé à renvoyer mes opérationnels qui me disent : « tu pourrais
m’envoyer un NDA parce que je dois discuter avec telle ou telle entreprise », je lui dis : «
demande à (Chatbot), NDA, tu arrives sur la page, tu choisis le modèle, en français, anglais ».
On a une petite fiche explicative de ce qu’on peut faire ou pas avec un NDA » (CDP-18-03-20).
De plus, les juristes ont été incités à mettre en avant le chatbot auprès de leurs opérationnels
mais aussi à ajouter un message informatif relatif au chatbot dans leur signature des mails.
C’était par exemple le cas pour des juristes en soutien de l’entité n°2 (Figure 38).

Figure 38. Extrait sur l’incitation des juristes à mettre en avant le chatbot

Si les campagnes de communication sont massivement suivies par les sollicitations adressées
au chatbot, (les historiques d’échanges visibles par les concepteurs dans l’interface
d’administration), les usages sont « beaucoup plus difficiles à installer dans la durée, ou de
faire en sorte que deux heures après la réunion, les gens s’en servent. Peut-être qu’il y a
plusieurs problèmes : le bon contenu, la bonne compréhension et après leurs usages, faire en
sorte que les gens considèrent que ça peut s’inscrire comme (…) un outil du quotidien pour eux

215
dans leur activité. » (CDP-18-03-20). Bien qu’avec le temps, le chatbot semble s’inscrire dans
les pratiques de certaines entités comme peuvent témoigner les historiques des sollicitations
régulières qui sont adressées à l’agent conversationnel, les campagnes de communication dans
d’autres entités ne produisent pas toujours les effets escomptés par les concepteurs, à savoir de
nombreuses sollicitations régulières adressées au chatbot. A un moment donné, c’était par
exemple le cas pour l’entité n°2. En effet, malgré plusieurs communications auprès des
opérationnels « pour leur expliquer qu’il y avait ce chatbot et qu’ils pouvaient lui demander
des informations sur des éléments juridiques pour leur activité, ça s’est jamais vraiment
transformé, ça ne décolle pas. Il faudrait recommuniquer encore et encore. (…) Après on ne
peut pas bombarder tous les 4 matins non plus, mais elles avaient fait une ou deux com, elles
avaient essayé d’associer des (opérationnels) pour qu’ils puissent faire leur retour ou
s’impliquent, et ce n’est pas facile, en fait. » (CDP-suivi 1-09-11-20). Dans le cas de l’entité
n°3, le constat est similaire selon le CDP. Le lancement d’une première version du chatbot avec
une communication de la part d’un manageur-responsable auprès des équipes concernées, s’est
accompagné par un certain nombre d’échanges avec le chatbot. Toutefois, avec le nombre des
utilisateurs qui baisse de plus en plus après cette communication, le CDP estime que les
statistiques d’utilisations ne sont pas vraiment satisfaisants :
« on a dû le lancer le 12 novembre, un truc comme ça, il a eu jusqu’à 16 utilisateurs, et après,
ce n’est pas que ça fait pschitt, mais quelque part c’est soumis aux mêmes aléas que tout type
de service dont tu fais la promotion, il faut des relais, il faut recommuniquer, il faut relancer,
etc., parce que les gens s’en servent une fois et après ils oublient » (CDP-suivi 2-15-01-21).
Les campagnes de communication sont accompagnées par un suivi régulier des traces
d’utilisations pour l’optimisation, l’amélioration continue ainsi que l’évaluation des apports du
chatbot.

5.2.4.2. L’optimisation et l’amélioration continue du chatbot à l’aide de traces de son


utilisation
La partie 5.2.1.3 a montré que l’activité de conception et de déploiement du chatbot implique
également des optimisations et des améliorations continues de cet agent conversationnel. En ce
sens, analyser les historiques et le contenu des échanges entre les utilisateurs et le chatbot, soient
des traces d’utilisation, faire partie intégrante du travail d’optimisation et d’amélioration du bot.
Deux types d’analyses des traces d’utilisation sont réalisés dans le cas de ce chatbot : une
analyse qualitative du contenu des échanges et une analyse statistique.

216
L’analyse qualitative du contenu des échanges, effectuée par les différents acteurs concepteurs
permet de repérer les attentes, les demandes des utilisateurs et leurs suggestions comme
l’explique le CDP : « Je les regarde, je les suis comme le lait sur le feu, et ça me permet de voir
les questions que peuvent être amenés à poser les gens. » (CDP-18-03-20). Cette analyse est
une source majeure pour identifier les intentions non anticipées afin de les rattacher aux
dialogues déjà présents :
« par exemple, la personne va taper « clause sécurité », elle va trouver, si elle tape « clause
ZZZ », qui est la même chose, mais si je n’ai pas mis le mot ZZZ dans mes intentions, elle ne le
trouvera pas. Donc vraiment, c’est à moi d’aller rajouter, hier je ne sais plus ce que j’avais, le
document existe, mais par contre, il lui manque l’intention, par exemple « ZZZ », pour sécurité,
que je n’avais pas mis, donc j’ai été la rajouter hier et ça fonctionne très bien. Donc plus il y a
d’intentions, plus les gens vont trouver leur document. » (Acteur-Chargé de projets transverses
- Entité n°2 - 16-02-21).
Dans ce cas de figure, la demande de l’utilisateur concernant un document est déjà présente
dans les contenus thématiques (ou une base des « connaissances) du chatbot mais l’intention
n’a pas été identifiée par le bot car la façon dont l’utilisateur s’est exprimé n’est pas répertoriée
dans les variations d’intention. Cela signifie que cette nouvelle façon de formuler la demande
de l’utilisateur doit être intégrée manuellement dans la base des variations d’intentions du bot.
L’information demandée par un utilisateur peut être aussi absente dans la base des
« connaissances » du bot, ce qui amène le concepteur à élaborer une nouvelle thématique du
bot, soit un nouveau « cas d’usage », c’est-à-dire identifier le besoin correspondant à la
demande de l’utilisateur et le transformer en contenu thématique, tout en s’interrogant sur sa
pertinence pour les opérationnels concernés. C’est donc un moyen d’intégrer des nouveaux
« cas d’usages » dans le chatbot. Toutefois, quand il s’agit de conversations avec le chatbot de
la messagerie instantanée, certaines demandes des utilisateurs anonymes peuvent être très
larges et globales sans pouvoir les spécifier ou les rattacher à un domaine d’activité. Dans ce
cas, le concepteur est dans l’impossibilité de retravailler cette demande pour la transformer en
nouveau « cas d’usage ». Enfin, les concepteurs peuvent être aussi amenés à corriger ou à mettre
à jour des dialogues en cas de modifications de différentes documentations ou des procédures
communiquées aux utilisateurs par ce biais. Ces mises à jour sont réalisées manuellement, ce
qui demande une certaine vigilance et du temps du fait des arborescences parfois complexes
qu’il faut reconstituer :
« Je ne te cache pas que quand il faut mettre à jour un dialogue, des fois, ça prend un peu de
temps parce qu’il faut reconstituer un petit peu, tu vois, l’arborescence, comprendre d’où ça

217
vient, ça renvoie vers où, ce n’est pas toujours. Voilà. Ce n’est pas très compliqué mais il faut
juste être vigilant et… Et ne pas se prendre les pieds dans le tapis. (…) Ou en tout cas s’assurer
que ce qu’on rajoute ne percute pas d’une manière ou d’une autre ce qui existerait par ailleurs
en fait. » (CDP-suivi 1-09-11-20).
En plus des analyses manuelles de chaque échange entre un utilisateur et le chatbot, la
plateforme de développement du bot fournit des analyses statistiques sur son utilisation.
Toutefois, pour le CDP, elles semblent difficilement exploitables afin d’en tirer des
améliorations. En effet, ces données statistiques exigent une analyse des détails assez fine pour
en extraire des informations exploitables permettant d’en tirer des axes d’amélioration du
chatbot.

5.2.4.3. Les évaluations des apports du chatbot


Les données statistiques constituent tout de même des moyens d’estimer les apports de cet agent
conversationnel. Pour exploiter et valoriser ces éléments auprès des utilisateurs potentiels,
plusieurs indicateurs sont élaborés et mobilisés par le CDP, par exemple le temps gagné. Ce
temps gagné est estimé par un calcul suivant : 5 minutes (un temps moyen estimé pour trouver
un document) multiplié par le nombre de réponses pertinentes du chatbot, c’est-à-dire quand ce
dernier a communiqué une information ou un lien pour accéder à un document. En effet, le CDP
explique :
« si à l’issue d’un dialogue qui s’avère positif, dans lequel le bot communique un lien pour
accéder à un document, on va dire que tu as gagné cinq minutes, (…) c’est à peu près le temps
qu’on va mettre pour retrouver un document. En réalité, le temps peut être parfois extrêmement
long, et à l’inverse des fois il peut être beaucoup plus court. Donc cinq minutes, c’est une
moyenne. Quand on dit ça, qu’est-ce qu’il se passe derrière ? Ça signifie que… Il faut être un
peu plus fin que les 755 interactions, parce qu’évidemment les 755 ne correspondent pas à 755
réponses pertinentes, il y a un rationnel à faire, il faut regarder un peu plus dans le détail, mais
en gros, on peut multiplier le nombre de documents communiqués par cinq minutes, et au bout
de la ligne, tu obtiens le temps gagné. C’est ça la valeur du chatbot maintenant, c’est ça qui va
mettre en lumière le ROI et le temps gagné » (CDP-suivi 3-01-02-21). Afin d’évaluer si le
chatbot peut être considéré comme bénéfique ou non, le CDP met en rapport l’estimation de ce
temps gagné avec le temps investi par les acteurs contributeurs au développement du chatbot,
ce qui lui donne une vision d’un seuil du volume d’usage « satisfaisant » ou non.
Un autre indicateur pour évaluer les apports du chatbot concerne une baisse potentielle des
sollicitations des juristes. Les demandes adressées au chatbot peuvent certes, être quantifiées

218
pour donner une idée de cet indicateur, mais pour le CDP la baisse réelle des sollicitations est
difficile à mesurer car elle peut être imperceptible pour les juristes. Toutefois, il relate son
expérience de juriste sur la modification de la nature de certaines sollicitations : on ne le
solliciterait plus (ou en moins) pour obtenir un document mais plutôt pour ses compétences
juridiques quand il s’agit d’apporter des modifications à ce même document. Ainsi, à travers
ces sollicitations, il découvre au fur et à mesure que, de plus en plus, les opérationnels utilisent
d’abord le chatbot pour obtenir certains documents dont ils ont besoin :
« Je ne perçois pas de demande en moins, mais par contre, quand on me sollicite sur le NDA,
en général, les gens l’ont et ils ont éventuellement des questions sur comment le compléter, ou
alors il a déjà été envoyé, et c’est la partie de l’autocontractant qui veut faire des modifs, et
rien que ça, c’est déjà du temps de gagné. C’est-à-dire que moi, je n’ai pas eu à trouver le
document, je n’ai pas eu à le compléter, c’est directement l’opérationnel qui l’a récupéré, qui
l’a téléchargé, qui l’a modifié et qui l’a envoyé. Moi, on me sollicite parce que la partie d’en
face, elle n’est pas contente, elle veut telle modification ou elle voudrait tel changement, etc. ce
que je contacte de plus en plus, mais c’est là aussi extrêmement difficile à quantifier de manière
vraiment tangible, on m’envoie souvent… on ne me sollicite pas pour le document, mais je
reçois de plus en plus fréquemment ce document, le bon document. Les gens utilisent désormais
de plus en plus ce bon document, et il y a des gens à qui je n’ai jamais parlé de (Chatbot), qui
m’ont dit « oui, je l’ai obtenu via (Chatbot) ». Donc ça veut bien dire que doucement, peut-être,
sûrement, mais en tout cas, doucement, l’usage se répand et il y a une appropriation de ce
canal pour accéder à ce type d’informations. » (CDP-suivi 4-12-02-21).
Enfin, avec l’objectif de recueillir des éléments pour mieux évaluer les apports du chatbot et
identifier des axes d’amélioration pour le rendre plus efficace, un sondage (sous forme d’un
questionnaire en ligne) était en cours de mise en place au moment de cette étude. Destiné aux
juristes et aux opérationnels des différentes entités impliquées dans le projet, ce sondage
cherche à recueillir des retours sur la perception du chatbot, la manière dont il est utilisé et les
apports pour ses utilisateurs.

Pour résumer, l’optimisation, l’amélioration et l’évaluation sont des points importants dans la
conception et le déploiement du chatbot. C’est en effet un enrichissement continu des intentions
et des dialogues qui vise à permettre aux concepteurs de rendre le chatbot performant et capable
de donner des réponses adéquates aux demandes d’utilisateurs. Les concepteurs s’appuient
donc sur les diverses traces d’utilisation de cet agent conversationnel (recueillies par le biais de

219
la plateforme ou d’un sondage) pour identifier ses axes d’amélioration mais aussi évaluer et
estimer ses apports.

5.3. Discussion des résultats


Ce dernier chapitre empirique s’est intéressé à la conception et au déploiement d’un système
d’IA à travers l’analyse du cas du chatbot juridique. Il convient de souligner que ces analyses
sont spécifiques à ce type de systèmes, en l’occurrence chatbot. Il s’agissait de caractériser la
démarche effective mise en œuvre et les enjeux rencontrés au cours de ce processus de
conception et de déploiement. Par ailleurs, le rôle des utilisateurs potentiels a également été
abordé.

5.3.1. Le chatbot juridique comme une « solution » face aux sollicitations


récurrentes adressées aux juristes
Le chatbot développé dans ce projet relève d’un système que l’on a qualifié de « spécifique aux
situations d’usage » dans le chapitre 3. En effet, afin de développer un système adapté à une
situation concrète de cette entreprise, le choix a été fait de concevoir un chatbot juridique
spécifique tout en utilisant des algorithmes d’IA déjà existants et fournis par un prestataire.
Disposant de fonctionnalités de recherche et de transmission des documents et des informations
d’ordre juridique, le chatbot, dont la conception était à l’initiative du CDP, avait pour objectif
de diminuer les sollicitations récurrentes adressées aux juristes de la part de l’ensemble des
métiers opérationnels de l’entreprise. Le chatbot prend origine dans un contexte socio-
organisationnel où le CDP rencontre et identifie deux difficultés en se basant en partie sur sa
propre expérience de juriste salarié de l’entreprise. Il s’agit de nombreuses sollicitations
récurrentes adressées aux juristes et qui seraient « sans valeur ajoutée » pour eux et les
difficultés de recherche d’informations et de documents juridiques qui sont nombreux et
distribués dans des espaces divers et variés avec des moteurs de recherche peu performants dans
certains cas. Dans ces conditions, le chatbot s’avère une solution intéressante d’après le CDP.
Les objectifs exposés dans ce projet correspondent aux objectifs habituellement attribués aux
chatbots juridiques, à savoir communiquer des réponses aux salariés de façon automatisée et
les diriger vers la bonne documentation (Kherrazi & Roquilly, 2021). Le chatbot étudié visait
en effet à faciliter la recherche d’informations et de documents par les salariés mais aussi
« sécuriser » l’entreprise en s’assurant de l’accès aux bons documents juridiques. Bien que la
mise en place du chatbot n’ait pas vocation de se substituer aux juristes, il a tout de même été
conçu pour prendre en charge, à la place des juristes, certaines demandes « basiques » des

220
opérationnels. En outre, le chatbot a été aussi valorisé notamment par le CDP auprès de
différentes entités de l’entreprise comme un soutien aux transformations (par exemple, des
process) déjà menées dans ces entités, ce qui vient renforcer son inscription dans une
perspective d’aide et de solution, au moins partielle, aux difficultés et transformations
socio-organisationnelles qui se présentent dans l’entreprise.

5.3.2. Le « bricolage » comme un moyen d’appropriation d’un processus de


conception émergent
Les résultats ont montré que la démarche effective de conception et de déploiement du chatbot
telle qu’elle a été décrite et explicitée par le CDP, mobilise quatre grandes séquences d’actions
qui ne sont pas linéaires mais itératives : l’identification et la formalisation des besoins, la
définition des interactions entre les utilisateurs et le chatbot, le lancement et la communication,
l’optimisation et l’amélioration continue. Elles font écho aux démarches classiques de
conception, par exemple aux six phases d’un processus de conception dans les modèles de
l’ingénierie (Howard et al., 2008) : l’identification du besoin, l’analyse de la tâche, le design
conceptuel, la conception incarnée/concrète, la conception détaillée et l’implémentation. Or, il
est important de souligner que ces éléments, explicités et mis en œuvre par le CDP, traduisent
un processus qui émerge au cours de l’avancement du projet. La construction de ce
processus émergent s’est déroulée tout au long du développement et de la diffusion progressive
du chatbot dans l’entreprise. De plus, les résultats ont montré, d’une part une construction des
relais par le CDP à travers l’implication de plusieurs acteurs, ce qui, entre autres permet de
mentionner que l’activité de conception du chatbot est collective, et d’autre part la manière dont
il s’est saisi des opportunités pour le développement et la valorisation du chatbot. Ces éléments
ont permis de qualifier cette démarche, coconstruite avec d’autres acteurs devenus
contributeurs du projet à part entière, d’opportuniste. L’organisation globale des activités
de conception est en effet décrite comme opportuniste même si elle peut connaître des épisodes
de structuration hiérarchique (Visser, 1994). Ces moments structurés sont relevés à certains
moments précis du projet du chatbot, par exemple les moments de mise en place des ateliers.
Cet opportunisme fait grandement écho aux logiques de « bricolage », déjà mentionnées dans
les travaux de Vayre (2016, 2018) sur la conception des agents « apprenants » ou encore à la
conception mêlant de « l’artisanat » (Esteban, 2019). Ces termes de « bricolage » et la
conception « artisanale » ont aussi été évoqués par les concepteurs interviewés dans notre
première étude empirique (Chapitre 3), comme une des limites des démarches de conception
des systèmes d’IA qu’il faudrait davantage encadrer. Dans le cas du projet étudié, ce

221
« bricolage » sous-entend des avancées du CDP par tâtonnement, qui ne suivent pas
forcément une démarche systématisée et prédéfinie, même si cette démarche serait, au moins
en partie, structurée par des normes et des processus plus globaux de conduite de projet de
l’entreprise. Effectivement, toute activité, inscrite dans une perspective historico-culturelle, est
médiée par des artefacts matériels et symboliques (par exemple, ici des normes et des processus
de l’entreprise) qui forment des ressources pour et transforment les actions et les relations des
travailleurs avec l’environnement qui les entoure (Nascimento, 2019). En outre, ce
« bricolage » implique la recherche des éléments disponibles et accessibles ainsi que celle des
liens susceptibles d’être utiles pour l’avènement du projet. Bien que Dodier (1995) fasse
référence par exemple aux objets techniques entourant un opérateur, sa vision sur le bricolage
vient décrire ce qui se joue dans la démarche mise en place par le CDP dans le projet du chatbot :
« Le bricoleur cherche autour de lui le cercle des objets susceptibles d'être compatibles avec le
réseau. Le bricolage est une apologie du proche, depuis ce centre qu'est l'opérateur. (…) Le
bricoleur va chercher autour de lui, selon les pentes de plus facile accès (…) Le bricolage se
manifeste par « l'ingéniosité », comme capacité à voir, autour de soi, dans le petit univers ainsi
constitué, et avec une perspective égocentrée, des liens qui n'avaient été vus jusqu'à présent par
personne. » (p. 229). Les résultats ont effectivement montré la manière dont le CDP a procédé
pour utiliser différentes ressources autour de lui afin de développer mais aussi donner de
la visibilité au chatbot. A notre sens, cela constitue davantage une ressource et des marges de
manœuvre pour le CDP plutôt qu’une limite de la démarche mise en œuvre. En effet, c’est
justement ce « bricolage » qui lui permet de s’approprier le processus de conception et de
déploiement du chatbot, d’autant plus qu’au début du projet, en étant juriste, il ne dispose pas
de connaissances techniques avancées concernant la conception des chatbots. Plus globalement,
le cas étudié illustre l’idée avancée par d’autres travaux sur l’absence d’une approche commune
de conception des agents conversationnels (Marcondes et al., 2020), sauf peut-être dans le cas
des grands principes de conception par exemple pour la scénarisation des dialogues (Canevet,
2020).

5.3.3. Le travail humain de la conception du chatbot fonctionnel


Les résultats ont également montré que développer un chatbot fonctionnel implique la part
importante de l’intervention humaine dans la conception notamment à travers l’élaboration des
dialogues ou du script, c’est-à-dire des données qui constituent le contenu du chatbot. Ce
constat d’une conception manuelle des chatbots vient encore une fois déconstruire l’idée
des machines « intelligentes » (Le Corf, 2017). Dans le travail d’élaboration du contenu, les

222
concepteurs anticipent les limites des capacités du chatbot au niveau de ses interactions avec
les utilisateurs et mettent en place des stratégies pour cadrer ces interactions futures. Ainsi,
l’objectif est d’intégrer des dialogues dans le chatbot de façon à guider ou « former » au
maximum l’utilisateur sur la façon d’interagir avec le chatbot. Cela suppose que les utilisateurs
seront amenés à s’adapter aux capacités du chatbot qui sera incapable de répondre si les
échanges sortent du cadre des dialogues prévus (Esteban, 2020). Concevoir et rendre un
chatbot « intelligent » fait donc nécessairement appel au travail humain. Or, ce travail
nécessite des apprentissages et des compétences qui peuvent être assez spécifiques dans certains
cas de figure, comme pour l’écriture des dialogues d’interaction qui est d’ailleurs contrainte par
les règles de fonctionnement des algorithmes du chatbot basés sur le principe de détection des
« intentions ». L’exemple des juristes associés au début du projet à l’écriture des dialogues
illustre bien les difficultés. Bien que le fait d’impliquer ces juristes dans l’écriture des dialogues
ait du sens car ils connaissent les aspects des demandes juridiques qui leur sont adressés, la
nécessité des compétences adaptées à cette tâche ainsi que sa complexité semblent être
sous-estimées par le CDP. Si dans certains projets de chatbot on peut identifier la présence des
scénaristes pour l’écriture des scénarios d’interaction (Esteban, 2020), dans le cas du projet
étudié, cette tâche a été prise en charge essentiellement par le CDP. Cependant, les résultats ont
montré qu’au fur et à mesure du développement du projet, certains acteurs ont été formés par
le CDP avant qu’ils puissent activement contribuer, voire devenir autonome par exemple pour
l’écriture de ces dialogues. Ainsi, l’implication des utilisateurs (que ce soient les juristes mais
notamment des opérationnels) dans le projet constitue un point important pour le CDP. Ils ont
été effectivement associés au projet principalement de deux manières : soit en les impliquant
dans certaines parties du processus de conception comme celui d’identification et/ou de
formalisation des besoins, soit en impliquant certains d’entre eux directement dans le processus
de développement technique du chatbot.
Par ailleurs, le travail de conception ne se résume pas au développement technique du chatbot.
Il se poursuit avec sa mise en place dans des situations d’utilisations à travers les processus
d’optimisation et d’amélioration continue, rendus possibles par les analyses des traces
d’utilisations et des retours d’utilisateurs réalisées par les concepteurs.

223
5.3.4. La conception du chatbot guidée par des « besoins » projetés et
identifiés
L’analyse de la démarche effective du projet a aussi mis en avant les enjeux importants autour
des « besoins » des utilisateurs ainsi qu’autour de leur implication dans la démarche de
conception et de déploiement du chatbot. Dans cette démarche, les besoins renvoient aux
difficultés rencontrées, qualifiées également de « points de douleur » des juristes et des
opérationnels, par exemple en termes de recherche ou de demandes récurrentes des
informations et documents juridiques. Partant de ce constat, les besoins constituent directement
des éléments thématiques du contenu du chatbot selon le CDP. Cette approche sous-entend
alors que la mise en place et l’utilisation du chatbot devraient permettre de solutionner ces
problèmes et de répondre aux besoins des utilisateurs, ce qui est considéré par ailleurs comme
un des critères de « succès » des chatbots (Brandtzæg & Følstad, 2018). Or, l’identification de
ces besoins n’a pas été toujours facile pour les concepteurs, en particulier le CDP, comme l’ont
montré les difficultés rencontrées au cours des ateliers mis en œuvre dans le projet du chatbot.
En effet, demander aux participants de s’exprimer sur leurs besoins n’est pas toujours concluant
au premier abord. De plus, bien que les besoins, identifiés à travers les ateliers, puissent
correspondre à certaines demandes récurrentes adressées aux juristes en termes de
recherche d’informations juridiques, ils ne pourraient pas traduire la variabilité des
activités de travail de ces professionnels.
Les résultats ont aussi montré que l’identification de ces besoins est fortement guidée par les
représentations des concepteurs concernant les « points de douleur » des utilisateurs
potentiels. Cela montre que les représentations des concepteurs ne sont pas neutres dans la
conception du chatbot qui véhicule et reflète les choix des concepteurs. Ainsi, le chatbot,
comme tout autre artefact, « cristallise » un certain modèle de l’utilisateur (Béguin, 2013), à
travers des besoins identifiés ou projetés par les concepteurs, mais qui peuvent évoluer au fil
du projet avec l’analyse des traces des interactions. Les cas d’usages qui incarnent ces besoins
à l’aide des dialogues, constituent une forme de représentation des utilisateurs (ici les
opérationnels et éventuellement les juristes) engagés dans des situations d’interaction avec le
chatbot. Cependant, ils semblent incarner un modèle réduit du travail de ces opérationnels
et juristes.

224
5.3.5. Les enjeux de pérennisation du chatbot dans les usages
En dépit d’une certaine implication des juristes et des opérationnels, les enjeux de pérennisation
du chatbot, c’est-à-dire l’inscription de ses usages dans la durée et dans le quotidien des
utilisateurs sont identifiables. Bien que ces enjeux soient présents dès le départ du projet, ils se
posent de manière plus ou moins importante à certains moments et dans certaines entités dans
lesquelles le chatbot a été mis en place. Par ailleurs, les campagnes de communication, qui
constituent une démarche de conception classique et le principal outil des concepteurs pour la
valorisation (Barcellini, 2015) du chatbot et le développement de ses usages, suscitent un intérêt
immédiat de certains utilisateurs ciblés traduit dans les interactions effectives. Or, ces
interactions s’avèrent éphémères et donc les campagnes de communication seraient peu
efficaces pour réellement permettre l’inscription du chatbot dans des usages pérennes.
Cette difficulté de l’inscription du chatbot dans l’usage peut être liée à une sorte de comparaison
des compétences des juristes humains, susceptibles de fournir des éléments utiles autres
qu’uniquement la transmission d’un document, et des « compétences » du chatbot qui peuvent
s’avérer assez limitées. Les attentes élevées envers les capacités du chatbot peuvent aussi
constituer un facteur dans les échecs d’interaction (Luger & Sellen, 2016) qui peuvent être
repérés et analysés par les concepteurs à travers des traces d’utilisation. Par ailleurs, la
pertinence et l’adéquation réelle du chatbot pour les activités des opérationnels et des juristes
peuvent être aussi questionnées. Enfin, il ne faudrait pas négliger des enjeux liés à la confiance
envers les informations communiquées par le chatbot. En effet, l’étude de Gras Gentiletti (2022)
a montré que certains utilisateurs obtenant une information ou un document par un chatbot
juridique demandaient la confirmation aux juristes humains. Ce point suggère que fournir des
informations et des explications sur la fiabilité et la performance du chatbot peut être
utile, notamment dans les conditions où ces facteurs s’avèrent essentiels dans la construction
de la confiance envers les systèmes d’IA, comme démontré dans les précédentes études de cette
thèse. Finalement, les difficultés exposées interrogent les apports réels du chatbot, qui sont
difficilement identifiables, par exemple en termes d’amélioration de la performance ou encore
de gain de temps pour les opérationnels et les juristes.

225
Discussion générale & Perspectives de
recherche

226
Ce travail de recherche a permis d’explorer l’étendue des incidences et plus globalement des
transformations (potentielles et effectives) occasionnées par la conception, le déploiement et
les usages des systèmes d’IA dans les situations de travail, en particulier dans le domaine
juridique et celui de la radiologie. Les trois études empiriques réalisées ont mis en exergue :
- les enjeux liés à l’IA au travail du point de vue des différents acteurs ;
- la mise en place, les usages et les incidences des systèmes d’IA, variables selon les
activités et les organisations de travail ;
- et enfin, la démarche effective de conception et de déploiement d’un système d’IA
spécifique – le chabot – guidée essentiellement par une vision centrée sur des
« besoins » avec un manque de prise en compte de l’activité.
Il a été montré qu’une partie des enjeux, notamment au sujet de la place et du rôle des systèmes
d’IA, de la répartition des tâches, de l’opacité de ces systèmes ou encore de leurs conséquences
sur le travail, fait écho aux travaux antérieurs sur l’automatisation et les systèmes experts
(Endsley & Kaber, 1999 ; De Terssac et al., 1988 ; Parasuraman & Wickens, 2008). Les résultats
empiriques de cette recherche apportent des précisions sur ces enjeux qui se posent à nouveau
avec les systèmes d’IA actuels.
L’objectif de cette dernière partie est de discuter des éléments permettant de nuancer les
discours sur les enjeux soulevés par l’IA au travail dont la réalité est plus complexe que ce qui
est majoritairement véhiculé, entre autres, par les discours médiatiques (Mateescu & Elish,
2018). Plusieurs enseignements principaux à tirer de ce travail constituant ses contributions
seront explicités. Ils contribuent aux réflexions sur les analyses des incidences relatives à l’IA,
ainsi que celles sur les démarches de leur conception et déploiement dans les situations de
travail.

1. Évaluer la pertinence et l’adéquation de l’IA pour chaque


situation de travail
Tout d’abord, nous avons tâché de comprendre les besoins et les motivations qui accompagnent
la diffusion des systèmes d’IA dans les situations de travail. Ces éléments sont étroitement liés
aux difficultés rencontrées dans des contextes socio-organisationnels actuels. Elles renvoient
notamment à l’augmentation de la charge de travail et les effectifs insuffisants pour y faire face.
Cela aurait par exemple pour effet de dégrader les conditions de travail dans le secteur
hospitalier (Canales Bravo, 2021) comme nous avons pu le voir. Les systèmes d’IA sont
souvent présentés comme des réponses pour remédier à ces difficultés en cherchant à faire

227
gagner du temps aux travailleurs, à augmenter leur efficacité et ainsi leur venir en aide dans les
conditions de travail dégradées. Or, la mise en place des systèmes d’IA dans ces conditions,
s’apparenterait davantage à une sorte de « prothèse organisationnelle » qui cherche à
pallier les carences socio-organisationnelles. De plus, face aux nombreuses promesses sur les
apports de l’IA pour les travailleurs et les organisations, il est plutôt facile de tomber dans la
voie du « solutionnisme technologique » (Morozov, 2014). Autrement dit, les technologies
numériques, ici les systèmes d’IA, se présenteraient comme des « solutions séduisantes » aux
problèmes qui caractérisent les situations de travail.
Par ailleurs, nous ne pouvons pas ignorer la mise en avant du caractère « innovant » de l’IA,
présentée souvent comme un élément essentiel pour rester concurrentiel, que ce soit pour les
travailleurs ou les entreprises. En effet, les résultats ont montré que plusieurs acteurs utilisent
l’argument qu’il faut se saisir de l’innovation liée à l’IA pour une amélioration des
performances. Ces processus sont grandement similaires au phénomène de l’isomorphisme
institutionnel ou organisationnel qui décrit une certaine homogénéisation des pratiques
adoptées par les organisations (DiMaggio & Powell, 1983). Dans notre cas, les processus
d’innovation et de diffusion liés à l’IA semblent être guidés, au moins partiellement, par
l’imitation des comportements ou la comparaison aux concurrents, autrement dit par les
tendances à l’isomorphisme mimétique (DiMaggio & Powell, 1983). En effet, il s’agit ici d’un
« phénomène où les pratiques adoptées ne sont pas nécessairement les plus optimales mais
celles qui apparaissent les mieux acceptées socialement » (Arnoud, 2013, p. 87). Les discours
sur les transformations « inévitables » des métiers et des organisations, liées à la diffusion de
l’IA, contribuent probablement à nourrir ce « mimétisme » et cette « nécessité » de se saisir des
innovations de l’IA plutôt que de les « subir ».
Par ailleurs, la mise en avant systématique de certaines fonctionnalités de l’IA plus attrayantes
que d’autres comme celles visant à aider à la prise de décision, peut justement renforcer la
perspective du « solutionnisme ». Elle peut mettre en péril le recul nécessaire pour s’interroger
sur la pertinence et l’adéquation de la mise en place et des usages des systèmes d’IA vis-à-vis
des activités de travail. Par exemple, les résultats ont mis en lumière un certain décalage entre
les besoins réels et surtout prioritaires de certains professionnels de santé ou encore du droit
(comme des tâches liées aux aspects de l’organisation du travail) et les systèmes d’IA proposés
et mis en avant (comme des systèmes d’aide à l’interprétation des images radiologiques ou des
systèmes de justice dite « prédictive »). Bien que certains de ces systèmes puissent permettre
de résoudre, dans une certaine mesure, une partie des problèmes socio-organisationnels, ils
entrainent en même temps des transformations directes ou indirectes et ont des incidences

228
variables selon les activités et les organisations de travail, comme dans le cas des technologies
numériques de manière plus générale (Woods, 1996). Par exemple, ces éléments ont été montré
dans le cas de la mise en place du système de dictée à reconnaissance vocale (RV) dans un
service de l’imagerie médicale. Comme nous avons pu voir, les retards de transcription des
comptes-rendus (CR) radiologiques ont été solutionnés. En revanche, l’organisation du travail
mise en place en intégrant ce système a entrainé des transformations dans l’activité des
secrétaires (la disparition d’une certaine dimension constructive du travail) ainsi que dans celle
des radiologues (par exemple, d’un côté, la perte de sécurité sur la qualité des CR mais de
l’autre côté, le soutien apporté par la dictée RV dans la construction de la forme des CR).
Finalement, il serait essentiel de sortir de la perspective centrée sur les performances
technologiques de l’IA afin de pouvoir se concentrer sur la pertinence et l’adéquation de
ces systèmes dans chaque situation singulière de travail. Cela rejoint l’idée de certains
travaux qui s’interrogent sur le fait d’automatiser tout ce que l’on peut automatiser (Hancock,
2014 ; Willis & Jarrahi, 2019). Dans notre cas, il s’agit de ne pas négliger la complexité des
situations et de prendre en compte l’intérêt réel et les effets de la prise en charge de certaines
tâches par l’IA dans les activités de travail.

2. Concevoir conjointement l’organisation du travail et les


systèmes d’IA
Dans cette ligne de pensée, se pose la question de la division du travail, autrement dit la
répartition des tâches entre les travailleurs et les systèmes d’IA. Dans certaines situations,
l’automatisation, c’est-à-dire la prise en charge totale ou partielle des tâches, peut avoir du sens
dans l’intérêt des travailleurs (par exemple, lorsqu’il s’agit des tâches « dangereuses »), mais
elle exige une certaine vigilance quant aux effets sur la réalisation des activités. Les résultats
ont montré que les formes de la division du travail envisagée par les acteurs sont sensiblement
similaires à ce que l’on peut trouver dans les discours sur l'IA : il s’agit surtout de déléguer des
tâches considérées comme « simples », « répétitives » ou « sans valeur ajoutée » aux systèmes
d’IA et de laisser aux travailleurs les tâches complexes et celles de prise de décision. Cela
amène, entre autres, des interrogations sur la manière de définir cette valeur des tâches :
comment pouvons-nous déterminer la valeur d’une tâche ? Du point de vue de qui ? Comment
peut-on prendre en compte une éventuelle évolution de cette valeur et de la tâche elle-même ?
Au-delà des risques associés à ce type de division du travail soulignés dans le chapitre 3 (par
exemple, les risques d’intensification et de complexification du travail), cette vision véhicule

229
un modèle du travail humain réduit essentiellement à un ensemble de tâches. Dès lors, il est
facilement envisageable d’établir une répartition a priori de ces tâches entre les humains et les
systèmes d’IA, mais c’est une approche critiquable et critiquée (Dekker & Woods, 2003) du
point de vue de l’activité et du travail réel. Par exemple, nos résultats du chapitre 4 ont montré
que, bien que la dictée RV puisse prendre en charge la tâche de transcription des CR
radiologiques, elle ne peut véritablement et entièrement réaliser cette tâche qui, dans la réalité
nécessitait un ensemble de compétences des secrétaires dont la dictée ne dispose pas. C’est
pourquoi, toute cette partie non prise en charge par la dictée (par exemple, identifier des
incohérences dans les phrases, des fautes de transcription etc.) a été finalement déléguée aux
radiologues dans l’objectif de gagner du temps. Ainsi, les enjeux de la substitution des
travailleurs par les systèmes d’IA sont bien complexes et méritent d’être interrogés et nuancés :
en quoi les systèmes d’IA ont véritablement des capacités à se substituer aux humains dans
leurs activités réelles ?
Malgré les capacités des systèmes d’IA parfois limitées (par exemple, ceux qui sont peu
performants en commettant des erreurs ou ceux qui ne donnent pas de résultats réellement utiles
et pertinents, comme évoqué dans les chapitres 3 et 4), leur mise en place, susceptible d’être
accompagnée d’une substitution partielle, ouvre un champ des possibles pour des nouvelles
transformations et reconfigurations des métiers ou des rôles. Par exemple dans le champ de la
santé, Agreli et al. (2021) évoquent que la mise en place des technologies constitue une occasion
de reconfiguration des rôles des professionnels. Selon leur niveau d’autorité et leurs
connaissances de la technologie, les rôles peuvent être élargis, restreints, clarifiés ou négociés.
D’après nos résultats, ces reconfigurations sous-entendent deux types de craintes. Le premier
est lié à la substitution des travailleurs qui n’utilisent pas l’IA par ceux qui l’utilisent. Quant au
second type de craintes, il renvoie à la substitution de certains aspects des métiers par d’autres
catégories de métiers. Autrement dit, les travailleurs peuvent se voir remplacer simultanément
par les systèmes d’IA sur des aspects bien précis de certaines tâches et par d’autres travailleurs
pour compenser et prendre en charge les aspects qui ne peuvent être réalisés par ces systèmes.
L’exemple des manipulateurs en radiologie, explicité dans le chapitre 3, illustre cela. Si les
systèmes d’IA peuvent prendre en charge toute la partie « technique » de leur métier, les tâches
de soin que les manipulateurs réalisent, peuvent potentiellement être déléguées aux infirmiers
ou aux aides-soignants. En outre, l’exemple de la mise en place de la dictée RV illustre aussi
ce type de substitution. En effet, dans l’activité de transcription des CR, les secrétaires ont été
substituées, à la fois par la dictée RV (transcrire le texte dictée) et par les radiologues (corriger
les fautes, les incohérences etc.).

230
Finalement, la mise en place des systèmes d’IA et la (re)définition de la division du travail
impliquent de faire des choix, qui sont souvent dirigés par des objectifs organisationnels et de
mise en place de ces systèmes.
Pour résumer, nous comprenons que les contextes socio-organisationnels sont un élément
majeur dans les motivations et les décisions d’introduire un système d’IA. Comme montrent
nos résultats, cette introduction peut ouvrir un champ de possibilités pour repenser les
organisations du travail. Ainsi, un des principes de la conception et du déploiement des
systèmes d’IA centrés sur l’activité humaine, serait une conception conjointe de
l’organisation du travail et des systèmes d’IA. Cela implique non seulement de penser la
division du travail entre les travailleurs et ces systèmes (lorsqu’une telle division du travail a
du sens par rapport aux fonctionnalités et objectifs des systèmes d’IA) mais aussi entre les
travailleurs eux-mêmes.

3. Une double facette de l’IA


Les résultats ont montré que les incidences de la mise en place et des usages des systèmes d’IA
sont multiples. Elles peuvent, entre autres, se traduire en termes d’apports pour potentiellement
gagner du temps, améliorer la performance ou la qualité du travail. Dans le cas de la dictée RV,
cette amélioration peut consister à soutenir les radiologues dans la réalisation des CR. Dans le
cas du système de détection des fractures (DF), l’usage du système permettrait de « sécuriser »
les radiologues et les urgentistes dans l’activité d’interprétation des images radiologiques
réalisée parfois dans des conditions dégradées. Or, les incidences en termes de risques et de
dégradations des activités ont été aussi mises en avant dans cette thèse. Il s’agit par exemple,
de risques de sur-confiance envers le système, de perte des compétences des travailleurs en
particulier des novices, ou encore un risque de perte de temps face aux erreurs du système. Les
résultats ont aussi montré le travail d’adaptation (Velkovska et al., 2020) nécessaire de la part
des travailleurs amenés à utiliser ces systèmes. Ce travail consiste à s’adapter aux capacités
limitées de certains systèmes d’IA afin de les rendre « bénéfiques » et utiles pour la réalisation
de l’activité. Enfin, comme montré dans le chapitre 3 et le chapitre 4 (à travers les exemples de
la dictée RV et du système DF), ces incidences dépendent d’un ensemble d’éléments comme
les choix de l’organisation du travail, les caractéristiques des systèmes issues de la conception
(les fonctionnalités, la performance) ou encore les caractéristiques des travailleurs (par
exemple, le niveau d’expertise), leurs activités et leurs objectifs poursuivis.
En ce sens, les incidences des systèmes d’IA sont variables. Contrairement à une grande partie
des discours présentant parfois les apports de l’IA comme « universels » (Mateescu & Elish,

231
2018), nos résultats montrent que ces apports ne sont pas systématiques et devraient être évalués
au plus près des activités réelles de travail. Selon les situations et les conditions, ces systèmes
peuvent constituer à la fois une aide, une ressource et une entrave ou une contrainte. L’analyse
des usages des systèmes d’IA met en lumière leur double facette, variable selon les situations.
Ce point rappelle l’idée d’un « pharmakon » (Brugeron & Claeys, 2018), soit un élément qui
peut être à la fois un poison et un remède. Notons que les incidences liées à l’IA dépendent
surtout des caractéristiques des situations dans lesquelles elle est introduite et de la manière
dont elle est utilisée. A titre d’exemples, les résultats montrent que dans certaines situations, la
mise en place et l’usage des systèmes d’IA (comme le cas de la dictée RV et du système DF)
semblent se confronter à deux paradoxes : (i) au lieu de faire gagner du temps, leur manque de
performance ou une faible pertinence vis-à-vis du contexte de l’activité peut au contraire en
faire perdre au travailleur qui est sans cesse amené à s’adapter aux capacités du système ; (ii)
au lieu de permettre une amélioration de la qualité et de la performance, l’utilisation d’un
système d’IA pourrait conduire à une augmentation de la charge de travail et à une diminution
de la performance, introduisant des erreurs qu’on cherche justement à réduire. Ces résultats
viennent considérablement nuancer les discours centrés sur les promesses et les apports des
systèmes d’IA pour les travailleurs et les organisations. Nous tenons à souligner les limites de
ce type de discours. Certes, ils évoquent certains risques ou notamment des enjeux éthiques de
l’IA (par exemple, la question de « responsabilité » des travailleurs). Cependant, ils ont
tendance à être tournés vers des promesses et des apports sans nuancer et recontextualiser ces
éléments de façon systématique et sans véritablement prendre en considération la diversité des
activités et des organisations du travail. Ces promesses peuvent parfois créer des attentes et
conduire à des désillusions, voire des risques comme celui de sur-confiance envers les systèmes.
Ces désillusions se sont déjà produites pour certains systèmes experts des années 1980 ou
encore dans le cas de certains systèmes d’IA évoqués dans nos études, qui aujourd’hui ont
pourtant de meilleures performances. Une certaine vigilance devrait être portée sur ces
nouvelles promesses qui peuvent créer un niveau d’attente très élevé : plus ce niveau est élevé
et plus il est inévitable de se confronter à une déception (Ranschaert, 2018). Donner les
informations et des moyens de compréhension aux travailleurs sur les capacités réelles et
précises ainsi que sur les risques liés aux systèmes d’IA est un des éléments importants à
prendre en considération pour leur mise en place dans des conditions propices au
développement de leurs usages.

232
4. Place centrale de l’humain : favoriser le développement des
capacités et du pouvoir d’agir soutenu par l’IA
Nos résultats montrent que le point de vue majoritaire consiste à considérer les systèmes d’IA
comme des outils parmi d’autres dans une perspective d’aide pour l’humain. Ils font également
ressortir l’idée d’augmentation qui sous-entend, dans certains travaux, un « partenariat » entre
les travailleurs et les systèmes d’IA (Engelbart, 1962 ; Jarrahi, 2018). Si l'idée de considérer
ces systèmes comme des « partenaires » (Norman, 2017) est assez attrayante, elle ne doit
cependant pas conduire à symétriser l’humain et les systèmes d’IA, c’est-à-dire les considérer
comme des partenaires égaux (Zouinar, 2020). En effet, les résultats ont montré qu’ils ne
disposent pas des mêmes capacités. Bien au contraire, les travailleurs sont amenés à s’adapter,
à fournir un travail d’interprétation ou de correction des résultats du système afin qu’il puisse
être utile pour la réalisation de l’activité. En outre, l’humain est aussi central pour la conception
de ces systèmes d’IA. Par exemple, dans le cas du chatbot étudié, il a été montré qu’un
important travail (comme l’élaboration des dialogues) est nécessaire pour le faire fonctionner.
Ces éléments permettent dans une certaine mesure de déconstruire une image d’une IA
« autonome », qui certes dispose des capacités d’« apprentissage » et d’amélioration rapide
contrairement aux autres technologies plus « classiques », mais la mise en œuvre de ces
capacités, au moins la surveillance de leur bon fonctionnement, fait intervenir l’humain.
Comme dans les réflexions actuelles (Miller, 2018), l’augmentation évoquée dans nos résultats
fait particulièrement référence à l’amélioration de la performance et de la productivité de
l’humain en utilisant les systèmes d’IA. Certes, cette idée d'augmentation est séduisante car elle
est axée sur les avantages de ces systèmes pour les travailleurs, mais il n'est pas toujours évident
de déterminer ce qui est réellement augmenté. Nous pouvons nous demander si le fait de
chercher à faire gagner du temps et d’améliorer la performance des travailleurs à tout prix,
parfois dans des conditions de travail dégradées et les risques que cela peut entraîner sur la
santé, correspond réellement à « l’augmentation » des travailleurs. L’empowerment est une
notion intéressante à examiner pour aborder les capacités des travailleurs et leur
« augmentation » par les systèmes d’IA. Issu des milieux militants (Calvès, 2009),
l’empowerment, « articule deux dimensions, celle du pouvoir, qui constitue la racine du mot, et
celle du processus d’apprentissage pour y accéder. Il peut designer autant un état (être
empowered) qu’un processus » (Bacqué & Biewener, 2013), p. 25). Bien que la traduction de
ce terme soit discutée (Le Bossé, 2003), nous pourrons ici le traduire par « encapacitation » ou
développement des capacités et du pouvoir d’agir des travailleurs (Gouédard & Rabardel, 2012

233
; Rabardel, 2005). Renvoyant à la fois à un état et à un processus, l’empowerment, c’est-à-dire
l’encapacitation pourrait être un terme plus approprié pour penser « l’augmentation » dans le
sens de soutenir le développement du pouvoir et des capacités d’agir des travailleurs à effectuer
des activités professionnelles existantes ou nouvelles. L’encapacitation serait nécessaire face
aux différentes incidences, comme des risques et des dégradations, qui peuvent être engendrés
par la mise en place et l’utilisation des systèmes d’IA. Plus concrètement, il s’agit d’acquérir et
de disposer des connaissances sur le fonctionnement, la performance et les limites des systèmes
d’IA ainsi que de l’expertise (comme des compétences spécifiques du métier) pour pouvoir
contrôler, critiquer leurs résultats et les confronter aux autres éléments de la situation. Les
résultats ont montré que l’acquisition des connaissances sur les performances des systèmes dans
les situations d’usages participe directement dans les processus d’appropriation (par exemple,
le travail d’adaptation mis en évidence dans le chapitre 4) qui contribueraient au développement
de la confiance dans les systèmes d’IA et celui de leurs usages avec des risques limités.
L’explicabilité des systèmes intervient aussi directement dans ces processus.
Les usages des systèmes d’IA et leurs capacités d’amélioration rapide soulèvent des
interrogations sur les conditions de développement et du maintien des capacités critiques et du
pouvoir de contrôle qui font plus largement partie des capacités et du pouvoir d’agir des
travailleurs. Contrairement aux idées avancées dans la littérature récente, l’enjeu majeur pour
les travailleurs ne serait pas de développer en priorité des compétences dites relationnelles
ou sociales pour être complémentaire à l’IA (Villani, 2018), mais de développer et de
maintenir les capacités et le pouvoir de contrôle et de compréhension des systèmes d’IA
afin de constituer des conditions favorables à leurs utilisations éclairées (c’est-à-dire, avec
des risques limités).
Une conclusion minimale est qu'il reste important de développer des systèmes d'IA qui aident
les travailleurs dans leurs activités, que ces systèmes soient compréhensibles pour eux à toutes
fins pratiques (Zouinar, 2020) et que les travailleurs en tirent profit pour leurs compétences,
capacités et performances.

234
5. Dépasser les écueils « classiques » des démarches de
conception et de déploiement des systèmes d’IA
Globalement, nous avons vu que les démarches de conception et de déploiement des systèmes
d’IA affichent une perspective centrée sur l’humain. Or, nous retrouvons des écueils
« classiques » des approches de conception (Barcellini, 2020) comme des décisions guidées par
des logiques techniques, centrées sur la performance des technologies, et économiques, centrées
sur des impératifs budgétaires.
Dans la dernière étude sur le projet de conception et de déploiement du chatbot juridique,
l’approche adoptée était centrée sur des « besoins » des travailleurs (des opérationnels et/ou des
juristes), soient des utilisateurs potentiels. Ces besoins étaient censés traduire les difficultés
rencontrées par ces opérationnels et juristes dans leurs activités de travail. Or, l’identification
et « l’expression » de ces besoins ont rencontré quelques difficultés, tout comme le
développement pérenne des usages du chatbot. Il convient de souligner que les conclusions
avancées s’appliquent aux types de systèmes spécifiques, ici le chatbot et aux contextes
évoqués. Même si elles sont difficilement généralisables à l’ensemble des systèmes d’IA qui
peuvent être différents, de façon globale, le travail a tendance à être réduit à des tâches précises
et « génériques », loin de la complexité et de la diversité des activités réelles. Malgré une
certaine volonté de prise en compte de l’humain, la conception de certains systèmes d’IA peut
être guidée par des représentations des concepteurs avec une vision souvent réductrice du
modèle de l’humain au travail.
Prendre en compte des besoins des humains est également un des principes évoqués dans les
approches de l’IA dite centrée humain (Human-Centered AI) pour la conception des systèmes
fiables permettant d’améliorer et d’augmenter la performance humaine (Shneiderman, 2020 ;
Xu, 2019 ; Xu et al., 2021). Ces approches avancent également plusieurs critères importants à
considérer dans la conception de ces systèmes, comme l’explicabilité, l’utilisabilité ou encore
l’utilité. Elles tendent à prendre en compte les besoins des humains qui doivent garder le
contrôle.
La partie suivante expose certains aspects et principes importants dans le contexte du travail
qui devraient être aussi mobilisés pour la conception et le déploiement des systèmes d’IA centré
sur l’humain et son activité.

235
6. Vers des démarches de conception et de déploiement des
systèmes d’IA centrées sur l’activité
Nous avons montré que la mise en place des systèmes d’IA, comme celle de n’importe quel
système (Parasuraman & Riley, 1997), entraine différentes transformations dans les situations
de travail qui peuvent être parfois inattendues. C’est pourquoi, les enjeux de conception
dépassent largement les seuls enjeux de la conception technique des systèmes d’IA. Nous nous
appuyons sur l’idée que l’introduction d’un nouveau système implique la (re)conception,
jusqu’à un certain point, d’une activité et d’une organisation future. Partant de ce point, la
démarche ergonomique de conception (Barcellini et al., 2013a) ancrée dans l’analyse de
l’activité et la simulation de l’activité future (Béguin & Cerf, 2004) peut constituer un réel
apport pour répondre aux enjeux de transformation des activités suscitées, en l’occurrence, par
la mise en place des systèmes d’IA. Cette démarche peut devenir un outil pour penser la
transformation des activités en amont de mais aussi après l’introduction des systèmes, pour
accompagner la conception des situations de travail futur les impliquant. Autrement dit, il serait
utile de mobiliser la compréhension des activités réelles pour d’une part, nourrir les processus
de conception des systèmes d’IA, et d’autre part, anticiper et analyser les incidences de la mise
en place et des usages de ces systèmes dans les activités de travail. Les démarches de conception
et de déploiement des systèmes d’IA devraient alors intégrer un principe de conception
conjointe non seulement de l’organisation du travail et des systèmes mais aussi des activités et
des situations de travail futures qui se verront émerger avec ces systèmes. Afin de soutenir
l’encapacitation, c’est-à-dire le développement des capacités et du pouvoir d’agir des
travailleurs, les démarches de conception et du déploiement d’un système d’IA doivent donner
une position centrale à l’humain et à son activité.
Ainsi, nous présentons différents aspects et éléments, issus et inspirés notamment des
démarches de conduite de projet en ergonomie (Barcellini et al., 2013 ; Folcher, 2015) qui nous
semblent importants pour la mise en place d’une telle approche de l’IA centrée sur l’activité.
Bien que de façon générale, ces éléments soient applicables à tous types de systèmes, les
capacités d’apprentissage et d’évolution rapide des systèmes d’IA doivent être considérées
comme une spécificité les caractérisant.

236
6.1. Mobiliser une approche participative
S’inscrire dans une démarche participative (Darses & Reuzeau, 2004 ; Williams, 1983) et
pluridisciplinaire, c’est-à-dire systémique (Xu et al., 2021), est un premier élément à considérer
pour ces démarches de conception et de déploiement des systèmes d’IA. Plus précisément, une
approche participative renvoie ici à un engagement de la direction avec la participation de toutes
les parties prenantes aux différentes étapes de la conception (Williams, 1983). Elle consiste
aussi à mettre en place des ressources et des moyens d’apprentissage continu pour les
travailleurs pour pouvoir participer à cette conception en acquérant la confiance et la
compréhension nécessaire. La conception participative devrait aussi être soutenue par des
moyens financiers de la part de l’organisation (Clement et Van den Besselar, 1993, cité par
Darses & Reuzeau, 2004). Enfin, les travailleurs devraient disposer d’informations nécessaires
pour exercer leur jugement et avoir un réel pouvoir dans la prise de décision contrairement à
d’autres situations où ils peuvent adosser un rôle dans une perspective consultative (Darses &
Reuzeau, 2004 ; Olsson, 2004). Dans le cas des systèmes d’IA, comme un chatbot, nous avons
vu que le travail de conception peut nécessiter des compétences et des connaissances
spécifiques. C’est pourquoi il serait essentiel de doter les travailleurs, qui deviennent
concepteurs dans une certaine mesure, de ces compétences nécessaires pour la
contribution active à la conception. Nous pensons que dans ce type de situation, donner un
statut de concepteur aux travailleurs amenés à utiliser ces systèmes peut être utile pour une
réelle prise en compte du point de vue de l’activité. Cela renvoie à une introduction d’une entité
qualifiée de maîtrise d’usage selon la démarche de conception pour et dans l’usage (Folcher,
2015). Introduire une entité centrée sur le point de vue de l’activité réelle et future, peut être
non seulement un moyen de donner un statut légitime à la prise en compte de l’activité dans la
conception mais aussi un moyen de symétriser le statut des acteurs : « les concepteurs dans
l’usage élaborent les matériaux qui seront mis en partage, ils deviennent progressivement
légitimes en matière de conception ; les concepteurs pour l’usage s’approprient les usages, ils
deviennent progressivement légitimes en matière d’usage » (Folcher, 2015, p. 56). Par exemple,
dans le cas du projet du chatbot, il aurait pu être bénéfique de légitimer le statut des juristes en
tant que concepteur pour favoriser leur participation ainsi que d’anticiper et de leur permettre
d’acquérir, entre autres, des compétences techniques nécessaires pour l’écriture des dialogues.

237
6.2. Analyser le travail réel pour co-construire des scénarios d’usages
potentiels et pertinents de l’IA
Guider la conception par la compréhension et l’analyse du contexte socio-organisationnel
et des activités réelles est un autre aspect à prendre en compte. Ce point devrait permettre
de s’interroger et évaluer collectivement la pertinence et l’adéquation des différents types
de systèmes d’IA et de leurs fonctionnalités, et ceci, pour chaque situation singulière et du
point de vue des activités de travail concernées. Par exemple, cet aspect, même s’il a été un peu
questionné dans le projet du chatbot, n’a pas été véritablement abordé du point de vue des
activités des travailleurs concernés comme des métiers opérationnels ou encore des juristes.
Avec l’objectif de construire un cadre de projection de la situation future, il s’agit ici de co-
construire des scénarios de mise en place et d’usages potentiels des systèmes d’IA sous réserve
qu’ils aient une certaine pertinence par rapport aux activités de travail. Cela implique également
une conception conjointe de l’organisation du travail à mettre en place en fonction notamment
des difficultés des travailleurs et des fonctionnalités des systèmes qui peuvent s’avérer
pertinentes.

6.3. Analyser les incidences effectives ou potentielles de la mise en place et


des usages de l’IA
Un autre aspect qui devrait guider la conception consiste à analyser et anticiper, au moins de
façon partielle, les incidences de la mise en place et des usages d’un système d’IA en termes
d’apports, de risques, d’empêchements ou de dégradations. En effet, nous avons vu que
contrairement aux promesses, la mise en place et les usages des systèmes d’IA ne sont pas
toujours bénéfiques. Ce qui souligne l’importance d’anticiper les incidences et de les évaluer
le plus en amont possible et au plus près du contexte de travail réel, en impliquant les
acteurs concernés afin de co-construire avec eux les transformations de leur travail.
L’évaluation de ces incidences devrait être un processus continu dans les organisations, tout en
gardant des possibilités de remettre en question à tous moments l’intérêt des systèmes d’IA
dans les activités de travail. Cette analyse peut être réalisée d’une part, à partir des situations
similaires si elles existent, et d’autre part, à partir des situations simulées qui consistent à faire
jouer les personnes leur propre activité dans un nouveau contexte. Le but est de mettre à
l’épreuve les scénarios, ce qui devrait permettre de faire apparaitre des difficultés qui pourront
conduire à l’émergence des solutions pour apporter des modifications et des ajustements à
l’activité future simulée qui intègre un ou des systèmes d’IA. Le but des simulations n’est pas

238
de concevoir l’activité future en détails mais d’évaluer des marges de manœuvre, des
possibilités de certaines formes de l’activité future, autrement dit, « dans quelle mesure les
choix de conception permettront la mise en place de modes opératoires compatibles avec les
critères retenus, en termes de santé, d’efficacité productive, de développement personnel, de
travail collectif » (Daniellou, 2004, p. 360). Dans le cas des situations impliquant des systèmes
d’IA, il serait important de prendre également en considération d’autres éléments dans
l’évaluation des incidences, comme la confiance déterminée par les facteurs de fiabilité, de
performance, d’explicabilité et plus largement par les capacités des systèmes, mais aussi des
possibilités de développement des capacités critiques et du pouvoir de contrôle des travailleurs
envers ces systèmes.

6.4. Soutenir l’encapacitation : accompagner les travailleurs dans le


développement des capacités critiques et du pouvoir de contrôle face à
l’IA
L’encapacitation, comme le développement des capacités critiques et du pouvoir de contrôle
constitue un axe important à mobiliser dans ces démarches, en particulier dans un contexte des
possibilités d’évolution rapide et continue des performances des systèmes d’IA à travers leurs
capacités d’apprentissage. Cette évolution pourrait entraver le développement et le maintien
des capacités critiques et du pouvoir de contrôle des travailleurs faisant face à la nécessité d’une
(ré)appropriation permanente de ces systèmes. Cela impliquerait une exigence d’évolution des
connaissances et des compétences des travailleurs, mais aussi de l’organisation du travail en
cas d’évolution des capacités de ces systèmes. Nous pensons que la mise en place d’un
accompagnement pour soutenir ces processus d’appropriation et d’évolution continue
serait nécessaire et devrait constituer une partie à part entière des démarches de
conception et de déploiement des systèmes d’IA. Plus précisément, il s’agit d’un
accompagnement centré sur l’acquisition des connaissances et des compétences des
travailleurs pour le développement des capacités critiques et d’évaluation des systèmes.
En effet, Hartswood et al. (2003) évoquaient par exemple une nécessité de comprendre pour les
radiologues le fonctionnement d’un système d’aide au diagnostic et du côté des concepteurs, de
comprendre les usages effectifs et leurs évolutions, afin de soutenir l’apprentissage continu et
l’évolution des usages. Par exemple, on pourrait imaginer que les systèmes d’IA intègrent
davantage des explications claires, compréhensibles et accessibles, non seulement sur leurs
résultats, mais aussi sur leur fonctionnement et leurs capacités. La configuration de ces

239
systèmes devrait faciliter et soutenir les possibilités d’évaluation de leur performance de la part
des travailleurs amenés à les utiliser dans des situations réelles. Il serait aussi nécessaire de
donner suffisamment de connaissances et compétences aux travailleurs pour qu’ils puissent
évaluer et construire des connaissances sur les capacités des systèmes et sur les risques que
leurs usages peuvent soulever. Toutefois, la mise en œuvre effective des capacités nécessite un
pouvoir d’agir, c’est-à-dire des possibilités effectives des travailleurs à mobiliser ces capacités
dans des situations singulières. Pour cela, il serait nécessaire de mettre en place des temps
dédiés à ces évaluations des systèmes. Ces temps devraient être inscrits de façon continue et
systématisée dans les démarches de conception et de déploiement des systèmes d’IA ainsi que
dans les organisations en tenant compte des évolutions potentiellement rapides des capacités
des systèmes. L’objectif est donc d’ancrer cet accompagnement de façon durable dans les
organisations, ce qui représente un enjeu important compte tenu des difficultés de la plupart des
contextes socio-organisationnels et des modèles de conduite des projet actuels. Outiller
l’accompagnement des acteurs et de la conduite de projet est nécessaire, notamment dans les
conditions où la pérennisation de l’intervention de l’ergonome portant le point de vue de
l’activité peut être difficile. Par exemple, nous pensons que la mobilisation et la systémisation
des outils réflexifs à portée pragmatique, c’est-à-dire ancrés dans des situations réelles peuvent
avoir un sens. Le but étant de donner des moyens aux acteurs de co-construire les évolutions
liées à l’IA, aux activités et aux organisations du travail.

Pour résumer, nous rejoignons l’idée que « remettre de l’activité des sujets au cœur du
processus de conception est urgent, car les organisations, animées par une vision déformée de
l’automatisation des tâches, continuent de réduire les ressources humaines » (Gras Gentiletti,
2022, p. 28). Par conséquent, la démarche de conception et de déploiement d’un système d’IA
centrée sur l’activité devrait permettre de co-concevoir, dans une démarche participative et
systémique, des conditions acceptables soutenant l’encapacitation, et ceci, du point de vue des
travailleurs et de leurs activités. Il est également à souligner que ces conditions seraient
acceptables pour une situation donnée et à un instant donné, ce qui implique leur remise en
question selon les évolutions des capacités des systèmes d’IA qui feraient évoluer ces situations
de travail. Nous en concluons qu’ancrer les démarches de conception et de déploiement des
systèmes d’IA dans une perspective diachronique serait utile face aux impératifs des processus
d’évolutions continues des systèmes d’IA, des activités et des organisations du travail.

240
7. Perspectives de recherche
Le cadre d’analyse mobilisé dans cette thèse peut être considéré comme une contribution dans
la mesure où il constitue une base et des repères d’analyse des situations de travail intégrant de
l’IA. Les éléments qui le constituent permettent de prendre en compte le contexte socio-
organisationnel, la division du travail, les caractéristiques du système, la confiance accordée
aux systèmes, les processus d’appropriation et les choix de conception et d’implication des
utilisateurs. Ce cadre peut être mobilisé pour comprendre et analyser les incidences suscitées
par la conception, le déploiement et les usages des systèmes d’IA dans les activités de travail.
Ces analyses pourraient également nourrir et guider les démarches de conception et de
déploiement de ces systèmes dans les situations de travail. Bien que ce cadre d’analyse soit
élaboré et utilisé dans l’étude des situations et des systèmes d’IA spécifiques, sa portée peut
être explorée en le répliquant et le réutilisant dans d’autres types de situations avec d’autres
types de systèmes d’IA. Cela ouvre une perspective pour l’affiner et l’enrichir par d’autres
dimensions potentielles qui n’ont pas pu être explorées, prises en compte ou simplement
identifiées dans nos études.
Bien que ce travail de recherche ait permis d’apporter des éclairages sur les incidences et les
transformations plus globales des activités de travail liées à la conception, à la mise en place et
aux usages des systèmes d’IA, ils ne peuvent être généralisés a priori. Effectivement, le rôle
donné aux systèmes d’IA dans les situations de travail, la part importante de l’intervention
humaine dans la conception de certains systèmes ou encore le travail d’adaptation fourni par
les travailleurs face aux limites des capacités des systèmes, doivent être nuancés selon les
contextes et la variété des systèmes.
Ainsi, la principale limite de la première étude de cette thèse (Chapitre 3) est son caractère
« déclaratif » du fait de la méthodologie basée majoritairement sur des entretiens semi-directifs.
Toutefois, l’objectif de cette étude, menée durant les années 2019-2020, était d’explorer les
points de vue et les expériences des acteurs afin d’identifier des enjeux et des préoccupations
des acteurs de l’IA. Ces points de vue et expériences mériteraient d’être réétudiés et approfondis
dans la mesure où les performances des systèmes d’IA évoluent rapidement et que ces systèmes
se diffusent de plus en plus dans les situations de travail.
Nous avons cherché à préciser les incidences liées à la mise en place et aux usages des systèmes
d’IA dans la deuxième étude (Chapitre 4). Bien qu’elle ait permis de mettre en lumière la
manifestation de ces incidences dans des situations réelles, les activités n’ont pas pu être
analysées de manière fine. En effet, le choix a été fait de comprendre de façon globale, un

241
ensemble d’éléments qui pouvait conduire à ces incidences. Une des perspectives de cette étude
est justement d’approfondir la compréhension fine des activités intégrant des systèmes d’IA.
Par exemple, l’activité d’interprétation des images non seulement des radiographies mais aussi
d’autres types d’images comme celles de mammographie qui constituent d’ailleurs un grand
point d’intérêt pour les concepteurs de l’IA proposant des systèmes d’aide à la décision en
radiologie. Une autre perspective d’étude porte sur la qualité des soins dans ce contexte de la
diffusion des systèmes d’IA. Plus précisément, le cas de la dictée RV pose des interrogations
concernant l’évolution de la qualité des CR réalisés à l’aide des systèmes de la dictée RV, les
effets sur le travail des cliniciens ainsi que les effets sur la prise en charge des patients plus
largement. Enfin, une autre limite de notre deuxième étude est le fait qu’elle soit centrée sur
deux systèmes d’IA spécifiques. D’autres études seraient utiles pour analyser le cas des autres
types de systèmes qui pourraient conduire à d’autres types d’incidences.
Cette dernière limite et perspective s’applique également à notre troisième et dernière étude
(Chapitre 5), portant sur le cas d’un projet de chatbot juridique. Elle cherchait à décrire et
analyser une démarche effective de conception et de déploiement d’un système d’IA. Notons
que les résultats obtenus, difficilement généralisables pour le moment, pourraient s’appliquer à
ce cas particulier et à ce système d’IA spécifique qui est le chatbot. Ce type d’étude mériterait
d’être répliquée dans d’autres situations pour analyser d’autres types de systèmes et de voir des
similitudes ou des différences avec d’autres démarches de conception et de déploiement des
systèmes d’IA. En outre, notre étude comporte également des limites méthodologiques dans le
sens où la démarche étudiée est surtout abordée du point de vue d’un acteur, considéré comme
le chef de projet. Ainsi, pour ce type d’études, il serait important de prendre en considération
l’ensemble des acteurs du projet. Une autre perspective que l’on peut retenir de cette dernière
étude sur le cas du chatbot concerne la technique de l’entretien de suivi. Bien que nous n’ayons
pas pu documenter, ces entretiens ont pu susciter des discussions et des réflexions chez le chef
de projet, ce qui pourrait par exemple avoir un effet, au moins rétrospectif, sur la conduite de
ce projet. A notre sens, les entretiens de suivi peuvent constituer des moyens réflexifs et de
documentation des projets, en l’occurrence de conception et de déploiement des systèmes d’IA
mais aussi d’autres projets parfois complexes. L’objectif serait d’éclairer des perspectives de
leurs évolutions tout en mettant l’accent sur le point de vue de l’activité. Bref mais systématisé,
il peut être facilement adapté et mis en œuvre par et pour toutes les parties prenantes des projets,
sous réserve que les réalités et les contraintes du travail et des conduites de projet le permettent.

242
Bibliographie
Académie des technologies. (2018). Renouveau de l’Intelligence artificielle et de
l’apprentissage automatique. https://doi.org/979-10-97579-07-4
Agreli, H., Huising, R., & Peduzzi, M. (2021). Role reconfiguration: what ethnographic studies
tell us about the implications of technological change for work and collaboration in
healthcare. BMJ Leader, 1‑8. https://doi.org/10.1136/leader-2020-000224
AI HLEG. (2019). Ethics Guidelines for Trustworthy AI. https://ec.europa.eu/digital
Akrich, M. (1987). Comment décrire les objets techniques ? Techniques & Culture, 9, 49‑64.
Akrich, M. (1989). La construction d’un système socio-technique. Anthropologie et Sociétés,
13(2), 31‑54.
Akrich, M. (1998). Les utilisateurs, acteurs de l’innovation. Education permanente, 134, 79‑89.
Al-Aiad, A., Momani, A. K., Alnsour, Y., & Alsharo, M. (2020). The Impact of Speech
Recognition Systems on The Productivity and The Workflow in Radiology Departments:
A Systematic Review. AMCIS 2020 TREOs.
Alapetite, A., Boje Andersen, H., & Hertzum, M. (2009). Acceptance of speech recognition by
physicians: A survey of expectations, experiences, and social influence. International
Journal of Human Computer Studies, 67(1), 36‑49.
https://doi.org/10.1016/j.ijhcs.2008.08.004
Amalberti, R. (2002). La conception d’automatismes et les systèmes tolérants aux erreurs
(Automation Design and Error Tolerant Systems). PRTO HFM Specialists’ Meeting on
“Human Factors in the 21st Century”.
Anichini, G., & Geffroy, B. (2021). L’intelligence artificielle a l’épreuve des savoirs tacites.
Analyse des pratiques d’utilisation d’un outil d’aide à la détection en radiologie. Sciences
sociales et santé, 39(2), 43‑69.
Arnoud, J. (2013). Conception organisationnelle : pour des interventions capacitantes [Thèse
de doctorat, Conservatoire National des Arts et Métiers]. https://tel.archives-
ouvertes.fr/tel-00962450
Arntz, M., Gregory, T., & Zierahn, U. (2016). The Risk of Automation for Jobs in OECD
Countries: A Comparative Analysis. OECD Social, Employment and Migration Working
Paper, 189. https://doi.org/10.1787/5jlz9h56dvq7-en
Askenazy, P., & Bach, F. (2019). IA et emploi : une menace artificielle. Pouvoirs, 170(3),
33‑41.
Azoulay, E. (2020). L’intelligence artificielle pour diversifier les recrutements chez L’Oréal.

243
Le journal de l’école de Paris du management, 142(2), 16‑22.
https://doi.org/10.3917/jepam.142.0016
Bacqué, M.-H., & Biewener, C. (2013). L’empowerment, un nouveau vocabulaire pourparler
de participation ? Idées économiques et sociales, 173(3), 25‑32.
https://doi.org/10.3917/idee.173.0025
Bainbridge, L. (1983). Ironies of Automation. Automatica, 19(6), 775‑779.
Ballantine, M. (1980). Conversing with computers - the dream and the controversy.
Ergonomics, 23(9), 935‑945. https://doi.org/10.1080/00140138008924802
Balleyguier, C., Boyer, B., Athanasiou, A., Vanel, D., & Sigal, R. (2005). Comprendre et
utiliser le CAD (Aide informatisée au diagnostic) en mammographie. Journal de
Radiologie, 86(1), 29‑35.
Bannon, L. J., & Bødker, S. (1991). Beyond the interface: Encountering artifacts in use. In J.
M. Caroll (Éd.), Designing interaction: Psychology at the human-computer interface (p.
227‑253). Cambridge University Press.
Barcellini, F. (2015). Développer des Interventions Capacitantes en Conduite du Changement.
Comprendre le travail collectif de conception, agir sur la conception collective du travail
[HDR, Université de Bordeaux]. https://tel.archives-ouvertes.fr/tel-01150586/document
Barcellini, F. (2020). Quelles conceptions de la coopération humains ‑ robots collaboratifs ?
Activités, 17(1).
Barcellini, F., Van Belleghem, L., & Daniellou, F. (2013a). (preprint)Les projets de conception
comme opportunité de développement des activités. In P. Falzon (Éd.), Ergonomie
constructive (p. 191‑206). Presses universitaires de France.
https://doi.org/10.3917/puf.falzo.2013.01.0191
Barcellini, F., Van Belleghem, L., & Daniellou, F. (2013b). Les projets de conception comme
opportunité de développement des activités. In P. Falzon (Éd.), Ergonomie constructive
(p. 191‑206). Presses universitaires de France « Hors collection ».
https://doi.org/10.3917/puf.falzo.2013.01.0191
Béguin, P. (2007). Innovation et cadre sociocognitif des interactions concepteurs-opérateurs :
une approche développementale. Le travail humain, 70(4), 369‑390.
https://doi.org/10.3917/th.704.0369
Béguin, P. (2010). De l’organisation à la prescription : plasticité, apprentissage et expérience.
In Y. Clot & D. Lhuilier (Éds.), Agir en clinique du travail (p. 125‑139). Eres.
Béguin, P. (2013). La conception des instruments comme processus dialogique
d’apprentissages mutuels. Ergonomie constructive, 147.

244
https://doi.org/10.3917/puf.falzo.2013.01.0147
Béguin, P., & Cerf, M. (2004). Formes et enjeux de l’analyse de l’activité pour la conception
des systèmes de travail. Activités, 01(1), 54‑71. https://doi.org/10.4000/activites.1156
Benbouzid, B., & Cardon, D. (2018). Machines à prédire. Réseaux, 211(5), 9‑33.
https://doi.org/10.3917/res.211.0009
Benhamou, S., Janin, L., Bocognano, A., Charrié, J., & Thibault, G. (2018). Intelligence
Artificielle et travail.
http://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/fs-rapport-
intelligence-artificielle-28-mars-2018_0.pdf
Billings, C. E. (1991). Human-Centered Aircraft Automation: A Concept and Guidelines.
https://doi.org/10.1207/s15327108ijap0104_1
Billings, C. E. (1996). Human-Centered Aviation Automation: Principles and Guidelines.
https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19960016374.pdf
Bioy, A., Castillo, M.-C., & Koenig, M. (2021). Chapitre 1. La méthode qualitative et ses
enjeux. In A. Bioy, M.-C. Castillo, & M. Koenig (Éds.), Les méthodes qualitatives en
psychologie clinique et psychopathologie (Univers Ps, p. 21‑33). Dunod.
Blanchet, A., & Gotman, A. (2001). L’enquête et ses méthodes : l’entretien. Nathan.
Bobillier-Chaumon, M.-E. (2013). Conditions d’usage et facteurs d’acceptation des
technologies dans l’activité : questions et perspectives pour la psychologie du travail
[HDR, Université Lyon 2]. https://halshs.archives-ouvertes.fr/tel-01559686/document
Bostrom, N. (2014). Superintelligence. Oxford University Press.
Bourmaud, G. (2013). De l’analyse des usages à la conception des artefacts : le développement
des instruments. In P. Falzon (Éd.), Ergonomie Constructive (p. 161‑174). Presses
universitaires de France « Hors collection ».
https://doi.org/10.3917/puf.falzo.2013.01.0161
Brachten, F., Kissmer, T., & Stieglitz, S. (2021). The acceptance of chatbots in an enterprise
context – A survey study. International Journal of Information Management, 60(102375).
https://doi.org/10.1016/j.ijinfomgt.2021.102375
Bradshaw, A., Craig CBE, C., Davis, L., Gibson, H., Limon, B., McCarthy, N., Montgomery,
J., O’Neil, S., Pickering, M., Vigar, D., & Watson, O. (2018). The impact of Artificial
Intelligence on work. An evidence synthesis on implications for individuals, communities,
and societies. https://www.thebritishacademy.ac.uk/sites/default/files/AI-and-work-
evidence-synthesis.pdf
Brandtzæg, P. B., & Følstad, A. (2018). Chatbots: changing user needs and motivations.

245
interactions, 25(5), 38‑43. https://doi.org/10.1163/ej.9789004165021.1-292.52
Brangier, E., Bobillier Chaumon, M.-E., & Gaillard, J.-P. (2003). Techniques, méthodes et
démarches d’évaluation des aides techniques. In A. Pruski (Éd.), Assistance technique au
handicap (p. 49‑97). Lavoisier.
Brangier, E., Dufresne, A., & Hammes-Adelé, S. (2009). Approche symbiotique de la relation
humain-technologie : perspectives pour l’ergonomie informatique. Le travail humain,
72(4), 333‑353.
Breton, P., & Proulx, S. (2012). 11. Usages des technologies de l’information et de la
communication. In P. Breton & S. Proulx (Éds.), L’explosion de la communication
(« Repères », p. 263‑287). La Découverte.
Brugeron, P.-E., & Claeys, S. (2018). Introduction - vivre bien dans un monde d’automatisation.
Revue française d’éthique appliquée, 5(1), 16‑21.
Brunelle, F., & Brunelle, P. (2019). Artificial intelligence and medical imaging: Definition,
state of the art and perspectives. Bulletin de l’Academie Nationale de Medecine, 203(8‑9),
683‑687. https://doi.org/10.1016/j.banm.2019.06.016
Buchanan, B. G. (2005). A (very) brief history of artificial intelligence. AI Magazine, 26(4),
53‑60.
Buisine, S., & Roussel, B. (2008). Analyse de l’usage. La conception industrielle de produits,
43‑60.
Buvet, P. (2019). Comment parle un robot ? A propos des interactions verbales. Papéis: Revista
do Programa de Pós-Graduação em Estudos de Linguagens-UFMS|, 23(45), 30‑58.
Cahour, B., Salembier, P., & Zouinar, M. (2016). Analyzing lived experience of activity. Le
travail humain, 79(3), 259‑284. https://doi.org/10.3917/th.793.0259
Calvès, A.-E. (2009). « Empowerment » : généalogie d’un concept clé du discours
contemporain sur le développement. Revue Tiers Monde, 200(4), 735‑749.
https://doi.org/10.3917/rtm.200.0735
Canales Bravo, N. (2021). De la gestion prévisionnelle des ressources humaines à leur gestion
réelle à l’hôpital : le cas du personnel soignant en neurologie [Thèse de doctorat, HESAM
Université]. https://tel.archives-ouvertes.fr/tel-03680353/document
Canevet, F. (2020). Dopez votre business avec les chatbots. In Dopez votre business avec les
chatbots. Dunod. https://doi.org/10.3917/DUNOD.CANEV.2020.01
Cardon, D., Cointet, J.-P., & Mazières, A. (2018). La revanche des neurones. Réseaux, 211(5),
173‑220. https://doi.org/10.3917/res.211.0173
Carr, N. (2017). Remplacer l’humain : Critique de l’automatisation de la société. L’Echappée.

246
Casilli, A. A. (2015). Digital Labor : travail, technologies et conflictualités. In D. Cardon & A.
A. Casilli (Éds.), Qu’est-ce que le digital labor ? (p. 10‑42). Editions de l’INA.
Casilli, A. A. (2019). En attendant les robots. Enquête sur le travail du clic (Seuil).
https://www.seuil.com/ouvrage/en-attendant-les-robots-antonio-a-casilli/9782021401882
Cassar, B. (2020). La transformation numérique du monde du droit [Thèse de doctorat,
Université de Strasbourg]. https://publication-
theses.unistra.fr/public/theses_doctorat/2020/Cassar_Bertrand_2020_ED101.pdf
Castellino, R. A. (2005). Computer aided detection (CAD): an overview. Cancer Imaging, 5,
17‑19. https://doi.org/10.1102/1470-7330.2005.0018
CEPEJ. (2019). Charte éthique européenne d’utilisation de l’intelligence artificielle dans les
systèmes judiciaires et leur environnement. https://rm.coe.int/charte-ethique-fr-pour-
publication-4-decembre-2018/16808f699b
Chambat, P. (1994). Usages des technologies de l’information et de la communication :
évolution des problématiques. Tis, 6(3), 249‑270.
Chan, H. P., Hadjiiski, L. M., & Samala, R. K. (2020). Computer-aided diagnosis in the era of
deep learning. Medical Physics, 47(5), e218‑e227. https://doi.org/10.1002/mp.13764
Chartrand, G., Cheng, P. M., Vorontsov, E., Drozdzal, M., Turcotte, S., Pal, C. J., Kadoury, S.,
& Tang, A. (2017). Deep learning: A primer for radiologists. Radiographics, 37(7),
2113‑2131. https://doi.org/10.1148/rg.2017170077
Chevalier, F., & Dejoux, C. (2021). Intelligence artificielle et Management des ressources
humaines : pratiques d’entreprises. Le numérique et la refondation du système électrique,
15, 94‑105.
Chockley, K., & Emanuel, E. (2016). The End of Radiology? Three Threats to the Future
Practice of Radiology. Journal of the American College of Radiology, 13(12), 1415‑1420.
https://doi.org/10.1016/j.jacr.2016.07.010
Clancey, W. J. (1983). The Epistemology of a Rule-Based Expert System - A Framework for
Explanation. Artificial Intelligence, 20, 215‑251.
CNIL. (2017). Comment Permettre À L’Homme De Garder La Main ?
https://doi.org/10.1152/jn.01190.2003\n01190.2003 [pii]
COE. (2017). Automatisation, numérisation et emploi. Tome 1 : Les impacts sur le volume, la
structure et la localisation de l’emploi.
https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/coe-rapport-tome-1-
automatisation-numerisation-emploi-janvier-2017.pdf
Cora Garcia, A., David, G. C., & Chand, D. (2010). Understanding the work of medical

247
transcriptionists in the production of medical records. Health Informatics Journal, 16(2),
87‑100. https://doi.org/10.1177/1460458210361936
Cros, F. (2017). Les salariés âgés face aux transformations digitales du travail : du rôle de
l’environnement socio-technique dans le développement de l’activité [Thèse de doctorat,
Université Lumière Lyon 2]. https://tel.archives-ouvertes.fr/tel-01887751/document
Dale, R. (2016). The return of the chatbots. Natural Language Engineering, 22(5), 811‑817.
https://doi.org/10.1017/S1351324916000243
Daniellou, F. (2004). 21. L’ergonomie dans la conduite de projets de conception de systèmes
de travail. In P. Falzon (Éd.), Ergonomie (p. 359‑373). Presses universitaires de France
« Hors collection ». https://doi.org/10.3917/puf.falzo.2004.01.0359
Daniellou, F., & Rabardel, P. (2005). Activity-oriented approaches to ergonomics: Some
traditions and communities. Theoretical Issues in Ergonomics Science, 6(5), 353‑357.
https://doi.org/10.1080/14639220500078351
Darses, F., & Reuzeau, F. (2004). 24. Participation des utilisateurs à la conception des systèmes
et dispositifs de travail. In P. Falzon (Éd.), Ergonomie (p. 405‑420). Presses universitaires
de France « Hors collection ». https://doi.org/10.3917/puf.falzo.2004.01.0405
Darses, F., & Wolff, M. (2006). How do designers represent to themselves the users’ needs?
Applied Ergonomics, 37(6), 757‑764. https://doi.org/10.1016/j.apergo.2005.11.004
Daugherty, P. R., & Wilson, J. (2018). Humans + Machine: Reimagining work in the age of AI.
Harvard Business Review Press.
Davenport, T. H., & Kirby, J. (2015). Beyond automation. Harvard Business Review, 93(6),
58‑65.
De Ganay, C., & Gillot, D. (2017). Pour une intelligence artificielle maîtrisée, utile et
démystifiée. https://www.senat.fr/rap/r16-464-1/r16-464-11.pdf
De Terssac, G., & Soubie, J. (1995). Systèmes à base de connaissances et organisations.
Sociologie du travail, 1, 25‑48.
De Terssac, G., Soubie, J., & Neveu, J. (1988). Systèmes experts et transferts d’expertise.
Sociologie du travail, 3, 461‑477.
De Vaujany, F.-X. (2006). Pour une théorie de l’appropriation des outils de gestion : vers un
dépassement de l’opposition conception-usage. Management & Avenir, 9(3), 109‑126.
https://doi.org/10.3917/mav.009.0109
Dekker, S.-W.-A., & Woods, D. D. (2003). MABA-MABA or Abracadabra? Progress on
Human-Automation Co-ordination. Cognition, Technology & Work, 4(4), 240‑244.
https://doi.org/10.1007/s101110200022

248
Deloitte. (2017). Pourquoi il ne faut pas avoir peur de l’Intelligence Artificielle. L’IA d’hier et
de demain : histoire d’une idylle entre l’homme et la machine.
https://www2.deloitte.com/fr/fr/pages/services-financier/articles/pourquoi-il-ne-faut-pas-
avoir-peur-de-lintelligence-artificielle.html
DiMaggio, P. J., & Powell, W. W. (1983). The iron cage revisited: institutional isomorphism
and collective rationality in organizational fields. American Sociological Review, 48,
147‑160. https://doi.org/10.1016/S0742-3322(00)17011-1
Dodier, N. (1995). L’éthos de la virtuosité. In N. Dodier (Éd.), Les Hommes et les Machines.
La conscience collective dans les sociétés technicisées. (Leçons De, p. 217‑273). Éditions
Métailié.
Dubois, C., Salotti, J. M., Seminel, D., & Simonazzi, N. (2019). Le chatbot: un outil de la
relation aux clients. Hermès, La Revue, 84(2), 95‑97.
https://doi.org/10.3917/herm.084.0095
Dubus, N. (1995). Le transfert de la connaissance pour la réalisation d’un système expert.
Deuxième Rencontres de Théo Quant, 157‑165.
Dumont, V., Maller, C., & Rousseau, A. (2008). La construction d’un tableau de bord pour
accompagner l’appropriation des TIC. In M. Benedetto-Meyer & R. Chevallet (Éds.),
Analyser les usages des systèmes d’information et des TIC (p. 206‑235). ANACT.
Emidio, S. Di, Temperman, G., & Lièvre, B. De. (2018). Manier l’intelligence artificielle sans
coder : création de chatbots éducatifs (Numéro July).
Endsley, M. R. (1996). Automation and Situation Awareness. In R. Parasuraman & M. Mouloua
(Éds.), Automation and human performance: Theory and applications (p. 163‑181).
Lawrence Erlbaum Associates, Inc. https://doi.org/10.1177/154193120104500235
Endsley, M. R., & Kaber, D. B. (1999). Level of automation effects on performance, situation
awareness and workload. Ergonomics, 42(3), 462‑492.
Endsley, M. R., & Kiris, E. O. (1995). The Out-of-the-Loop Performance Problem and Level
of Control in Automation. Human Factors: The Journal of the Human Factors and
Ergonomics Society, 37(2), 381‑394. https://doi.org/10.1518/001872095779064555
Engelbart, D. C. (1962). Augmenting human intellect: a conceptual framework.
Esteban, C. (2019). Construire la « compréhension d’une machine » : le cas des chatbots.
Usages et Valeur, 62, 20‑23.
Esteban, C. (2020). Construire la « compréhension » d’une machine. Réseaux, 220‑221(2),
195‑222. https://doi.org/10.3917/res.220.0195
Ferguson, Y. (2019). 1. Ce que l’intelligence artificielle fait de l’Homme au travail. Visite

249
sociologique d’une entreprise. In F. Dubet (Éd.), Les mutations du travail (p. 23‑42). La
Découverte.
Fischer, F. (2017). Les enjeux de mise en œuvre opérationnelle de l’intelligence artificielle dans
les grandes entreprises. Cigref. https://www.cigref.fr/wp/wp-
content/uploads/2017/10/CIGREF-Cercle-IA-2017-Mise-en-oeuvre-operationnelle-IA-
en-Entreprises.pdf
Fischer, F., & de Broca, X. (2018). L’intelligence artificielle en entreprise. Stratégies,
gouvernances et challenges de la data. Cigref. https://www.cigref.fr/wp/wp-
content/uploads/2018/10/Cigref-Intelligence-Artificielle-en-entreprise-Strategies-
gouvernances-challenges-Data-Intelligence-2018.pdf
Fitts, P. M. (1951). Human Engineering for an Effective Air-navigation and Traffic-control
System.
Folcher, V. (2015). Conception pour et dans l’usage : la maîtrise d’usage en conduite de projet
Design. Revue des Interactions Humaines Médiatisées, 16(1), 39‑60.
Følstad, A., Araujo, T., Law, E. L. C., Brandtzæg, P. B., Papadopoulos, S., Reis, L., Baez, M.,
Laban, G., McAllister, P., Ischen, C., Wald, R., Catania, F., Meyer von Wolff, R., Hobert,
S., & Luger, E. (2021). Future directions for chatbot research: an interdisciplinary research
agenda. Computing, 103(12), 2915‑2942. https://doi.org/10.1007/s00607-021-01016-7
Følstad, A., & Brandtzæg, P. B. (2017). Chatbots and the new ...of HCI. interactions, 24(4),
38‑42.
French, B., Duense, A., & Heathcote, A. (2018). Trust in automation - A literature review. In
CSIRO Report EP184082. http://www.informaworld.com/10.1080/00140139408964957
Frey, C. B., & Osborne, M. A. (2013). The Future of Employment: How susceptible are jobs to
computerisation?
https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.p
df
Freyssenet, M. (2007). Systèmes experts et division du travail. Technologie, Idéologie,
Pratiques, 2‑4, 105‑118.
Fujita, H. (2020). AI-based computer-aided diagnosis (AI-CAD): the latest review to read first.
Radiological Physics and Technology, 13(1), 6‑19. https://doi.org/10.1007/s12194-019-
00552-4
Gaillard, I., & Mollo, V. (2021). Organisation du travail. In Ergonomie : 110 notions clés (p.
380‑385). Dunod.
Gamkrelidze, T., Zouinar, M., & Barcellini, F. (2021). The “Old” Issues of the “New” Artificial

250
Intelligence Systems in Professional Activities. In M.-E. Bobillier Chaumon (Éd.), Digital
Transformations in the Challenge of Activity and Work: Understanding and Supporting
Technological Changes (p. 71‑86). Wiley-ISTE.
Ghiglione, R., & Matalon, B. (1998). Les enquêtes sociologiques. Armand Colin.
Giblas, D., Godon, A.-S., Fargeas, M., Duranton, S., Gard, J.-C., Audier, A., Caye, J.-M., &
Buffard, P.-E. (2018). Intelligence artificielle et capital humain. Quels défis pour les
entreprises ?
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. The MIT Press.
Gouédard, C., & Rabardel, P. (2012). Pouvoir d’agir et capacités d’agir : une perspective
méthodologique ? Perspectives interdisciplinaires sur le travail et la santé, 14(2), 1‑35.
Gras Gentiletti, M. (2022). Soutenir la dimension constructive de l’activité instrumentée par
des dispositifs techniques à base d’intelligence artificielle : une approche
développementale de la conception centrée sur le modèle du sujet capable. [Thèse de
doctorat, Université Paris 8].
Gras Gentiletti, M., Bourmaud, G., Fréjus, M., & Decortis, F. (2022). Concevoir pour des
activités instrumentées par des chatbots. Activites, 19(1).
https://doi.org/10.4000/activites.7428
Guérin, F., Laville, A., Daniellou, F., Duraffourg, J., & Kerguelen, A. (2007). Understanding
and transforming work: The practice ef ergonomics. ANACT Network Edition.
Guérin, F., Pueyo, V., Béguin, P., Garrigou, A., Hubault, F., Maline, J., & Morlet, T. (2021).
Concevoir le travail, le défi de l’ergonomie. Octarès.
Hamel, J. (1997). Etude de cas et sciences sociales. Harmattan.
Hammes-Adelé, S. (2011). Traduction temporelle de la relation humain-technologie-
organisation : validation et perspectives autour de la symbiose. [Thèse de doctorat,
Université Paul Verlaine - Metz]. https://hal.univ-lorraine.fr/tel-01748906/document
Hancock, P. A. (1993). On the futur of hybrid Human-Machine Systems. In Proceedings of the
Human Factors and Ergonomics Society Annual Meeting (p. 61‑85).
https://doi.org/10.1177/154193129303701709
Hancock, P. A. (2014). Automation: How much is too much? Ergonomics, 57(3), 449‑454.
https://doi.org/10.1080/00140139.2013.816375
Hartswood, M., Procter, R., Rouncefield, M., Slack, R., Soutter, J., & Voss, A. (2003).
‘Repairing’ the Machine: A Case Study of the Evaluation of Computer-Aided Detection
Tools in Breast Screening. In K. Kuutti, E. H. Karsten, G. Fitzpatrick, P. Dourish, & K.
Schmidt (Éds.), ECSCW 2003 (p. 375‑394). Springer. https://doi.org/10.1007/978-94-010-

251
0068-0
Herbreteau, D. (2020). « Enfin l’IA va permettre de remplacer les radiologues… ». La Presse
Médicale Formation, 1(3), 229‑230. https://doi.org/10.1016/j.lpmfor.2020.07.006
Hill, J., Randolph Ford, W., & Farreras, I. G. (2015). Real conversations with artificial
intelligence: A comparison between human-human online conversations and human-
chatbot conversations. Computers in Human Behavior, 49, 245‑250.
https://doi.org/10.1016/j.chb.2015.02.026
Hoc, J.-M. (2000). From human-machine interaction to human-machine cooperation.
Ergonomics, 43,(7), 833‑843.
Hoc, J.-M. (2003). Coopération humaine et systèmes coopératifs. In G. Boy (Éd.), Ingénierie
cognitive. IHM et cognition (p. 139‑187). Hermès.
Hodgson, T., & Coiera, E. (2016). Risks and benefits of speech recognition for clinical
documentation: A systematic review. Journal of the American Medical Informatics
Association, 23(e1), e69‑e179. https://doi.org/10.1093/jamia/ocv152
Hoff, K. A., & Bashir, M. (2015). Trust in automation: Integrating empirical evidence on factors
that influence trust. Human Factors, 57(3), 407‑434.
https://doi.org/10.1177/0018720814547570
Howard, T. J., Culley, S. J., & Dekoninck, E. (2008). Describing the creative design process by
the integration of engineering design and cognitive psychology literature. Design Studies,
29(2), 160‑180. https://doi.org/10.1016/j.destud.2008.01.001
IEEE. (2019). IEEE Position Statement. Artificial Intelligence.
https://globalpolicy.ieee.org/wp-content/uploads/2019/06/IEEE18029.pdf
Institut de Recherche en Informatique de Toulouse. (2001). L’intelligence artificielle, mais
enfin de quoi s’agit-il ? Les livrets du Service Culture UPS.
Jacquemin, H., & Hubin, J.-B. (2019). TITRE 3. - L’intelligence artificielle : vraie ou fausse
amie du justiciable ? - Enjeux du recours à l’IA par les avocats, assureurs et legalthecs. In
J.-B. Hubin, H. Jacquemin, & B. Michaux (Éds.), Le juge et l’algorithme : juges
augmentés ou justice diminuée ? (p. 75‑104). Lefebvre Sarrut Belgium.
Jain, M., Kota, R., Kumar, P., & Patel, S. (2018). Convey: Exploring the use of a context view
for chatbots. Proceedings of the 2018 chi conference on human factors in computing
systems. https://doi.org/10.1145/3173574.3174042
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in
organizational decision making. Business Horizons, 61(4), 577‑586.
https://doi.org/10.1016/j.bushor.2018.03.007

252
Jin, D., Harrison, A. P., Zhang, L., Yan, K., Wang, Y., Cai, J., Miao, S., & Lu, L. (2021).
Artificial Intelligence in Radiology. In L. Xing, M. L. Giger, & J. K. Min (Éds.), Artificial
Intelligence in Medicine (Vol. 24, Numéro 1, p. 265‑289). Academic Press.
https://doi.org/10.1055/s-0039-3400270
Johnson, M., Bradshaw, J. M., Feltovich, P. J., Jonker, C. M., Van Riemsdijk, M. B., & Sierhuis,
M. (2014). Coactive Design: Designing Support for Interdependence in Joint Activity.
Journal of Human-Robot Interaction, 3(1), 43‑69. https://doi.org/10.5898/jhri.3.1.johnson
Johnson, M., & Vera, A. H. (2019). No Ai is an island: The case for teaming intelligence. AI
Magazine, 40(1), 16‑28. https://doi.org/10.1609/aimag.v40i1.2842
Jouët, J. (2000). Retour critique sur la sociologie des usages. Réseaux, 18(100), 487‑521.
https://doi.org/10.3406/reso.2000.2235
Julia, L. (2019). L’intelligence artificielle n’existe pas. Éditions First.
https://doi.org/10.3917/pes.385.0049
Kanal, K. M., Hangiandreou, N. J., Sykes, A. M. G., Eklund, H. E., Araoz, P. A., Leon, J. A.,
& Erickson, B. J. (2000). Evaluation of the accuracy of a continuous speech recognition
software system in radiology. Journal of Digital Imaging, 13(2 SUPPL. 1), 211‑212.
https://doi.org/10.1007/bf03167667
Karsenty, L. (2011). Confiance interpersonnelle et communications de travail. Le cas de la
relève de poste. Le travail humain, 74(2), 131‑155. https://doi.org/10.3917/th.742.0131
Karsenty, L., & Brézillon, P.-J. (1995). Cooperative problem solving and explanation. Expert
Systems With Applications, 8(4), 445‑462. https://doi.org/10.1016/0957-4174(94)E0035-
S
Kavlakoglu, E. (2020). NLP vs. NLU vs. NLG: the differences between three natural language
processing concepts. https://www.ibm.com/blogs/watson/2020/11/nlp-vs-nlu-vs-nlg-the-
differences-between-three-natural-language-processing-concepts/
Kherrazi, S., & Roquilly, C. (2021). L’innovation dans les Directions Juridiques d’entreprises.
XXXème conférence de l’AIMS L’innovation.
King, B. F. (2018). Artificial Intelligence and Radiology: What Will the Future Hold? Journal
of the American College of Radiology, 15(3), 501‑503.
https://doi.org/10.1016/j.jacr.2017.11.017
Klein, G., Woods, D. D., Bradshaw, J. M., Hoffman, R. R., & Feltovich, P. J. (2004). Ten
Challenges for Making Automation a « Team Player » in Joint Human-Agent Activity.
IEEE Intelligent Systems, 19(06), 91‑95. https://doi.org/10.1109/mis.2004.74
Koenigkam Santos, M., Raniery Ferreira Júnior, J., Tadao Wada, D., Priscilla Magalhães

253
Tenório, A., Henrique Nogueira Barbosa, M., & Mazzoncini De Azevedo Marques, P.
(2019). Artificial intelligence, machine learning, computer-aided diagnosis, and
radiomics: Advances in imaging towards to precision medicine. Radiologia Brasileira,
52(6), 387‑396. https://doi.org/10.1590/0100-3984.2019.0049
Kohli, A., & Jha, S. (2018). Why CAD Failed in Mammography. Journal of the American
College of Radiology, 15(3), 535‑537. https://doi.org/10.1016/j.jacr.2017.12.029
Krishnaraj, A., Lee, J. K. T., Laws, S. A., & Crawford, T. J. (2010). Voice recognition software:
Effect on radiology report turnaround time at an academic medical center. American
Journal of Roentgenology, 195(1), 194‑197. https://doi.org/10.2214/AJR.09.3169
Lakhani, P., Prater, A. B., Hutson, R. K., Andriole, K. P., Dreyer, K. J., Morey, J., Prevedello,
L. M., Clark, T. J., Geis, J. R., Itri, J. N., & Hawkins, C. M. (2018). Machine Learning in
Radiology: Applications Beyond Image Interpretation. Journal of the American College
of Radiology, 15(2), 350‑359. https://doi.org/10.1016/j.jacr.2017.09.044
Le Bossé, Y. (2003). De l’« habilitation » au « pouvoir d’agir » : vers une appréhension plus
circonscrite de la notion d’empowerment1. Nouvelles pratiques sociales, 16(2), 30‑51.
https://doi.org/10.7202/009841ar
Le Corf, J. B. (2017). L’organisation homme-machine de la communication automatisée
d’entreprise dans le capitalisme: le cas des robots conversationnels. Communication et
Management, 14(2), 35‑52. https://doi.org/10.3917/comma.142.0035
LeCun, Y. (2019). Quand la machine apprend. La révolution des neurones artificiels et de
l’apprentissage profond (Odile Jaco).
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521, 436‑444.
https://doi.org/10.1038/nature14539
Lee, J. D., & See, K. A. (2004). Trust Automation : Designing for Appropriate Reliance. Human
Factors, 46(1), 50‑80.
Legg, S., & Hutter, M. (2007). Universal intelligence: A definition of machine intelligence.
Minds and Machines, 17(4), 391‑444. https://doi.org/10.1007/s11023-007-9079-x
Lemberger, P., Parent, N., Scialom, T., & Mauléon, F. (2019). Vers une nouvelle alliance
Homme-Machine ?
Leplat, J. (2000). V - L’environnement de l’action en situation de travail. In L’Analyse de la
singularité de l’action (Education, p. 107‑132). Presses universitaires de France.
https://doi.org/10.3917/puf.derec.2000.01.0107
Leplat, J. (2008). Repères pour l’analyse de l’activité en ergonomie (Le Travail). Presses
universitaires de France.

254
Lewandowski, A., & Bourguin, G. (2009). Quels supports informatiques pour un travail
collaboratif durable ? Marché et organisations, 10(3), 155‑170.
https://doi.org/10.3917/maorg.010.0155
Liao, Q. V., Mas-ud Hussain, M., Chandar, P., Davis, M., Khazaeni, Y., Crasso, M. P., Wang,
D., Muller, M., Shami, N. S., & Geyer, W. (2018). All Work and No Play? Conversations
with a Question-and-Answer Chatbot in the Wild. Proceedings of the 2018 CHI
Conference on Human Factors in Computing Systems.
https://doi.org/10.1353/dss.2021.0057
Licklider, J. C. R. (1960). Man-Computer Symbiosis. IRE Transactions on Human Factors in
Electronics, HFE-1, 4‑11. https://doi.org/10.1109/THFE2.1960.4503259
Liew, C. (2018). The future of radiology augmented with Artificial Intelligence: A strategy for
success. European Journal of Radiology, 102, 152‑156.
https://doi.org/10.1016/j.ejrad.2018.03.019
Lincoln, C. M., Chatterjee, R., & Willis, M. H. (2019). Augmented Radiology: Looking Over
the Horizon. Radiology: Artificial Intelligence, 1(1), 1‑3.
https://doi.org/10.1148/ryai.2019180039
Loh, E. (2018). Medicine and the rise of the robots: a qualitative review of recent advances of
artificial intelligence in health. BMJ Leader, 2, 59‑63. https://doi.org/10.1136/leader-
2018-000071
Luger, E., & Sellen, A. (2016). « Like having a really bad pa »: The gulf between user
expectation and experience of conversational agents. Proceedings of the 2016 CHI
conference on human factors in computing systems, 5286‑5297.
https://doi.org/10.1145/2858036.2858288
Marcondes, F. S., Almeida, J. J., & Novais, P. (2020). A short survey on chatbot technology:
Failure in raising the state of the art. In F. Herrera, K. Matsui, & S. Rodríguez-González
(Éds.), Distributed Computing and Artificial Intelligence, 16th International Conference.
DCAI 2019. Advances in Intelligent Systems and Computing (Vol. 1003, p. 28‑36).
Springer. https://doi.org/10.1007/978-3-030-23887-2_4
Mardini, M. J., & Mehta, A. (2006). Voice recognition. In K. J. Dreyer, J. H. Thrall, D. S.
Hirschorn, & A. Mehta (Éds.), PACS: A guide to the digital revolution (p. 467‑482).
Springer. https://doi.org/10.22214/ijraset.2022.45036
Mateescu, A., & Elish, M. C. (2018). AI in context : the labor of integrating new technologies.
Data & Society. https://apo.org.au/sites/default/files/resource-files/2019-01/apo-
nid217456.pdf

255
Mauldin, M. L. (1994). ChatterBots, tinyMuds, and the turing test entering the loebner prize
competition. Proceedings of the National Conference on Artificial Intelligence, 1, 16‑21.
Mayer, R. C., Davis, J. H., & Schooraman, D. F. (1995). An Integrative Model of
Organizational Trust. Academy of Management Review, 20(3), 709‑734.
Mayo, R. C., & Leung, J. (2018). Artificial intelligence and deep learning – Radiology’s next
frontier? Clinical Imaging, 49, 87‑88. https://doi.org/10.1016/j.clinimag.2017.11.007
Mcafee, A., & Brynjolfsson, E. (2017). Machine Platform Crowd : Harnessing our Digital
Future. W.W. Norton and Company.
McCarthy, J. (2007). What is Artificial Intelligence.
http://jmc.stanford.edu/articles/whatisai/whatisai.pdf
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A proposal for the
Dartmouth summer research project on artificial intelligence.
McIntosh, S. (2018). AI and automation: The benefits for business and industry. Sage.
https://www.sage.com/en-gb/blog/ai-and-automation-business/
Meneceur, Y. (2020). L’’intelligence artificielle en procès. Plaidoyer pour une réglementation
internationale et européenne. Lefebvre Sarrut Belgium.
Michot, F., Launois, B., Bertrand, D., Bringer, J., Degos, L., Olie, J. P., & Thuillez, C. (2019).
The public hospital in crisis: Origins and proposals. Bulletin de l’Academie Nationale de
Medecine, 203(3‑4), 109‑121. https://doi.org/10.1016/j.banm.2019.02.011
Miller, C. A., & Parasuraman, R. (2007). Designing for flexible interaction between humans
and automation: delegation interfaces for supervisory control. Human factors, 49(1),
57‑75. https://doi.org/10.1518/001872007779598037
Miller, S. (2018). AI: Augmentation, more so than automation. Asian Management Insights,
5(1), 1‑20.
Millot, P. (1999). Systemes Homme-Machine et automatique. Journées Doctorales
d’Automatique JDA’99.
Millot, P., & Boy, G. A. (2012). Human-machine cooperation: A solution for life-critical
Systems? Work, 41, 4552‑4559. https://doi.org/10.3233/WOR-2012-0033-4552
Millot, P., Pacaux-Lemoine, M. P., & Trentesaux, D. (2015). Une conception anthropo-centrée
pour casser le mythe de l ’« Humain Magique » en Génie Industriel ? 11e congrès
international de génie industriel.
Moehrle, A. (2018). “Radiology” Is Going Away… and That’s Okay: Titles Change, A
Profession Evolves. Journal of the American College of Radiology, 15(3), 499‑500.
https://doi.org/10.1016/j.jacr.2018.01.018

256
Moore, J. D., & Swartout, W. R. (1988). Explanation in expert systems: A survey.
https://apps.dtic.mil/sti/pdfs/ADA206283.pdf
Morozov, E. (2014). Pour tout résoudre cliquez ici. L’aberration du solutionnisme
technologique. FYP.
Moulières-Seban, T. (2017). Conception de systèmes cobotiques industriels. Approche
cognitique. Application à la production pyrotechnique au sein d’Ariane Group. [Thèse de
doctorat, L’université de Bordeaux]. https://hal.science/tel-01670146v1/document
Nardi, B. A. (1996). 1. Activity theory and Human-Computer Interaction. In B. A. Nardi (Éd.),
Context and Consciousness. Activity theory and Human-Computer Interaction (p. 7‑16).
Massachusetts Institute of Technology Press.
Nascimento, A. (2019). La notion de culture et ses usages dans l’intervention ergonomique :
contributions pour un positionnement critique [HDR, Conservatoire National des Arts et
Métiers]. https://hal.archives-ouvertes.fr/tel-02887226/document
National Science and Technology Council. (2016). The National Artificial Intelligence
Research and Development Strategic Plan. https://doi.org/10.1609/aimag.v39i2.2803
Nelson, J. (2011). Contribution à l’analyse prospective des usages dans les projets d’innovation
[Thèse de doctorat, l’Ecole Nationale Supérieure d’Arts et Métiers].
https://pastel.archives-ouvertes.fr/pastel-00620406/document
Nerce, J., Marie, S., & Coggia, P. (2018). (Re)Launch, Scale & Lean AI with Cloud.
https://doi.org/10.1017/CBO9781107415324.004
Nils, F., & Rimé, B. (2003). L’interview. In S. Moscovici & F. Buschini (Éds.), Les méthodes
des sciences humaines (p. 165‑185). Presses universitaires de France.
Norman, D. (1993). Les artefacts cognitifs. In Raisons Pratiques (Vol. 4, p. 15‑34).
Norman, D. (2017). Design, business models, and human-technology teamwork. Research-
Technology Management, 60(1), 26‑30.
Oakden-Rayner, L. (2019). The rebirth of CAD: How is modern ai different from the CAD we
know? Radiology: Artificial Intelligence, 1(3). https://doi.org/10.1148/ryai.2019180089
Obermeyer, Z., & Emanuel, E. J. (2016). Predicting the Future — Big Data, Machine Learning,
and Clinical Medicine. The New England journal of medicine, 375(13), 1216‑1219.
https://doi.org/10.1056/NEJMp1606181.Predicting
Olsson, E. (2004). What active users and designers contribute in the design process. Interacting
with Computers, 16(2), 377‑401. https://doi.org/10.1016/j.intcom.2004.01.001
Paillé, P. (1994). L’analyse par théorisation ancrée. Cahiers de recherche sociologique, 23,
147‑181.

257
Paillé, P., & Mucchielli, A. (2012). Chapitre 10 - L’analyse par questionnement analytique. In
P. Paillé & A. Mucchielli (Éds.), L’analyse qualitative en sciences humaines et sociales
(Collection, p. 207‑230). Armand Colin.
Parasuraman, R., & Riley, V. (1997). Humans and automation: use, misuse, disuse, abuse.
Human Factors, 39(2), 230‑253.
Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000). A model for types and levels of
human interaction with automation. IEEE Transactions on Systems, Man, and
Cybernetics—Part a: Systems and Humans, 30(3), 286‑297.
Parasuraman, R., & Wickens, C. D. (2008). Humans: Still Vital After All These Years of
Automation. Human factors, 50(3), 511‑520. https://doi.org/10.4324/9781315095080-14
Paugam, S. (2012). Introduction – L’enquête sociologique en vingt leçons. In S. Paugam (Éd.),
L’enquête sociologique (Quadriage, p. 1‑4). Presses universitaires de France.
https://doi.org/10.3917/puf.paug.2012.01.0002
Pelaccia, T., Forestier, G., & Wemmert, C. (2020). Une intelligence artificielle raisonne-t-elle
de la même façon que les cliniciens pour poser des diagnostics ? Revue de Medecine
Interne, 41(3), 192‑195. https://doi.org/10.1016/j.revmed.2019.12.014
Pélissier, D. (2021a). Design de l’IA et responsabilités de l’organisation: Les chatbots de
recrutement. Management & Datascience, 5(2).
Pélissier, D. (2021b). La coconstruction ambiguë de l’intelligence artificielle (IA), analyse de
la conception de l’intervention d’ouverture de chatbots de recrutement. Communication &
management, 17(2), 67‑82. https://doi.org/10.3917/comma.172.0067
Perriault, J. (1989). La logique d’usage. Flammarion.
Pesapane, F., Codari, M., & Sardanelli, F. (2018). Artificial intelligence in medical imaging:
threat or opportunity? Radiologists again at the forefront of innovation in medicine.
European Radiology Experimental, 2(1), 1‑10. https://doi.org/10.1186/s41747-018-0061-
6
Pezzullo, J. A., Tung, G. A., Rogg, J. M., Davis, L. M., Brody, J. M., & Mayo-Smith, W. W.
(2008). Voice recognition dictation: Radiologist as transcriptionist. Journal of Digital
Imaging, 21(4), 384‑389. https://doi.org/10.1007/s10278-007-9039-2
Philogène, G., & Moscovici, S. (2003). Enquêtes et sondages. In Les méthodes des sciences
humaines (p. 39‑58). Presses universitaires de France.
Pomerol, J. (1990). Systèmes Experts et SIAD : Enjeux et Conséquences pour les organisations.
Proulx, S. (2002). Les formes d’appropriation d’une culture numérique comme enjeu d’une
société du savoir. http://www.ac-

258
grenoble.fr/ien.bourgoinashnord/IMG/pdf_es_TUIC_Enjeux_et_modalites_de_mise_en_
oeuvre.pdf
Rabardel, P. (1995). Les hommes et les technologies. Une approche cognitive des instruments
contemporains. Armand Colin. https://hal.archives-ouvertes.fr/hal-01017462
Rabardel, P. (2005). Instrument subjectif et développement du pouvoir d’agir. In P. Rabardel
& P. Pastré (Éds.), Modèles du sujet pour la conception : dialectiques activités
développement (p. 11‑29). Octarès.
Rabardel, P., Carlin, N., Chesnais, M., Lang, N., Le Joliff, G., & Pascal, M. (2001). Ergonomie,
concepts et méthodes. Octarès.
Ramaswamy, M. R., Chaljub, G., Esch, O., Fanning, D. D., & VanSonnenberg, E. (2000).
Continuous speech recognition in MR imaging reporting: Advantages, disadvantages, and
impact. American Journal of Roentgenology, 174(3), 617‑622.
https://doi.org/10.2214/ajr.174.3.1740617
Ranschaert, E. (2018). Artificial intelligence in radiology: Hype or hope? Journal of the Belgian
Society of Radiology., 102(1), 1‑2. https://doi.org/10.37549/ar2469
Richardson, M. L., Garwood, E. R., Lee, Y., Li, M. D., Lo, H. S., Nagaraju, A., Nguyen, X. V.,
Probyn, L., Rajiah, P., Sin, J., Wasnik, A. P., & Xu, K. (2021). Noninterpretive Uses of
Artificial Intelligence in Radiology. Academic Radiology, 28(9), 1225‑1235.
https://doi.org/10.1016/j.acra.2020.01.012
Ringler, M. D., Goss, B. C., & Bartholmai, B. J. (2017). Syntactic and semantic errors in
radiology reports associated with speech recognition software. Health Informatics
Journal, 23(1), 3‑13. https://doi.org/10.1177/1460458215613614
Roth, E. M., Bennett, K. B., & Woods, D. D. (1987). Human interaction with an “intelligent”
machine. International Journal of Man-Machine Studies, 27(5‑6), 479‑525.
https://doi.org/10.1016/S0020-7373(87)80012-3
Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions
and use interpretable models instead. Nature Machine Intelligence, 1, 206‑215.
https://doi.org/10.1038/s42256-019-0048-x
Russel, S., & Norving, P. (2010). Artificial intelligence. A modern approach. Pearson
Education, Inc. https://doi.org/10.1017/S0269888900007724
Sage. (2020). Artificial Intelligence in business guide 2020. How to lift productivity and profit
in the age of automation.
https://search.proquest.com/docview/1900298116?accountid=10297%0Ahttp://resolver.e
bscohost.com/openurl?ctx_ver=Z39.88-2004&ctx_enc=info:ofi/enc:UTF-

259
8&rfr_id=info:sid/ProQ%3Aabiglobal&rft_val_fmt=info:ofi/fmt:kev:mtx:journal&rft.ge
nre=article&rft.jtitle=St
Sahiner, B., Chan, H., Hadjiiski, L. M., Cascade, P. N., & Kazerooni, E. A. (2009). Effect of
CAD on Radiologists ’ Detection of Lung Nodules on Thoracic CT Scans : Analysis of an
Observer Performance Study by Nodule Size 1. Academic Radiology, 16(12), 1518‑1530.
https://doi.org/10.1016/j.acra.2009.08.006
Salembier, P., & Pavard, B. (2004). Analyse et modélisation des activités coopératives situées.
Activités, 1(1), 87‑99.
Santarpia, A. (2021). Chapitre 14. Les logiciels d’analyse textuelle. In A. Bioy, M.-C. Castillo,
& M. Koenig (Éds.), Les méthodes qualitatives en psychologie clinique et
psychopathologie (Univers Ps, p. 239‑258). Dunod.
Sarter, N. B., Woods, D. D., & Billings, C. E. (1997). Automation surprises. In G. Salvendy
(Éd.), Handbook of Human Factors & Ergonomics (p. 29‑31). Wiley.
https://doi.org/10.1109/VTSA.2003.1252543
Searle, J. (1984). Minds, brains and science. Harvard University Press.
Shevat, A. (2017). Designing Bots. Creating conversational experiences. O’Reilly Media, Inc.
Shiraishi, J., Li, Q., Appelbaum, D., & Doi, K. (2011). Computer-aided diagnosis and artificial
intelligence in clinical imaging. Seminars in Nuclear Medicine, 41(6), 449‑462.
https://doi.org/10.1053/j.semnuclmed.2011.06.004
Shneiderman, B. (2020). Bridging the gap between ethics and practice: Guidelines for reliable,
safe, and trustworthy human-centered AI systems. ACM Transactions on Interactive
Intelligent Systems, 10(4), 1‑31. https://doi.org/10.1145/3419764
Shoham, Y., Perrault, R., Brynjolfsson, E., Clark, J., Manyika, J., Niebles, J. C., Lyons, T.,
Etchemendy, J., Grosz, B., & Bauer, Z. (2018). Artificial Intelligence Index Annual
Report. In Stanford University. http://cdn.aiindex.org/2018/AI Index 2018 Annual
Report.pdf
Simon, H. A. (1996). The Sciences of the Artificial. In The Sciences of the Artificial. MIT Press.
https://doi.org/10.7551/mitpress/12107.001.0001
Skjuve, M., Haugstveit, I. M., Følstad, A., & Brandtzæg, P. B. (2019). Help! Is my chatbot
falling into the uncanny valley? An empirical study of user experience in human-chatbot
interaction. Human Technology, 15(1), 30‑54.
https://doi.org/10.17011/ht/urn.201902201607
Slack, R. S., Procter, R., Hartswood, M., Voss, A., & Rouncefield, M. (2010). Suspicious
Minds? In M. Büscher, D. Goodwin, & J. Mesman (Éds.), Ethnographies of Diagnostic

260
Work: Dimensions of Transformative Practice (p. 227‑244). Palgrave Macmillan.
https://doi.org/10.1057/9780230296930
St. Pierre, E. A., & Jackson, A. Y. (2014). Qualitative Data Analysis After Coding. Qualitative
Inquiry, 20(6), 715‑719. https://doi.org/10.1177/1077800414532435
Stoeklé, H.-C., Ivasilevitch, A., Mellot, F., Grenier, P., & Hervé, C. (2021). Intelligence
artificielle et apport du consentement éclairé dynamique en radiologie. Droit, santé et
société, 2(2), 61‑65.
Suchman, L. A. (1987). Plans and Situated Actions. The Problem of Human-Machine
Communication. Cambridge University Press.
Sujan, M., Furniss, D., Grundy, K., Grundy, H., Nelson, D., Elliott, M., White, S., Habli, I., &
Reynolds, N. (2019). Human factors challenges for the safe use of artificial intelligence in
patient care. BMJ Health and Care Informatics, 26(1), 1‑5.
https://doi.org/10.1136/bmjhci-2019-100081
Tang, A., Tam, R., Cadrin-Chênevert, A., Guest, W., Chong, J., Barfett, J., Chepelev, L., Cairns,
R., Mitchell, J. R., Cicero, M. D., Poudrette, M. G., Jaremko, J. L., Reinhold, C., Gallix,
B., Gray, B., Geis, R., O’Connell, T., Babyn, P., Koff, D., … Shabana, W. (2018).
Canadian Association of Radiologists White Paper on Artificial Intelligence in Radiology.
Canadian Association of Radiologists Journal, 69(2), 120‑135.
https://doi.org/10.1016/j.carj.2018.02.002
Tata Consultancy Services Limited. (2018). Les entreprises françaises sur la voie de
l’intelligence artificielle. https://laurentcervoni.fr/wp-content/uploads/2018/03/Etude-
TCS-IDC_Les-Entreprises-Fran%C3%A7aises-sur-la-voie-de-lIA.pdf
Taule, T., Følstad, A., & Fostervold, K. I. (2022). How Can a Chatbot Support Human Resource
Management? Exploring the Operational Interplay. In A. Følstad & E. Al. (Éds.),
International Workshop on Chatbot Research and Design. Chatbot Research and Design.
CONVERSATIONS 2021 (Vol. 13171, p. 73‑89). Springer International Publishing.
https://doi.org/10.1007/978-3-030-94890-0_5
Teach, R. L., & Shortliffe, E. H. (1981). An analysis of physician attitudes regarding computer-
based clinical consultation systems. Computers and Biomedical Research, 14(6), 542‑558.
https://doi.org/10.1016/0010-4809(81)90012-4
Thévenot, L. (1993). Essai sur les objets usuels. Propriétés, fonctions, usages. In B. Conein, N.
Dodier, & L. Thévenot (Éds.), Les objets dans l’action (Raisons pr, p. 85‑111). Editions
de l’EHESS.
Thibout, C. (2019). La compétition mondiale de l’intelligence artificielle. Pouvoirs, 170(3),

261
131‑142.
Trappl, R. (1985). Impacts of artificial intelligence. ELSEVIER SCIENCE PUBLISHERS B.V.
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433‑460.
Van Den Bosch, K., & Bronkhorst, A. (2018). Human-AI Cooperation to Benefit Military
Decision Making. In STO Nato.
van Terheyden, N. (2005). Is speech recognition the Holy Grail? Health management
technology, 26(2), 42‑45.
Vayre, J.-S. (2016). Des machines à produire des futurs économiques : sociologie des
intelligences artificielles marchandes à l’ère du big data. [Thèse de doctorat, Université
Toulouse - Jean Jaurès]. https://tel.archives-ouvertes.fr/tel-01908654/document
Vayre, J.-S. (2018). Comment décrire les technologies d’apprentissage artificiel ? Le cas des
machines à prédire. In Réseaux (Vol. 211, Numéro 5).
https://doi.org/10.3917/res.211.0069
Velkovska, J., & Relieu, M. (2021). Pour une conception « située » de l’intelligence artificielle.
Des interactions hybrides aux configurations socio-techniques. Reseaux, 229(5), 215‑229.
https://doi.org/10.3917/res.229.0215
Velkovska, J., Zouinar, M., & Veyrier, C.-A. (2020). Les relations aux machines
« conversationnelles ». Vivre avec les assistants vocaux à la maison. Reseaux, 220‑221(2),
47‑79. https://doi.org/10.3917/res.220.0047
Villani, C. (2018). Donner un sens à l’intelligence artificielle.
https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
Visser, W. (1994). Organisation of design activities: Opportunistic, with hierarchical episodes.
Interacting with Computers, 6(3), 239‑274. https://doi.org/10.1016/0953-5438(94)90015-
9
Visser, W. (2009). La conception : de la résolution de problèmes à la construction de
représentations. Le travail humain, 72(1), 61‑78.
Weizenbaum, J. (1966). ELIZA—A Computer Program For the Study of Natural Language
Communication Between Man And Machine. Communications of the ACM, 9(1), 36‑45.
https://doi.org/10.1145/357980.357991
White, K. S. (2005). Speech recognition implementation in radiology. Pediatric Radiology,
35(9), 841‑846. https://doi.org/10.1007/s00247-005-1511-x
Wiener, E. L. (1989). Human factors of advanced technology ("Glass Cockpit) transport
aircraft. Nasa. https://human-
factors.arc.nasa.gov/publications/HF_AdvTech_Aircraft.pdf

262
Wiener, E. L., & Curry, R. E. (1980). Flight-Deck Automation: promises and problems. Nasa.
https://ntrs.nasa.gov/api/citations/19800017542/downloads/19800017542.pdf
Williams, C. (1983). A brief introduction to artificial intelligence. Proceedings OCEANS’83,
94‑99.
Willis, M., Duckworth, P., Coulter, A., Meyer, E. T., & Osborne, M. (2019). The Future of
Health Care: Protocol for Measuring the Potential of Task Automation Grounded in the
National Health Service Primary Care System. Journal of Medical Internet Research, 8(4).
https://doi.org/10.2196/11232
Willis, M., & Jarrahi, M. H. (2019). Automating Documentation: A critical perspective into the
role of artificial intelligence in clinical documentation. Information in Contemporary
Society 14th International Conference, 200‑209.
Wilson, H. J., Daugherty, P. R., & Morini-Bianzino, N. (2017). The jobs that Artificial
Intelligence will create. Mit Sloan Management Review, 58(4), 14‑16.
https://doi.org/10.1016/j.trf.2006.08.002
Woods, D. D. (1996). Decomposing Automation: Apparent Simplicity, Real Complexity. In R.
Parasuraman & M. Mouloua (Éds.), Automation and Human Performance: Theory and
Applications (p. 3‑17). Erlbaum.
Woods, D. D., Roth, E. M., & Bennett, K. B. (1990). Explorations in Joint Human-Machine
Cognitive systems. In Human-Machine cognitive systems (p. 123‑158).
https://doi.org/10.1108/jd.2008.27864fae.001
Xu, W. (2019). Toward human-centered AI: A perspective from human-computer interaction.
Interactions, 26(4), 42‑46. https://doi.org/10.1145/3328485
Xu, W., Dainoff, M., Ge, L., & Gao, Z. (2021). From Human-Computer Interaction to Human-
AI Interaction: New Challenges and Opportunities for Enabling Human-Centered AI.
Zierau, N., Hausch, M., Bruhin, O., & Söllner, M. (2021). Towards developing trust-supporting
design features for AI-based chatbots in customer service. International Conference on
Information Systems, ICIS 2020 - Making Digital Inclusive: Blending the Local and the
Global, December.
Zouinar, M. (2020). Evolutions de l’Intelligence Artificielle et travail : quels enjeux pour
l’activité humaine et la relation Humain-Machine ? Activités, 17(1).

263
Annexes

264
Annexe I. Paragraphe introductif généré par le système d’IA « YouWrite »

265
Annexe II. Paragraphe introductif traduit par le système d’IA DeepL

266
Annexe III. Liste des séminaires, salons et conférences assistés durant les années 2019-2020-
2021
Date Nom Type
30/10/2019 IA, nouvelles technologies, automatisation… Quelles incidences sur l’activité humaine ? Conférence BNP Paribas
08/02/2019 Intelligence Artificielle, applications et technologies Webinar Orsys
14/02/2019 Techinov Salon
07/03/2019 How AI Can Change the Future of Health Care Webinar Harvard Business Review
Intelligence Artificielle et santé » (Séminaires du Projet « Quelle régulation pour l’intelligence
13/03/2019 Conférence-Débat
artificielle ? »)
14/03/2019 Journée IHM-IA Conférences
19/03/2019 NAIA Salon-Conférences
26/03/2019 SimplifAI: Intelligence artificielle pour tous Présentations
27/03/2019 Le travail à l’heure de l’Intelligence Artificielle Workshop-conférence
28/03/2019 Digihall Day (IA (R)évolution technologique et sociétale) Salon-Conférences
04/04/2019 Mon médecin est une intelligence artificielle Présentation David Gruson
10/04/2019 –
SIDO Salon
11/04/2019
14/05/2019 IA : booster de l’industrie ? Conférence
30/05/2019 Jusqu'où faut-il laisser décider l'IA ? Conférence
12/06/2019 Découvrez l'intelligence artificielle avec un cofondateur de SIRI, Luc Julia Conférence
25/06/2019 Un monde judiciaire augmenté par l’intelligence artificielle ? Colloque
03/07/2019 L’Intelligence Artificielle au service des entreprises Conférence
05/07/2019 Journée spéciale : l'Homme est-il l'avenir de l'intelligence artificielle ? L’Atelier numérique de Google

267
11/10/2019 –
Journées francophones de radiologie (JFR) (Thème général : « Le radiologue augmenté ») Salon-Conférences
14/10/2019
21/11/2019 IA en santé 2ème édition (CHRU de Nanacy) Conférences
28/04/2020 IA conversationnelles Webinar Catalix
30/04/2020 Artificial Intelligence in Healthcare Webinar Blu Artificial Intelligence
01/05/2020 FridAI Facts - Artificial Intelligence and the post-Covid world Webinar
07/05/2020 (B)risking AI - Exploiting AI risks into opportunities Webinar
26/05/2020 Filtrage appel intelligent - Yoann HUIBAN Conférence Orange ExplorIA
27/05/2020 L’IA pas sans elles ! Webinar
29/05/2020 AI for Tomorrow - Loïc Etienne, Opportunités et limites de l'IA dans le secteur de la santé Webinar
04/05/2020 La place croissante de l'IA dans la Santé et le monde du travail Conférence Orange ExplorIA
Webinar Openclub Innovation #2 –
24/06/2020 Maintenance Prédictive
SNCF Réseau
02/07/2020 Gouvernance et IA de Confiance : De la Réflexion à l’Exécution Webinar
03/07/2020 Tutoriel 5 : Explicabilité en Intelligence Artificielle Webinar
28/09/2020 L’intelligence artificielle Responsable Webinar Catalix
Webinar de la plateforme « Le
01/10/2020 Intelligence artificielle et droit : état des lieux, perspectives et risques
droit pour moi »
11/03/2021 « Comment l'IA aide les urgentistes et radiologues à désengorger les urgences ? » Webconférence Incepto
Webinar Partenariat Mondial sur
18/03/2021 Atelier : Partenariat Mondial sur l'Intelligence Artificielle
l'Intelligence Artificielle (PMIA)
15/04/2021 Les enjeux de l'IA : Comment passer de l'idée au projet ? Webinar DataValoris
22/06/2021 Routine clinique et IA : une réalité dans le suivi des maladies neurologiques Webinar Incepto
06/10/2021 L’IA appliquée à l’IRM du genou : pathologies traumatiques et dégénératives Webinar Incepto

268
Annexe IV. Codes thématiques de la 1ère étude empirique
(Chapitre 3)

269
270
Annexe V. Guide d’entretien du cas de la Dictée RV
(Chapitre 4)

GUIDE D’ENTRETIEN SECRETAIRES/ RADIOLOGUES


Cet entretien vous est proposé dans le cadre de la recherche doctorale en Ergonomie, réalisée chez
Orange, en collaboration avec le Cnam (laboratoire CRTD), qui s’intéresse aux conséquences des
systèmes d’Intelligence Artificielle (IA) sur le travail.
Un premier objectif de cette recherche est d’analyser et de comprendre les transformations
occasionnées par l'introduction des systèmes d’IA sous toutes ses formes (applications, robots, etc.)
dans les situations de travail. Il s’agit plus précisément d’étudier les questions/enjeux relatifs à
l’organisation du travail, aux conséquences sur l’activité des employés, à la répartition des, ainsi qu’à
leur interaction. Un autre objectif de la recherche est d’élaborer des connaissances (méthodologies,
modèles, démarches) utiles à la conception et l’accompagnement pour une meilleure intégration de ces
systèmes d’IA dans diverses situations de travail.
Suite à une première étape exploratoire, le but de cet entretien d’environ une heure, est d’échanger
avec vous sur les comptes-rendus radiologiques et la dictée à reconnaissance vocale.
L’entretien est enregistré suite à votre accord écrit et je tiens à vous rappeler qu’il est anonyme. Les
données recueillies feront l’objet d’une analyse globale et seront utilisées uniquement dans le cadre de
cette recherche à des fins scientifiques. Mon objectif n’est pas de vous juger, mais de recueillir votre
point de vue. Je vous demanderai donc de parler le plus spontanément et le plus sincèrement possible.
Vous pouvez à tout moment choisir d’interrompre cet entretien et de demander à être tenu au courant
des résultats de la recherche.

I. La construction/production d’un CR sans la dictée RV

Nous allons aborder les différents moments relatifs au processus de production/construction d’un CR
avant la mise en place de la dictée RV.
- Différents étapes/moments/tâches : leur degré d’importance et signification
- Qui intervient ? Quand ? Qu’est-ce qu’ils font ?
- Quels échanges ? Avec qui ?
- Outils/ressources mobilisés
- Difficultés rencontrées dans cette organisation (Cas de CR en attente de validation ?)
- Points positifs/avantages de cette organisation
- Tâche de transcription : signification pour les secrétaires ? Était-ce pénible ? Apprécié ?
Fastidieux ? Quelle est la valeur/sens de ce travail de frappe pour elles ?
- Qu’est-ce que c’était un « bon » CR pour vous ? (CR de qualité, CR bien fait)

271
II. Contexte/situation de la mise en place de la dictée RV

• Histoire de l’arrivée de la dictée, implications des parties prenantes, choix de répartition des
tâches
• Est-ce que le sens de ce travail de frappe a été pris en compte au début, est-ce que l’on a demandé
leur avis aux secrétaires/radiologues ? Comment ?

III. La construction/production d’un CR avec la dictée RV

Nous allons aborder les différents moments relatifs au processus de production/construction d’un CR
après la mise en place de la dictée RV.
- Différents étapes/moments/tâches : leur degré d’importance et signification
- Qui intervient ? Quand ? Qu’est-ce qu’ils font ?
- Quels échanges ? Avec qui ?
- Outils/ressources mobilisés
- Difficultés rencontrées dans cette organisation (Cas de CR en attente de validation ?)
- Points positifs/avantages de cette organisation
- Modification du travail ? Évolution des tâches ? Augmentation de la charge de travail ? pour
qui ?
- Gain de temps : sur quoi ? comment ? ressenti ?
- Fluidification du workflow/processus ?
- Qu’est-ce que c’est aujourd’hui un « bon » CR pour vous ? (CR de qualité, CR bien fait)
- Quelles conséquences sur le lien avec les cliniciens ?
- Quelles conséquences sur le lien avec les patients et leur prise en charge ?

272
Annexe VI. Guide d’entretien du cas du système DF
(Chapitre 4)

GUIDE D’ENTRETIEN RADIOLOGUES/URGENTISTES


Cet entretien vous est proposé dans le cadre de la recherche doctorale en Ergonomie, réalisée chez
Orange, en collaboration avec le Cnam (laboratoire CRTD), qui s’intéresse aux conséquences des «
nouveaux » systèmes d’Intelligence Artificielle (IA) sur le travail.
Un premier objectif de cette recherche est d’analyser et de comprendre les transformations
occasionnées par l'introduction des nouvelles générations de systèmes d’IA sous toutes ses formes
(applications, robots, etc.) dans les situations de travail. Il s’agit plus précisément d’étudier les
questions/enjeux relatifs à l’organisation du travail, aux incidences sur l’activité des employés, à la
répartition des rôles entre Humain-IA, ainsi qu’à leur interaction. Un autre objectif de la recherche est
d’élaborer des connaissances (méthodologies, modèles, démarches) utiles à la conception et
l’accompagnement pour une meilleure intégration de ces systèmes d’IA dans diverses situations de
travail.
Le but de cet entretien d’environ une heure, est d’échanger avec vous sur diverses questions
émergentes autour des systèmes d’IA et plus précisément sur le projet de mise en place du système
DF dans votre structure et de son utilisation.
L’entretien est enregistré suite à votre accord écrit et je tiens à vous rappeler qu’il est anonyme. Les
données recueillies feront l’objet d’une analyse globale et seront utilisées uniquement dans le cadre de
cette recherche à des fins scientifiques.
Mon objectif n’est pas de vous juger, mais de recueillir votre point de vue. Je vous demanderai donc de
parler le plus spontanément et le plus sincèrement possible. Vous pouvez à tout moment choisir
d’interrompre cet entretien, de demander à voir la retranscription de ce dernier et vous pouvez être tenu
au courant des résultats de la recherche.

Présentation & parcours


• Pouvez-vous vous présenter brièvement ?
• En quoi consiste votre activité professionnelle… ? (tâches, organisation, outils…)

Vision/compréhension de l’IA
• Comment définiriez-vous l’IA ?
• Comment voyez-vous le futur des systèmes d’IA dans le domaine de la radiologie ?
• Comment voyez-vous l’évolution des métiers du domaine de la radiologie ?
• En quoi les systèmes d’IA pourraient être utiles dans votre travail ?
• En quoi consiste l’utilisation de l’IA dans le domaine de la radiologie ?
o Qu’est-ce que ça apporte ? A qui ?
o En quoi ça transforme le métier de… ?

273
• Quelles questions/problèmes l’utilisation de l’IA soulève-t-elle dans le domaine de la radiologie
?

Projet Système DF
• Quel est le fonctionnement du système ? Qu’est-ce qu’il permet de faire ? A qui ?
• Quelle est l’origine du projet/de la mise en place du système ?
- Quand et comment la mise en place a été décidée ?
- Issu d’une difficulté métier ? (par exemple, contexte de la situation des radios standards)
- Initiative de la direction ?
- Quel était l’objectif ?
• Quels étaient les attentes ? (des radiologues/urgentistes…, des dirigeants)
• Quelle était la démarche de la mise en place du système ?
- Quels sont les acteurs qui ont été impliqués ?
- Comment ils ont été impliqués ?
- Accompagnement des utilisateurs ? Formations ?
- Difficultés/Enjeux soulevés ? (par exemple, financiers ; au niveau des données)
• Quels sont les changements survenus/les apports par la mise en place du système ?
- Au niveau de l’organisation ?
- Au niveau des métiers ?
- Dans votre façon d’analyser/interpréter un examen ?
• Y-a-t-il des risques d’utilisation du système dans le travail de radiologues/urgentiste ?

Usage Système DF
• Depuis combien de temps utilisez-vous le système dans votre pratique ?
• Comment se présente l’outil ?
- Est-il intégré dans le RIS/PACS ?
- Choisissez-vous quelles images/examens analyser par l’outil ? Ou toutes les radios sont
analysées par l’outil ?
- Quelles informations/éléments sont affichées/données par l’outil ?
• Comment analysez-vous les radios standards sans le système ?
- Quels éléments regarder en premier ?
- Quelles informations prendre en compte ?
- Quand et comment faire un compte-rendu ?
• Comment analysez-vous les radios standards avec l’outil ?
- Regardez-vous systématiquement les résultats du système ? Avant ou après avoir regardé
les images non analysées par le système ?
- Que se passe-t-il en cas de « désaccord » avec le système ?
- Si le système indique que l’examen est normal, analysez-vous quand même les images ?

274
Annexe VII. Codes thématiques de la 2ème étude empirique
(Cas de la dictée RV - Chapitre 4)

275
276
Annexe VIII. Codes thématiques de la 2ème étude empirique
(Cas du système DF - Chapitre 4)

277
Annexe IX. Traitements réalisés par les algorithmes de la
plateforme utilisée pour la conception du chatbot (Chapitre 5)
Source : https://docs.smartly.ai/docs/artificial-intelligence

« 1. Tokenization
La tokénisation consiste à scinder une chaîne d'entrée en différentes parties atomiques,
généralement des mots.

2. Correction Typo
La correction typographique est le processus de détection et de suggestion de mots mal
orthographiés dans un texte. Notre approche consiste à gérer cela de manière proactive en
ajoutant des fautes de frappe simulées dans l'ensemble des données formé pour enseigner aux
bots certaines erreurs courantes et prévisibles que vos utilisateurs peuvent rencontrer.

3. Extraction d'entité
L'extraction d'entités utilise deux approches différentes :
a) Extraction d'entité personnalisée : extrait une information pertinente d'un texte, cette
information étant transmise au bot par une liste d'éléments et leurs synonymes.
b) Extraction d'entité système : extrait l'heure, les nombres, etc. Liste complète disponible ici.
Cette information est fournie et formée pour tous les utilisateurs de la plate-forme.

4. Vectorisation
Le traitement automatique du langage naturel faisant appel à beaucoup de mathématiques, nous
utilisons la vectorisation pour transformer la demande de l'utilisateur en objet mathématique.

278
5. Détection de l'intention
Un des composants clés de la plateforme. Fondamentalement, il compare le vecteur d’entrée à
un ensemble de vecteurs pré-formés (intentions) pour trouver celui qui est le plus similaire. Le
résultat de cette opération est le meilleur candidat d'intention et un score de confiance.

6. Analyse des sentiments


Extrait la polarité des sentiments (positive ou négative) de la saisie de l'utilisateur.

7. Prenez le meilleur bot (Master Bot)


Si vous utilisez un bot maître, le moteur de dialogue décidera de la manière dont la demande de
l'utilisateur doit être déléguée et du moment où elle doit basculer vers un autre.

8. Contextualisation
Lorsque nous recevons une demande d'utilisateur, avant de la traiter, nous récupérons tout le
contexte.
Certains éléments de ce contexte sont : dernier état actif, dernière demande utilisateur / réponse
bot, mémoire à court terme, mémoire 0 long terme, données utilisateur (si par exemple
l'utilisateur vient de Messenger) ;

9. Traitement de l'arbre de dialogue


Une fois que nous avons compris ce que veut l'utilisateur et certains éléments de contexte, le
moteur de dialogue prend tout cela en charge et navigue dans le flux de dialogue pour rechercher
le meilleur état de dialogue à activer par la suite.

10. Traitement du code personnalisé


Si la réponse nécessite une exécution de code personnalisée, un menu fixe est alloué dans notre
infrastructure pour l'exécution de ce code. Ceci peut être exécuté dans un intervalle de temps
de 90 secondes ;

11. Génération de réponses


La génération de réponses prépare la réponse du bot en fonction de ce que vous avez défini dans
votre arbre de dialogue, du contexte et de votre code personnalisé.

12. Exploitation forestière


Tout cet échange est enregistré dans la base de données de la plateforme afin que vous puissiez
surveiller et améliorer votre bot ultérieurement. »

279
Annexe X. Guide d’entretien CDP - Chatbot (Chapitre 5)

GUIDE D’ENTRETIEN CDP CHATBOT


Cet entretien vous est proposé dans le cadre de la recherche doctorale en Ergonomie, réalisée chez
Orange, en collaboration avec le Cnam (laboratoire CRTD), qui s’intéresse aux conséquences des «
nouveaux » systèmes d’Intelligence Artificielle (IA) sur le travail.
Un premier objectif de cette recherche est d’analyser et de comprendre les transformations
occasionnées par l'introduction des nouvelles générations de systèmes d’IA sous toutes ses formes
(applications, robots, etc.) dans les situations de travail. Il s’agit plus précisément d’étudier les
questions/enjeux relatifs à l’organisation du travail, aux incidences sur l’activité des employés, à la
répartition des rôles entre Humain-IA, ainsi qu’à leur interaction. Un autre objectif de la recherche est
d’élaborer des connaissances (méthodologies, modèles, démarches) utiles à la conception et
l’accompagnement pour une meilleure intégration de ces systèmes d’IA dans diverses situations de
travail.
Le but de cet entretien d’environ une heure, est d’échanger avec vous sur le projet du chatbot.
L’entretien est enregistré suite à votre accord écrit et je tiens à vous rappeler qu’il est anonyme. Les
données recueillies feront l’objet d’une analyse globale et seront utilisées uniquement dans le cadre de
cette recherche à des fins scientifiques.
Mon objectif n’est pas de vous juger, mais de recueillir votre point de vue. Je vous demanderai donc de
parler le plus spontanément et le plus sincèrement possible. Vous pouvez à tout moment choisir
d’interrompre cet entretien, de demander à voir la retranscription de ce dernier et vous pouvez être tenu
au courant des résultats de la recherche.

Présentation & parcours


• Pouvez-vous vous présenter brièvement ?
• En quoi consiste votre activité professionnelle… ? (tâches, organisation, outils…)

Vision/compréhension de l’IA
• Comment définiriez-vous l’IA ?
• Comment voyez-vous les systèmes d’IA dans le domaine juridique ?

Projets IA & Chatbot


• Quelles sont les réflexions/projets en termes d’évolution et notamment d’intégration des
systèmes d’IA ?
• Quelle est l’origine du projet du chatbot ? Comment la mise en place est décidée ?
- Issu d’une difficulté métier ?
- Initiative de la direction ?
• Quels sont les acteurs du projet ?
• Quel est l’objectif ?
• Quels sont les attentes ? (des salariés, des dirigeants)
• Quel est le processus de conception et d’intégration du chatbot ? (avec ou sans
accompagnement, formations…)
• Qui y contribue ? De quelle façon ?
• Quels changements pourraient être occasionnés ou sont déjà occasionnés par la mise en place
du chatbot ?

280
Annexe XI. Guide d’entretien Acteur (entité n°2) Chatbot
(Chapitre 5)

GUIDE D’ENTRETIEN ACTEUR CHATBOT


Cet entretien vous est proposé dans le cadre de la recherche doctorale en Ergonomie, réalisée chez
Orange, en collaboration avec le Cnam (laboratoire CRTD), qui s’intéresse aux conséquences des «
nouveaux » systèmes d’Intelligence Artificielle (IA) sur le travail.
Un premier objectif de cette recherche est d’analyser et de comprendre les transformations
occasionnées par l'introduction des nouvelles générations de systèmes d’IA sous toutes ses formes
(applications, robots, etc.) dans les situations de travail. Il s’agit plus précisément d’étudier les
questions/enjeux relatifs à l’organisation du travail, aux incidences sur l’activité des employés, à la
répartition des rôles entre Humain-IA, ainsi qu’à leur interaction. Un autre objectif de la recherche est
d’élaborer des connaissances (méthodologies, modèles, démarches) utiles à la conception et
l’accompagnement pour une meilleure intégration de ces systèmes d’IA dans diverses situations de
travail.
Le but de cet entretien d’environ une heure, est d’échanger avec vous sur le projet du chatbot.
L’entretien est enregistré suite à votre accord écrit et je tiens à vous rappeler qu’il est anonyme. Les
données recueillies feront l’objet d’une analyse globale et seront utilisées uniquement dans le cadre de
cette recherche à des fins scientifiques.
Mon objectif n’est pas de vous juger, mais de recueillir votre point de vue. Je vous demanderai donc de
parler le plus spontanément et le plus sincèrement possible. Vous pouvez à tout moment choisir
d’interrompre cet entretien, de demander à voir la retranscription de ce dernier et vous pouvez être tenu
au courant des résultats de la recherche.

Présentation & parcours


• Pouvez-vous vous présenter brièvement ?
• En quoi consiste votre activité professionnelle… ? (tâches, organisation, outils…)

Projets Chatbot
• Quelle est l’origine du projet du chatbot ?
• Comment la mise en place est décidée ?
• Quels sont les acteurs du projet ?
• Quel est l’objectif ?
• Quels sont les attentes ? (des salariés, des dirigeants)
• Comment se déroule le processus de conception et d’intégration du chatbot ?
• Qui y contribue ? De quelle façon ?
• Quels changements pourraient être occasionnés ou sont déjà occasionnés par la mise en place
du chatbot ?

281
Tamari GAMKRELIDZE

Des discours aux réalités de la


conception, du déploiement et des
usages des systèmes d’Intelligence
Artificielle dans les situations de
travail

Résumé
Les progrès réalisés en Intelligence Artificielle (IA) et sa diffusion annoncée dans la vie professionnelle
questionnent les transformations du travail et des organisations. Ces enjeux sont notamment discutés à travers
des réflexions d’ordre spéculatif. Partant de ce constat, cette thèse vise à comprendre, de façon empirique, d’une
part la nature des transformations potentielles ou effectives du travail et des organisations occasionnées par la
conception, le déploiement et les usages des systèmes d’IA dans les situations de travail, et d’autre part, les
questions soulevées en termes de démarches de conception de ces systèmes. Elle s’appuie alors sur trois études
qualitatives. Les résultats donnent matière à réflexion sur l’analyse des usages et incidences des systèmes d’IA
dans les situations de travail et sur le besoin de recourir à des démarches de conception centrées sur l’activité
pour contribuer à la conception, au déploiement et à la construction des usages des systèmes d’IA.

Abstract
The progress made in Artificial Intelligence (AI) and its announced diffusion in working life question the
transformations of work and organizations. These issues are mainly discussed through speculative reflections.
Based on this observation, this thesis aims at understanding, in an empirical way, on the one hand, the nature of
the potential or effective transformations of work and organizations caused by the design, the deployment and
the uses of AI systems in work situations, and on the other hand, the questions raised in terms of design
approaches of these systems. It is then based on three qualitative studies. The results provide food for thought
on the elements to be mobilized for the analysis of the uses and impacts of AI systems in work situations. This
renews the need to use activity-centered design approaches to contribute to the design, deployment and
construction of AI system uses.

Vous aimerez peut-être aussi