Vous êtes sur la page 1sur 221

Franca Salis-Madinier

Préface de Cécile Dejoux

Le guide
de l´intelligence
artificielle
au travail
Vos droits face aux algorithmes
Un guide juridique pour mieux maîtriser
l´intelligence artificiellE
dans votre environnement Professionnel
L’intelligence artificielle (IA), avec sa batterie d’algorithmes, fait de plus en plus
irruption dans la sphère professionnelle et dans nos vies, regroupant nombre de
technologies que les travailleurs côtoient au quotidien sans forcément en avoir
conscience : la reconnaissance faciale, la reconnaissance de la parole et du langage,
parlé ou écrit, ou encore la robotisation et l’automatisation des processus. Elle aide
à la décision, recommande des choix et des solutions, et permet de prédire les
risques et les succès.
Malgré les avantages indéniables de l’intelligence artificielle dans tous les secteurs
(justice, ressources humaines, santé, services publics, etc.), certains usages peuvent
menacer nos vies privées, nos droits et nos libertés.
Ainsi, si vous êtes confronté à :
• la reconnaissance faciale lors d’un recrutement ;
• l’exploitation de vos données personnelles à votre insu ;
• une surveillance intrusive lors du télétravail ;
• la seule décision d’un algorithme dans votre parcours de formation ou lors d’une
promotion ;
• ou toute autre atteinte à vos droits…

… ce guide, enrichi des expertises de chercheurs, de représentants du personnel


dans les entreprises et administrations ainsi que de dirigeants confrontés à
l’introduction de l’intelligence artificielle dans leurs organisations, vous
apportera les outils juridiques pour défendre vos prérogatives face à cette
puissante technologie.

FRANCA SALIS-MADINIER, salariée d’Orange, est membre pour la


CFDT du Comité économique et social européen (CESE) à
Bruxelles, où elle a été rapporteure de plusieurs avis concernant
les transitions numériques et l’intelligence artificielle. Elle est éga-
lement membre de l’exécutif national de la CFDT Cadres, où elle
est en charge des questions relatives à l’intelligence artificielle, à la
numérisation, à l’Europe et aux lanceurs d’alerte.
Le guide
de l’intelligence artificielle
au travail
Éditions Eyrolles
61, bd Saint-­Germain
75240 Paris Cedex 05
www.editions-­eyrolles.com

Propos recueillis par Florence Vielcanet

En application de la loi du 11 mars 1957, il est interdit de reproduire intégralement ou


partiellement le présent ouvrage, sur quelque support que ce soit, sans autorisation de
l’éditeur ou du Centre français d’exploitation du droit de copie, 20, rue des Grands-­
Augustins, 75006 Paris.

© Éditions Eyrolles, 2022


ISBN : 978-2-416-00476-6
Franca Salis-­Madinier
Préface de Cécile Dejoux
Postface de Laurent Berger

Le guide
de l’intelligence artificielle
au travail

Vos droits face aux algorithmes


Sommaire

Préface.......................................................................................................................... 1
Qu’est-­ce que l’intelligence artificielle ?................................................................. 2
Pourquoi former les salariés à l’intelligence artificielle ?.......................................... 2
Quel est le rôle des partenaires sociaux ?............................................................... 2
Quels sont les opportunités et les risques de l’intelligence artificielle ?................ 3
En quoi une éthique de l’intelligence artificielle est-­elle nécessaire ?.................... 3

Introduction................................................................................................................ 5
À quand un débat sur l’utilisation de l’intelligence artificielle ?............................. 5
Pourquoi un guide sur l’intelligence artificielle ?..................................................... 6

Partie I
Le contexte international et les enjeux
de l’intelligence artificielle

1.. Un marché qui explose.................................................................................. 11

2.. Une compétition internationale très rude............................................... 13

3.. Les enjeux des données................................................................................ 15


Le pillage des données personnelles.................................................................... 15
Combien valent nos données ?............................................................................. 19
Le lieu d’hébergement des données dans le collimateur européen.................... 24

4.. Les dessous de l’algorithme : les biais........................................................ 26


Un besoin accru de comprendre les décisions prises
par l’intelligence artificielle.................................................................................... 27
Code de l’algorithme et droit de propriété intellectuelle.................................... 28
VI Le guide de l’intelligence artificielle au travail

Partie II
Régulation de l’intelligence artificielle :
l’Europe moteur entre la Chine et les États-­Unis

5.. L’humain aux commandes............................................................................. 33

6.. Les sept exigences européennes


pour une intelligence artificielle digne de confiance........................... 35
Une IA contrôlée par l’humain.............................................................................. 35
Une IA robuste et sécurisante............................................................................... 35
Une IA qui respecte la vie privée et dont les citoyens maîtrisent les données.... 36
Une IA transparente............................................................................................... 36
Une IA non discriminante, équitable.................................................................... 36
Une IA apportant un bien-­être sociétal et environnemental................................. 37
Une IA qui a des comptes à rendre...................................................................... 37

7.. Une charte éthique européenne pour l’utilisation


de l’intelligence artificielle dans la sphère judiciaire............................ 39

8.. Vers une régulation de l’intelligence artificielle « à haut risque »....... 41

9.. Une régulation, pour quand ?...................................................................... 44

10.. Des références au monde du travail insuffisantes.................................. 45

11.. Le travail des partenaires sociaux européens


et l’intervention de la CFDT Cadres à Bruxelles....................................... 46

Partie III
Le contexte, le débat et les enjeux en France

12.. La nécessité d’un dialogue social et sociétal.......................................... 51

13.. Une taxe GAFA pour accompagner les mutations numériques......... 52

14.. Les dispositifs de contrôle de l’intelligence artificielle en France.... 54


Une loi qui protège les lanceurs d’alerte.............................................................. 54
Une instance indépendante pour juger : un dispositif toujours en attente.......... 55
Des recours auprès de la Commission nationale de l’informatique
et des libertés (Cnil).............................................................................................. 57
Des audits pour les algorithmes............................................................................ 58
Sommaire VII

15.. Le combat entre sécurité et respect des libertés fondamentales :


la reconnaissance faciale de masse............................................................ 60

16.. La position des employeurs de l’industrie............................................... 62

17.. Mettre l’intelligence artificielle au service de l’environnement......... 64

18.. Le Conseil national du numérique.............................................................. 66

19.. Le Conservatoire national des arts et métiers (Cnam) :


vérifier ce que peut faire l’intelligence artificielle.................................. 67

20..Le Défenseur des droits : recruter sans discriminer............................... 68

Partie IV
Les exigences de la CFDT Cadres

21.. Organiser le dialogue social en amont des choix


et de l’utilisation des technologies............................................................. 71

22.. Former les équipes syndicales


et les travailleurs à l’intelligence artificielle.............................................. 72

23..Évaluer et négocier les évolutions des emplois


et leurs conséquences................................................................................... 74

24..Favoriser la mixité dans les filières numériques....................................... 76

25.. Évaluer l’intelligence artificielle


à l’aune de la qualité et de la santé au travail........................................ 77

26.. S’assurer que l’humain reste aux commandes :


surveillance, recrutement, biais et discriminations................................ 78
Le contrôle des salariés en télétravail : des techniques très puissantes
doivent relever d’un choix managérial.................................................................. 78
Passer d’une culture du contrôle et du présentéisme
à une culture des résultats et de la confiance....................................................... 80
L’utilisation de l’intelligence artificielle dans les recrutements............................. 81

27.. Obtenir la transparence des paramètres décisionnels


de l’intelligence artificielle............................................................................. 82

28..Associer les syndicats à la gouvernance des données......................... 83


VIII Le guide de l’intelligence artificielle au travail

Partie V
Les apports des branches professionnelles
sur la transformation des métiers

29.. La métallurgie : réfléchissons aux prochaines négociations


sur l’industrie 4.0.............................................................................................. 87

30..Le commerce : identifions ce qui est déjà à l’œuvre............................ 88

31.. L’assurance : recensons les métiers impactés


par l’intelligence artificielle........................................................................... 89

32..La banque : gérons les emplois et les compétences............................ 91

33..Les métiers de l’ingénierie, du numérique et du conseil.................... 93

34..La Poste............................................................................................................... 94

Partie VI
Les textes qui permettent de négocier l’intelligence artificielle

35.. Au conseil d’administration.......................................................................... 97


Demander la création d’un comité d’éthique....................................................... 98
Poser des questions sur l’intelligence artificielle................................................... 98
Se former à l’intelligence artificielle....................................................................... 98

36.. Dans la branche professionnelle................................................................. 99


Des thèmes de négociation applicables à l’intelligence artificielle
dans le Code du travail.......................................................................................... 99
La répartition des thèmes de négociation selon l’article L. 2241-1.................... 100
L’aide du règlement général européen
sur la protection des données (RGPD)................................................................ 101

37..Dans l’entreprise............................................................................................. 104


Le recours au Code civil...................................................................................... 104
Le recours au Code du travail.............................................................................. 105
Le recours au Code du commerce...................................................................... 116
Le recours au cadrage de l’UE............................................................................. 117
Les questions au Comité d’entreprise européen................................................ 119
Sommaire IX

38..À l’extérieur de l’entreprise........................................................................ 122


Le recours au code de la consommation............................................................ 122
Orienter les travailleurs vers le Défenseur des droits.......................................... 123
Orienter les travailleurs vers la Cnil...................................................................... 123
Orienter les travailleurs vers l’inspection du Travail............................................. 125
Lancer une action collective................................................................................ 125

En guise de conclusion….................................................................................... 127

Interviews

Il faut agir syndicalement en amont et veiller


à la transparence des algorithmes.................................................................... 131
Vincent Gimeno

La loi aide le salarié à récupérer ses données personnelles,


c’est parfois bien utile.......................................................................................... 136
Abel Gouttenoire

L’employeur joue un jeu trouble sur la responsabilité


des praticiens conseils en matière de secret médical............................... 140
Emmanuelle Soustre

La Commission européenne peut décider de rendre


une norme d’intelligence artificielle obligatoire dans 27 pays................ 144
Philippe Saint-­Aubin

Face à l’intelligence artificielle, il s’agit toujours de se renseigner,


de questionner et de donner du sens........................................................... 147
Emmanuel Gaubert

Il est temps que nous nous formions à l’intelligence artificielle !............ 150
Pascal Leblay

Tester, tester, tester les boîtes noires de l’intelligence artificielle......... 156


Dominique Desbois

L’intelligence artificielle est un outil puissant. Trop puissant ?................ 166


Soraya Duboc
X Le guide de l’intelligence artificielle au travail

L’intelligence artificielle, de l’usine de demain au renouveau


du dialogue social et sociétal............................................................................ 168
Warda Ichir, Alain Larose

Un projet d’intelligence artificielle est un projet de transformation..... 196


David Giblas, Stéphane Barde

Postface.................................................................................................................... 203

Remerciements....................................................................................................... 205
« Nous sommes en présence des transformations profondes du
travail et de ses formes qui rendent nécessaire une réflexion
radicale sur ses protections, sur ses règles et ses droits, sous
peine de subir une régression générale, non pas de l’em-
ploi mais de règles […], d’une organisation démocratique,
construite sur la reconnaissance des droits individuels fonda-
mentaux, non négociables. »
Bruno Trentin, La Cité du travail, 1997
Préface

Nous avons vécu la révolution numérique avec la présence des ordinateurs,


d’Internet et des smartphones. Aujourd’hui, il est nécessaire de comprendre
et de se former à l’univers et aux usages de l’intelligence artificielle (IA),
car cette évolution technologique est partout, invisible, rapide, diverse et
disruptive pour les modèles économiques des entreprises et les métiers.
La question n’est plus d’être pour ou contre l’IA, la question est de savoir
si les entreprises sont capables de co‑construire avec les partenaires sociaux
des stratégies intégrant l’IA comme facteur d’innovation pour les clients
et facteur d’enrichissement du travail pour les salariés. En d’autres termes,
comment les organisations vont-­elles former et impliquer les salariés pour
qu’ils comprennent les opportunités, les risques, les biais et le cadre de
confiance ? L’objectif recherché est de tirer profit de la reconnaissance
faciale, de la reconnaissance de texte, des processus automatisés avec l’IA,
mais également que l’homme exerce régulièrement son doute technolo-
gique, son esprit critique pour remettre en cause, par exemple, un GPS
qui le fait tourner en rond ou intuiter les fausses informations.
Cet ouvrage est à la fois un baromètre et une boussole. Il permet de
cartographier les évolutions internationales au sujet des usages mais aussi
de l’éthique dans le domaine de l’IA. Il fait un tour d’horizon très complet
du sujet en intégrant les différentes dimensions sociétales, politiques, cultu-
relles, économiques et sociales. Il présente également des propositions
concrètes pour que chaque salarié, consommateur, acheteur ou citoyen
puisse être protégé au niveau de ses datas et de ses libertés individuelles
et collectives. Intégrant de nombreux exemples, des témoignages et des
analyses, il permettra au lecteur d’avoir une vision illustrative et actionnable
de l’usage et des enjeux de l’IA dans le monde post-­Covid‑19. Il explique
pourquoi il est nécessaire que l’homme garde le pouvoir de décision face à
l’IA aussi bien au niveau individuel qu’organisationnel. Ainsi, pour engager
le débat, il nous semble nécessaire d’amorcer cinq sujets développés dans
l’ouvrage.
2 Le guide de l’intelligence artificielle au travail

Qu’est-­ce que l’intelligence artificielle ?


L’intelligence artificielle, ou IA, est un ensemble de briques technologiques
qui permettent à des machines de réaliser des tâches. Si on prend l’angle des
usages, il est possible de distinguer cinq domaines : la parole et le langage,
la reconnaissance visuelle, la robotique et l’automatisation des processus, et
l’optimisation des connaissances à travers l’analyse, les alertes et la prévision.

Pourquoi former les salariés à l’intelligence artificielle ?


Quel que soit le métier exercé, l’IA aura un impact. Aussi, une nouvelle
responsabilité sociétale s’impose à l’entreprise : acculturer, former et faire
participer les salariés à l’évolution de leur métier avec l’IA. Par exemple,
il s’agira aussi bien de faire prendre conscience des risques de l’IA liés
aux biais de data ou aux cyberattaques, qui peuvent piller des données de
l’entreprise, que d’expliquer comment un processus automatisé avec de
l’IA peut gérer des entrées d’e‑mails et les répartir aux bons interlocuteurs
afin de dégager du temps d’analyse et de traitement de dossiers complexes
pour le collaborateur. La formation à l’IA commence par l’apprentissage
du vocabulaire, puis par la montée en compétences sur les comportements
à avoir quand on est un expert métier pour travailler sur un projet IA.
Ainsi, réfléchir, collectivement, au sein d’une organisation, avec les parte-
naires sociaux, à la transformation des métiers avec l’IA, c’est réfléchir aux
tâches qui pourront être réalisées par l’IA, celles où elle pourra assister
l’homme et celles que l’on ne pourra faire que grâce à elle.

Quel est le rôle des partenaires sociaux ?


Cette acculturation et cette formation à l’IA doivent être pensées de façon
holistique, à destination des clients, des collaborateurs et des partenaires
sociaux. Au sein de l’observatoire du futur du travail et du manage-
ment, le Learning Lab Human Change du Cnam, nous avons rédigé en
Préface 3

collaboration avec Malakoff Humanis et avec la participation de la secré-


taire nationale de la CFDT Cadres, en 2021, un livre blanc sur la place
et le rôle des partenaires sociaux français sur la thématique de l’IA dans
l’industrie. Quatre préconisations ont été proposées : former les partenaires
sociaux à une culture IA et à la data visualisation, partager les processus
de récolte des datas avec les partenaires sociaux, cocréer et communiquer
avec les partenaires sociaux la stratégie IA de l’entreprise, co‑construire
avec les partenaires sociaux un cadre de confiance.

Quels sont les opportunités


et les risques de l’intelligence artificielle ?

Nombreux sont les secteurs d’activité qui innovent avec de l’IA (la méde-
cine, l’industrie, les services, les RH, etc.). Les opportunités sont liées aux
nouveaux usages porteurs de progrès, mais les dérives et les dangers sont
également nombreux : l’impossible explicabilité de certains algorithmes,
l’IA au service du contrôle, de la délation, des fausses informations, des
attaques, de la manipulation, etc. Aussi, un cadre de confiance au niveau
de l’entreprise, des États et du monde libre s’avère indispensable afin de
réguler les dérives et d’optimiser les progrès.

En quoi une éthique de l’intelligence artificielle


est-­elle nécessaire ?

Avoir des valeurs pour prendre des décisions constitue le socle pour
instaurer des axes éthiques. En complément des initiatives internatio-
nales et au niveau des États, on peut citer l’Unesco1 qui a créé le premier
instrument normatif majeur sur l’éthique de l’IA autour de quatre axes : la
proportionnalité, la surveillance et la détermination humaines, la gestion

1. Unesco, « L’Unesco franchit une étape majeure vers le premier instrument normatif
mondial sur l’éthique de l’intelligence artificielle », 17 septembre 2020.
4 Le guide de l’intelligence artificielle au travail

de l’environnement et l’égalité des genres. Aussi, chaque entreprise doit


se poser la question de la nécessité et du contenu d’une action top-­down
comme une charte, un label, une certification ou bottom‑up comme l’ex-
plicitation de ses meilleures pratiques au sujet de la prise de décision, de la
formation, du déploiement et du contrôle de l’IA dans son organisation.
Ainsi, la thématique de l’IA est un sujet stratégique pour les partenaires
sociaux qui accompagnent l’évolution, l’innovation et la disruption des
entreprises. Ce sujet doit être posé en mettant l’humain, le salarié, sa quête
de sens et son équilibre au cœur des réflexions. En quoi l’IA permettra-­
t‑elle de rendre le travail moins pénible, moins stressant et plus intéressant
et formateur pour l’homme ? Tel est tout l’enjeu de cet ouvrage.

Cécile Dejoux
Professeure des universités au Cnam, affiliée à l’ESCP Europe,
conférencière, directrice du Learning Lab Human Change, Cnam
Introduction

À quand un débat sur l’utilisation


de l’intelligence artificielle ?

La Covid‑19 a accéléré la transformation de la société vers plus de digital


sans guère de débat démocratique. Elle a fourni une occasion d’introduire
des modes d’achat pratiquement à 100 % numériques dans le commerce ou
de nouvelles formes d’intelligence artificielle (IA) dans les grands groupes
industriels comme EDF, Total ou Airbus. Elle a permis aux banques,
assurances et services publics, de relier discrètement leurs chatbots à des
e‑mails, des foires aux questions, ou des rappels à date inconnue au lieu
de les rediriger vers des conseillers dont le nombre s’était amenuisé. Elle
a « encouragé » les magasins à créer des caisses automatiques à scannettes
plutôt que de garder des caissiers. Elle a constitué une opportunité pour
tous les réseaux de télécommunications saturés de textos, d’e‑mails ou
de vidéos, de se sécuriser, grâce à des algorithmes plutôt qu’avec l’aide
d’ingénieurs et de techniciens.
Dans l’entreprise, la Covid‑19 a été à l’origine d’une explosion des systèmes
de contrôle et de télétravail, organisation qui devrait perdurer. Bref, elle
a donné à la technologie la possibilité d’imprimer un tournant radical à
nos liens sociaux et à nos vies, sans véritable anticipation, ni discussion.
Comme évoqué par Cécile Dejoux dans la préface, si l’on définit l’IA
au regard de ses usages, elle est une technologie numérique qui peut
accomplir des tâches cognitives humaines dans les domaines de la parole
et du langage, de la reconnaissance visuelle, de la robotique et de l’au-
tomatisation des processus et des connaissances à travers l’analyse, les
recommandations et la prévision. Pourtant, l’utilisation de l’IA, compte
tenu des caractéristiques spécifiques de cette technologie – l’opacité, la
complexité, la dépendance à l’égard des données, le comportement auto-
nome –, peut porter atteinte à un certain nombre de droits fondamentaux
des personnes. La CFDT Cadres estime qu’une prise de conscience est
6 Le guide de l’intelligence artificielle au travail

nécessaire et qu’un dialogue doit s’engager sur ces sujets aux conséquences
lourdes sur nos existences. En particulier, elle réclame un dialogue interne
et externe aux lieux de travail sur l’introduction de l’intelligence artifi-
cielle, afin que cette technologie soit pour tout citoyen et travailleur un
moyen d’émancipation et non un outil d’asservissement.

Pourquoi un guide sur l’intelligence artificielle ?


Un guide sur l’intelligence artificielle est bel et bien du ressort d’un
syndicat, car l’IA regroupe des technologies que les travailleurs côtoient au
quotidien. C’est l’intelligence artificielle qui aide au recrutement, propose
un parcours de formation, traduit automatiquement des textes, classe des
e‑mails, sélectionne des jurisprudences et aide à la décision… C’est elle
qui nous répond au téléphone. C’est encore elle qui calcule le niveau
de pesticides dans un champ, évalue nos possibilités d’emprunt. Dans le
domaine médical, elle peut sauver nos vies. Au cœur de technologies
comme la robotique, la reconnaissance faciale ou vocale, la connexion des
objets, elle vient assister, suppléer, voire dépasser efficacement un certain
nombre de facultés cognitives humaines à la fois sur le plan technique
mais aussi économique. Elle intervient dans les processus de production
du secteur de l’automobile, dans l’assistance à des opérateurs humains
dans le pilotage d’installations à risques, ou dans l’intermédiation de la
distribution ou des services à la personne.
D’autre part, l’IA crée des attentes par rapport aux droits des salariés
dans la gestion des ressources humaines et des droits des citoyens dans les
domaines de la justice, des services financiers, des transports, de l’agri­
culture, des soins de santé et des services publics.
Ces nouveaux droits sont opposables aux systèmes d’IA : le droit de ne
pas être l’objet d’une décision prise exclusivement par un algorithme (par
exemple, la décision de ne pas être recruté ou celle de se voir refuser
un crédit bancaire), le droit à l’oubli, le droit à l’explicabilité des déci-
sions prises par la machine… À la base de l’intelligence artificielle, c’est
l’algorithme. Celui-­ci se nourrit d’immenses quantités des données.
Introduction 7

La qualité de ces données détermine ses résultats. Si les données sont


biaisées, l’algorithme reproduit, en les amplifiant, des discriminations.
Les systèmes sont extrêmement complexes : un des derniers modèles d’IA
de Google contient 175 milliards de paramètres, c’est dire si l’humain est
incapable d’expliciter son fonctionnement, de le rendre transparent ou
de le tracer !
C’est pour faire face à cette complexité et à cette opacité des systèmes
d’intelligence artificielle, pour en éviter les errances, pour créer une
confiance bénéfique aux citoyens, que l’Europe, premier continent dans
le monde, propose une régulation de l’intelligence artificielle. La France,
présidant l’Union européenne à partir du 1er janvier 2022, peut l’appuyer.
Le propos de ce guide consiste, d’une part, à développer et à élargir les
connaissances sur l’intelligence artificielle, ses impacts dans le monde du
travail et plus largement sur la société afin de contribuer à un débat éclairé
et équilibré, qui évite les écueils des scénarios catastrophe ou d’une rela-
tivisation à outrance ; d’autre part, à fournir la possibilité d’agir à travers
des droits individuels et collectifs, sur cette technologie.
Partie I

Le contexte international et les enjeux


de l’intelligence artificielle

Si l’intelligence artificielle est source d’espoir de nouveaux gains


de productivité dans les entreprises et de réduction des tâches
pénibles ou fastidieuses, d’opportunités dans les domaines médical,
de l’agriculture ou des transports, elle fait aussi planer des risques
d’intensification du travail et de contrôle des personnes. Il est
nécessaire qu’elle soit sérieusement encadrée sur le plan sociétal
pour protéger les droits humains.
1

Un marché qui explose

Les économistes s’accordent sur une explosion mondiale du marché de


l’intelligence artificielle dans les années à venir.
En cinq ans, le marché mondial de l’intelligence artificielle a été multi-
plié par dix1. Peu avant la pandémie, une enquête intitulée « Win with
empathy », menée par Mercer en mars 2020 auprès de plus de 7 300 respon-
sables des ressources humaines du monde entier, a révélé que la proportion
des DRH qui affirmaient utiliser l’analyse prédictive pour identifier les
employés qui allaient partir, était passée de 10 % en 2016 à 39 % en 2020.
Cette explosion du marché de l’intelligence artificielle est liée aux
espérances de gains de productivité. Selon les conclusions du rapport
d’Accenture2, la productivité du travail pourrait augmenter de près de 40 %
avec l’intelligence artificielle dans certains pays développés, d’ici 2035. En
France, les analystes s’attendent à une inflation des gains de productivité
de 20 % au cours des quinze prochaines années.

1. Données 2021 trading platforms.


2. Accenture et Frontier Economics, « Industry Spotlights. How AI Boosts Industry
Spotlights Industry Profits And Innovation », 2017, www.accenture.com/_acnmedia/
Accenture/next-­gen-5/insight-­ai-­industry-­growth/pdf/Accenture-­AI-­Industry-­
Growth-­Industry-­Report.pdf#zoom=50
12 Le contexte international et les enjeux de l’intelligence artificielle

La plupart des études soulignent qu’avec le concours d’un réseau de


communication unifié, vraisemblablement grâce à celui de la 5G, grâce
à l’universalisation de l’accès aux technologies, l’intelligence artificielle
renforcera son influence sur nos sociétés. Les confinements liés au coro-
navirus ont d’ores et déjà donné un coup d’accélérateur en ce sens.
Les gains de productivité escomptés par les entreprises proviennent de
nombreux domaines. En 2021, Malakoff-­Humanis a souligné dans son
enquête « Intelligence artificielle et capital humain » qu’une majorité de
dirigeants estimaient que l’intelligence artificielle améliorerait la rapi-
dité et la fiabilité de la prise de décision, l’organisation et la manière de
travailler et le pilotage de l’entreprise. Ces chefs d’entreprise évoquaient
également pour le travail des collaborateurs une réduction des risques
d’erreur, une montée en compétences, une réduction des tâches dange-
reuses, une amélioration de l’intérêt des tâches et de la valeur ajoutée du
travail, de nouvelles opportunités en termes de parcours professionnels,
une amélioration du bien-­être et de la qualité de vie au travail des salariés.
2

Une compétition internationale très rude

Les principaux moteurs des développements de l’intelligence artificielle


proviennent de géants de la technologie comme Google, Alphabet,
Microsoft, Amazon, Intel, Facebook, Apple ou encore Baidu et Tencent
de l’autre côté du globe. Le principe « the biggest takes the all » (traduisez « le
plus gros remporte toute la mise ») implique que ces sociétés bénéficient
d’un positionnement, d’atouts technologiques ainsi que de fonds impor-
tants pour développer leurs propres technologies ou pour acquérir ou
nouer des partenariats avec de jeunes pousses. Néanmoins, l’intelligence
artificielle n’est pas seulement réservée aux grandes entreprises technolo-
giques américaines et chinoises. Aujourd’hui, en raison de facteurs comme
l’open source, le cloud ou la collaboration et la disponibilité des fonds,
de plus en plus de start‑up en France ou ailleurs, se créent sur des tech-
nologies liées à l’intelligence artificielle.
Ces efforts sont déployés dans un contexte où la France et, au-­delà,
l’Europe, tentent de rattraper leur retard vis-­à‑vis de leurs concurrents
asiatiques et américains, qui ont récolté des quantités astronomiques de
données, depuis plus d’une décennie, via les géants Amazon, Google et
autres Facebook ou Huawei et qui investissent massivement. Certes, les
investissements européens dans le domaine de l’intelligence artificielle
sont nettement inférieurs à ceux d’autres puissances mondiales. Selon une
étude de la Banque européenne d’investissement (BEI), les États-­Unis et
la Chine représentent à eux deux plus de 80 % des 25 milliards d’euros
14 Le contexte international et les enjeux de l’intelligence artificielle

d’investissements annuels en actions dans l’IA et dans les technologies


blockchain, tandis que les 27 pays européens ne représentent que 7 % de
ce montant mondial. La BEI estime que le déficit d’investissement total
dans l’IA et les technologies blockchain dans l’Union européenne est
d’environ 5 à 10 milliards d’euros par an.
Toutefois, grâce aux programmes Digital Europe et Horizon Europe, la
Commission européenne prévoit d’investir 1 milliard d’euros par an dans
l’IA et de mobiliser des investissements supplémentaires du secteur privé
et des États membres pour atteindre 20 milliards d’euros d’investissement
par an au cours de cette décennie.
3

Les enjeux des données

Les algorithmes ont besoin d’immenses quantités de données pour faire


de l’analyse prédictive (dans la maintenance), pour produire des classe-
ments ou de l’aide à la décision. L’intelligence artificielle exploitera un
nombre croissant de données à l’avenir. Cette exigence des données entre
en conflit avec le principe de la protection des données personnelles et
l’utilisation que l’on en fait. Ainsi, en Chine, sous prétexte de préserver
la sécurité des citoyens et de rendre les villes sûres, une surveillance des
citoyens dans leurs moindres activités a abouti à un système de notation
sociale, dans lequel l’individu est catalogué bon ou mauvais citoyen, et
peut perdre ses droits élémentaires, comme l’accès à des services publics.

Le pillage des données personnelles


Le 6 juin 2013, le Guardian et le Washington Post ont révélé le programme
Prism permettant à la NSA de surveiller les internautes par des portes
dissimulées dans les logiciels des principales entreprises informatiques
américaines3.

3. Benjamin Ferran, « Prism : Apple, Microsoft et Facebook se confessent timide-


ment », Le Figaro, 17 juin 2013.
16 Le contexte international et les enjeux de l’intelligence artificielle

Le 28 septembre 2013, grâce au lanceur d’alerte Edward Snowden, le New


York Times a écrit que, depuis 2010, la NSA avait réalisé des profilages
de citoyens du monde entier, y compris américains. Il a affirmé que les
analystes de la NSA pouvaient générer des profils détaillés de personnes,
de leurs activités sociales, de leurs préférences religieuses ou politiques. Il
a indiqué que chaque profil pouvait être enrichi de 96 types de données :
numéros de téléphone, adresses e‑mail ou adresses IP… issues de données
bancaires, d’assurances, de services de géolocalisation, de réseaux sociaux,
de factures, d’informations de voyage ou de listes électorales4. De plus,
il a signalé que les connexions entre chaque personne et ses contacts
pouvaient être visualisées sous forme de cartes5.
Il a précisé que ces données provenaient de multiples bases de données
de la NSA, dont la base de métadonnées téléphoniques Mainway
(700 millions de métadonnées collectées quotidiennement début 2011,
plus 1,1 milliard chaque jour liées aux appels des téléphones mobiles
depuis août 2011), mais aussi de sources publiques comme Google ou
divers sites de vente.
Le 28 septembre 2013, le Guardian a dévoilé que la NSA sauvegardait
chaque jour les métadonnées sur l’historique des pages web, le détail
des connexions, les e‑mails et même des mots de passe, de millions de
personnes, dans sa base de données Marina6. Entre autres, le lanceur
d’alerte Edward Snowden a révélé que 70,3 millions de conversations
avaient été aspirées en un mois chez les Français par la NSA7. Des
enquêtes de médias européens ont indiqué récemment que les États-­Unis
avaient espionné des responsables politiques en Europe, dont la chance-
lière allemande Angela Merkel, de 2012 à 2014, avec l’aide des services

4. James Risen et Laura Poitras, « N.S.A. Gathers Data on Social Connections of


U.S. Citizens », New York Times, 28 septembre 2013.
5. « Documents on N.S.A. Efforts to Diagram Social Networks of U.S. Citizens »,
New York Times, 28 septembre 2013.
6. James Risen et Laura Poitras, op. cit.
7. Jacques Follorou et Glenn Greenwald, « Comment la NSA espionne la France »,
Le Monde, 21 octobre 2013.
Les enjeux des données 17

de renseignement danois8. Elles font écho au fait que le 26 octobre 2013,


le magazine Der Spiegel avait déjà indiqué que le téléphone portable de
la chancelière allemande Angela Merkel avait été espionné depuis 20029.
Par ailleurs, il y a quelques années, le scandale de l’entreprise britannique
Cambridge Analytica, qui a aspiré les données d’« amis » américains et
européens sur Facebook à des fins politiques, a été le symbole d’une
Europe numérique inquiète de l’exploitation et de la territorialité de ses
données. Cette inquiétude a fait suite au fait qu’en mars 2018, le New
York Times et le Guardian ont révélé que des informations sur 87 millions
d’utilisateurs de Facebook avaient été vendues à des politiciens pour
cibler leurs efforts de campagne. L’un des lanceurs d’alerte, Christopher
Wylie, directeur de recherche de la firme Cambridge Analytica a, depuis,
estimé que cette exploitation des données personnelles avait joué « un rôle
crucial » dans le Brexit, bien que la firme ait assuré en 2015 avoir détruit
ces données. Les documents fournis au comité judiciaire du Sénat des
États-­Unis l’attestent. Toujours selon Christopher Wylie, début 2014,
en deux à trois mois, Donald Trump avait disposé de 50 à 60 millions de
profils individuels, ce qui lui avait permis de mieux orienter sa campagne,
de choisir les meilleurs donateurs et de maximiser son plan de déplace-
ments pour gagner les élections10.
Le 5 octobre 2021, preuves à la main, la lanceuse d’alerte Frances Haugen,
ex-employée de Facebook, dénonce, devant les sénateurs américains,
les manquements de l’entreprise en matière de lutte contre la haine et la
désinformation, tout comme les effets néfastes sur les adolescents utili-
sant Instagram. Elle demande à la chambre du Sénat une intervention
du gouvernement pour réguler l’usage des algorithmes de classement des
contenus.

8. Martin Untersinger et Damien Leloup, « Comment des dirigeants européens, dont


Angela Merkel, ont été espionnés par la NSA depuis le Danemark », Le Monde,
30 mai 2021.
9. Jacob Appelbaum, Nikolaus Blome, Hubert Gude et al., « Embassy Espionage: The
NSA’s Secret Spy Hub in Berlin », Der Spiegel, 26 octobre 2013.
10. Arjun Kharpal, « Facebook and Cambridge Analytica whistleblower: Donald
Trump’s election made me speak out », CNBC, 27 mars 2018.
18 Le contexte international et les enjeux de l’intelligence artificielle

Durant l’été 2021, le logiciel Pegasus défraye la chronique. Ce logiciel


a utilisé la technologie numérique et l’IA pour pirater des données de
divers chefs d’État, dont le président de la République en France, d’op-
posants politiques et de journalistes. Développé par une société israélienne
du nom de NSO Group, il permet de surveiller les communications
de smartphones Android ou iOS. Il peut lire les messages, écouter les
conversations et les appels, les enregistrer… Bref, il permet de prendre
possession des téléphones portables qu’il cible comme s’il en était le
propriétaire et comme s’il les avait en direct. Il n’est certainement pas le
seul sur le marché et son utilisation obscure menace nos démocraties et
notre vie privée.
Encore une fois, l’usage non encadré de l’intelligence artificielle peut avoir
des conséquences qui nous rendent vulnérables au contrôle et susceptibles
de subir des cyberattaques ou des piratages. L’utilisation de ces logiciels
espions, fréquente et surtout dangereuse, dans les pays gouvernés par des
régimes autoritaires, n’est pas sans poser des problèmes de fond qui doivent
trouver une réponse à la hauteur des enjeux posés.
La concurrence est rude. Dans l’industrie, un million d’e‑mails ont été
capturés illégalement dans les messageries d’Alstom par les États-­Unis
pour permettre, par une sorte d’opération de chantage d’État, en colla-
boration avec le « Department of Justice » américain, à General Electric
de prendre à la France un actif fondamental en matière d’énergie et de
défense, concernant la partie « turbines ». Le Piège américain11 raconte les
coulisses de cette affaire d’État.
Dans ce secteur, les pays européens, au premier rang desquels la France,
tentent néanmoins de garder la main. Les grands acteurs industriels français
et européens ont accumulé de la data dans des domaines très variés comme
l’automobile, l’énergie, le nucléaire ou encore l’aérospatial. À elles seules,
les voitures récoltent de plus en plus d’informations sur leurs conducteurs.
McKinsey valorise ces dernières à 750 millions de dollars d’ici 203012.
Dans la défense, Thales et Atos viennent de fonder une société commune,

11. Frédéric Pierucci et Matthieu Aron, Le Piège américain, JC Lattès, 2019.


12. McKinsey, « Monetizing car data: New service business opportunities to create
new customer benefits », septembre 2016.
Les enjeux des données 19

Athea, qui développera une plateforme dédiée à ce domaine pour le


renseignement et la sécurité intérieure.

Combien valent nos données ?


En Europe, les données personnelles sont considérées comme une
propriété intrinsèque de la personne (droit de la personne). Aux États-­
Unis, elles sont vues plutôt sous l’angle de la propriété matérielle et
personnelle, et à ce titre, elles peuvent faire l’objet d’un dédommagement
(droit de la propriété). Depuis dix ans, on entend dire que ces données
ont une valeur marchande, mais quel est leur prix ? Pour répondre à cette
question, il faut préciser deux sujets.

De quelles données parle-­t‑on ?


Les entreprises disposent de très nombreuses catégories de données. La
plupart d’entre elles concernent surtout des données personnelles (propres
à un salarié, à un prospect, à un client, à un partenaire) de nature privée.
Les principales réglementations ou lois dans le monde ont classé ces
données par catégories, des données personnelles aux données publiques,
des données sensibles ou non sensibles, en passant par les données
communicables au public ou les données confidentielles. Nos données
personnelles constituent une marchandise qui s’achète et se revend au
plus offrant. Elles représentent beaucoup d’argent pour les courtiers en
données, les spécialistes de la compilation des profils d’utilisateurs. À côté
de cela, il existe les rois de la donnée personnelle, les GAFAM (Google,
Apple, Facebook, Amazon et Microsoft), dont la capitalisation boursière
est près de trois fois supérieure à celle des entreprises du CAC 40.
L’exploitation de ces données prodigue un pouvoir sur nos vies, nos
goûts, nos orientations et sur l’utilisation de notre temps de « cerveau
disponible » :
• Google est probablement celui qui en sait le plus sur nous tous. Il est
au courant de nos recherches de textes, de photos, de dessins ou de
20 Le contexte international et les enjeux de l’intelligence artificielle

vidéos. Il connaît les sites que nous consultons, grâce à Chrome. Il


trace nos déplacements au travers des applications Android, Google
Maps ou Waze, peut analyser nos e‑mails, via Gmail, notre agenda ou
nos documents de travail grâce à Google Docs. Il peut aussi connaître
la texture de notre voix via Google Assistant. La Commission nationale
de l’informatique et des libertés (Cnil) a établi que le géant ne respec-
tait pas certains des principes clés du droit européen sur les données
personnelles, notamment parce qu’il n’informait pas correctement les
utilisateurs de l’usage qui était fait de leurs données personnelles. Il
a été condamné en France à 50 millions d’euros d’amende en 2020.
• Facebook connaît aussi nos goûts et nos sujets de discussion, nos
opinions politiques, nos relations et amis. Il peut aussi savoir où nous
nous trouvons en vacances, si nous diffusons des photos (Instagram
ou Facebook).
• Amazon suit intimement nos sujets de préoccupation via nos achats et
nos livres. Il scrute nos contenus préférés via Prime Video. Avec son
assistant personnel Alexa, Amazon complète l’ensemble.
Une montre ou une enceinte connectée, une télévision numérique enre-
gistrent notre environnement géographique, nos données de santé, nos
propos, pour nous proposer de la publicité ciblée.

Comment les valorise-­t‑on ?


Même s’il est plus aisé de vendre des données personnelles de prospects
et clients qui peuvent être directement étudiées et utilisées pour des
raisons commerciales, tout ensemble de données peut être vendu. Aucun
consensus n’existe sur la valorisation des données.
Le Règlement européen sur la protection des données (RGPD) a ouvert
la voie à la vente pour chaque internaute européen de ses propres données
personnelles. Mais en pratique, vendre ses données est un casse-­tête.
L’achat ou la revente de données se font sur le « dark web », où l’on peut
acheter aussi bien les coordonnées d’une carte bancaire que celles d’un
compte LinkedIn ou Twitter. Le 10 juin 2021, Le Figaro et Le Parisien
ont révélé l’existence d’une annonce de vente d’une base de données
Les enjeux des données 21

provenant du site pole-­emploi.fr, postée sur un forum spécialisé, pour


environ 840 euros. Dans l’annonce, le hacker affirmait posséder le nom,
l’âge, le numéro de téléphone, le nom des anciens employeurs, l’adresse
e‑mail de 1,2 million d’entrées. Cette annonce a été contestée par Pôle
emploi : « Les premiers éléments dont nous disposons laissent à penser
que cette fuite concernerait dix fois moins de personnes qu’envisagé »,
a indiqué l’organisme. Une enquête a été ouverte par ce dernier, dès le
jour suivant.
Et la bataille des données continue aujourd’hui. Le quotidien néerlandais
De Volkskrant a révélé au premier trimestre 2021 un rapport interne de
Capgemini réalisé en 2010, indiquant que Huawei avait pu écouter les
lignes mobiles de l’opérateur néerlandais KPN, dont celle du Premier
ministre. Huawei et ZTE, les leaders chinois des télécommunications,
font l’objet depuis 2012 de commissions d’enquêtes parlementaires aux
États-­Unis centrées sur les risques que leurs équipements pourraient faire
courir à la sécurité nationale.
Jusqu’à présent, la majeure partie des données, notamment celles person-
nelles des citoyens, transitaient via les GAFAM, sous le contrôle des
États-­Unis. Toutes les grandes sociétés du numérique américaines transfé-
raient leurs données vers les États-­Unis, grâce aux accords des utilisateurs,
concernant les conditions générales d’utilisation d’un service. Elles y
voyaient une base légale suffisante pour faire passer ces données Outre-­
Atlantique. Jusqu’à ce que la prise de conscience progresse sur la richesse
que pouvait représenter leur exploitation et que l’Europe s’oppose à cette
pratique. Tout ne transite plus aujourd’hui par les États-­Unis.
Une initiative franco-­allemande a vu le jour. Une sorte d’« Airbus du
cloud » qui n’a pas pour vocation de créer un concurrent capable de riva-
liser avec Amazon, Microsoft, Google ou Alibaba, comme le constructeur
d’avions adversaire de Boeing. L’initiative est plutôt une coopération
d’acteurs européens existants et un label promouvant « les principes d’ou-
verture, d’interopérabilité, de transparence et de confiance », un peu
à l’image du RGPD pour le respect de la vie privée. Concrètement,
Gaia‑X sera une structure à but non lucratif installée en Belgique. Ses
22 premiers membres sont des grandes entreprises françaises et allemandes,
22 Le contexte international et les enjeux de l’intelligence artificielle

soit fournisseurs de solutions d’hébergement et de logiciels, soit clientes


de ces services : Orange, Deutsche Telekom, Bosch, Siemens, Atos,
OVHcloud, Scaleway13, BMW…
Le standard exigera aussi de la « transparence », notamment sur un point
crucial : la soumission à des lois extraterritoriales comme le Cloud Act, qui
permet à la justice des États-­Unis de perquisitionner des données partout
dans le monde si elles sont hébergées par une entreprise américaine.
Ces conditions visent à favoriser les prestataires européens. Mais les géants
américains pourront probablement les remplir et figurer dans le cata-
logue d’offres Gaia‑X. D’ailleurs, Amazon participe aux discussions sur
le label. Tout comme Google. « Nous apportons notre expertise sur les
standards de sécurité et de confidentialité des données les plus élevés, qui
fonctionnent dans tout type d’environnement cloud et qui mettent le
contrôle des données directement entre les mains des clients », se réjouit
le groupe qui, à l’instar d’Amazon, dit laisser le choix à ses clients en cas
de requête extraterritoriale.

Le fonctionnement de l’IA
peut avoir un impact sur les droits de l’Homme
Le fonctionnement de l’intelligence artificielle peut avoir un impact sur
les droits de l’Homme, sur la démocratie et l’État de droit. Il comporte des
zones d’ombre soulignées par la Cour européenne des droits de l’homme.
Cette dernière a affirmé qu’il pouvait menacer le respect de la dignité
humaine, de la liberté de l’individu, de l’égalité, de la non-­discrimination
ainsi que de la solidarité, des droits sociaux et économiques.
D’ailleurs, dans beaucoup de pays s’est développée une réflexion sur la
protection des valeurs démocratiques face à l’intelligence artificielle.
Alors que le débat sur les GAFAM montait crescendo en Europe, l’OCDE,
qui rassemble 50 pays, a pris l’initiative d’héberger le secrétariat d’un
nouveau Partenariat mondial sur l’intelligence artificielle (PMIA), pour
encourager une utilisation responsable de l’intelligence artificielle, dans

13. Filiale cloud d’Iliad, fondée par Xavier Niel, actionnaire à titre individuel du
Monde.
Les enjeux des données 23

le respect des droits de l’Homme. Elle s’était inspirée des préconisa-


tions européennes pour émettre des recommandations qui ont fourni le
premier standard international et intergouvernemental des politiques
d’intelligence artificielle ratifiées par ces 50 gouvernements.
Que faire si les droits de l’Homme, la démocratie et l’État de droit ne
nous protégeaient pas suffisamment ?
En raison du caractère invasif de certaines applications ou utilisations
de l’intelligence artificielle, il pourrait y avoir à l’avenir des situations
dans lesquelles notre cadre actuel des droits de l’Homme, de démo-
cratie et d’État de droit ne nous protégerait plus de manière adéquate.
Nous devrions peut-­être faire une pause pour réfléchir et trouver la
réponse appropriée à ce que l’on pourrait considérer comme la « ques-
tion zéro » : voulons-­nous autoriser un système d’intelligence artificielle
ou une utilisation particulière de l’Intelligence artificielle et si oui, dans
quelles conditions ?
La réponse à cette question devrait nous obliger à examiner le système ou
l’utilisation de l’intelligence artificielle sous tous les angles, dans tous les
lieux (que cela soit dans les lieux de travail, dans l’administration, ou dans
l’espace public) ce qui pourrait déboucher sur plusieurs « solutions » :
– un système d’intelligence artificielle ou une utilisation particulière
pourraient être soumis à un moratoire ou à des restrictions (« lignes
rouges ») ou encore tout simplement interdits (temporairement ou
indéfiniment) ;
– de nouveaux droits de l’Homme pourraient être introduits comme
garanties contre les « nouveaux » effets négatifs de l’intelligence
artificielle ;
– les droits de l’Homme existants pourraient être adaptés pour
permettre un développement et une utilisation responsables de l’in-
telligence artificielle ;
– un système ou un usage particulier de l’intelligence artificielle pour-
raient être soumis à un contrôle démocratique spécifique ;
– les propriétaires privés de systèmes d’intelligence artificielle puis-
sants seraient tenus d’aligner leurs structures de développement
et de gouvernance de l’intelligence artificielle sur les intérêts des
personnes concernées par ces systèmes (comme les travailleurs, les
consommateurs, les clients, les citoyens, les décideurs politiques).
24 Le contexte international et les enjeux de l’intelligence artificielle

Le lieu d’hébergement des données


dans le collimateur européen

Le lieu d’hébergement des données manipulées par l’intelligence artifi-


cielle est dans le collimateur de Bruxelles. Le 16 juillet 2020, le bouclier
de protection des données Union européenne/États-­Unis, dit « Privacy
Shield » (« bouclier de données »), qui permettait le transfert de données
personnelles des habitants de l’Union européenne vers les États-­Unis
en conformité avec le RGPD, a été invalidé par la Cour de Justice de
l’Union européenne. La Cour a réclamé « un haut niveau de garanties »
pour ces fameuses clauses de conditions générales, que nous remplissons
souvent en cliquant sur « accepter » sans les lire réellement. Dans son
arrêt dit « Schrems II », la Cour a rendu illégaux les transferts de données
avec les États-­Unis, semant la perplexité dans de nombreuses entreprises
européennes travaillant avec des pays tiers, car les Cnil peuvent suspendre
ou mettre fin à ces transferts de leur propre initiative ou suite à la plainte
d’un citoyen. De son côté, l’association None Of Your Business (NOYB),
domiciliée à Vienne, a choisi, au mois d’août 2020, de privilégier une
interprétation « radicale » de cet arrêt Schrems II en considérant que le
simple fait de travailler avec un acteur économique américain était, en
soi, un non-­respect de ce texte. Elle a déposé une plainte à l’encontre de
101 entreprises européennes travaillant avec Google et Facebook pour
faire cesser toute relation d’affaires des entreprises européennes avec
les entreprises américaines parce qu’elles continuent à utiliser Google
Analytics et Facebook Connect sur leurs sites web – transférant ainsi des
données personnelles à Google et Facebook aux États-­Unis.
En mai 2021, la Haute Cour de Justice d’Irlande a autorisé la Commission
irlandaise pour la protection des données (DPC), à reprendre une enquête
qui pourrait aboutir à une interdiction des transferts de données de Facebook
en Europe vers les États-­Unis. Cette décision est d’autant plus intéressante
que l’Irlande tire un profit certain de son régime de taxation des sociétés qui
amène nombre de sociétés américaines à avoir leur siège européen en Irlande.
Puis le mois suivant, le juge européen a décidé qu’une autorité nationale
pouvait porter une suspicion de violation du RGPD devant une juridiction
d’un État membre, même si cette autorité n’était pas chef de file.
Les enjeux des données 25

En France, le débat public a rebondi


sur l’hébergement des données
En France, le débat européen s’est incarné dans une controverse sur le
lieu d’hébergement des données de santé dans l’Hexagone, compte tenu
du fait qu’il existe une plateforme de données de santé, hébergée chez
Microsoft, alimentée depuis fin 2019 par les médecins, mais aussi par les
pharmacies, les laboratoires d’analyses ou encore les cardiologues. La
mise en place de cette base de données à des fins de recherche médicale
a été accélérée par un décret adopté au cœur du premier confinement,
le 21 avril 2020. Ces données de santé sont censées être « pseudo-­
anonymisées » dans leur hébergement. Mais la Cnil doit trancher sur
leur stockage en Europe, de même que sur la création de plateformes
locales intra-­européennes.
4

Les dessous de l’algorithme : les biais

En janvier 2021, le Conseil de l’Europe de Strasbourg, dans le cadre


de la convention 108 sur la protection des données, a adressé des lignes
directrices aux gouvernements, aux législateurs et aux entreprises des
47 pays qui constituent son organisation, en leur proposant d’interdire
l’utilisation de la reconnaissance faciale « dans le seul but de déterminer la
couleur de la peau, les croyances religieuses ou autres, le sexe, l’origine
raciale ou ethnique, l’âge, la santé ou le statut social d’une personne ». Il
a également demandé l’interdiction des technologies capables d’identifier
des émotions ou de détecter des traits de personnalité, des sentiments,
un état de santé mentale ou un niveau d’engagement des travailleurs. Il a
réclamé des règles strictes pour éviter que l’intelligence artificielle ait un
impact important sur notre vie privée et que des données de reconnais-
sance faciale ne soient divulguées. Il a estimé que certaines applications
de reconnaissance faciale, qui liaient la reconnaissance d’un signe d’ac-
ceptation, par exemple à l’embauche de personnel, à l’accès à l’assurance,
à l’éducation, étaient très préoccupantes, tant au niveau individuel que
sociétal, et qu’elles devaient être interdites.
Les dessous de l’algorithme : les biais 27

Un besoin accru de comprendre les décisions


prises par l’intelligence artificielle

Parallèlement, de plus en plus d’utilisateurs mondiaux ont voulu


comprendre comment étaient prises les décisions basées sur l’intelligence
artificielle. Ils ont revendiqué la transparence des systèmes, après que
l’étude des « biais algorithmiques » avait surtout été dominée par des voix
et des cas anglo-­saxons. En matière de justice, de recrutement, de crédit,
de reconnaissance faciale, les polémiques les plus tonitruantes, venues des
États-­Unis, ont ruisselé sur le monde entier.
La suspension de l’algorithme de recrutement d’Amazon en 2015 a permis
de vulgariser la manière dont les biais issus des données pouvaient advenir
en matière d’intelligence artificielle. Entraîné sur des centaines de milliers
de CV adressés à Amazon durant dix ans, l’algorithme de recrutement
d’Amazon avait attribué des notes de 1 à 5 étoiles aux candidats à l’em-
bauche, mais il s’était révélé incapable de sélectionner les meilleurs CV et les
profils de femmes qualifiées. Son choix se portait plutôt vers des candidats
hommes sous-­qualifiés et défavorisait les CV contenant les mots « women », y
compris « women’s chess club captain ». La qualité des données d’entraînement
de cet algorithme avait donc été mise en cause, avec un fort retentissement.

Combattre les biais : le cas Amazon


En 2018, Amazon a donc mis fin à un projet de recrutement sur Internet
à cause des biais de celui-­ci. L’intelligence artificielle de recrutement
d’Amazon favorisait les hommes par rapport aux femmes, car elle était
formée à partir de profils d’employés d’Amazon qui avaient réussi et
qui se trouvaient être des hommes. Le système n’avait pas simplement
éliminé les femmes, il avait examiné les caractéristiques des employés
qui réussissaient, à travers leurs formulations et phrasés typiques, et
avait éliminé les CV qui ne présentaient pas ces caractéristiques. Le
problème de ces systèmes réside dans le fait que, même s’ils excellent
à identifier des modèles, par exemple des phrases typiques utilisées par
les employés qui réussissent, ils ne comprennent pas la signification de
ces phrases, et sont incapables de comprendre le sens de la réussite,
ou même de saisir ce qu’est un employé. Ils ne peuvent que fournir une
étiquette à un modèle spécifique.
28 Le contexte international et les enjeux de l’intelligence artificielle

Plus récemment, aux États-­Unis, trois seniors américains de centres d’ap-


pels ont pointé un biais d’intelligence artificielle de recrutement qui avait
abouti à les discriminer du fait de leur âge. Ils ont porté plainte contre
Facebook, Cox Communications, Amazon, T Mobile… sur le conseil
du syndicat de salariés Communications Workers of America (CWA).
Enfin, dernièrement, une équipe d’informaticiens de l’université améri-
caine de Northeastern à Boston (Massachusetts) a accepté la demande de
la société Pymetrics de vérifier un algorithme d’embauche derrière un
test de douze jeux sur les attributs sociaux, cognitifs et émotionnels des
candidats au recrutement.

L’algorithme IBM : une vision étroite du monde


dans la représentation de la diversité des visages
L’ensemble de données « Diversity in Faces » (DiF) d’IBM a été créé en
réponse aux critiques qui avaient montré que les logiciels de reconnais-
sance faciale de la société ne reconnaissaient souvent tout simplement
pas les visages des personnes à la peau plus foncée. IBM a promis publi-
quement d’améliorer ses ensembles de données de reconnaissance
faciale pour les rendre plus « représentatifs » et a publié l’ensemble
des données DiF en conséquence. Mais même après toutes ces tenta-
tives d’élargissement des modes de classification des personnes,
l’ensemble DiF repose toujours sur une classification binaire pour le
sexe : les personnes ne peuvent être étiquetées que comme « homme »
ou « femme ». Atteindre la parité entre les différentes catégories n’est pas
la même chose que d’atteindre la diversité ou l’équité, et la construction
et l’analyse des données d’IBM perpétuent un ensemble de classifications
nuisibles dans une vision étroite du monde.

Code de l’algorithme et droit de propriété intellectuelle


Mais l’analyse des biais suppose la liberté d’accès aux algorithmes. Or, les
autorités judiciaires américaines sont réticentes à accorder cette dernière
sans mesurer auparavant tous les intérêts privés, dont la protection de
la propriété intellectuelle. Tout comme les entreprises qui refusent de
Les dessous de l’algorithme : les biais 29

dévoiler le code de l’algorithme considéré comme si celui-­ci était un


secret industriel à protéger.
Pour les syndicats, il est nécessaire de contourner l’écueil qu’oppose l’en-
treprise à l’exigence de transparence des algorithmes au nom du droit
de propriété intellectuelle et du secret des affaires. Les syndicats doivent
exiger, lorsqu’une IA est introduite dans les lieux de travail et impacte
la vie des travailleurs (concernant la décision d’un recrutement ou d’une
promotion ou de l’accès à la formation), que le système soit en mesure
d’expliquer sa décision et si tel n’est pas le cas, qu’il soit audité et réponde
aux exigences du respect des droits fondamentaux.
Si cela n’est pas possible, son utilisation doit être interdite.

Italie : les syndicats font condamner


devant le tribunal de Bologne l’algorithme utilisé
par Deliveroo pour entrave au droit de grève
Dans un jugement du 31 décembre 2020, la section travail du tribunal de
Bologne, saisie par trois syndicats affiliés à la CGIL, a estimé que l’al-
gorithme utilisé jusqu’en novembre 2020 par la plateforme de livraison
de repas Deliveroo n’était pas neutre. Selon ce jugement, le système de
réservation par les riders des tranches horaires de travail qui donnait la
priorité aux livreurs les mieux notés, était « aveugle », puisqu’il ne tenait
pas compte des motivations d’absence, pénalisant en particulier ceux qui
adhéraient à une grève. Deliveroo a été condamné à verser aux syndicats
50 000 euros (mais pas à changer l’algorithme).

Enfin, parallèlement, un travail d’élaboration de « normes fondamen-


tales » des algorithmes et des systèmes a débuté au niveau international
(ISO) sur des aspects de l’intelligence artificielle qui nécessitent un voca-
bulaire commun, ainsi que des classifications. Finalement, ces normes
internationales doivent permettre aux professionnels de parler le même
langage que les personnes engagées dans la réglementation ou que les
experts t­ echniques et de s’assurer que les systèmes d’intelligence artificielle
respectent des standards.
Partie II

Régulation de l’intelligence artificielle :


l’Europe moteur entre la Chine
et les États-­Unis

L’Union européenne vise une intelligence artificielle de qualité


et « éthique » qui respecte ses valeurs fondamentales
et les droits humains. À ce titre, elle joue un rôle moteur
sur la scène mondiale. Elle a été la première au monde
à établir un cadre juridique global pour le développement,
le déploiement et l’utilisation responsable et éthique
de l’intelligence artificielle. Exiger une « éthique » de l’intelligence
artificielle signifie questionner les systèmes d’IA sur le respect
des droits fondamentaux européens : le respect de la vie privée,
celui du droit à la dignité, du droit à l’égalité,
du droit à ne pas subir de discriminations…
5

L’humain aux commandes

L’Europe ne veut ni laisser de puissantes entreprises technologiques


comme les GAFAM livrées à elles-­mêmes comme aux États-­Unis, ni
suivre l’exemple de la Chine, qui exploite l’intelligence artificielle pour
créer un État de surveillance et de notation sociale. Au lieu de cela,
elle souhaite une approche « centrée sur l’humain » qui stimule la tech-
nologie tout en l’empêchant d’attenter à la vie privée de ses citoyens.
Dès 2018, un groupe d’experts, qui a associé des membres du Comité
économique et social européen (CESE), au sein de la Commission
européenne, a demandé que les organismes publics des pays européens
respectent sept exigences pour que l’intelligence artificielle devienne
« digne de confiance ». La Commission européenne a plaidé en faveur de
contrôles stricts de Bruxelles dans la mesure où l’intelligence artificielle
pouvait devenir dangereuse dans certains domaines. En février 2020,
elle a lancé une consultation sur un livre blanc, « Intelligence artificielle :
une approche européenne axée sur l’excellence et la confiance », dans
lequel elle a prôné une approche axée sur la régulation et l’investis-
sement. Elle y a fait la promotion de l’intelligence artificielle tout
en soulignant les risques associés. Dans des domaines tels la santé, les
transports, la police et la justice, où certains usages de l’intelligence arti-
ficielle sont jugés « à haut risque », elle a prévu que les systèmes devront
« être transparents, traçables et garantir un contrôle humain ». Parmi
les usages de l’IA, elle a distingué ceux qui ont des « effets juridiques »
34 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États-­Unis

(comme lors de procédures de recrutement) de ceux qui présentent des


« dangers mortels » comme les armes et de ceux qui peuvent générer
« des dégâts et blessures ». Son livre blanc prévoit une étude des usages
au « cas par cas ».
6

Les sept exigences européennes


pour une intelligence artificielle
digne de confiance

Une IA contrôlée par l’humain


Selon la Commission européenne, les systèmes d’IA devraient être des
vecteurs de sociétés équitables, au service des droits fondamentaux, sans
restreindre ou dévoyer l’autonomie humaine. L’humain doit garder la
main sur les décisions.

Une IA robuste et sécurisante


La Commission européenne indique qu’une intelligence artificielle
digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et
robustes pour gérer les erreurs ou les incohérences au long du cycle de vie
des systèmes d’IA. En Finlande, une attaque au ransomware (« rançongiciel »
en français) a frappé la base de données de la société finlandaise Vastaamo,
qui gérait 25 centres de psychothérapie. Elle a abouti à la fuite de données
médicales de plus de 4 000 patients. Elle a fait la une des journaux en
Finlande, après que les hackers ont publié sur le « dark web » les premiers
milliers de données médicales de patients.
36 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États-­Unis

Une IA qui respecte la vie privée


et dont les citoyens maîtrisent les données

Selon la Commission européenne, les citoyens doivent avoir la maîtrise


totale de leurs données personnelles et être sûrs que celles-­ci ne seront
pas utilisées contre eux de façon préjudiciable ou discriminatoire. Le
règlement général sur la protection des données (RGPD) doit pouvoir
les protéger d’une utilisation dévoyée de leurs données mais ce texte ne
s’applique qu’aux données à caractère personnel, et non aux données
agrégées « anonymes », qui sont généralement utilisées pour l’apprentissage
des modèles.

Une IA transparente
La traçabilité et l’explicabilité des systèmes d’IA doivent être assurées
tout au long du cycle de vie des systèmes, depuis leur conception jusqu’à
leur développement, en passant par toute la durée de leur utilisation. La
transparence est mesurable. Ses différents niveaux d’échelle de mesure
peuvent permettre, par exemple, une certification, une labellisation des
systèmes. Ils peuvent conduire au déploiement de systèmes d’intelligence
artificielle dans des contextes « à haut risque ».

Une IA non discriminante, équitable


La Commission européenne indique que les systèmes d’intelligence artifi-
cielle devraient prendre en compte tout l’éventail des capacités, aptitudes
et besoins humains. Le secteur de la recherche sur l’IA est caractérisé
par un manque de diversité (une prédominance des hommes blancs, par
exemple) et de nombreux chercheurs ont montré que les préjugés dans
les systèmes d’intelligence artificielle reflètent des modèles historiques de
discrimination. L’utilisation des systèmes d’intelligence artificielle pour la
classification, la détection et la prédiction de l’origine ethnique et du sexe
Les sept exigences européennes pour une intelligence artificielle digne de confiance 37

doit être réévaluée de toute urgence. Les systèmes qui utilisent l’apparence
physique comme un substitut de la personnalité ou des états intérieurs
sont profondément suspects, y compris les outils d’IA qui prétendent
prédire la « criminalité » sur la base des caractéristiques faciales ou évaluer
les compétences des travailleurs par le biais de « micro-­expressions ».

Une IA apportant un bien-­être sociétal


et environnemental

Les systèmes d’intelligence artificielle devraient être utilisés pour soutenir


des évolutions sociales positives, et renforcer la durabilité et la responsa-
bilité écologiques. Selon l’étude du Parlement européen de mars 2020,
« The Ethics of artificial intelligence: issues and initiatives » : « Les États et les
organisations doivent s’assurer que l’intelligence artificielle soit largement
appliquée et rendue accessible dans les domaines à forte valeur sociale, tels
que la pauvreté, la maladie ou l’énergie propre […]. La grande question
qui se pose autour de l’intelligence artificielle est celle des inégalités, qui
n’est normalement pas incluse dans le débat sur l’éthique de l’intelligence
artificielle. »

Une IA qui a des comptes à rendre


La Commission européenne préconise la mise en place de mécanismes
pour garantir une responsabilité à l’égard des systèmes d’intelligence artifi-
cielle et de leurs résultats. Elle recommande de désigner qui rend compte
et qui est responsable de possibles dysfonctionnements.
38 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États-­Unis

Systèmes discriminants1
L’IA est-­elle un miroir de notre société ? Une étude intitulée « Genre,
appartenance ethnique et pouvoir dans l’IA » de l’Institut AI Now de l’uni-
versité de New York datant de 2019 établit un problème persistant de
discrimination fondée sur le genre et l’appartenance ethnique (parmi
d’autres attributs et formes d’identité) des systèmes d’intelligence arti-
ficielle. Selon cette étude, les technologies de reconnaissance d’images
catégorisent mal les visages des noirs et les algorithmes utilisés par la
justice dans le système pénal sont discriminatoires à l’égard des accusés
noirs.
Les chatbots adoptent facilement un langage raciste et misogyne lors-
qu’ils sont formés au discours en ligne et le système de reconnaissance
faciale d’Uber ne fonctionne pas pour les conducteurs trans. Dans la
plupart des cas, ces préjugés reflètent et reproduisent les structures
d’inégalité existantes dans la société.

1. Sources : J. Angwin, J. Larson, S. Mattu et L. Kirchner, « Machine Bias », ProPublica,


23 mai 2016 ; J. Vincent, « Twitter taught Microsoft’s AI chatbot to be a racist asshole
in less than a day », The Verge, 24 mars 2014 ; S. Melendez, « Uber driver troubles raise
concerns about transgender face recognition », Fast Company, 9 août 2018.
7

Une charte éthique européenne


pour l’utilisation de l’intelligence
artificielle dans la sphère judiciaire

Une charte éthique européenne d’utilisation de l’intelligence artificielle


dans les systèmes judiciaires et leur environnement a été adoptée en 2018
au sein du Conseil de l’Europe par la Commission européenne pour
l’efficacité de la justice.
L’utilisation de tels outils et services dans les systèmes judiciaires a vocation
à améliorer l’efficacité et la qualité de la justice, et mérite d’être encou-
ragée. Elle doit toutefois se mettre en pratique de manière responsable,
dans le respect des droits fondamentaux des individus énoncés par la
Convention européenne des droits de l’homme et par la Convention
pour la protection des données à caractère personnel, ainsi que des autres
principes fondamentaux énoncés ci-­après, qui devraient orienter la défi-
nition de politiques publiques de la justice en ce domaine.
La charte met en avant cinq principes :
• le respect des droits fondamentaux : assurer une conception et une
mise en œuvre des outils et des services d’intelligence artificielle qui
soient compatibles avec les droits fondamentaux ;
• la non-­discrimination : prévenir spécifiquement la création ou le renfor-
cement de discriminations entre individus ou groupes d’individus ;
40 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États-­Unis

• la qualité et la sécurité : en ce qui concerne le traitement des décisions


juridictionnelles et des données judiciaires, utiliser des sources certifiées
et des données intangibles avec des modèles conçus d’une manière
multidisciplinaire, dans un environnement technologique sécurisé ;
• la transparence, la neutralité et l’intégrité intellectuelle : rendre acces-
sibles et compréhensibles les méthodologies de traitement des données,
autoriser les audits externes ;
• la maîtrise par l’utilisateur : bannir une approche prescriptive et
permettre à l’usager d’être un acteur éclairé et maître de ses choix.
8

Vers une régulation


de l’intelligence artificielle « à haut risque »

À la suite de la consultation des citoyens, syndicats, entreprises et ONG,


la Commission européenne a présenté, le 21 avril 2021, une « Proposition
de règlement du Parlement européen et du Conseil établissant des règles
harmonisées concernant l’intelligence artificielle ». Elle considère que
l’intelligence artificielle, par son opacité, sa complexité, sa dépendance à
l’égard des données, son comportement autonome, peut porter atteinte
à un certain nombre de droits consacrés par la charte des droits fonda-
mentaux de l’Union européenne.
Le texte de la Commission européenne a l’avantage de constituer un
bon cadre juridique pour l’intelligence artificielle. Une fois adopté par
le Parlement européen et par les États, il s’appliquera directement aux
États membres, sans transposition. Avec l’actuelle proposition législative,
la Commission européenne a délivré un message clair : les droits fonda-
mentaux et les valeurs européennes doivent être au cœur de l’approche
européenne de l’intelligence artificielle. Le « tout est permis » n’est plus la
norme, et les règles établies à l’échelle de l’UE auront certainement des
répercussions dans le monde entier.
Ce texte encadrera les systèmes d’intelligence artificielle classés « à haut
risque », qui ne pourront être autorisés dans l’Union européenne que si
leur conformité par rapport aux normes européennes a été évaluée.
42 Régulation de l’intelligence artificielle : l’Europe moteur entre la Chine et les États-­Unis

Dans le monde du travail, les intelligences artificielles « à haut risque », qui


nécessitent un encadrement, sont recensées dans l’annexe III du projet
de règlement européen :
• les intelligences artificielles pour le recrutement ou la sélection de
personnes physiques, notamment pour la publication de postes vacants,
la présélection ou le filtrage des candidatures, l’évaluation des candidats
au cours d’entretiens ou de tests ;
• les intelligences artificielles prenant des décisions sur la promotion et
les licenciements liés au travail, sur la répartition des tâches et le suivi
et l’évaluation des performances et du comportement des personnes
dans ces relations ;
• les intelligences artificielles déterminant l’accès à la formation
professionnelle ou évaluant les étudiants dans les établissements d’en-
seignement et de formation professionnelle.
Ces systèmes d’intelligence artificielle peuvent avoir une incidence
sensible sur les perspectives de carrière et les moyens de subsistance futurs
de ces personnes. La Commission précise que lorsque ces systèmes sont
« mal conçus et utilisés », ils peuvent perpétuer des schémas de discrimi-
nation, par exemple à l’égard des femmes, de certains groupes d’âge, des
personnes handicapées ou des personnes de certaines origines raciales ou
ethniques ou de certaines orientations sexuelles. De plus, ceux utilisés
pour surveiller les performances et le comportement de ces personnes
peuvent avoir présenté un impact sur les droits à la protection des données
et à la vie privée.
Pour contrebalancer ces risques, les systèmes devront employer des données
de très bonne qualité. Ils devront comporter une documentation détaillée
de la conformité avec la réglementation existante, être transparents, tout
à fait exacts et sécurisés. Le fait qu’une intelligence artificielle soit classée
« à haut risque » entraîne une obligation de transparence et de supervision
humaine de ses « utilisateurs ». Des personnes physiques devront surveiller
ce type d’intelligence artificielle pendant son utilisation, à l’aide d’outils
d’interface hommes-­machines pour prévenir ou réduire au minimum les
risques en santé, en sécurité ou les menaces sur les droits fondamentaux
qui peuvent apparaître. Les fournisseurs d’intelligence artificielle « à haut
Vers une régulation de l’intelligence artificielle « à haut risque » 43

risque » devront pratiquer une auto-­certification de conformité avant de


mettre leurs produits sur le marché ou en service.
Les salariés seront informés en cas de détection des émotions ou de
­reconnaissance faciale.
Selon le projet de ce règlement, l’utilisateur qui a recours à un système
de reconnaissance des émotions ou de catégorisation biométrique doit
informer les « personnes physiques » et les salariés concernés.
9

Une régulation, pour quand ?

Alors que les évolutions dans le domaine de l’IA sont très rapides, les
nouvelles normes européennes de l’intelligence artificielle n’entreront
pas en vigueur rapidement. Elles feront l’objet d’un examen approfondi
des députés européens à partir de 2022 – il est probable que le texte
d’application ne sera pas publié avant 2025. Le degré d’autorégulation du
dispositif européen sera déterminant à cet égard. Les autorités nationales
procéderont à des vérifications et à des inspections, tandis que certains
fournisseurs d’intelligence artificielle qui espèrent déployer leurs produits
dans le cadre du recrutement des employés ou du contrôle des migra-
tions seront autorisés à respecter les normes européennes par le biais
d’auto­évaluations. L’exigence d’autoévaluation plaira à l’industrie techno­
logique, alors qu’elle a d’ores et déjà suscité l’inquiétude des députés
européens, des militants et des universitaires, qui estiment qu’elle n’est
pas suffisante pour protéger les citoyens, car elle remet l’appréciation de
la conformité des systèmes d’intelligence artificielle entre les mains des
fournisseurs. Le bras de fer entre les deux parties déterminera la facilité
ou la difficulté de se conformer aux règles.
10

Des références au monde du travail


insuffisantes

Hormis les questions sur la reconnaissance faciale ou l’interprétation des


émotions, les garanties de transparence ne bénéficient qu’aux « utilisa-
teurs », les travailleurs en sont exclus. Seul un article du projet de ce
règlement prévoit un droit global à la transparence. Mais dans le reste
des documents publiés par la Commission européenne, la référence aux
travailleurs et aux représentants du personnel fait cruellement défaut. Ce
projet de texte admet de facto un large panel d’outils de surveillance des
salariés sans s’interroger ni sur leur bien-­fondé ni sur leur compatibilité
avec les valeurs européennes. Le dialogue social aura un rôle important
à jouer pour étendre ces garanties d’information et de transparence vis-­
à‑vis des travailleurs.
11

Le travail des partenaires


sociaux européens et l’intervention
de la CFDT Cadres à Bruxelles

Parallèlement aux initiatives de la Commission européenne et aux débats


européens, la CFDT a participé à la négociation d’un premier accord
sur le numérique qui a été signé en juin 2020 entre les syndicats et les
représentants des employeurs européens. Lors de cette négociation, elle a
représenté les syndicats français au sein de la Confédération européenne
des syndicats (CES).
Cet accord a été intitulé « European social partners framework agree-
ment on digitalisation » (ce qui se traduit par « Accord de méthode entre
partenaires sociaux européens concernant la digitalisation »). Le texte
explore les opportunités du numérique concernant les salariés, mais aussi
les travailleurs des plateformes. Il indique qu’il s’agit « d’anticiper le chan-
gement et de fournir les compétences nécessaires aux travailleurs et aux
entreprises pour réussir à l’ère numérique ». Il ne produit pas une pluie
de nouveaux droits, tant les législations et les producteurs de normes sont
différents d’un pays à l’autre. Mais il engage un « processus de partenariat
et de dialogue » pour explorer les possibilités et les risques du numérique,
les questions de compétences et de sécurisation de l’emploi, les modalités
de connexion et de déconnexion, celles du contrôle de l’intelligence
Le travail des partenaires sociaux européens et l’intervention de la CFDT Cadres à Bruxelles 47

artificielle et de la protection des données. Ce texte constitue un appel et


un soutien à la négociation sur l’impact du développement du numérique
auprès des partenaires sociaux de chaque État membre.
Ses signataires sont, d’un côté, la Confédération européenne des syndi-
cats (CES), de l’autre, BusinessEurope (le Medef européen), le Centre
européen des employeurs et entreprises fournissant des services publics
(CEEP) et SME United (représentant des PME). Cet accord rappelle que
le numérique « s’accompagne de défis et de risques pour les travailleurs et
les entreprises, car certaines tâches vont disparaître et beaucoup d’autres
vont changer » et il se structure autour de quatre grands enjeux :
• les compétences numériques et la sécurisation de l’emploi ;
• le droit à la déconnexion ;
• l’intelligence artificielle centrée sur l’homme ;
• le respect de la dignité humaine et la question de la surveillance.
Ces différents thèmes sont traités en fonction de l’organisation du travail
(comment les tâches sont distribuées), du contenu du travail (l’influence
de la technologie et de la numérisation), des compétences nécessaires,
des conditions de travail (sécurité et santé physique et mentale) et des
relations entre les travailleurs.
À Bruxelles, depuis 2017, compte tenu de l’ampleur du sujet, la CFDT
Cadres a très vite décidé de se pencher sur l’intelligence artificielle au
niveau européen, considérant qu’il s’agissait de l’échelon le plus pertinent.
Elle s’est positionnée comme référence dans ce domaine à Bruxelles.
Elle a répondu aux consultations sur une législation spécifique en faveur
d’une régulation de l’intelligence artificielle. Elle a été rapporteur auprès
du Comité économique et social européen de deux avis2 sur l’IA, qui ont
été adoptés par les syndicats, par les employeurs, par les ONG et asso-
ciations, composantes et voix de la société civile européenne organisée
dans ce comité.

2. INT/845 : « Intelligence artificielle/impacts sur le travail » et INT/887 :


« L’intelligence artificielle axée sur le facteur humain ».
Partie III

Le contexte, le débat et les enjeux


en France

En France, le débat a rebondi sur les lieux d’hébergement


des données (surtout celles concernant la santé), sur le rôle
des lanceurs d’alerte et sur le contrôle à distance des travailleurs
pendant le confinement. Le projet des parlementaires
d’une taxation de Google, Amazon, Facebook et Apple
s’est vu repris dans un impôt minimum mondial
qui reste à mettre en musique.
12

La nécessité d’un dialogue social


et sociétal

Technologie fortement perturbatrice s’il en est, aux profonds impacts sur


nos vies, l’utilisation de l’IA nécessite d’être appréhendée, questionnée et
débattue largement dans les lieux de travail et dans la société.
Dans les lieux de travail, des législations françaises et européennes
prévoient que l’introduction de nouvelles technologies donne lieu à une
information-­consultation des représentants des travailleurs. Le dialogue
social est le moyen qui permet d’interroger la finalité et le fonctionnement
des systèmes d’intelligence artificielle utilisés dans les ressources humaines,
de limiter les dérives d’un contrôle et d’une surveillance illimités des
travailleurs, d’éviter les atteintes à leur vie privée ainsi que les pratiques
discriminatoires ou l’utilisation abusive des données personnelles et du
profilage.
Une formation accessible sur l’IA ainsi que des débats citoyens sur
son introduction et ses finalités contribuent sans doute à améliorer la
conscience des enjeux et à protéger nos vies et nos démocraties.
13

Une taxe GAFA pour accompagner


les mutations numériques

En Europe comme en France, la question de la taxation de GAFA a été


objet de débats depuis plusieurs années. Cette taxe était considérée par un
grand nombre d’acteurs, dont les syndicats, comme une juste contribution
des Big tech (Google, Amazon, Facebook et Apple) aux profits réalisés
par ces entreprises en Europe et qui échappaient largement à l’impôt sur
les sociétés. La taxe pouvait contribuer à assurer une transition numérique
juste en l’affectant à des fonds européens pour accompagner les salariés
touchés par les restructurations numériques.
En France, l’idée d’une taxe sur les services des GAFA avait à l’ori-
gine pris la forme d’un projet de loi de contribution sur les entreprises
du numérique qui pratiquaient la publicité ciblée en ligne, la vente de
données personnelles à des fins publicitaires ou étaient des plateformes
d’intermédiation.
Ciblée principalement sur des firmes américaines, cette taxe a d’abord été
sévèrement critiquée par l’administration Trump qui a menacé de taxer à
son tour les importations américaines de vins français en rétorsion, avant
que Washington annonce, avec Joe Biden, qu’il voulait un impôt mondial
sur les sociétés d’au moins 15 %.
Une taxe GAFA pour accompagner les mutations numériques 53

Quatre étapes vers la taxation des GAFA


2018 : la France à l’avant-­garde
En 2018, la Commission européenne propose une taxe européenne sur
le chiffre d’affaires des GAFA. Cette mesure, soutenue par la France,
rencontre l’hostilité de plusieurs pays européens dont l’Allemagne et
l’Irlande. Face au manque de consensus, la discussion est délocalisée au
niveau international, où plus de 130 pays sont convoqués pour discuter
d’une réforme de la fiscalité des multinationales et en particulier des
géants du numérique, sous l’égide de l’OCDE. La France annonce son
intention de mettre en place unilatéralement une taxation temporaire
des GAFA en attendant la solution internationale.
2019 : suspension de la taxe GAFA par la France
En 2019, sous la pression des États-­Unis menaçant l’Hexagone de
mesures de rétorsion commerciale, la France suspend la mise en œuvre
de la taxe GAFA nationale afin de donner une chance aux négociations
internationales.
2020 : réintroduction de la taxe en France
Face à l’échec des négociations internationales, la France a remis une
taxation unilatérale des GAFA depuis décembre 2020 dans un contexte
de fronde face aux géants du numérique qui surfent sur la crise pour
réaliser des bénéfices exceptionnels. Un groupe de députés de la
Commission des finances, porté par Guillaume Peltier (LR), a proposé
le 18 novembre 2020, de créer un « prélèvement sur les bénéfices supplé-
mentaires des GAFA pour soutenir nos commerces de proximité et nos
librairies ». Une telle mesure, proposée par la Commission européenne,
devrait être étendue en Europe, mais de nombreux pays y sont opposés.
2021 : une taxe des GAFA, dissimulée derrière un impôt mondial
Les ministres des Finances du G7 ont annoncé en juin 2021 un accord
sur un impôt mondial minimum impliquant une meilleure répartition des
recettes fiscales provenant des multinationales, particulièrement les
géants du numérique. 130 pays, dont la Chine et l’Inde, se sont accordés
pour appliquer un taux d’impôt minimal mondial sur les sociétés d’au
moins 15 %. Les entreprises du numérique seraient taxées en partie là
où elles font leurs ventes, et non pas comme aujourd’hui, là où elles
souhaitent installer leur siège, justement dans les paradis fiscaux. Neuf
pays ont rejeté l’accord, dont trois pays européens : l’Irlande, l’Estonie
et la Hongrie.
14

Les dispositifs de contrôle


de l’intelligence artificielle en France

Une loi qui protège les lanceurs d’alerte


La France a jusqu’au 17 décembre 2021, pour le secteur public et les
entreprises de plus de 249 travailleurs pour le secteur privé, pour trans-
poser la directive UE 2019/1937 du 23 octobre 2019 sur la protection
des personnes qui signalent des violations du droit de l’Union. Cette
directive permet aux lanceurs d’alerte de passer par une autorité externe
pour dénoncer les faits, alors qu’en France, ces derniers doivent saisir, sauf
danger grave et imminent, d’abord leur hiérarchie interne. Elle conforte
aussi le droit de tout travailleur, dans sa procédure d’alerte, à être défendu
par un représentant du personnel ou un syndicat.
Si la loi Sapin II a représenté une législation pionnière en France, à l’ori-
gine d’un réel progrès en matière de protection des lanceurs d’alerte,
des syndicats et des associations de défense des droits ont pu relever des
carences responsables d’incertitudes et d’insécurité juridique : une procé-
dure de signalement complexe, peu protectrice, voire dissuasive par sa
longueur et ses coûts, lorsqu’elle adopte une tournure judiciaire.
Pour l’essentiel, la loi Sapin II a défini qu’« un lanceur d’alerte est une
personne physique qui révèle ou signale, de manière désintéressée et de
bonne foi, un crime ou un délit, une violation grave et manifeste d’un
Les dispositifs de contrôle de l’intelligence artificielle en France 55

engagement international régulièrement ratifié ou approuvé par la France,


d’un acte unilatéral d’une organisation internationale pris sur le fondement
d’un tel engagement, de la loi ou du règlement, ou une menace ou un
préjudice grave pour l’intérêt général, dont elle a eu personnellement
connaissance ». Par exemple, un travailleur peut alerter immédiatement
l’employeur s’il estime, de bonne foi, que les produits ou procédés de
fabrication utilisés ou mis en œuvre par l’établissement font peser un risque
grave sur la santé publique ou l’environnement. L’alerte est consignée par
écrit dans des conditions déterminées par la loi. L’employeur informe le
lanceur d’alerte de la suite qu’il réserve à celle-­ci. Aucun salarié ne peut
être sanctionné, licencié ou faire l’objet d’une mesure discriminatoire
pour avoir témoigné des agissements définis aux articles L. 1132‑1 et
L. 1132‑2 ou pour les avoir relatés.
Le texte européen, dans ses considérants, reconnaît notamment aux
lanceurs d’alerte un rôle utile en ce qui concerne la sécurité des produits
mis sur le marché européen. Il considère que les entreprises qui participent
à la chaîne de fabrication et de distribution sont la principale source de
collecte d’éléments de preuve, ce qui rend les signalements des lanceurs
d’alerte très opportuns. En fait, ceux-­ci sont beaucoup plus proches
de la source d’éventuelles pratiques déloyales et illicites de fabrication,
d’importation ou de distribution de produits dangereux. Cela justifie
l’introduction de la protection des lanceurs d’alerte en relation avec les
exigences de sécurité applicables à la fois aux produits et dans le domaine
de la protection de la vie privée, et les données à caractère personnel.

Une instance indépendante pour juger :


un dispositif toujours en attente

Dans son rapport « Donner un sens à l’intelligence artificielle1 », Cédric


Villani, député alors en mission parlementaire, proposait « une instance
pour émettre des avis sur l’éthique de l’intelligence artificielle, donner des

1. Cédric Villani, Donner un sens à l’intelligence artificielle : Pour une stratégie nationale
et européenne, mars 2018.
56 Le contexte, le débat et les enjeux en France

jugements en toute indépendance, qui puisse être saisie par le gouverne-


ment comme par les citoyens, et qui nous dise ce qui est acceptable ou non
acceptable ». Une suggestion restée sans suite. « Dans un monde marqué
par les inégalités, l’intelligence artificielle ne doit pas conduire à renforcer
les phénomènes d’exclusion et la concentration de la valeur, affirme-­t‑il.
Plutôt que de fragiliser nos trajectoires individuelles et nos systèmes de soli-
darités, l’intelligence artificielle doit prioritairement nous aider à activer nos
droits fondamentaux, augmenter le lien social et renforcer les solidarités.
La mixité doit être également au cœur des priorités. Il doit être possible
d’ouvrir les boîtes noires des algorithmes, mais également de réfléchir en
amont aux enjeux éthiques que les algorithmes d’intelligence artificielle
peuvent soulever. » Concernant le transfert de données hors de l’Union
européenne, il recommande que la France et l’Europe conservent « une
position ferme ». Cette instance reste toujours pertinente. Il serait grand
temps qu’elle voie le jour et que les syndicats puissent aussi la saisir.

Former les citoyens : quatre autorités créent


un « kit pédagogique du citoyen numérique »
La Cnil, le CSA, le Défenseur des droits et l’Hadopi ont lancé un « kit
pédagogique du citoyen numérique », accessible en ligne, qui rassemble
des documents éducatifs, des conseils juridiques et des guides pratiques
adressés à des internautes (parents et enfants) ainsi qu’à des éducateurs
et formateurs. Celui-­ci comprend quatre grandes thématiques : les droits
sur Internet ; la protection de la vie privée ; le respect de la création ;
l’utilisation raisonnée et citoyenne des écrans. Il détaille ces institutions
dans un communiqué commun. Des thèmes qui englobent des questions
très concrètes : quel recours en cas de cyberharcèlement ? Peut-­on faire
supprimer une vidéo publiée sans son consentement ? Pourquoi faut-­il
rémunérer les créateurs ? Quel rôle les médias jouent-­ils dans l’égalité
entre les hommes et les femmes ?
Le Conservatoire national des arts et métiers (Cnam) a de son côté
produit un MOOC (cours en ligne ouvert), « L’Intelligence artificielle pour
tous », qui aborde les notions de base de l’IA et ses domaines d’applica-
tion. Il traite aussi de la question des nouveaux modèles économiques
et les nouveaux rapports au travail, ainsi que le sujet des compétences
en IA du collaborateur.
Les dispositifs de contrôle de l’intelligence artificielle en France 57

Des recours auprès de la Commission nationale


de l’informatique et des libertés (Cnil)

« Comment garder la main ? » est la synthèse d’un débat public animé par
la Commission nationale de l’informatique et de libertés dans le cadre de
la réflexion éthique, confiée par la loi « pour une République numérique »
en 2017. Un thème révélateur des préoccupations de la Commission.
Dans un mémoire transmis au Conseil d’État, le 8 octobre 2020, la Cnil a
demandé l’arrêt du stockage des données de santé chez Microsoft ou chez
toute autre société soumise « au droit étasunien ». Depuis septembre 2020,
deux recours ont été transmis au Conseil d’État contre le Health Data Hub
de Microsoft par un collectif de 18 personnalités et organisations, dont le
Conseil national du logiciel libre, le Syndicat national des journalistes et
l’Association française des hémophiles.

Le rôle du délégué
à la protection des données
Le règlement général sur la protection des données a établi la mise en
place chez les autorités et organismes publics, ainsi que les organismes
dont les activités de base consistent en un suivi systématique à grande
échelle de personnes ou en un traitement à grande échelle de catégo-
ries particulières de données à caractère personnel, d’un délégué à la
protection des données (DPD). Le DPD doit communiquer ses coordon-
nées à l’autorité de contrôle compétente pour publication. Ces exigences
visent à garantir que les personnes concernées (tant à l’intérieur qu’à
l’extérieur de l’organisme) et les autorités de contrôle puissent aisément
et directement prendre contact avec le DPD sans devoir s’adresser à un
autre service de l’organisme. La confidentialité est également un aspect
important : les employés pourraient, par exemple, hésiter à se plaindre
auprès du DPD si la confidentialité de leurs communications n’était pas
garantie. Le DPD est soumis au secret professionnel ou à une obligation
de confidentialité en ce qui concerne l’exercice de ses missions, confor-
mément au droit de l’Union ou au droit des États membres (article 38
du RGPD, paragraphe 5).
58 Le contexte, le débat et les enjeux en France

Le RGPD européen a donné lieu à une transposition en une loi en


France. Cette loi est une des pièces maîtresses de la protection des
données personnelles. Elle est à l’origine de la création de la Cnil. Elle
concerne la gestion de données sensibles (données de santé, données
biométriques), le traitement des données répondant à des missions d’in-
térêt public (pour la protection sociale, la santé publique ou la recherche)
ou encore à des situations particulières (sort des données après la mort,
âge de consentement pour un mineur pour l’offre directe de services de
la société de l’information, numéro de Sécurité sociale, données relatives
aux condamnations pénales et aux infractions) et tous les droits liés aux
données (droit de rectification, droit à l’oubli, droit à la limitation du
traitement, obligation de notification en ce qui concerne la rectification
ou l’effacement de données à caractère personnel, limitation du traite-
ment des données, droit à la portabilité des données, droit d’opposition
face à la prise de décision individuelle prise par un algorithme de façon
automatisée).

Des audits pour les algorithmes


Différents organismes auditent les algorithmes. La certification des
systèmes d’intelligence artificielle ou leur validation est une tâche tita-
nesque. Depuis 2016, le gouvernement français a confié à l’institut de
recherche Inria la charge du développement de la plateforme Transalgo
dont l’objet est d’évaluer la transparence des algorithmes, de recenser
et de définir des normes de transparence. Transalgo doit vérifier que
les systèmes d’IA sont conçus de manière qu’ils n’excluent ni ne désa-
vantagent personne dans le domaine des droits humains et sociaux. Des
dérapages peuvent se produire parce que le machine learning est piloté
par des hommes blancs, issus souvent du même milieu. Transalgo doit
encoder l’égalité et anticiper les possibles biais, pour que les stéréotypes
disparaissent des algorithmes.
De son côté, l’Afnor a lancé une commission de normalisation « miroir »
pour relayer ses travaux et défendre les positions des acteurs de l’Hexagone
Les dispositifs de contrôle de l’intelligence artificielle en France 59

dans les projets de textes. Cette nouvelle structure a comme projet de


développer des normes volontaires nationales, susceptibles d’être portées
par la suite au niveau international ou européen. Enfin, la Cnil recom-
mande de former à l’éthique tous les maillons de la « chaîne algorithmique »
(concepteurs, professionnels, citoyens).
15

Le combat entre sécurité et respect


des libertés fondamentales :
la reconnaissance faciale de masse

Au niveau européen, quelle que soit la version du projet de loi adoptée


par le Parlement européen, il est probable que le texte donne lieu à une
épreuve de force avec le Conseil de l’Europe. Notamment, les exceptions
prévues pour les forces de l’ordre sont susceptibles de plaire aux pays
soucieux de sécurité (la France, la Suède ou l’Allemagne intègrent déjà
certains systèmes d’intelligence artificielle comme la reconnaissance faciale
dans leur dispositif de sécurité). En France, certains parlementaires ont
été séduits par une surveillance aéroportée des manifestations avant que
le Conseil constitutionnel français ne s’y oppose. D’autres élus ont été
conquis par les dispositifs de surveillance de masse destinés aux services
de renseignements, contenus dans le projet de loi « relatif à la prévention
d’actes de terrorisme et au renseignement ». D’ores et déjà, même si ces
systèmes sont déployés pour combattre le terrorisme, la Cour européenne
a considéré que ces utilisations n’étaient pas suffisamment encadrées par
des garanties. Le 25 mai 2021, la Cour européenne des droits de l’homme
a condamné le Royaume-­Uni et la Suède pour des abus commis sur
l’inter­ception des données, ce qui ne va pas sans souligner les risques pour
nos sociétés démocratiques.
Le combat entre sécurité et respect des libertés fondamentales… 61

Un groupe d’ONG en Europe attaque Clearview,


spécialiste de la reconnaissance faciale
La start‑up Clearview AI, éditrice d’un logiciel de reconnaissance faciale,
a fait plusieurs fois l’objet de critiques de la part des ONG. En mai 2021,
elle a été attaquée par les ONG Privacy International, Hermes Center of
Transparency and Digital Human Rights, Homo Digitalis et Noyb qui ont
déposé des recours devant les Cnil française, italienne, autrichienne,
grecque et britannique. Ces ONG estiment que l’entreprise viole le RGPD.
16

La position des employeurs de l’industrie

La Fabrique de l’industrie, laboratoire d’idées soutenu par l’UIMM et


France industrie, ausculte les attentes et besoins des acteurs en matière
de liberté, de sécurité et de dignité.
Vis-­à‑vis de l’Internet des objets (objets, robots sur lesquels on greffe de
l’IA), les employeurs de l’UIMM sollicités par la Fabrique de l’industrie
sont ambivalents. D’un côté, ils espèrent de nombreux bénéfices : traça-
bilité des produits en matière environnementale face au consommateur
de plus en plus exigeant, meilleure connaissance des clients finaux, gains
de productivité immenses, fin des tâches dangereuses… De l’autre, ils
redoutent des dérives à l’égard des travailleurs. Ils entrevoient notam-
ment une baisse des qualifications, une perte des savoir-­faire spécifiques,
d’autant que les expertises seront remplacées par des compétences géné-
riques et que des travailleurs polyvalents devront exclusivement piloter
des machines connectées. Dans la transmission des savoirs, ils savent que
les salariés expérimentés seront remplacés par des tutoriels qui permettront
une embauche rapide pour former de jeunes intérimaires peu qualifiés.
Ces employeurs soulignent l’importance de la transformation des métiers
et de l’accompagnement des travailleurs. Ils estiment que ces derniers
doivent être informés de la finalité des projets et accompagnés dans les
évolutions pour réussir l’intégration des outils numériques. Pour l’instant,
seules quelques entreprises associent les représentants du personnel en
La position des employeurs de l’industrie 63

amont des projets impliquant les relations hommes-­machines pour tenir


compte du travail réel accompli au quotidien (et pas de celui prescrit) et
éviter les déconvenues d’une évolution mal comprise ou maîtrisée.
Les employeurs se posent la question de l’accroissement de l’intérêt du
travail au vu de la perte de maîtrise des gestes manuels remplacés par des
consignes sur écran d’une tablette reliée à chaque station de montage. Ils
y voient un risque dans la perte d’autonomie et des compétences, ainsi
que la surveillance généralisée et illimitée au travail que cette technologie
rend possible. En même temps, ils reconnaissent que cette technologie
permet de libérer les humains des tâches le plus pénibles et de prévenir
les accidents de travail.
17

Mettre l’intelligence artificielle


au service de l’environnement

Le Sénat a de son côté adopté une proposition de loi transpartisane le


12 janvier 2021. Elle vise à limiter l’impact du numérique sur la planète :
sanctionner l’obsolescence logicielle, rendre obligatoire l’écoconcep-
tion des sites web, limiter le renouvellement des terminaux numériques
comme les téléphones et ordinateurs, sont parmi les propositions de ce
texte inédit qui répond à une réelle urgence ; si rien n’est fait, d’ici 2040,
le secteur numérique sera plus polluant que le transport aérien.
L’Europe, de son côté, a pour objectif de réduire les émissions de gaz à
effet de serre d’au moins 55 % d’ici à 2030 et d’atteindre zéro émission
de gaz à effet de serre (la neutralité climatique) d’ici à 2050. Le déve-
loppement et l’adoption généralisée de solutions d’IA respectueuses du
climat et de l’environnement ont un fort potentiel pour aider à atteindre
ces objectifs ambitieux.
Dans ses conclusions, le Conseil Environnement en Europe, où siègent
14 ministres de l’Environnement des États membres, a souligné l’impor-
tance de se concentrer sur les impacts négatifs potentiels directs et indirects
de l’IA sur l’environnement, et appelle la Commission à développer des
indicateurs et des normes sur l’impact négatif de la numérisation. Si l’IA
a un fort potentiel pour faciliter la réalisation des objectifs de l’UE en
Mettre l’intelligence artificielle au service de l’environnement 65

matière de climat et d’environnement, la technologie elle-­même a une


empreinte environnementale significative, notamment en termes de
consommation d’énergie.
En mars 2021, 24 États membres, avec la Norvège et l’Islande, ont signé
une déclaration visant à accélérer l’utilisation de technologies numériques
vertes au profit de l’environnement, en encourageant le développement
et l’utilisation d’algorithmes économes en énergie.
18

Le Conseil national du numérique

Dans son rapport intitulé « Anticiper les impacts économiques et sociaux


de l’intelligence numérique », le Conseil national du numérique propose
en mars 2017 de penser la complémentarité homme-­machine à travers
ces questions :
• La tâche nécessite-­t‑elle des capacités cognitives verticales (orientées
sur une tâche très spécifique) ou horizontales ?
• L’automatisation de cette tâche est-­elle acceptable socialement ?
• Cette tâche nécessite-­t‑elle le recours à une intelligence émotionnelle ?
• Cette tâche nécessite-­t‑elle une intervention manuelle complexe ?
• La technologie est-­elle suffisamment avancée pour que cette tâche
soit automatisée ?
Il demande une concertation sur les conséquences économiques et sociales
de l’IA.
19

Le Conservatoire national
des arts et métiers (Cnam) :
vérifier ce que peut faire
l’intelligence artificielle

Le Cnam a créé une chaire sur le « Learning Lab Human Change », dont
la titulaire est Cécile Dejoux. Pour Cécile Dejoux, aussi professeure de
gestion au Cnam, « il devient indispensable de comprendre ce que peut
faire l’intelligence artificielle, mais aussi ce qu’elle ne peut pas faire. Cela
permet de déployer des solutions au bon niveau, de déléguer des tâches
sans pour autant laisser à l’intelligence artificielle un rôle décisionnel, mais
surtout de développer de nouvelles compétences, centrées sur les spécifi-
cités de l’intelligence humaine ». Au cœur de ses recommandations, celle
de ne pas confier l’intelligence artificielle à des seuls experts et former les
DRH à son utilisation est une exigence comme celle du dialogue social,
élément indispensable pour une acceptation de l’intelligence artificielle
au travail.
20

Le Défenseur des droits :


recruter sans discriminer

Face à la prolifération des logiciels et des sites internet de recrutement, le


Défenseur des droits a publié un guide, destiné aux professionnels comme
aux candidats, énumérant des principes comme le droit à la vie privée
(Code du travail), l’interdiction de discriminer (Code pénal), la protec-
tion des données personnelles (RGPD). Il rappelle au passage que seuls
trois métiers peuvent être expressément réservés à des femmes ou à des
hommes : mannequin, modèle et comédien, et que les filtres permettant
de trier des candidats en raison de leur sexe ne sont donc pas autorisés
en dehors de ces exceptions. Il recommande de prévoir des systèmes
limitant la recherche, le tri, la sélection des candidats sur des critères
discriminatoires.
Partie IV

Les exigences de la CFDT Cadres

En 2018, la CFDT Cadres mettait en avant


un certain nombre de recommandations lors de l’introduction
de l’intelligence artificielle, parmi lesquelles un rôle actif
et éclairé des cadres et des managers, au centre des transitions.
Leur marge de manœuvre sur les décisions doit être assurée.
Le dialogue social et professionnel autour
de ces questions est nécessaire.
21

Organiser le dialogue social


en amont des choix et de l’utilisation
des technologies

L’outil informatique doit être placé au service d’un projet humain efficace
et non l’inverse. Il est toujours navrant pour le client de se voir expliquer
par son interlocuteur qu’il voudrait bien vous rendre service, mais qu’il en
est empêché par l’ordinateur… ou que l’ordinateur a un contrôle illimité
sur le salarié, cela dissimulant les exigences de ceux qui ont contribué
à sa mise en place. La CFDT Cadres met en garde contre l’utilisation
de l’IA à l’origine de changements trop réguliers dans l’organisation du
travail, de surcharges cognitives, d’une perte d’autonomie au travail, d’une
perte de sens au travail ou d’un cyberharcèlement. Par conséquent, elle
réclame que les partenaires sociaux soient consultés régulièrement dans
ce domaine lors de l’introduction de l’intelligence artificielle et que la
santé des travailleurs soit protégée. Elle souligne que les choix des techno­
logies et leur utilisation sont entourés d’intérêts contradictoires et que les
travailleurs ont leur mot à dire.
22

Former les équipes syndicales


et les travailleurs à l’intelligence artificielle

La formation des équipes syndicales et des travailleurs aux enjeux de


l’intelligence artificielle est d’autant plus nécessaire que l’intelligence
artificielle entre souvent dans les entreprises ou les administrations sans
discussion. Ce silence sur son introduction laisse les représentants du
personnel sur la défensive. Ils se sentent désarmés, redoutent de ne pas
avoir les clefs pour discuter d’autant plus qu’ils voient des risques pour
l’emploi. Leur sentiment de légitimité est faible face à leur direction
(dont la responsabilité vis-­à‑vis de l’intelligence artificielle doit être
renforcée) ou à des experts, ne leur donnant pas la confiance suffisante
qui leur permettrait de réellement s’impliquer. Par ailleurs, la lisibilité
du dispositif juridique actuel permettant l’intervention des représen-
tants du personnel sur cet enjeu est insuffisante. Ces freins provoquent
donc une faible implication des instances représentatives du personnel
sur l’intelligence artificielle, dans une période où les attentes des salariés
qu’ils représentent évoluent significativement en matière de réévalua-
tion du sens du progrès, de protection de l’emploi et de contrôle des
données. Cela met en évidence un besoin de formation et de sensibili-
sation des équipes et des salariés à l’intelligence artificielle. Aujourd’hui,
seuls 44 % des salariés se déclarent prêts à travailler avec une intelli-
gence artificielle, tandis que 20 % d’entre eux s’estiment suffisamment
Former les équipes syndicales et les travailleurs à l’intelligence artificielle 73

accompagnés sur le sujet, indique une enquête « Intelligence artifi-


cielle et capital humain : quels défis pour les entreprises ? » menée
par Malakoff Médéric et le Boston Consulting Group (BCG) en
mars 2018.
23

Évaluer et négocier les évolutions


des emplois et leurs conséquences

Une étude du Forum économique mondial1 estime que la part globale


du « travail » en nombre d’heures réalisées par les machines va progressive-
ment augmenter pour atteindre 52 % (48 % seront réalisés par l’humain),
alors qu’aujourd’hui la répartition est de 71 % pour l’humain et de 29 %
pour les machines. L’impact sur l’emploi est ainsi avéré, seule l’ampleur
fait encore débat.
Les économistes divergent sur l’impact relatif de l’intelligence artifi-
cielle et de la robotique sur l’emploi des travailleurs. Selon une étude du
28 mars 2018 de France Stratégie, organisme de réflexion placé auprès du
Premier ministre, il est difficile de quantifier l’effet des robots, de l’IA et
des capteurs sur la main-­d’œuvre, car nous ne sommes qu’au début d’une
révolution technologique. France Stratégie a interrogé 1 896 experts sur
l’impact des technologies émergentes ; 48 % d’entre eux ont estimé que
les robots et les agents numériques déplaceraient un nombre important de
cols bleus et de cols blancs, beaucoup craignant que cela entraîne une forte
augmentation des inégalités de revenus, un grand nombre de personnes
inemployables et de ruptures dans l’ordre social. Toutefois, l’autre moitié

1. World economic forum, « The futur of jobs report, Centre for the new economy
and society », 2018, www3.weforum.org/docs/WEF_Future_of_Jobs_2018.pdf
Évaluer et négocier les évolutions des emplois et leurs conséquences 75

des experts ayant répondu à cette enquête (52 %) s’attend à ce que la


technologie ne déplace pas plus d’emplois qu’elle n’en crée d’ici 2025.
Ces experts estiment que, même si de nombreux emplois, actuellement
occupés par des êtres humains, seront en grande partie repris par des robots
ou des agents numériques, l’ingéniosité humaine créera de nouveaux
emplois, de nouvelles industries et de nouvelles façons de gagner sa vie.
Par ailleurs, d’autres études indiquent que l’impact de l’intelligence artifi-
cielle sur l’emploi différera selon les secteurs économiques, selon le degré
d’innovation dans les entreprises et selon le niveau de qualification des
travailleurs.
Ce qui veut dire que pour les syndicats et les représentants de travail-
leurs, il est crucial de négocier l’anticipation et l’accompagnement de la
transformation des emplois et des activités, la mise en place de formations
pour doter les travailleurs de bonnes compétences et éviter de laisser sur
le bord de la route les personnes moins qualifiées, les plus vulnérables, les
jeunes, les femmes, et les personnes porteuses de handicap.
24

Favoriser la mixité
dans les filières numériques

La diversité et la mixité dans les filières numériques sont cruciales pour


contribuer à façonner la vision du monde et ses enjeux, et à amoindrir
les risques de biais des algorithmes dans le domaine des discriminations.
Or, la question de la pénurie des femmes dans les filières numériques
reste un problème majeur. À mesure que le numérique et, demain, l’IA
deviennent prépondérants dans nos vies, la situation est alarmante dans
ces filières tant les femmes sont peu représentées. En 2021, en Europe,
seulement 18 % des femmes travaillent dans le secteur IT. La Commission
européenne propose qu’elles soient 10 millions d’ici 2030 (« Objectifs
numériques 2030 »). En France, un plan pour décliner un objectif si ambi-
tieux et la mobilisation de tous les acteurs dans une action coordonnée et
d’ampleur seront nécessaires. Le dialogue social à tous les niveaux pourra
y contribuer.
25

Évaluer l’intelligence artificielle à l’aune


de la qualité et de la santé au travail

Certains travailleurs peuvent voir l’intelligence artificielle comme une


menace pour leurs méthodes de travail ou comme un risque de remise
en cause de leur place dans l’organisation ou encore comme un défi vis-­
à‑vis de leurs collègues plus technophiles. Tandis que d’autres travailleurs
peuvent se sentir plus productifs, plus puissants avec l’intelligence artifi-
cielle. Bref, l’intelligence artificielle peut être la source pour certains de
problèmes psychiques.
Le choix d’un contrôle illimité, par exemple, peut menacer le droit à des
conditions de travail justes, préservant la santé et la sécurité, la dignité sur
le lieu de travail ainsi que le droit d’organisation des travailleurs. Si les
travailleurs sont constamment surveillés par leurs employeurs, comment
peuvent-­ils se syndiquer et s’organiser collectivement ? Le droit à l’éga-
lité des chances et à un traitement sans discrimination fondée sur le sexe
en matière d’emploi et d’évolution professionnelle peut sortir fragilisé,
lorsque des systèmes véhiculent des préjugés à travers leurs données ou
du fait de leurs concepteurs.
L’intelligence artificielle, si elle est mal ou pas accompagnée, peut être une
source de nouvelles formes de risques psychosociaux basés sur des paramé-
trages de logiciels, liés à l’emploi. Les finalités et l’impact de l’IA sur la qualité
de travail doivent être centraux dans le dialogue social et professionnel.
26

S’assurer que l’humain


reste aux commandes :
surveillance, recrutement,
biais et discriminations

Le contrôle des salariés en télétravail :


des techniques très puissantes doivent relever
d’un choix managérial

La Covid‑19 a été un grand accélérateur de l’utilisation massive des tech-


nologies numériques et d’une généralisation du télétravail. La CFDT
Cadres constate que des moyens de contrôle intrusifs et puissants sur le
travail ont été mis en place sans que cela ait fait l’objet d’une concertation
collective, et parfois même à l’insu des directions.
En 2020, le score d’intention Aberdeen d’achat d’outils de surveillance à
distance des salariés (ISG Research) aux États-­Unis est passé de 1 à plus
de 53 en huit semaines dans 2 000 grandes entreprises, après le début du
premier confinement. La CFDT Cadres a par exemple été alertée du cas
d’un centre français d’appels à dimension internationale, qui avait implanté
un logiciel permettant la surveillance en temps réel et en permanence de
l’écran du télévendeur par le superviseur. Cette surveillance est interdite
par la Cnil depuis novembre 2020. Pour ce qui est de la surveillance
S’assurer que l’humain reste aux commandes… 79

des corps, elle a aussi été informée d’un logiciel utilisé pour faire respecter
la distanciation sociale dans les entrepôts d’Amazon. Ce logiciel a été
appréhendé comme une pratique déshumanisante, puis retiré. Parmi
les choix de management qui se dissimulent derrière l’IA, il peut être
tentant d’utiliser parfois les systèmes d’IA de surveillance et de traçage
des travailleurs, qui permettent de répartir les tâches sans intervention
humaine, d’évaluer et de prévoir le potentiel et les performances des
personnes dans les situations d’embauche et de licenciement. Des logiciels
de contrôle comme Doctor, Sneek, Vericlock, Desktime, ActivTrack,
Hubstaff, Clevercontrol, Teramind… fleurissent et permettent plus de
« tracking » sur le travail et sa mesure.
La fonctionnalité de ces programmes s’est élargie : géolocalisation, enregis-
treur de frappe du clavier, temps passé en ligne sur des sites « productifs »
ou « non productifs », durée de connexion sur les serveurs de l’entreprise,
nombre de courriels envoyés, identité des destinataires sont au menu.
D’autres logiciels opèrent des captures d’écran des ordinateurs toutes les
cinq ou dix minutes, ou révèlent un « comportement digital », pour déceler
d’éventuelles anomalies. Ce comportement, ramené à grande échelle par
l’intelligence artificielle, peut permettre d’opérer un contrôle beaucoup
plus large. Ainsi, le contrôle des heures de connexion et de déconnexion
ainsi que les scores de productivité se sont intensifiés depuis les confine-
ments de 2020 et 2021.
L’utilisation de ces outils doit être discutée avec les managers, dont la
responsabilité, la marge de manœuvre et le pouvoir de décision peuvent
se trouver fortement limités par cette utilisation. Et bien évidemment,
comme la Cnil le souligne, la communauté de travailleurs et leurs repré-
sentants doivent être informés et consultés sur cette utilisation.
80 Les exigences de la CFDT Cadres

Passer d’une culture du contrôle et du présentéisme


à une culture des résultats et de la confiance

La Cnil considère que si elles veulent garder la confiance de leurs salariés,


les entreprises courent de grands risques à surveiller ces derniers au moyen
de logiciels, présentés souvent comme des outils anodins de gestion admi-
nistrative ou d’aide à la productivité. Ces logiciels servent, en théorie, à
rationaliser l’activité de l’entreprise, notamment en rendant visibles les
déséquilibres internes des charges de travail et l’état d’avancement des
projets. Ils assurent pour l’employeur un filtrage, afin que les salariés ne
puissent pas naviguer en ligne sur certains sites internet ou une sécurité
afin qu’ils ne puissent pas extraire des données ou informations sensibles.
Mais la plupart de ces logiciels de traçage de l’activité sont invisibles pour
les salariés qui sont sujets à une surveillance de plus en plus intrusive, ce
qui pose logiquement la question de leur légalité.

Pendant la Covid‑19 et le télétravail « contraint »,


un engouement pour les dispositifs
de contrôle de la productivité
Lors de la crise de la pandémie de la Covid‑19, après le premier déconfi­
nement, les employeurs des entreprises testées ont montré un intérêt
500 fois supérieur pour les dispositifs qui mesurent la productivité des
salariés, une augmentation inédite qui soulève quelques inquiétudes sur
l’avenir managérial2. En France, cette pression a été si intense que la
Cnil a dû publier une « question-­réponse » sur le contrôle de l’activité des
salariés. La Cnil fait état d’une augmentation des plaintes transmises
dans le domaine de la surveillance des travailleurs en 2020.
Ce document souligne que les systèmes de collecte et de traitement
permanent de données, qui permettent d’identifier et de surveiller à
distance l’activité des télétravailleurs, doivent faire l’objet d’une déclara-
tion préalable auprès d’elle. Dans le cas où les formalités déclaratives ne
sont pas remplies, le dispositif de surveillance ou de contrôle est illicite.

2. Kevin Balckwell, « Employees, Pandemics and Productivity: Support (Don’t)


Surveil Your Remote Workforce », ISG, 2020.
S’assurer que l’humain reste aux commandes… 81

L’utilisation de l’intelligence artificielle


dans les recrutements

Utiliser l’intelligence artificielle dans les recrutements est un choix de


management très tentant, car la fonction est chronophage et l’analyse
des milliers de CV, notamment dans les grandes entreprises, fastidieuse.
Certains entretiens en vidéo peuvent être destinés à aider au recrutement
(Easyrecrue, Agent virtuel Vera, Smart Ranking, Hirevue…), avec un
retour immédiat sur le vocabulaire employé ou les expressions faciales du
candidat. Ils peuvent mobiliser trois types d’intelligence artificielle pour
attribuer une note au candidat : la richesse du vocabulaire du candidat
(les mots utilisés sont-­ils courants ou appartiennent-­ils à un langage plus
châtié), la « prosodie » – soit les variations dans le rythme, le ton et l’in-
tensité de la voix – et enfin, les expressions. Mais l’analyse des facteurs
de l’intelligence artificielle ne présume pas forcément de la compétence
du candidat. Cette utilisation et ses résultats ne s’appuient pas sur des
fondements scientifiques et devraient être interdits.
« Lorsque des personnes interagissent avec un système d’IA ou que leurs
émotions ou caractéristiques sont reconnues par des moyens automatisés,
elles doivent en être informées3. »

3. « Proposition de règlement du Parlement européen et du Conseil établissant des


règles harmonisées concernant l’intelligence artificielle », 21 avril 2021.
27

Obtenir la transparence
des paramètres décisionnels
de l’intelligence artificielle

Compte tenu des caractéristiques spécifiques de cette technologie (par


exemple l’opacité, la complexité, la dépendance à l’égard des données, le
comportement autonome), l’utilisation de l’IA peut porter atteinte à un
certain nombre de droits fondamentaux consacrés dans la charte euro-
péenne. Toutes les décisions basées sur des algorithmes et qui impactent
les travailleurs devraient être explicables, interprétables, concises, compré-
hensibles, accessibles et conformes au RGPD. À ce titre, les algorithmes
utilisés par les systèmes d’IA doivent, en préalable, être audités par des
organismes indépendants.
28

Associer les syndicats


à la gouvernance des données

C’est pour cette raison que la CFDT Cadres demande que les représen-
tants des salariés soient associés à la gouvernance des données et aient un
droit de regard sur la qualité des données utilisées par l’IA. Des négo-
ciations sur la collecte des données des salariés sont essentielles lorsque
l’intelligence artificielle est mise en œuvre sur un lieu de travail.
Les données personnelles des travailleurs ne doivent pas être utilisées par
les employeurs sans coordination ni coopération des services de santé
au travail. À cet égard, rappelons l’article 88 du RGPD sur « le traite-
ment des données dans le cadre des relations de travail » qui encourage la
négociation de conventions ou d’accords collectifs sur la protection de
la dignité humaine, des intérêts légitimes et des droits fondamentaux des
personnes concernées. Cet article accorde une attention particulière à la
transparence du traitement et au transfert de données à caractère personnel
au sein d’un groupe d’entreprises, ainsi qu’aux systèmes de contrôle sur
le lieu de travail.
Il est important de rester acteur de ces évolutions et d’interpeller les
directions sur les lieux de travail.
Il faut avoir à l’esprit que l’introduction de l’intelligence artificielle peut
souvent se cacher derrière un outil numérique déjà utilisé, auquel elle
84 Les exigences de la CFDT Cadres

est « ajoutée ». Son arrivée « incognito » dans l’entreprise ne permet pas de


savoir si l’intelligence artificielle a un impact sur les droits de l’homme, sur
les conditions de travail, sur l’accès à l’emploi ou sur l’évolution profes-
sionnelle. Les mesures de conformité, de responsabilité et de réparation
doivent donc commencer par une obligation de transparence.
En tant qu’acteur syndical et en tant que manager, la première question à
poser est donc : mon entreprise/administration utilise-­t‑elle des systèmes
d’intelligence artificielle ?

Huit questions pour évaluer en amont


l’intelligence artificielle sur le lieu de travail
1. Mon entreprise/administration utilise-­t‑elle des systèmes d’IA ?
2. Qui est le commanditaire d’un système d’IA et avec quelle finalité
l’introduit-­il ? Si ce système a été acheté, quel est le sous-­traitant qui
l’a conçu et qui l’a acquis, au sein de l’entreprise et à partir de quels
critères ?
3. À qui le système est-­il utile et à combien de personnes ?
4. À qui peut-­il causer des dommages et vis-­à‑vis de qui comporte-­t‑il
des inconvénients ?
5. Qui est exclu de l’IA et quelle est l’ampleur de la perte des droits
sociaux et sociétaux générée par son utilisation ?
6. Comment la décision d’introduire le système a-­t‑elle été prise, et à
qui a-­t‑on demandé l’avis et selon quelle procédure ?
7. Qui est le propriétaire des données, qui a des droits d’accès ou
d’utilisation ?
8. Les utilisateurs et les employés sont-­ils impliqués dans la conception
de l’IA ?
Partie V

Les apports
des branches professionnelles
sur la transformation des métiers

Les représentants du personnel peuvent, au sein des branches


professionnelles, négocier des accords sur l’utilisation
de l’intelligence artificielle, car l’IA peut avoir un impact
sur des domaines de négociation relevant de leur compétence.
29

La métallurgie :
réfléchissons aux prochaines négociations
sur l’industrie 4.0

La Fédération de la métallurgie CFDT a remporté un appel d’offres


de la DGEFP sur l’industrie 4.0 du futur concernant une démarche de
concertation sociale rendant les salariés acteurs du changement. Le projet
consiste à simuler les changements dans des entreprises tests avant qu’ils
n’arrivent et à constater comment ceux-­ci s’adaptent aux nouvelles orga-
nisations du travail pour choisir les organisations les plus favorables aux
travailleurs de même qu’à l’entreprise. Ce projet doit déboucher sur des
thèmes de négociation syndicats-­employeurs quant à l’introduction des
technologies 4.0.
30

Le commerce :
identifions ce qui est déjà à l’œuvre

Afin d’accompagner les mutations économiques, treize branches de


l’Opcommerce ont signé un Engagement de développement de l’em-
ploi et des compétences (Edec) avec le ministère du Travail sur l’impact
du numérique dans le commerce et la distribution. L’Edec aborde par
conséquent l’impact du digital cognitif ou intelligence artificielle sur les
métiers et les compétences requises. Cette étude vise à mesurer l’impact
de l’IA sur l’ensemble des métiers et des compétences, de la relation client
aux fonctions support et au niveau organisationnel. Elle identifie et analyse
les actions d’ores et déjà mises en œuvre ou en cours d’expérimentation
pour s’adapter à ce nouveau paradigme afin de capitaliser sur les bonnes
pratiques. Il s’agit d’une étude qualitative et prospective menée sur le
terrain et avec le concours d’observateurs du secteur.
31

L’assurance :
recensons les métiers impactés
par l’intelligence artificielle

L’Observatoire des métiers de l’assurance a reçu les représentants d’IBM


en 2017 à propos du logiciel d’IA Watson dans les métiers de la souscrip-
tion. Il a aussi reçu publiquement un représentant de l’ACPR, autorité de
contrôle prudentiel et de résolution, auteur d’un document sur l’intelli-
gence artificielle, enjeu pour le secteur financier, intitulé « Les algorithmes
à l’épreuve de l’éthique ». En octobre 2020, l’Observatoire a publié une
étude sur « Les métiers de la gestion et de la maîtrise du risque au temps
du digital ». Il en ressort que pour rester compétitives et innovantes, les
assurances doivent s’appuyer sur des personnels « hybrides » capables de
créer des passerelles entre différents champs d’expertise. Ce phénomène
d’hybridation semble s’être fortement accéléré avec l’essor des inno-
vations numériques et technologiques. Les emplois de pur traitement
administratif de l’information disparaissent. Partout et à tous les niveaux,
un nombre croissant de postes intègre des rôles transverses. À l’intérieur
des métiers, les spécialités se font plus nombreuses. Désormais, le travail
de tous est orienté par la conception/résolution de problèmes. La valeur
ajoutée de chacun tient davantage à la prise en charge du complexe. Avec
l’intensification des interactions, les différences culturelles entre métiers
90 Les apports des branches professionnelles sur la transformation des métiers

s’atténuent et laissent place à une certaine convergence des identités


professionnelles. L’un des intervenants de ce rapport propose que « les
lacs de données » (data lakes) des organismes d’assurance éthiquement
responsables puissent être confiés à un tiers de confiance en s’assurant
de l’anonymisation des données.
32

La banque :
gérons les emplois et les compétences

L’Observatoire des métiers de la banque a pris la décision, par son comité


de pilotage paritaire, de publier une étude sur l’impact de l’intelligence
artificielle sur les métiers et compétences en décembre 2017. Cette étude
s’inscrit dans la continuité des travaux menés au cours de l’année 2016 :
« La banque à l’horizon 2020-2025 : emploi et compétences, quelles
orientations ? » L’étude soulève l’interrogation suivante : que signifie le
pivotement d’une culture d’entreprise tournée vers le savoir à une culture
d’entreprise tournée vers la supervision ? Quelle est la bonne organisation ?
Elle signale que les outils à base d’IA sont généralement développés par des
tiers sous la forme de briques adaptables dans des systèmes déjà existants.
La tendance observée consiste à transférer à la machine des connaissances
bancaires dans 26 métiers repères. La machine devient progressivement
experte, posant de fait des questions sur la place du collaborateur bancaire
et sur les compétences utiles demain pour exercer un métier. Les outils IA
retenus pour cette analyse sont l’assistant personnel, le chatbot, l’analyseur
d’e‑mails, la reconnaissance optique (pouvant inclure la robotisation de
processus), les systèmes experts de compatibilité. L’une des recomman-
dations de l’étude est de mesurer le temps libéré par ces systèmes.
Selon l’Observatoire des métiers de la banque, huit grandes tendances vont
considérablement impacter le secteur bancaire jusqu’en 2025 : le digital,
92 Les apports des branches professionnelles sur la transformation des métiers

la blockchain, l’intelligence artificielle, l’automatisation des processus, les


changements réglementaires, les nouvelles attentes des collaborateurs, les
transformations des modes de travail et de consommation.
Peu de métiers vont disparaître, la plupart vont se transformer, avec un
renforcement de la spécialisation pour répondre aux nouvelles exigences
du secteur (montée en compétences généralisée). Certains métiers, comme
ceux de la data et de la gestion de projet, vont apparaître ou prendre une
importance capitale dans les entreprises du secteur.
Les changements demanderont une redéfinition des passerelles de mobi-
lité et un accompagnement des collaborateurs dans les transformations.
Les collaborateurs devront, avec l’aide des ressources humaines, devenir
acteurs de leurs parcours de carrière. Les RH auront un rôle capital dans
la montée en compétences des collaborateurs.
Les compétences comportementales vont devenir particulièrement impor-
tantes pour renforcer l’employabilité des collaborateurs et fluidifier la
mobilité. Sept compétences seront particulièrement nécessaires : s’adapter
au changement, apprendre à apprendre, travailler de façon communau-
taire, communiquer/avoir de l’impact, s’orienter vers le client, résoudre
les problèmes et développer ses compétences…
Une excellente maîtrise des compétences techniques restera un prérequis
nécessaire à l’exercice des professions bancaires.

JPMorgan Chase et ses conseillers clients robots


Lors de son arrivée en Grande Bretagne, la première banque américaine
JP Morgan a acquis une petite start‑up, Nutmeg, spécialisée dans la
gestion de fortunes. Ses robots conseillaient 140 000 clients, alors qu’elle
n’employait que 150 salariés. Lorsque la banque HSBC est arrivée en
France en 2005, elle avait acquis le Crédit commercial de France, à un
prix et des coûts humains beaucoup plus élevés. Aujourd’hui, il suffit
d’acheter une fin-­tech en ligne pour entrer sur le marché bancaire. Reste
que l’acquisition de clients reste difficile, car les robots sont certes de
bons conseillers, mais ils ne sont pas de bons commerciaux. Et puis il
faut quand même des employés en bout de chaîne pour résoudre les cas
complexes et pour rassurer les clients. De plus, le risque de cybercrimi-
nalité est potentiellement explosif.
33

Les métiers de l’ingénierie,


du numérique et du conseil

En novembre 2019, une étude de l’Observatoire des métiers du


numérique, de l’ingénierie, du conseil et de l’événement (OPIIEC),
« Formations et compétences sur l’Intelligence Artificielle en France »,
conclut à 7 500 créations nettes d’emploi dans la branche d’ici cinq ans.
Cette analyse dresse un état des lieux des besoins en recrutement, des
compétences recherchées, mais aussi de l’offre de formation disponible
en France.
34

La Poste

La branche numérique du Groupe La Poste fait état de 120 ingénieurs,


docteurs et data scientists spécialisés dans :
• la computer vision qui reconnaît et détecte des objets dans les documents,
qu’il s’agisse d’adresses, de plaques d’immatriculation, d’interprétation
d’images ;
• le machine learning qui prédit des situations de comportements, détecte
des fraudes et optimise le transport de colis ;
• le traitement du langage naturel (NLP) avec des agents conversation-
nels, aussi appelés chatbots ; grâce à l’interprétation de texte dans des
documents, il permet aussi de traiter automatiquement certains e‑mails.
Partie VI

Les textes qui permettent


de négocier l’intelligence artificielle

Il existe d’abord des dispositions du Code du travail


qui permettent aux partenaires sociaux de négocier des accords.
Les lanceurs d’alerte peuvent aussi agir et les syndicats peuvent
les soutenir. Il existe tout un arsenal juridique pour interpeller
une entreprise sur l’introduction interne de technologies
d’intelligence artificielle. Cet arsenal peut être mobilisé au niveau
d’un conseil d’administration, d’un CSE, de ses commissions
ou d’une branche professionnelle. Lorsqu’elles sont saisies,
des administrations publiques ou indépendantes comme l’inspection
du Travail, la Cnil ou le Défenseur des droits peuvent également
apporter leur contribution à cette interpellation. Les sujets
de négociation pouvant servir de vecteur au dialogue social relèvent
le plus souvent de la sécurité et de la santé des travailleurs,
de la gestion prévisionnelle des emplois et des compétences
(GPEC) ou de la transformation des emplois.
Ce sont des sujets invoqués couramment dans les négociations
annuelles ou périodiques.
35

Au conseil d’administration

Les représentants du comité social et économique (CSE) au conseil d’ad-


ministration peuvent demander un avis motivé sur l’IA aux membres du
CA.
La loi du 22 mai 2019, dite loi « Pacte », a prévu la faculté de mettre en
place un conseil d’administration (CA) pour définir une stratégie dans
les sociétés anonymes (SA) et les sociétés par actions simplifiées (SAS).
Si l’intelligence artificielle fait partie de cette stratégie, les représentants
du CSE bénéficient d’une voix consultative au conseil d’administration,
dans les entreprises d’au moins 50 salariés. Ils peuvent assister à toutes les
réunions du conseil d’administration, pour faire passer les recommanda-
tions et les vœux du CSE. Le conseil d’administration doit répondre à ces
vœux par un avis motivé. Dans les sociétés d’au moins 50 salariés, le CSE
est également représenté aux assemblées générales de la société. Ses repré-
sentants sont entendus, à leur demande, lors de toutes les délibérations
requérant l’unanimité des associés (article L. 2312-77 du Code du travail).
Si l’intelligence artificielle n’est pas évoquée en conseil d’administration,
que son introduction est passée sous silence, comme il arrive souvent,
d’autres voies d’intervention sont possibles, notamment par l’intermédiaire
du CSE, de la branche ou des instances administratives.
98 Les textes qui permettent de négocier l’intelligence artificielle

Demander la création d’un comité d’éthique


Un comité d’éthique peut mesurer et définir les limites qu’il faut donner
aux machines. C’est ainsi qu’en juin 2020, CNP Assurances a créé un
comité d’éthique de l’intelligence artificielle. La compagnie s’est dotée
d’une gouvernance dédiée et a nommé un responsable « éthique de l’IA ».
Ce comité a été placé sous la responsabilité du secrétariat général et de
la direction financière.

Poser des questions sur l’intelligence artificielle


Le conseil d’administration a l’obligation de désigner des administrateurs
représentant les salariés dans les sociétés non cotées dont le groupe emploie
au moins 1 000 salariés en France ou 5 000 en France et à l’étranger, et ces
administrateurs salariés devront être au moins deux, si le conseil a plus de
huit membres. Ces administrateurs salariés peuvent poser des questions sur
l’intelligence artificielle, si celle-­ci fait partie de la stratégie de l’entreprise.

Se former à l’intelligence artificielle


Les administrateurs élus par les salariés ou désignés doivent bénéfi-
cier d’une formation dont la durée ne peut être inférieure à 40 heures
(article L. 225-30‑2 du Code de commerce). Pour les « grandes entre-
prises » et pour les sociétés cotées, un fragment de la formation devra
s’effectuer au sein même de l’entreprise. Cette mesure doit permettre aux
administrateurs élus par les salariés ou désignés d’apprendre les enjeux de
l’IA, sous l’angle du conseil d’administration.
36

Dans la branche professionnelle

En matière de négociation de branche, deux références existent : le Code


du travail et le RGPD.

Des thèmes de négociation applicables


à l’intelligence artificielle dans le Code du travail

Livre II : La négociation collective – Les conventions et accords


collectifs de travail
… Titre IV : Domaines et périodicité de la négociation
obligatoire
…… Chapitre Ier : Négociation de branche et professionnelle
Égalité professionnelle entre les femmes et les hommes
– mesures de rattrapage des inégalités – conciliation
entre la vie professionnelle et la vie personnelle des salariés
– conditions de travail – GPEC – effets de l’exposition
aux facteurs de risques professionnels énumérés
à l’article L. 4161-1
……… Section 3 : Dispositions supplétives
………… Sous-­section 3 : Négociation triennale
100 Les textes qui permettent de négocier l’intelligence artificielle

La répartition des thèmes de négociation


selon l’article L. 2241-1

Les organisations liées par une convention de branche ou, à défaut, par des
accords professionnels se réunissent, au moins une fois tous les quatre ans,
pour les thèmes mentionnés aux 1° à 5° et au moins une fois tous les
cinq ans pour les thèmes mentionnés aux 6° et 7°, pour négocier :
1° Sur les salaires ;
2° Sur les mesures tendant à assurer l’égalité professionnelle entre les
femmes et les hommes et sur les mesures de rattrapage tendant à
remédier aux inégalités constatées ainsi que sur la mise à disposition
d’outils aux entreprises pour prévenir et agir contre le harcèlement
sexuel et les agissements sexistes ;
2 bis° Sur les mesures destinées à faciliter la conciliation entre la vie
professionnelle et la vie personnelle des salariés proches aidants ;
3° Sur les conditions de travail, la gestion prévisionnelle des emplois et
des compétences, et sur la prise en compte des effets de l’exposition
aux facteurs de risques professionnels énumérés à l’article L. 4161-1 ;
4° Sur les mesures tendant à l’insertion professionnelle et au maintien
dans l’emploi des travailleurs handicapés ;
5° Sur les priorités, les objectifs et les moyens de la formation profession-
nelle des salariés ;
6° Sur l’examen de la nécessité de réviser les classifications, en prenant
en compte l’objectif d’égalité professionnelle entre les femmes et les
hommes, et de mixité des emplois ;
7° Sur l’institution d’un ou plusieurs plans d’épargne interentreprises
ou plans d’épargne pour la retraite collectifs interentreprises lorsqu’il
n’existe aucun accord conclu à ce niveau en la matière.
Dans la branche professionnelle 101

Exemple : la formation professionnelle


Accord du 5 février 2020 relatif à la formation professionnelle (convention
collective nationale de la Banque du 10 janvier 2000. Étendue par arrêté
du 17 novembre 2004 JORF 11 décembre 2004) : Article 2 Priorités de la
branche et publics prioritaires.
Les parties signataires rappellent l’importance de la formation profes-
sionnelle tant pour les entreprises que pour les salariés qui les
composent. Ils déterminent les axes prioritaires de formation suivants
au niveau de la branche : permettre de maintenir les compétences des
salariés face aux évolutions économiques, technologiques et d’organisa-
tion par une anticipation, un accompagnement et une adaptation face aux
changements, notamment l’intelligence artificielle, les relations clients
via le digital, la blockchain.

L’aide du règlement général européen


sur la protection des données (RGPD)

Le texte du règlement (UE) 2016/679 du Parlement européen et du


Conseil du 27 avril 2016 relatif à la protection des personnes physiques
à l’égard du traitement des données à caractère personnel et à la libre
circulation de ces données (RGPD) est publié sur le site de la Cnil et sur
le site de l’Union européenne.
Le RGPD est applicable depuis le 25 mai 2018 (article 99.2) dans tous
les pays de l’Union européenne. Il s’applique à toutes les entreprises
(y compris leurs CSE), les administrations et les associations qui traitent des
données à caractère personnel. Ce règlement prévoit dans ses articles 5, 40
et 88 des thèmes sur la licéité du traitement des données, sur la protection,
la collecte, la qualité des données, les codes de conduite, thèmes suscep-
tibles d’être repris dans les négociations de branches sur l’IA. Depuis le
1er juin 2019, les dispositions du RGPD ont été retranscrites dans la loi
du 6 janvier 1978 dite « informatique et libertés ».
C’est le RGPD qui a été invoqué en novembre 2020, lorsque quatre
anciens chauffeurs britanniques et un chauffeur portugais ont accusé
102 Les textes qui permettent de négocier l’intelligence artificielle

l’application américaine Uber de les avoir « licenciés » en utilisant un


algorithme sans leur avoir donné le droit de se défendre ou d’en savoir
plus, comme l’exige pourtant l’article 22 de l’European Union’s (EU)
General Data Protection Regulation (GDPR) (règlement général sur la
protection des données). Leur plainte a été déposée devant un tribunal
d’Amsterdam où la plateforme a son siège international.

Rebondir sur l’article 40 du RGPD : les codes de conduite


Les États membres, les autorités de contrôle, le comité et la Commission
encouragent l’élaboration de codes de conduite destinés à contribuer à
la bonne application du présent règlement, compte tenu de la spécificité
des différents secteurs de traitement et des besoins spécifiques des micro,
petites et moyennes entreprises.
Les associations et autres organismes représentant des catégories de respon-
sables du traitement ou de sous-­traitants peuvent élaborer des codes de
conduite, les modifier ou les proroger, aux fins de préciser les modalités
d’application du présent règlement, telles que :
a. le traitement loyal et transparent ;
b. les intérêts légitimes poursuivis par les responsables du traitement dans
des contextes spécifiques ;
c. la collecte des données à caractère personnel ;
d. la pseudonymisation des données à caractère personnel ;
e. les informations communiquées au public et aux personnes concernées ;
f. l’exercice des droits des personnes concernées ;
g. les informations communiquées aux enfants et la protection dont béné-
ficient les enfants, et la manière d’obtenir le consentement des titulaires
de la responsabilité parentale à l’égard de l’enfant ;
h. les mesures et les procédures visées aux articles 24 et 25, et les mesures
visant à assurer la sécurité du traitement visées à l’article 32 ;
i. la notification aux autorités de contrôle des violations de données à
caractère personnel et la communication de ces violations aux personnes
concernées ;
Dans la branche professionnelle 103

j. le transfert de données à caractère personnel vers des pays tiers ou à des


organisations internationales ;
k. les procédures extrajudiciaires et autres procédures de règlement des
litiges permettant de résoudre les litiges entre les responsables du trai-
tement et les personnes concernées en ce qui concerne le traitement,
sans préjudice des droits des personnes concernées au titre des articles 77
et 79.

Se fonder sur l’article 88 du RGPD :


la protection des personnes
Les États membres peuvent prévoir, par la loi ou au moyen de conven-
tions collectives, des règles plus spécifiques pour assurer la protection des
droits et libertés en ce qui concerne le traitement des données à carac-
tère personnel des employés dans le cadre des relations de travail, aux
fins, notamment, du recrutement, de l’exécution du contrat de travail,
y compris le respect des obligations fixées par la loi ou par des conven-
tions collectives, de la gestion, de la planification et de l’organisation du
travail, de l’égalité et de la diversité sur le lieu de travail, de la santé et de
la ­sécurité au travail, de la protection des biens appartenant à l’employeur
ou au client, aux fins de l’exercice et de la jouissance des droits et des
avantages liés à l’emploi, individuellement ou collectivement, ainsi qu’aux
fins de la résiliation de la relation de travail.
Ces règles comprennent des mesures appropriées et spécifiques pour
protéger la dignité humaine, les intérêts légitimes et les droits fondamen-
taux des personnes concernées, en accordant une attention particulière à la
transparence du traitement, au transfert de données à caractère personnel
au sein d’un groupe d’entreprises ainsi qu’aux systèmes de contrôle sur
le lieu de travail.
Chaque État membre notifie à la Commission les dispositions légales
qu’il adopte en vertu du paragraphe 1 au plus tard le 25 mai 2018 et, sans
tarder, toute modification ultérieure les concernant.
L’accord européen entre les partenaires sociaux de juin 2020 rappelle cet
article et son intérêt pour enclencher la négociation collective.
37

Dans l’entreprise

Il est possible de faire entrer l’IA dans les thèmes de négociation ordinaires
prévus par le Code du travail et le Code civil.

Le recours au Code civil


Le Code civil prend en considération les enjeux sociaux et environne-
mentaux de l’entreprise.
L’article 1833 du Code civil a été modifié pour consacrer la notion juris-
prudentielle d’intérêt social et pour affirmer la nécessité pour les sociétés
de prendre en considération les enjeux sociaux et environnementaux
inhérents à leur activité.
Tout dirigeant sera ainsi amené à s’interroger sur ces enjeux à l’occasion
de ses décisions de gestion.
Dans l’entreprise 105

Le recours au Code du travail

Faire appel au CSE


Le fonctionnement du CSE
Livre III : Les institutions représentatives du personnel
… Titre Ier : Comité social et économique
…… Chapitre V : Fonctionnement
……… Section 3 : Dispositions particulières des entreprises
d’au moins cinquante salariés
………… Sous-­section 6 : Commissions
…………… Paragraphe 3 : Dispositions supplétives

L’article L. 2145‑1 pour se former à l’IA au CSE


Les salariés appelés à exercer des fonctions de membres du CSE ou des
fonctions syndicales peuvent bénéficier du congé de formation écono-
mique, numérique et sociale, et syndicale prévu à l’article L. 2145‑5.
L’article L. 2145-5 du Code du travail prévoit : « Tout salarié qui souhaite
participer à des stages ou sessions de formation économique et sociale, de
formation syndicale organisés soit par des centres rattachés aux organi-
sations syndicales mentionnées au 3° de l’article L. 2135‑12, soit par des
instituts spécialisés, a droit, sur sa demande, à un ou plusieurs congés. »

Créer une commission dédiée à l’IA au sein du CSE


La section syndicale et/ou les élus du CSE peuvent demander à créer une
commission au sein du CSE relative à l’intelligence artificielle. En effet,
il est possible par voie d’accord collectif d’entreprise de créer une telle
commission (article L. 2315‑45 du Code du travail1).

1. Un accord d’entreprise conclu dans les conditions prévues au premier alinéa de


l’article L. 2232‑12 peut prévoir la création de commissions supplémentaires pour
l’examen de problèmes particuliers. Le cas échéant, l’employeur peut adjoindre à
106 Les textes qui permettent de négocier l’intelligence artificielle

Celle-­ci pourrait notamment avoir pour objet :


• de contrôler que les données personnelles et leurs traitements par des
algorithmes plus ou moins sophistiqués respectent le RGPD et la loi
informatique et libertés ;
• que l’intelligence artificielle ne génère pas de risques particuliers (par
exemple, des biais discriminatoires) sur la santé ou les conditions de
travail des salariés.
Le CSE pourrait dès lors se baser sur le travail de l’Agence européenne
sur les risques émergents en la matière2 : « Les approches et les normes
techniques actuelles visant à protéger les employés contre les risques du
travail avec des robots collaboratifs, devront être revues dans la perspective
de ces évolutions. » C’est ainsi qu’en 2019, un accord à la Caisse natio-
nale d’assurance maladie a conclu la création d’une commission paritaire,
chargée de préparer les délibérations du comité économique et social
central (CESC) sur les données.

La délégation du personnel au CSE


(article L. 2312‑5 du Code du travail)
La délégation du personnel au comité social et économique (CSE) a
pour mission de présenter à l’employeur les réclamations individuelles ou
collectives relatives aux salaires, à l’application du Code du travail et des
autres dispositions légales concernant notamment la protection sociale,
les conventions et accords applicables dans l’entreprise. Elle contribue
à promouvoir la santé, la sécurité et l’amélioration des conditions de
travail dans l’entreprise et réalise des enquêtes en matière d’accidents du
travail ou de maladies professionnelles ou à caractère professionnel. Elle
exerce le droit d’alerte dans les conditions prévues aux articles L. 2312‑59,
L. 2312‑60 et L. 4133‑2.

ces commissions avec voix consultative des experts et des techniciens appartenant
à l’entreprise et choisis en dehors du comité. Les dispositions de l’article L. 2315‑3
relatives au secret professionnel et à l’obligation de discrétion leur sont applicables.
Les rapports des commissions sont soumis à la délibération du comité.
2. osha.europa.eu/fr/emerging-­risks
Dans l’entreprise 107

Dans une entreprise en société anonyme (SA), lorsque les membres de la


délégation du personnel du comité social et économique (CSE) présentent
des réclamations auxquelles il ne pourrait être donné suite qu’après déli-
bération du conseil d’administration, ils sont reçus par celui-­ci, sur leur
demande, en présence du directeur ou de son représentant ayant connais-
sance des réclamations présentées.
Les membres de la délégation du personnel du comité peuvent saisir
l’inspection du Travail de toutes les plaintes et observations relatives à l’ap-
plication des dispositions légales dont elle est chargée d’assurer le contrôle.

Info-­consultation et expertise sur l’intelligence artificielle


au CSE (article L. 2312‑8 du Code du travail)
Le comité social et économique (CSE) a pour mission d’assurer une
expression collective des salariés permettant la prise en compte permanente
de leurs intérêts dans les décisions relatives à la gestion et à l’évolution
économique et financière de l’entreprise, à l’organisation du travail, à la
formation professionnelle et aux techniques de production…
Le comité est informé et consulté sur les questions intéressant l’organi-
sation, la gestion et la marche générale de l’entreprise, notamment sur :
1° Les mesures de nature à affecter le volume ou la structure des effectifs ;
2° La modification de son organisation économique ou juridique ;
3° Les conditions d’emploi, de travail, notamment la durée du travail et
la formation professionnelle ;
4° L’introduction de nouvelles technologies, tout aménagement impor-
tant modifiant les conditions de santé et de sécurité ou les conditions
de travail ;
5° Les mesures prises en vue de faciliter la mise, la remise ou le maintien
au travail des accidentés du travail, des invalides de guerre, des invalides
civils, des personnes atteintes de maladies chroniques évolutives et des
travailleurs handicapés, notamment sur l’aménagement des postes de
travail.
108 Les textes qui permettent de négocier l’intelligence artificielle

Le comité social et économique mis en place dans les entreprises d’au


moins 50 salariés exerce également les attributions prévues à la section 2.
Depuis les ordonnances Macron, l’introduction de nouvelles technolo-
gies permettrait aux élus des CSE de désigner un expert afin d’exercer
leur mission de prévention, cela, sans que l’on soit obligé de se poser la
question de leurs éventuelles répercussions sur les conditions de travail.
Le CSE peut ainsi faire appel à un expert habilité (L. 2315‑94) en cas
« d’introduction de nouvelles technologies ou de projet important modi-
fiant les conditions de santé et de sécurité ou les conditions de travail »
(articles R. 2315‑51 et R. 2315‑52 pour les modalités d’habilitation de
l’expert).
Le coût de l’expertise est pris en charge à 80 % par l’employeur et à 20 %
par le CSE (art. L. 2315‑80, 2o du Code du travail).
Toutefois, l’employeur devra malgré tout prendre en charge à 100 % le
coût de l’expertise si le budget de fonctionnement du CSE est insuffisant
et qu’il n’y a pas eu transfert d’excédent annuel du budget de fonction-
nement vers le budget destiné aux activités sociales et culturelles au cours
des trois années précédentes (art. L. 2315‑80, 3o du Code du travail).
De même, la prise en charge des expertises décidées en cas d’existence d’un
risque grave (pouvant être issu d’une nouvelle technologie) est prise en
charge à 100 % par l’employeur (art. L. 2315‑80, 1o du Code du travail).

Télétravail : quels sont vos droits


face aux dispositifs de contrôle à distance ?
Pour être valable, tout dispositif de contrôle des salariés doit respecter
les libertés et droits fondamentaux (article L. 1121‑1 du Code du travail),
au premier rang desquels se trouve la vie privée (arrêt Nikon cour de
cassation, chambre sociale, du 2 octobre 2001, 99‑42.942). Le respect
des prescriptions du règlement général sur la protection des données
(RGPD), lorsque le dispositif touche à des données personnelles, est
incontournable. De plus, le comité social et économique (CSE) doit être
informé et consulté préalablement, afin d’appréhender en amont le
dispositif de contrôle et ses conséquences. Le contrôle doit être justifié,
Dans l’entreprise 109

proportionné (accord national interprofessionnel relatif au télétravail du


19 juillet 2005) et loyal. En effet, l’employeur est également soumis à une
obligation de loyauté envers ses salariés.
En principe donc, l’employeur ne peut surveiller constamment ses
salariés (sauf dans des cas exceptionnels dûment justifiés au regard
de la nature de la tâche). Il ne peut en tout état de cause, selon la Cnil,
procéder :
– à la surveillance constante au moyen de dispositifs vidéo (tels qu’une
webcam) ou audio. Il peut s’agir, par exemple, de la demande faite par
un employeur à un employé de se mettre en visioconférence tout au
long de son temps de travail pour s’assurer de sa présence derrière
son écran. Un tel système qui place les salariés sous surveillance
permanente est excessif : il ne peut donc être mis en œuvre, qu’il
s’agisse de poursuivre un objectif de sécurité ou un objectif de surveil-
lance du temps de travail. Des moyens alternatifs moins intrusifs
existent pour ce faire ;
– au partage permanent de l’écran et/ou l’utilisation de « keyloggers »
(logiciels qui permettent d’enregistrer l’ensemble des frappes au
clavier effectuées par une personne sur un ordinateur). De tels
procédés sont particulièrement invasifs et s’analysent en une surveil-
lance permanente et disproportionnée des activités des employés ;
– à l’obligation pour le salarié d’effectuer très régulièrement des actions
pour démontrer sa présence derrière son écran comme cliquer toutes
les x minutes sur une application ou prendre des photos à intervalles
réguliers.
De plus, le Code du travail prévoit une obligation de transparence de
la part de l’employeur concernant l’usage des données personnelles :
« Aucune information concernant personnellement un salarié ne peut
être collectée par un dispositif qui n’a pas été porté préalablement à sa
connaissance » (art. L. 1222-4 du Code du travail).
Sur le sujet, voir aussi le guide du télétravail de la CFDT Cadres3.

3. www.cadrescfdt.fr/sites/default/files/2021-04/Guide%20CFDT%20Cadres%20
-%20Guide%20N%C3%A9gocier%20le%20t%C3%A9l%C3%A9travail.pdf
110 Les textes qui permettent de négocier l’intelligence artificielle

Faire appel à la base de données économiques et sociales


(BDES)
Réclamer des informations pour la BDES
(article L. 2312‑36 du Code du travail)
En l’absence d’accord prévu à l’article L. 2312‑21, une base de données
économiques et sociales, mise régulièrement à jour, rassemble un ensemble
d’informations que l’employeur met à disposition du comité social et
économique (CSE).
Cette base de données est accessible en permanence aux membres de la
délégation du personnel du comité social et économique ainsi qu’aux
membres de la délégation du personnel du comité social et économique
central d’entreprise (CCSE) et aux délégués syndicaux (DS).
Les informations contenues dans cette base de données portent sur les
thèmes suivants :
1° Investissements : investissement social (emploi, évolution et répartition
des contrats précaires, des stages et des emplois à temps partiel, forma-
tion professionnelle, évolution professionnelle et conditions de travail),
investissement matériel et immatériel et, pour les sociétés mention-
nées aux I et II de l’article L. 225-102‑1 du Code du commerce, les
informations en matière environnementale présentées en application
du III du même article ;
7° Flux financiers à destination de l’entreprise, notamment aides publiques
et crédits d’impôts ;
8° Sous-­traitance ;
9° Le cas échéant, transferts commerciaux et financiers entre les entités
du groupe.
Ces informations portent sur les deux années précédentes et l’année en
cours, et intègrent des perspectives sur les trois années suivantes.
Le contenu de ces informations ainsi que les modalités de fonctionnement
de la base sont déterminés par un décret en Conseil d’État, le contenu
pouvant varier selon que l’effectif de l’entreprise est inférieur ou au moins
égal à 300 salariés.
Dans l’entreprise 111

Les membres de la délégation du personnel du comité social et écono-


mique, du comité social et économique central d’entreprise et les délégués
syndicaux sont tenus à une obligation de discrétion à l’égard des informa-
tions contenues dans la base de données revêtant un caractère confidentiel
et présentées comme telles par l’employeur.
À noter, un employeur ne peut arguer que la BDES comporte des données
personnelles pour refuser de transmettre certains documents. Selon le
référentiel de la Cnil, sont destinataires de données RH « les instances
représentatives du personnel, pour les données strictement nécessaires à
leurs missions dans les conditions fixées par les textes applicables4 ».

Lancer une alerte


À la suite de la loi Blandin 2013 santé et environnement, voire aussi de
la loi Sapin II de décembre 2016, le Code du travail a prévu un droit
d’alerte éthique, dans des cas précis et une protection du lanceur d’alerte.
Pour que la protection du lanceur d’alerte s’applique, il faut que ces actes
soient constitutifs d’un délit ou d’un crime, d’une violation de la loi ou
d’une menace ou un préjudice grave pour l’intérêt général.

L’article L. 4133‑1 du Code du travail sur le domaine d’action


des lanceurs d’alerte
Le travailleur alerte immédiatement l’employeur s’il estime, de bonne
foi, que les produits ou procédés de fabrication utilisés ou mis en œuvre
par l’établissement font peser un risque grave sur la santé publique ou
l’environnement. L’alerte est consignée par écrit dans des conditions
déterminées par voie réglementaire. L’employeur informe le lanceur
d’alerte de la suite qu’il réserve à celle-­ci.

4. www.cnil.fr/sites/default/files/atoms/files/referentiel_grh_novembre_2019_0.pdf
112 Les textes qui permettent de négocier l’intelligence artificielle

Les articles L. 1132‑3 et L. 1132-3‑3 du Code du travail


sur la protection du lanceur d’alerte
Aucun salarié ne peut être sanctionné, licencié ou faire l’objet d’une
mesure discriminatoire pour avoir témoigné des agissements définis aux
articles L. 1132‑1, L. 1132‑2 et L. 1132-3‑3 ou pour les avoir relatés.
Le salarié aurait donc le statut et la protection de lanceur d’alerte s’il
témoigne par exemple sur les biais ou les effets discriminatoires résultant
d’algorithmes.

Informer et signaler au délégué à la protection des données (DPO)


l’alerte si elle porte sur une intelligence artificielle et/ou
sur une violation du droit à la protection des données
Pour toute problématique ayant trait à une IA ou aux données person-
nelles des travailleurs, un salarié, via un syndicat ou directement, peut
contacter le délégué à la protection des données. En tant que « chef
d’orchestre » de la conformité en matière de protection des données au
sein de l’organisme qui l’a désigné, il est chargé de répondre à l’ensemble
de ces questions et le cas échéant, de les résoudre avec le responsable du
traitement (qui s’avère souvent l’employeur).

Les travailleurs des plateformes


Le droit à créer un syndicat pour négocier
Le gouvernement français a adopté, le 21 avril 2021, une ordonnance
no 2021‑484 qui met en place une forme de représentation collective
des travailleurs des plateformes, mais uniquement pour les travailleurs
définis à l’article L. 7341-1 du Code du travail, c’est-­à‑dire les chauffeurs
de voiture et les livreurs « au moyen d’un véhicule à deux ou trois roues,
motorisé ou non ». Ce texte prévoit l’organisation d’une élection des
représentants des travailleurs des plateformes en 2022.
En attendant que ces travailleurs aient droit à une négociation collective,
le projet d’ordonnance présenté en mars 2021 prévoit une obligation de
négociation au moins une fois par cycle électoral de deux ans. Le contenu
Dans l’entreprise 113

de cette négociation est laissé au libre choix des représentants, parmi sept
thèmes dont celui des conditions d’exercice de l’activité ou des modalités
de détermination du revenu des travailleurs.

Le droit à la représentation collective


La loi no 2016-1088 du 8 août 2016 dite « loi El Khomri » place le travail-
leur des plateformes du côté du travailleur indépendant, même si la donne
pourrait changer avec les préconisations issues du rapport Frouin, tout
en lui reconnaissant des droits collectifs très similaires à ceux des salariés.
Le droit d’association, par exemple, est un droit de l’homme ; que le
travailleur soit indépendant ou non, il dispose de ce droit. C’est ainsi que
des travailleurs de plateformes ont créé des syndicats. Il leur reste à ouvrir
les portes de la négociation collective. Les travailleurs indépendants ont
désormais un droit de négocier protégé par le droit européen.
À cet égard, la CFDT a créé en 2020 une association pour défendre
collectivement les droits des indépendants : Union Indépendants5.
Le rapport Frouin suggère aujourd’hui de salarier les travailleurs des plate-
formes, via un portage salarial ou une coopérative d’activité et d’emploi,
et d’organiser une élection nationale pour permettre aux travailleurs d’être
représentés.

Europe : de nombreux tribunaux


statuent sur les plateformes
En Europe, de nombreuses décisions, parfois divergentes, s’appliquent
au secteur des plateformes numériques.
En Italie, la justice a donné trois mois aux plateformes pour requalifier
les contrats des livreurs.
En Espagne, après que la Cour suprême a requalifié en septembre 2020
les livreurs à vélo comme des salariés, le gouvernement a annoncé, après
accord syndicats-­patronat, un décret sur la reconnaissance du statut de
salarié aux livreurs.

5. www.union-­independants.fr
114 Les textes qui permettent de négocier l’intelligence artificielle

Au Royaume-­U ni, Uber, sous la pression des juges, a annoncé le


16 mars 2021 que l’entreprise allait donner à ses 70 000 chauffeurs
britanniques un statut pour percevoir un salaire minimum. Ce statut est
intermédiaire entre celui d’indépendant et celui de salarié.
En France, durant les premiers mois de l’année 2021, les cours d’appel
de Paris et de Lyon ont refusé plusieurs demandes de travailleurs indé-
pendants en plateformes digitales concernant la requalification de leur
contrat en contrat de travail. Notamment, un livreur de Deliveroo avait
demandé la requalification de son contrat en application des arrêts de la
chambre sociale de la Cour de cassation de novembre 2018 (Cass. Soc.,
28 novembre 2018 no 17-20.079, Take eat easy) et de mars 2020 (Cass.
Soc., 4 mars 2020 no 19-13.316, Uber).
Celui-­ci avait soulevé que les conditions tant contractuelles que d’exé-
cution de la relation étaient caractéristiques d’un lien de subordination
permanent. Mais la cour d’appel a écarté tout lien de subordination,
arguant que le livreur avait :
– une liberté de choix des jours ou des créneaux de livraison ;
– la possibilité de réaliser ou non des prestations selon ses propres
convenances ;
– la possibilité de collaborer avec d’autres plateformes ;
– la faculté de sous-­traiter des prestations de livraison, etc.
Cette décision ne va pas à l’encontre de l’ordonnance de la CJUE du
22 avril 2020 (aff. no C-692/19). La CJUE, avait rejeté la requalification
en s’appuyant sur les critères suivants :
– la liberté de choisir quand et où travailler ;
– la liberté de choisir l’amplitude horaire de travail ;
– la liberté de mettre fin à son partenariat à sa convenance ;
– la liberté de refuser une course ;
– la liberté de travailler avec une plateforme concurrente ;
– la liberté de sous-­traiter son activité…

Le droit à la négociation collective


À la suite d’une affaire portée par la Confédération irlandaise des syndicats,
le Comité européen des droits sociaux (CEDS), comité d’experts qui
Dans l’entreprise 115

veille sur la Charte sociale européenne, a conclu, dans une décision du


12 décembre 2018, que les travailleurs indépendants bénéficiaient d’un
droit à la négociation collective. Mais les décisions du comité n’ont pas
de caractère contraignant, ce qui amoindrit considérablement l’efficacité
de ce contrôle.

Plateformes : une charte de la responsabilité sociale,


homologable par la direction générale du Travail
Le 23 octobre 2020 est parue la troisième version d’un décret prévu par
la loi d’orientation sur les mobilités, adoptée fin 2019, qui organise les
relations entre services et travailleurs. Ce texte précise que les plate-
formes peuvent se doter d’une « charte de responsabilité sociale ». C’est
la « première étape pour réguler les relations entre les plateformes et
les travailleurs », a commenté le ministère du Travail. Cette charte devra
être déposée auprès de la direction générale du Travail (DGT), au minis-
tère, qui pourra l’homologuer. Pour son homologation, la société devra
fournir les documents attestant « du résultat de la consultation préalable
des travailleurs sur le contenu de la charte, du nombre de travailleurs
consultés, du nombre de travailleurs qui se sont exprimés ; des moda-
lités d’organisation de la consultation ». La DGT vérifiera la conformité
du contenu de la charte.
Attention, une charte de responsabilité sociale entre les plateformes
et les travailleurs ne vaut pas présomption de non-­salariat pour ces
derniers (Cons. const., 20 déc. 2019, no 2019‑794).

Rester vigilant sur l’intelligence artificielle des sous-­traitants


La loi no 2017-399 du 27 mars 2017 relative au devoir de vigilance des
sociétés mères et des entreprises donneuses d’ordre concerne en plus des
sociétés françaises qui emploient au moins 5 000 salariés en leur sein ou
dans les filiales situées en France, les sociétés françaises qui emploient au
moins 10 000 salariés dans le monde. Le siège de la société doit être situé
en France, mais ses filiales détenues directement ou indirectement peuvent
être établies dans un pays tiers. Ainsi, une société française qui emploie
11 000 salariés dans le monde, dont 2 000 en France, sera couverte par la loi.
116 Les textes qui permettent de négocier l’intelligence artificielle

Ces sociétés doivent établir, publier et mettre en œuvre un plan de vigi-


lance pour prévenir les risques graves envers les droits humains et la liberté
fondamentale, la santé et la sécurité des personnes, et l’environnement,
qui résultent de leurs activités ainsi que celles de leurs filiales, sous-­traitants
et fournisseurs, en France comme à l’étranger.
Ainsi des sociétés mères ou donneuses d’ordre qui auraient recours à de
la sous-­traitance au moyen du micro-­travail (effectuer une recherche
sur le Web, retranscrire une phrase, légender une photo, répondre à un
questionnaire sur un ordinateur ou un smartphone, rapportant quelques
centimes d’euros) pourraient dans certains cas constituer des atteintes
graves aux droits humains, aux libertés fondamentales ou à la santé et
sécurité des personnes.
Si de tels manquements sont constatés, et après mise en demeure, « toute
personne justifiant d’un intérêt à agir » peut alors saisir le juge pour lui
demander d’enjoindre l’entreprise de respecter ses obligations, le cas
échéant sous astreinte.

Le recours au Code du commerce


L’arrêt Uber Elite, rendu par la CJUE le 20 décembre 2017 sur le terrain
du droit commercial, indique que les coursiers de cette entreprise étaient
dépendants de la plateforme, et que celle-­ci était donc bien une entreprise
de transport. Il ne reste plus qu’un pas pour en déduire que cette dépen-
dance donne à la négociation collective d’accords collectifs de travail par
des organisations syndicales propres ou partagées une nature et un objet
qui l’excluent du champ d’application de l’article 101 TFUE, qui régit
les règles communes sur la concurrence, la fiscalité et le rapprochement
des législations.
Dans l’entreprise 117

Le recours au cadrage de l’UE

Demander l’information/consultation des travailleurs


via la directive 2002/14/CE
La directive 2002/14/CE établit un cadre général sur l’information et
la consultation des travailleurs dans la Communauté européenne. Elle
fixe des normes procédurales minimales pour la protection des droits des
travailleurs à être informés et consultés au sujet de la situation économique
et de l’emploi touchant leur lieu de travail. Sont ainsi visés par ce cadre :
a. les entreprises employant dans un État membre au moins 50 travailleurs ;
b. les établissements employant dans un État membre au moins 20 travail-
leurs. La directive prévoit :
–– l’information sur l’évolution récente et l’évolution probable des
activités ;
–– l’information et la consultation sur la situation, la structure et
l’évolution probable de l’emploi au sein de l’entreprise ou de
l’établissement, ainsi que sur les éventuelles mesures d’anticipation
envisagées, notamment en cas de menace sur l’emploi ;
c. l’information et la consultation sur les décisions susceptibles d’entraîner
des modifications importantes dans l’organisation du travail ou dans les
contrats de travail, y compris celles visées par la directive 98/59/CE
relative aux licenciements collectifs et la directive 2001/23/CE relative
au maintien des droits des travailleurs en cas de transfert d’entreprises,
d’établissements ou de parties d’entreprises ou d’établissements. Les
États membres peuvent confier aux partenaires sociaux au niveau
approprié, y compris au niveau de l’entreprise ou de l’établissement, le
soin de définir librement et à tout moment par voie d’accord négocié
les modalités d’information et de consultation des travailleurs.
118 Les textes qui permettent de négocier l’intelligence artificielle

Vérifier le respect de la norme ISO santé au travail et robots


La norme ISO/TS 15066:2016 créée par l’Organisation internationale
de normalisation sur les robots collaboratifs s’adresse aux fabricants, aux
intégrateurs et aux utilisateurs, et elle fournit des lignes directrices pour
la conception et l’organisation de l’espace de travail, et la réduction des
risques auxquels les personnes peuvent être exposées. Les travailleurs
doivent être formés à utiliser l’IA et à la robotique, à travailler avec elles
et, en particulier, à pouvoir les arrêter en cas d’urgence (principe de
l’emergency brake). C’est ce que rappelle dans son article 4.1.4 l’avis du
Comité social et économique européen « Renforcer la confiance dans
l’intelligence artificielle axée sur le facteur humain6 ».

Vérifier le maintien des droits en cas de transfert d’entreprise


La directive 2001/23/CE du Conseil concernant le maintien des droits des
travailleurs en cas de transferts d’entreprises, d’établissements, de parties
d’entreprises ou de parties d’établissements (consolidant les directives du
Conseil 77/187/CEE et 98/50/CE) prévoit que les représentants des
travailleurs doivent être informés des raisons du transfert et de ses consé-
quences ; elle contient également des dispositions essentielles concernant
le maintien des contrats de travail et des droits des travailleurs en cas de
transfert.
Le règlement 4064/89, modifié par le règlement 1310/97 et le règle-
ment 447/98 (en cas de fusion concentration d’entreprises) exigent
l’approbation des autorités de concurrence de la Commission européenne
dans les cas de concentrations de dimension communautaire. Il permet
également aux représentants reconnus des travailleurs dans les entreprises
concernées, s’ils en font la demande, d’être consultés par la Commission
lors de son évaluation.

6. NDE : avis rapporté par Franca Salis-Madinier.


Dans l’entreprise 119

Les questions au Comité d’entreprise européen

Demander des informations sur la santé/sécurité au travail


La directive 2009/38/CE du Parlement européen et du Conseil du
6 mai 2009 concerne l’institution d’un comité d’entreprise européen ou
d’une procédure dans les entreprises et les groupes d’entreprises de dimen-
sion communautaire en vue d’informer et de consulter les travailleurs.
Au niveau européen, la directive 89/391/CEE du 12 juin 1989 aspire,
selon son propre intitulé, à « la mise en œuvre de mesures visant à promou-
voir l’amélioration de la sécurité et de la santé des travailleurs au travail ».
Son noyau dur est la prévention. Cette directive s’applique à tous les
secteurs d’activité privés ou publics : les activités industrielles, de services,
mais aussi éducatives, administratives, de loisirs, etc. mais pas dans la
« fonction publique » lorsque des « particularités inhérentes à certaines acti-
vités spécifiques […] s’opposent » à son application, et cela « de manière
contraignante ». À l’heure actuelle, les travailleurs indépendants sont
écartés de son application car la définition du travailleur au sein de cette
directive est trop restrictive (voir l’article 3, a de la directive) et ne permet
pas d’englober les travailleurs indépendants.
L’article 5 de cette directive du 12 juin 1989 vise une protection de la
santé qui se rapporte à « tous les aspects liés au travail ». La France considère
dans sa loi de transposition du 31 décembre 1991 qu’il s’agit de prévenir
les risques professionnels. L’article L. 4121‑1 du Code du travail dispose
que « l’employeur prend les mesures nécessaires pour assurer la sécurité
et protéger la santé mentale et physique des travailleurs ». Cette direc-
tive prévoit d’informer sur l’existence des risques pour assurer une prise
de conscience de ceux-ci par le travailleur. Dans son article 6, elle fait
entrer dans le cadre des responsabilités de l’employeur tant les activités de
prévention des risques professionnels que d’information et de formation
sur ces risques.
120 Les textes qui permettent de négocier l’intelligence artificielle

Le recours au prochain règlement


sur les systèmes d’intelligence artificielle
Le 21 avril 2021, la Commission européenne a publié sa proposition de
règlement établissant des règles harmonisées sur l’IA. Prenant en compte
trois catégories de systèmes algorithmiques (les systèmes auto-­apprenants,
les systèmes logiques et les systèmes statistiques : art. 3,1 du présent règle-
ment), le projet de règlement propose de les réguler selon une approche
fondée sur les risques. Ce projet de régulation est soumis à l’approbation
du Parlement européen et des gouvernements des 27 pays membres.
D’abord, plusieurs pratiques pourraient être interdites, dont notamment
(art. 5 § 1) :
• l’exploitation de la vulnérabilité d’un groupe de personnes en vue de
fausser le comportement de l’une de ces personnes et de causer un
dommage ;
• des systèmes d’intelligence artificielle de notation sociale mis sur le
marché.
Ensuite, plusieurs intelligences artificielles utilisées au travail pourraient
être considérées automatiquement à haut risque et faire l’objet de protec-
tions pour les travailleurs. Cela concerne notamment (art. 6 § 2) :
• l’identification biométrique et la catégorisation des personnes
physiques ;
• l’intelligence artificielle utilisée pour l’accès à l’éducation et l’accès à
l’emploi ;
• l’intelligence artificielle utilisée dans la gestion des salariés et l’accès
au travail indépendant.
Dans ces hypothèses, un certain nombre d’obligations supplémentaires
pèseraient sur « l’utilisateur » employeur, dont celles (art. 29) :
• d’exercer un contrôle sur les données d’entrée, de veiller à leur
pertinence ;
• d’utiliser l’IA conformément aux instructions d’utilisation ;
• de suspendre l’utilisation de l’IA en cas de doute sur sa conformité.
Dans l’entreprise 121

Si un employeur utilise des systèmes d’intelligence artificielle prohibés


ou ne respecte pas ces obligations lorsque ceux-­ci sont considérés à haut
risque, les représentants du personnel pourraient l’interpeller. Il serait
alors passible, en cas de méconnaissance du projet de règlement, d’une
amende administrative pouvant aller jusqu’à 20 millions d’euros, ou si le
contrevenant est une entreprise, d’un montant pouvant aller jusqu’à 4 %
de son chiffre d’affaires (art. 71 § 4).
38

À l’extérieur de l’entreprise

Le recours au code de la consommation

Les articles L. 224-42‑1 et L. 224-42‑4 pour récupérer


des données électroniques à la suite de contrats de services
Le droit à la portabilité et le droit d’accès issus également du RGPD
offrent aux personnes la possibilité de récupérer une partie de leurs
données dans un format ouvert et lisible par machine. Elles peuvent ainsi
les stocker ou les transmettre facilement d’un système d’information à un
autre, en vue de leur réutilisation à des fins personnelles.
Livre II : Formation et exécution des contrats
… Titre II : Règles de formation et d’exécution
de certains contrats
…… Chapitre IV : Règles spécifiques à des contrats
ayant un objet particulier
……… Section 3 : Contrats de services de communications
électroniques
………… Sous-­section 4 : Récupération et portabilité
des données
À l’extérieur de l’entreprise 123

Vérifier la responsabilité de l’entreprise


dans les produits défectueux
La directive 85/374/CEE sur la responsabilité du fait des produits défec-
tueux, qui date de 1985, prévoit qu’un fabricant est responsable des
dommages causés par un produit défectueux. Or, avec un système fondé
sur l’IA tel que la voiture autonome, il peut être difficile de prouver la
défectuosité du produit une fois le dommage survenu et le lien de cause
à effet entre les deux. De plus, il peut être malaisé de déterminer de quelle
manière et dans quelle mesure la directive sur la responsabilité du fait des
produits s’applique à certains types de défauts, notamment s’ils résultent
de faiblesses dans la cybersécurité du produit. Un projet de règlement sur
les produits est proposé par la Commission européenne en avril 2021 ;
celui-­ci devrait actualiser la directive de 1985, rendue en partie obsolète
au vu des évolutions liées à l’IA.

Orienter les travailleurs vers le Défenseur des droits


Le Défenseur des droits7 peut être saisi dans la lutte contre les discrimina-
tions et il favorise l’accès aux droits des victimes de tels faits.
C’est au travailleur de saisir le Défenseur des droits (le syndicat peut
l’orienter vers lui), qui lance l’alerte dans le domaine de la santé, de l’en-
vironnement, de la sécurité sanitaire, du respect des droits fondamentaux.

Orienter les travailleurs vers la Cnil


La Cnil est chargée de veiller à la protection des données personnelles du
travailleur et elle répond en ligne aux questions du type : mon employeur
peut-­il demander le nombre de points qu’il reste sur mon permis de
conduire ? Puis-­je refuser que ma photographie figure dans l’annuaire

7. www.defenseurdesdroits.fr/
124 Les textes qui permettent de négocier l’intelligence artificielle

du personnel ? Mon employeur peut-­il enregistrer ou écouter mes


conversations téléphoniques à mon insu ? Puis-­je utiliser ma messagerie
professionnelle pour des messages personnels ? Puis-­je stocker des dossiers
et fichiers personnels dans mon ordinateur professionnel ? Peut-­on me
filmer en permanence sur mon poste de travail ? Mon employeur doit-­il
m’informer de l’installation d’une caméra ? Mon employeur peut-­il lire
les documents identifiés comme personnels ?
Une plainte peut, par exemple, être adressée à la Cnil si lors d’un recrute-
ment, d’une évaluation, un travailleur n’arrive pas à connaître, malgré ses
demandes, les informations le concernant détenues par son employeur. Un
recours peut être introduit si un travailleur ne peut consulter les images
vidéo ou les données de géolocalisation le concernant, dans un dispositif
de vidéosurveillance sur son lieu de travail. Idem pour les données de
badgeage. La Cnil traite des décisions d’algorithmes, elle se préoccupe
de consentement.
La Cnil peut effectuer des contrôles auprès de tout organisme traitant des
données à caractère personnel disposant d’un établissement en France, ou
concernant des personnes résidant en France.
La Cnil s’appuie notamment sur le RGPD en vigueur depuis le
25 juin 2018. Ce dernier adapte la loi informatique et libertés du
6 janvier 1978 au « paquet européen de protection des données ».
C’est un levier juridique important pour les travailleurs confrontés à l’IA :
ces dernières années, la Cnil a reçu plus de 2 000 plaintes par an relatives
à la surveillance ou au contrôle des salariés via des technologies.
Le 21 janvier 2019, la formation restreinte de la Cnil a prononcé une
sanction de 50 millions d’euros à l’encontre de la société Google LLC en
application du RGPD pour manque de transparence, information insatis-
faisante et absence de consentement valable pour la personnalisation de la
publicité. Il s’agit à ce jour de la plus grosse amende prononcée par cette
autorité dans le cadre du RGPD. Son précédent record était une sanction
de 400 000 euros, prononcée à l’encontre de l’application de VTC Uber.
À l’extérieur de l’entreprise 125

Orienter les travailleurs vers l’inspection du Travail


Les inspecteurs du Travail disposent d’un pouvoir d’appréciation sur les
suites qu’ils entendent donner aux infractions constatées. Leurs décisions
dépendent notamment de la gravité de l’infraction, des circonstances dans
lesquelles cette dernière a été constatée, de la bonne foi de l’employeur
et de ses antécédents.
L’inspection du Travail est régulièrement saisie à l’occasion de contestation
des limites entre travailleurs indépendants et salariés. Le parquet de Paris
a reçu courant février 2020 un procès-­verbal de l’inspection du Travail
dénonçant des infractions qui auraient été commises par Deliveroo, une
plateforme de livraison de repas à domicile, qui joue le rôle d’intermé-
diaire entre restaurants et particuliers. Avec Deliveroo, l’inspection du
Travail s’attaque à l’ubérisation. Selon l’inspection du Travail et l’Urssaf,
la plateforme n’emploierait pas des livreurs indépendants, mais salariés,
qui ne devraient pas se déclarer en tant que micro-­entrepreneurs. Le
parquet a été saisi à Paris et à Nantes. L’Urssaf estime que le montant des
cotisations non versées en 2015 et 2016 dépasse 6,4 millions d’euros. Le
dossier est donc actuellement « à l’étude » au parquet.
Selon un communiqué d’Unieuropa, en Espagne, l’inspection du Travail
estime que 4 000 livreurs d’Amazon ont abusivement été qualifiés de
travailleurs indépendants. Elle évalue à 6 millions d’euros les cotisations
sociales dont Amazon serait redevable.

Lancer une action collective


Depuis l’entrée en vigueur du RGPD, les organisations syndicales repré-
sentatives peuvent exercer une action de groupe en violation du droit
sur les données personnelles (art. 80, RGPD (UE) 2016/679). Tel pour-
rait être le cas de salariés qui estimeraient avoir subi un préjudice en
matière de protection de leurs données personnelles résultant notam-
ment d’un système d’évaluation, de contrôle trop intrusif. Ils pourraient
alors faire appel à une organisation syndicale représentative qui exercerait
126 Les textes qui permettent de négocier l’intelligence artificielle

à ce titre une action de groupe devant le juge (art. 37, loi no 78‑17 du
6 janvier 1978). À condition toutefois que ce manquement soit dû au
responsable du traitement (par exemple, l’employeur ou la plateforme
numérique) ou à un sous-­traitant (par exemple, l’entreprise ou la personne
chargée de la gestion des données personnelles des salariés) et qu’au moins
deux travailleurs aient subi un préjudice moral ou matériel en résul-
tant (art. 4, 7 RGPD (UE) 2016/679). Le juge pourra, le cas échéant,
prononcer l’arrêt du système d’évaluation ou de contrôle ayant abouti
à une violation des données personnelles et indemniser les travailleurs
rattachés à l’action de groupe.
En guise de conclusion…

La CFDT Cadres est convaincue que l’intelligence artificielle offre des


opportunités mais comporte aussi des risques. Pour limiter ces derniers,
cette technologie doit être orientée et gouvernée pour que son intro-
duction soit bénéfique aux travailleurs, aux citoyens et à la planète. Les
applications d’IA, utilisées et déployées dans les organisations, doivent être
compatibles avec le respect des droits fondamentaux et servir les objectifs
de neutralité carbone.
La proposition de régulation européenne va dans le bon sens dans les
limites évoquées. L’humain doit avoir le dernier mot et il est crucial que
la décision humaine soit préservée face à la machine dans toutes les situa-
tions. Dans les lieux de travail, il est nécessaire d’impliquer les RH et les
partenaires sociaux, de former les acteurs aux enjeux éthiques et sociaux
de l’IA. Les outils de dialogue social et de négociation sur cette techno-
logie existent et ils doivent être activés lors des travaux des comités sociaux
et économiques (CSE) comme lors des négociations. La CFDT Cadres
soutient des acteurs publics tels que l’Inria et la Cnil, ou encore l’action
du réseau Anact, et celle du Cnam dans le domaine de la formation. Le
syndicat est persuadé que le développement technologique peut et doit
contribuer au progrès économique et social, et à la transition écologique.
Pour que ces transformations soient justes et profitent à l’ensemble de la
société, elles doivent être anticipées, négociées et débattues.
Dans l’interaction travailleurs-­machines intelligentes, la CFDT Cadres
insiste pour que l’humain ne devienne jamais l’exécutant de la machine.
Au contraire, la technologie doit servir à plus de participation, de respon-
sabilité, d’appropriation des processus de production par l’humain afin
que, comme le souligne la Constitution de l’Organisation internationale
du travail (OIT), le travail procure à ceux qui l’exercent la satisfaction de
donner toute la mesure de leur habileté et de leurs connaissances, et de
contribuer le mieux possible au bien-­être commun.
INTERVIEWS
IL FAUT AGIR SYNDICALEMENT
EN AMONT ET VEILLER
À LA TRANSPARENCE
DES ALGORITHMES

Vincent Gimeno
Vincent Gimeno est DSC-­adjoint chez Orange et référent CFDT
pour les salariés cadres. Il est représentant titulaire
aux comités de groupe Europe et Monde d’Orange.

Comment se passe l’introduction de l’IA


dans le groupe Orange ?
Chez Orange, l’intelligence artificielle n’a jamais été, malgré nos
demandes répétées, un élément du dialogue social. Les institu-
tions représentatives du personnel n’ont jamais été consultées
sur l’introduction de ces IA.
La CFDT a initié des groupes de réflexions sur le sujet, dont il
ressort des préconisations que nous serions prêts à partager avec
l’entreprise.
Dans le même temps, Orange déploie l’intelligence artificielle
pour augmenter l’efficacité opérationnelle de la relation client
d’Orange Bank et d’Orange France. Près de 80 % des appels
d’Orange Bank sont traités par un chatbot et il y a aussi des chat-
bots chez Orange France.
Pendant la crise Covid‑19, la direction du groupe a décidé unila-
téralement d’introduire l’IA pour optimiser le réseau d’Orange,
car le volume des données transportées (e‑mails, vidéos, télé-
travail) avait explosé. Cela est possible car les réseaux évoluent
d’éléments physiques (hardware) au « tout informatisé ». Ces opti-
misations, entre autres, alliées à la baisse de qualité des vidéos
par exemple, ont permis de maintenir opérationnels nos réseaux
132 Le guide de l’intelligence artificielle au travail

en absorbant l’augmentation de 40 % du trafic ; dans le futur, l’IA


permettra la maintenance prédictive de ces réseaux.

Concrètement, comment cela se traduit-­il ?


Le manque de concertation en amont induit des difficultés consta-
tées dans la mise en œuvre. En effet, étant mis devant le fait
accompli des déploiements, plutôt que d’anticiper l’impact sur les
personnes et sur les processus métiers en amont, nous devons
intervenir en aval.
Par exemple, si l’IA peut traiter des tâches simples, comment
pourra-­t‑on entraîner les nouvelles recrues et leur apprendre
leur métier ? Comment tenir compte de la surcharge cognitive
induite par le traitement quasi exclusif de cas complexes par les
conseillers clients ?
L’IA va-­t‑elle remplacer les conseillers clients, ou aider ces
conseillers dans l’acte de vente, ayant en mémoire beaucoup plus
d’offres, pour trouver la plus adaptée au client ?
Pour nous, il est important que l’humain garde l’interprétation
et le relationnel avec le client final. Aujourd’hui, il peut encore y
avoir de l’interaction entre l’humain et l’IA. Mais demain, lorsque
l’IA aura fait des progrès, qu’en sera-­t‑il ?
Il existe aujourd’hui des moteurs de dialogue naturel, dont on ne
sait pas dire si c’est une IA ou un humain qui s’exprime. Demain,
on risque donc de ne plus distinguer une IA d’une personne.
L’entreprise a la responsabilité de dire au client s’il parle avec
un être humain ou une machine.
Avec la softwarisation des réseaux, l’humain pourrait ne plus
intervenir. Ce seront des ordinateurs qui parleront à des ordi-
nateurs. Si demain l’IA assure de manière autonome des tâches
complexes à plusieurs degrés, il faut absolument que l’humain
se réserve le dernier mot.
La CFDT Orange souhaite que soit mis en place un comité d’ex-
perts qui se réunissent pour valider la pertinence des gisements
Interviews 133

de données et la transparence des algorithmes. Elle demande qu’il


y ait un « go » ou « veto » qui soit donné par les partenaires sociaux.
On ne déploie pas une IA dans un service ou un processus, sans
savoir, pour qui, comment, avec qui, pourquoi, et avoir anticipé
l’accompagnement des salariés.

Vous n’aviez pas signé un accord


sur la transition numérique ?
La CFDT a en effet signé un accord portant sur « l’accompagne-
ment de la transformation numérique » chez Orange. Si le droit
à la déconnexion apparaît avec les droits et devoirs des salariés,
les droits d’accès, d’oubli et de rectification des données person-
nelles des salariés liées aux applications internes n’ont pas été
complètement mis en œuvre. Les démarches préalables avant
de lancer de nouveaux services aux salariés n’ont pas non plus
toujours eu lieu, ni les études d’usages numériques inappropriés
au niveau d’un service. De la même façon, l’application permettant
à chacun d’avoir conscience de ses usages des moyens numé-
riques a tardé à venir.
Dans cet accord, un comité national des transformations numé-
riques a été créé. Il permettait de travailler sur des aspects
prospectifs à moyen et long terme, et de voir présentés en amont
les initiatives et nouveaux services liés à la transformation numé-
rique du groupe. Le comité, avec l’éclairage d’experts, pouvait
émettre des recommandations. Ce comité n’a pas perduré.
Nous pensons qu’aujourd’hui, il faudrait se focaliser sur la perti-
nence de l’utilisation de l’IA selon les processus et les métiers
visés, la transparence complète des algorithmes, développés en
interne ou par un prestataire et la qualité des données pour éviter
les biais.
Dès l’amont, il faut prévoir l’accompagnement des salariés dans
la transformation des métiers et des compétences.
L’entreprise, ces derniers temps, a trop focalisé sur le savoir-­être
et l’adaptabilité des salariés. La mise en œuvre de l’IA montre
134 Le guide de l’intelligence artificielle au travail

au contraire l’importance des savoir-­faire, dans l’entraînement


des IA, l’accompagnement des équipes et les réglages opération-
nels lors des mises en œuvre.
Nous sommes tous dans un contexte où 50 % des métiers vont être
transformés et certains, disparaître d’ici 2030. Il y a un enjeu fort
pour les salariés, capital humain de l’entreprise, qui seuls seront
déterminants dans la réussite de la transformation.

Qu’allez-­vous demander ?
En fait, l’IA est un programme informatique conçu par des déve-
loppeurs humains et basé sur un gisement de données. La qualité
du gisement de données et les choix des développeurs dans l’al-
gorithme induisent la façon dont l’IA va réagir. Il peut y avoir des
biais.
Nous souhaitons une totale transparence et un échange sincère
au sein d’un comité paritaire sur les données et les algorithmes.
Si on n’est pas transparent sur les biais, le gisement des données,
cela peut poser des problèmes lors de la mise en œuvre.
D’autre part, il vaut mieux accompagner les salariés vers les
nouveaux métiers et compétences, y compris les managers, qui
ont un rôle important à jouer dans la connaissance des métiers
et l’aide à la compréhension des transformations.
Il faut une vraie GPEC, alors qu’Orange ne dispose pas d’accord
GPEC valablement signé aujourd’hui.

Quid de la charte Orange, qui vient d’être annoncée


par la direction dans la presse ?
La charte inclusive est principalement un objet marketing. Il n’y
a pas de lien avec une mise en œuvre opérationnelle de l’IA, les
engagements sont très vagues.
Interviews 135

N’allez-­vous pas retenter un nouvel accord numérique ?


On a aujourd’hui un problème de calendrier social du fait de la
Covid‑19 qui décale les négociations. Il est peu probable que l’on
entre en négociation sur ce thème avant le second semestre 2021.
Nous souhaitons négocier, comme indiqué, autour de la transpa-
rence du déploiement de l’IA dans l’entreprise. Il faut poser des
garde-­fous à son déploiement. Les déploiements de l’IA concer-
nant l’ensemble des filiales du groupe dans le monde, cela doit
être un accord monde.
Si on n’explique pas l’IA, elle peut devenir une raison de crainte
importante et de rejet des salariés.
On doit prendre en compte que l’IA peut avoir un rôle bénéfique
dans les réseaux fixes et mobiles, en dimensionnement, en opti-
misation et donc en consommation. Néanmoins, ces déploiements
doivent se faire en transparence avec les IRP et les organisations
syndicales, et pas de manière unilatérale.
LA LOI AIDE LE SALARIÉ
À RÉCUPÉRER
SES DONNÉES PERSONNELLES,
C’EST PARFOIS BIEN UTILE

Abel Gouttenoire
Abel Gouttenoire est diplômé de droit privé.
Il fait partie de l’équipe « Mutations du travail et des organisations
en temps de crise » du Centre de recherches critiques
sur le droit (équipe de recherche). Il rédige actuellement
une thèse intitulée « Normativité algorithmique
et droit du travail », à l’université Lumière Lyon 2.
Il est chargé d’études en droit social à la CFDT.

Comment apporter ses données personnelles


comme preuves lors d’un conflit avec son employeur ?
En général, les salariés ont du mal à nourrir leur dossier aux
prud’hommes lorsqu’ils sont en conflit. Alors que les employeurs
détiennent beaucoup de données sur eux, qui peuvent être utili-
sées comme preuves.
Pour assurer leur défense et obtenir gain de cause, il est donc
essentiel pour les travailleurs de savoir comment la loi leur
permet de récupérer leurs propres données personnelles.
D’autant que dans l’entreprise, ils laissent de plus en plus de
traces numériques, témoignant de leurs aptitudes profession-
nelles, comportementales, de leurs compétences, de leurs
capacités à échanger, autant d’informations qui peuvent nourrir
avantageusement un dossier.
Interviews 137

Comment peuvent-­ils avoir accès à leurs propres


données personnelles lorsque ces dernières ont été
traitées par un algorithme d’intelligence artificielle ?
Tout simplement en invoquant le droit d’accès issu du RGPD et de
la loi informatique et libertés. Ce droit s’agrège à un régime plus
vaste que je qualifie de « droit de rattachement » à ces données
personnelles : les salariés peuvent faire jouer leur droit d’accès à
l’information, à la transparence, à la portabilité de leurs données
personnelles. Ils ont inversement aussi un droit de « détache-
ment » sur ces dernières : soit un droit à la déconnexion ou, moins
connu, celui à bénéficier d’une intervention humaine lorsqu’un
traitement automatisé (tel qu’une IA) génère des conséquences
importantes ou juridiques pour eux. Dans ce cas, les travailleurs
peuvent contester la décision prise par l’IA en se référant à cette
personne.
Ces droits, et plus particulièrement le droit d’accès, n’ont peu
ou pas encore généré de contentieux ou de précontentieux. Il y a
apparemment très peu d’avocats en droit du travail qui utilisent
le droit d’accès pour récolter des éléments de preuve et/ou pour
l’invoquer devant le juge.
Comme le relevait une ancienne conseillère prud’homale, il y a une
méconnaissance flagrante du droit d’accès par les juristes en droit
du travail. Il n’en reste pas moins que celui-­ci existe.

Le fait d’avoir été filmé ou traité par un logiciel


de reconnaissance faciale complique-­t‑il la donne ?
Non. Lorsqu’un salarié est sanctionné à cause de vidéos issues
de vidéosurveillance, il n’a généralement pas accès aux films ou
aux images concernés. Mais il peut faire jouer son droit d’accès à
ses informations en vertu de l’article 15 du RGPD, et cela, quand
bien même il aurait quitté l’entreprise. Il peut aussi réclamer ces
mêmes éléments lorsqu’une machine à reconnaissance faciale
tente de recenser ses potentialités ou émotions (par exemple, les
expressions de son visage). Ce travailleur peut ainsi demander
138 Le guide de l’intelligence artificielle au travail

à son employeur ses données personnelles issues d’un traitement


direct (images, vidéos, voix) ou indirect (les données de localisation
par e‑mail, les données de connexion, l’adresse IP de l’ordinateur).
Plus intéressant, le salarié peut aussi demander toutes les infor-
mations générées ou produites à partir de ses données, que des
algorithmes auraient utilisées. C’est-­à‑dire ce qu’on appelle du
profilage ou des décisions prédictives. Ainsi, par exemple, le
candidat à l’embauche peut réclamer d’accéder aux données
de son recrutement par intelligence artificielle (voir le logiciel
Easyrecrue) et se procurer l’analyse de ses entretiens vidéo et la
décision qui en a découlé. Si des algorithmes classent sa candi-
dature ou l’évaluent, il a le droit d’accéder à leur fonctionnement
et de comprendre la décision qui en découle. Par exemple, sa
notation via un logiciel de benchmarking ou son classement via un
logiciel de ranking peuvent produire des effets juridiques comme
une augmentation salariale ou une évolution de carrière. De ce
fait, le travailleur pourra demander sur quels critères et pourquoi
ces évaluations algorithmiques ont eu de telles conséquences. En
matière de dossier disciplinaire, si le salarié est accusé de ne pas
avoir été présent au travail, il est en droit de demander les données
qui prouvent son absence ou les données de géolocalisation.

Et lorsque des décisions ont été prises à partir


de l’analyse des données ?
S’il s’est fait évincer ou s’il n’a pas eu d’augmentation à cause
d’un algorithme, le travailleur peut demander les données qui
ont aidé son employeur à prendre ces décisions. Comment va-­t‑il
demander ce droit d’accès ? Il peut le faire par écrit ou par voie
électronique. Il devra alors préciser sur quoi porte sa demande
c’est-­à‑dire être précis sur les documents ou données demandées
qui le concernent (données d’évaluations sur quelles temporalités
avec quels logiciels ou nombre d’e‑mails, etc.). Il adressera dans
ce cas son courrier au responsable du traitement (à l’employeur).
Je lui conseille de bien préciser l’objet de sa demande, sans quoi
l’employeur peut refuser celui-­ci au motif que la demande est
Interviews 139

abusive (trop générale). Pour la vidéosurveillance, je lui conseille


de préciser les heures et les dates, par exemple, ou d’éviter de
demander une copie des données personnelles sur l’ensemble de
sa carrière. Une motivation de la demande n’est pas nécessaire.

Quels sont les délais ?


L’employeur a un délai maximum d’un mois (article 12.3 du RGPD),
sauf demande complexe où une prolongation de deux mois est
possible pour répondre au salarié. Cela permet au salarié de
récolter des éléments de preuve avant que son action prud’ho-
male ne soit prescrite. Si l’employeur refuse ou n’est pas capable
d’expliquer le fonctionnement intrinsèque de l’IA, il devra expliquer
comment des recommandations de l’IA ont pu produire cet effet
ou cette décision pour le travailleur.

Quelles sont les sanctions pour l’employeur ?


Ces droits sont d’autant plus intéressants que l’employeur peut
perdre jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise,
après une plainte auprès de la Cnil. Le droit des données person-
nelles est un droit puissant dans sa portée. Ce droit est toutefois
limité par quelques éléments : lorsque son exercice porte atteinte
aux intérêts des tiers (il s’agit d’un e‑mail qui impliquerait un
collègue du salarié par exemple) ; s’il porte atteinte au secret des
correspondances ou au secret des affaires. Ce droit découle de
la loi informatique et libertés, il a un cadre européen (RGPD) et
il comporte des sanctions très importantes. La mobilisation du
droit des données personnelles permet de rééquilibrer le rapport
de travail. De plus, les entreprises doivent être en capacité de
démontrer par des analyses d’impacts que les traitements algo-
rithmes à haut risque qu’elles réservent aux salariés (logiciels
de recrutement, d’évaluation, de surveillance…) sont conformes
à cette réglementation. L’idée est que les acteurs sociaux sont
responsables face à l’IA. Si l’un des acteurs pense qu’une IA porte
atteinte aux droits des salariés ou des représentants du personnel,
il peut toujours saisir la Cnil.
L’EMPLOYEUR JOUE
UN JEU TROUBLE SUR
LA RESPONSABILITÉ DES PRATICIENS
CONSEILS EN MATIÈRE
DE SECRET MÉDICAL

Emmanuelle Soustre
Emmanuelle Soustre est praticien conseil à l’Assurance maladie
(direction régionale du service médical à l’Assurance maladie
en Occitanie). Elle est chargée des relations avec
les professionnels de santé pour le secteur dentaire.
Son activité de militante s’articule autour de deux mandats :
celui de déléguée syndicale centrale pour la Cnam entreprise
(le siège et les directions régionales du service médical) et celui
de présidente du Syndicat national des personnels de direction
des organismes sociaux (régime général avec les branches
famille, vieillesse, maladie, accidents du travail, recouvrement,
Pôle emploi, mutuelles complémentaires…). Enfin, elle est élue
au Bureau national de la CFDT Cadres. Elle partage sa vision
de la problématique des données sur les assurés à la Cnam.

Comment se présente la problématique des données


sur les assurés à la Cnam, d’autant que celles-­ci
sont très liées au secret médical ?
À la Cnam, en matière de données de santé sur les assurés,
l’employeur joue un jeu trouble dans le domaine de la respon-
sabilité des praticiens conseils vis-­à‑vis du secret médical et,
tout récemment, dans la double écoute liée à la Covid‑19. Ce
jeu se concrétise de deux façons : le contournement de certaines
difficultés liées au secret médical, la gestion des implications du
contact tracing.
Interviews 141

Qu’entendez-­vous par « contournement


du secret médical » ?
La CFDT a eu à négocier avec l’employeur, il y a quelques années,
un accord-­cadre à la Cnam, pour les instances représentatives
du personnel (IRP) qui comportait une commission sur l’exercice
des praticiens conseils.
Les praticiens conseils sont garants du secret médical inhérent
aux données de santé dont ils ont connaissance. Ces profession-
nels sont regroupés au sein d’un corps de contrôle indépendant.
Ce corps rend des avis. Il a un code de déontologie qui soumet son
activité au secret médical. Les agents administratifs travaillant
auprès des praticiens conseils signent un engagement individuel
de secret professionnel. La violation de ce secret relève du pénal
et peut aboutir à un emprisonnement d’un an et à 10 000 euros
d’amende (articles 226‑13 et 226‑14 du Code pénal). Ce secret
médical s’impose sauf en cas, par exemple, de constatation de
sévices physiques sur personne vulnérable ou encore de maladies
à déclaration obligatoire, comme dans le cas de la Covid‑19 où un
décret a levé cette obligation. En novembre 2019, dans l’accord-­
cadre sur les IRP, l’employeur a étendu les prérogatives de la
commission relative à l’activité des praticiens conseils à la protec-
tion des données. Cela afin d’éclairer les élus du CSE central dans
leurs avis. Cette commission s’est réunie deux fois. Elle a constaté
que l’employeur avait essayé de contourner les difficultés liées
au secret médical dans certaines activités. Tel est le cas pour la
cellule intitulée « recours contre tiers », placée sous l’autorité
fonctionnelle d’un médecin-­conseil. Ces cellules, sur l’ensemble
du territoire, récupèrent un milliard d’euros par an auprès de tiers
responsables d’accidents corporels d’assurés, dans les accidents
de la route, par exemple. Elle calcule l’assiette du préjudice et
les frais remboursés à l’assuré pour se retourner ensuite contre
l’assurance du tiers et récupérer des fonds. Les agents de ces
cellules n’ont pas de lien hiérarchique avec le médecin-­conseil
responsable de la cellule, mais ils ont un lien fonctionnel qui
implique que s’ils divulguent une information médicale, c’est
le médecin-­conseil qui sera sanctionné pénalement. La CFDT a
142 Le guide de l’intelligence artificielle au travail

alerté la direction de l’aspect faillible de cette organisation et a


saisi la commission relative à l’activité des praticiens conseils,
pour demander que la Cnam établisse un système de gestion des
données des assurés juridiquement robuste. Depuis cinq ans, elle
est toujours sur ce sujet.

Quid du secret médical dans le contact tracing ?


Pendant la pandémie de la Covid‑19, le contact tracing permet
à la Cnam de contacter les patients zéros, pour alerter, tester,
protéger l’entourage et prévenir la maladie. Dans le cadre de
la gestion de la crise sanitaire, la Cnam a mis en place une
démarche d’amélioration des doubles écoutes téléphoniques
concernant le contenu des conversations des praticiens conseils,
dans les brigades Covid‑19, pratiquant le contact tracing. Dans ce
qui touche à la Covid‑19, le secret médical a été levé par décret et
ces écoutes ont révélé que les patients ou les familles touchées
évoquaient au téléphone des sujets médicaux très divers, autres
que la Covid‑19, et parfois élargis à de nombreuses personnes.
La CFDT a alerté la Cnam sur le fait qu’un tiers écoute la qualité
des échanges, ce qui est contraire au secret médical. Par ailleurs,
elle a estimé que cette double écoute posait la question de la
protection, de l’enregistrement, de la conservation des données
sur les assurés.

Y a-­t‑il d’autres sujets de sécurité concernant


les données ?
Il y a la question de la maintenance des outils informatiques qui
contiennent ces données de santé. Les personnes chargées de
la maintenance peuvent avoir accès à des données sensibles et
les divulguer. Comment faire pour assurer le secret médical ?
Parmi d’autres sujets concernant les données des assurés et
qui ne relèvent pas des sujets susceptibles d’un avis en CSE, il
y a l’hébergement des données des assurés ou l’anonymisation
des données. Tout récemment, le ministre de la Santé Olivier
Interviews 143

Véran a indiqué qu’il ne souhaitait pas que le lieu de stockage des


données de l’Assurance maladie, qui constitue la plus grosse base
de données en Europe, soit hébergé par Microsoft. Par ailleurs,
l’anonymisation des données pourrait être utile à la Cnam, dans
une démarche de santé publique, pour mieux cerner, par exemple,
l’explosion de l’obésité et du diabète, qui pèse sur les finances – et
si elle peut permettre de mieux appréhender ces maladies et de
mieux les soigner, cela ferait autant d’économies potentielles. Les
institutions représentatives du personnel restent sans recours
sur ces sujets‑là.
LA COMMISSION EUROPÉENNE
PEUT DÉCIDER DE RENDRE
UNE NORME D’INTELLIGENCE
ARTIFICIELLE OBLIGATOIRE
DANS 27 PAYS

Philippe Saint-­Aubin
Philippe Saint-­Aubin représente la CFDT au sein du Conseil
économique, social et environnemental. Il fait partie
d’un groupe de travail de la CFDT sur l’intelligence artificielle
et surveille particulièrement la question des normes.

Où sont élaborées les normes en matière


d’intelligence artificielle ?
La fabrication de normes en matière d’intelligence artificielle se
réalise à deux niveaux dans le monde. Elle se fait en Europe grâce
au Comité européen de normalisation (CEN). À l’échelle inter-
nationale, elle se réalise grâce à un organisme international de
standardisation. Ces deux organismes s’occupent aussi bien des
yaourts que de la taille des camemberts, de l’écartement des rails
de chemin de fer que de l’intelligence artificielle.

Ces normes doivent-­elles être appliquées


obligatoirement ?
Non. Pour l’instant, le Comité européen de normalisation et l’or-
ganisme international de standardisation produisent plus des
« documents de travail » que des textes opposables aux entre-
prises. Si une entreprise européenne ne respecte pas leurs
normes en matière d’IA, elle n’encourt donc aucune sanction.
La question est de savoir si les normes de ces deux entités dans
Interviews 145

le domaine de l’intelligence artificielle feront l’objet d’un label à


l’avenir, et si ce label sera opposable.

Quels types de normes sont créés actuellement ?


Une palanquée de normes sur l’IA est en train de se créer. Mais
celles-­ci sont pour le moment purement techniques. On peut
prendre comme exemple d’IA technique, la façon dont l’IA va
distinguer les différents accents dans les langues parlées ou celle
dont les machines vont dialoguer (format des données, codes)
ensemble. Mais comme le diable se cache dans les détails, il
existe aussi des normes purement techniques qui touchent à la
gestion des données et/ou au respect de la vie privée…

Quelle est l’approche de l’Europe en matière


de normes ?
En matière d’intelligence artificielle, l’Europe s’intéresse aux
questions de qualité, de confiance et d’éthique. Par rapport aux
États-­Unis et à la Chine, elle essaye d’avoir une approche plus
centrée sur l’homme.
À la demande de la Commission européenne, le Comité européen
de normalisation a dessiné une « road map » (feuille de route)
sur ce qu’il pense utile en matière de normes et de sujets. Il
souligne ainsi que la qualité, la gestion des données, la sécurité
et le respect de la vie privée, l’éthique, l’ingénierie des systèmes
d’IA, la sécurité et la responsabilité méritent un traitement.
Autant de thèmes potentiels sur la table du Comité de normali-
sation. De son côté, la Commission peut décider de rendre une
norme européenne obligatoire dans 27 pays.
Au niveau européen, il y a eu un travail similaire à la road map
du Comité européen de normalisation dans le domaine de la
cybersécurité. Rappelons que ce comité rassemble tous les
organismes de normalisation des États membres, dont l’Afnor
pour la France.
146 Le guide de l’intelligence artificielle au travail

Et au niveau mondial ?
Au niveau mondial, il existe aussi des normes dans le domaine
de l’IA mais elles sont là encore purement techniques (formats
de messages, description de systèmes).

Cela veut-­il dire que les normes n’ont aucun impact


sur les élus du personnel dans les entreprises ?
Pour les élus d’entreprise, évidemment, ces sujets n’ont pas d’im-
pact. Mais ils peuvent quand même avoir une importance sérieuse
pour eux. La surveillance dans le cadre du télétravail, via l’IA,
sera un sujet relativement important, par exemple. Et c’est pour
cela que la Confédération européenne des syndicats (CES) a un
comité technique qui travaille sur les normes d’IA. Si on n’a pas de
normes au niveau des pays, ce sont les entreprises qui prendront
le pouvoir avec leurs propres normes. Et là, tout est possible.
FACE À L’INTELLIGENCE ARTIFICIELLE,
IL S’AGIT TOUJOURS
DE SE RENSEIGNER, DE QUESTIONNER
ET DE DONNER DU SENS

Emmanuel Gaubert
Emmanuel Gaubert est chef de projets, délégué syndical CFDT
SPEA-­IDF à Orano Projets Saint-­Quentin-­en-­Yvelines, filiale
experte dans l’ingénierie du cycle du combustible nucléaire,
qui met à disposition de ses clients internes et externes
une large gamme de solutions : conseil, études d’ingénierie,
construction et essais, projets clés en main ou encore
de démantèlement. Orano Projets est engagé dans un plan
de continuité numérique (au sens du partage de données entre
les logiciels et de perspectives de massification de l’utilisation
de ceux-­ci), et la section locale d’établissement CFDT
y participe en se renseignant, en questionnant l’entreprise,
ou en donnant du sens à l’introduction de ce sujet.

Comment l’IA est-­elle reçue chez Orano Projets ?


Que l’intelligence artificielle ou les techniques assimilées soient
présentes ou pas dans l’entreprise, les trois lois du syndicalisme
chez Orano Projets sont les mêmes dans la pratique. Il s’agit
toujours de se renseigner, de questionner, et de donner du sens.
La pratique de la CFDT montre qu’en matière d’intelligence arti-
ficielle, les élus d’Orano Projets sont pertinents de la même façon
que sur les autres sujets au travail, avec les mêmes outils, et
majoritairement sur des sujets transverses classiques.
Les militants et élus se renseignent sur le terrain. Salariés,
experts, preuves de concept, présentation des métiers, publi-
cations sont les canaux classiques explorés. Cette première
phase correspond à un moment où la section syndicale d’Orano
148 Le guide de l’intelligence artificielle au travail

s’est mise à discuter d’IA et plus largement, de transforma-


tion numérique, ce qui a assuré l’autoformation du groupe. La
section syndicale a conseillé à un salarié la manière de gérer sa
démarche de formation de plusieurs mois en matière d’intelli-
gence artificielle. La formation a eu lieu alors que l’entreprise
avait par ailleurs investi dans de la formation en IA pour plusieurs
ingénieurs en sûreté ou génie civil, par exemple.

Y a-­t‑il des effets spécifiques à l’IA à Orano Projets


sur le travail ?
La CFDT estime que l’intelligence artificielle entraîne chez Orano
Projets une mutation du travail comme une autre, mais profonde.
Les élus questionnent en CSE sur la formation et le volume
d’heures prévues, et en CSE central, sur la stratégie de mana-
gement du changement. La CFDT a suggéré de partir sur des
méthodes assises sur la nomination d’agents du changement et
de leaders référents locaux, et cette méthode a été adoptée.
Enfin, les élus donnent du sens à l’intelligence artificielle via des
questions ou des analyses. En l’occurrence, en 2019, la CFDT
percevait un retard dans la mise en place de l’IA. La direction a
répondu avoir pris le temps de l’analyse pour décider qu’il n’y
aurait pas de département IA, mais que l’IA serait à la main de
chacun dans les métiers pour lesquels elle est pertinente. La CFDT
constate qu’il y a là un sens commercial, un sens orienté client
et un savoir-­faire métier (d’autant que les outils d’IA deviennent
accessibles aux métiers directement). La CFDT et la direction
partagent la vision que la gestion/acquisition des données est
prioritaire, et que le rôle des métiers est primordial à ce niveau.

Identifiez-­vous des défis particuliers posés


par cette technologie à Orano Projets ?
Quant à donner du sens à tout cela… Il existe des sujets éthiques
dans d’autres entreprises (la CFDT n’en voit pas dans les
Interviews 149

applications utilisées, mais elle reste vigilante). Aujourd’hui,


au-­delà des engagements de responsabilité sociale d’entreprise,
la CFDT poursuit les échanges et discussions avec les salariés
sur le sens de leur travail, son utilité, leurs projections, etc. En
conclusion, l’IA et la transformation numérique renforcent surtout
le besoin de dialogue avec les élus dans les entreprises.
IL EST TEMPS QUE
NOUS NOUS FORMIONS
À L’INTELLIGENCE ARTIFICIELLE !

Pascal Leblay
Depuis février 2019, Pascal Leblay est l’auteur de deux publications :
la première vulgarise l’intelligence artificielle, la seconde
tire un bilan de l’impact de l’IA sur les métiers de la banque
et de l’assurance. Ces deux publications sont destinées
aux réseaux de salariés de la BPE, et aux élus de la Banque
Postale et de la CFDT en général. Pascal Leblay est secrétaire
du CSE de la BPE (banque privée de la Banque Postale)
et du syndicat banques-­assurances CFDT de Haute-­Normandie,
ainsi que secrétaire du comité de groupe de la Banque Postale.
Par ailleurs, il est directeur d’agence bancaire depuis 1989.

Depuis quand vous passionnez-­vous


pour l’intelligence artificielle ?
Depuis quatre ans. Dans un congrès CFDT, j’ai découvert l’IA. Et
j’ai compris deux choses : d’abord l’IA est comme un enfant avec
un QI de 140, malgré son potentiel, si on ne lui apprend rien, rien
n’en sortira ; au pire des jugements irréfléchis. Ensuite, il n’existe
pas de formation à l’IA pour les représentants du personnel et
cela va très bien aux directions qui ont confisqué le sujet.
Nos efforts doivent donc porter sur la formation des élus du
personnel pour éviter toute opacité sur ce sujet. Comment juger
un dossier sur un sujet qu’on ne connaît pas ? Les représentants
des salariés ne peuvent pas donner des avis motivés s’ils n’ont pas
été formés. Il est important que la CFDT forme sur la meilleure
façon d’appréhender l’intelligence artificielle et sur les bonnes
questions à poser.
Interviews 151

Dans le monde de la banque, comment l’IA


est-­elle perçue ?
Dans le monde de la banque, il est regrettable que certains
employeurs ne voient l’IA que comme une occasion de réduire
les coûts. Philippe Bajou, secrétaire général du groupe La Poste,
déclare dans la revue Forum à l’automne 2020 que « demain la
data et l’IA nous permettront de progresser encore en termes
d’économies de coûts et d’amélioration de nos processus ». Or,
l’IA peut aussi permettre aux salariés de mieux faire leur travail,
c’est tout l’objet d’ailleurs des négociations sur la GPEC et sur
les conditions de travail. Il peut empêcher les tâches répétitives,
rébarbatives, anxiogènes. Pour négocier, il nous faut savoir dans
quel état d’esprit on progresse. Or, si on laisse faire les direc-
tions, l’introduction de l’IA se traduira par un risque pour l’emploi.
Il y a quelques années, le robot Watson a été introduit comme
agent conversationnel (analyseur d’e‑mails) au Crédit Mutuel et
les salariés en ont été plutôt satisfaits parce qu’ils l’ont aidé à
s’éduquer. La vérification de conformité a pris de plus en plus de
place dans le temps de travail. Il y a dix ans, 80 % du temps des
salariés étaient dévolus au commercial et 20 % à l’administratif.
Aujourd’hui, ces proportions sont inversées. L’évolution que vont
subir les métiers du risque et de la conformité dans les prochaines
années fait partie des grandes interrogations qui restent, à l’heure
actuelle, difficiles à lever. L’automatisation progressive des outils
de contrôle et d’analyse, couplée à la multiplication des régle-
mentations, a été à l’origine d’une forte demande d’embauches
dans la banque, mais celle-­ci va s’essouffler prochainement.
Dans le contrôle de conformité, la proportion d’activités pouvant
être confiée à la machine reste inconnue. Lorsqu’on est directeur
d’agence, on est responsable de la conformité, un travail bien
pertinent. Investir dans la digitalisation de la conformité, c’est
faciliter le travail des salariés. Les banquiers qui arriveront à
mettre des commerciaux dans leur cœur de métier gagneront la
bataille, grâce à l’IA. Si l’option choisie est de se servir du numé-
rique juste pour rationaliser les coûts, en effet il y a un risque
pour nos emplois.
152 Le guide de l’intelligence artificielle au travail

Quelles sont les banques les plus avancées


en matière d’IA ?
Le CIC, qui fait partie du groupe Crédit Mutuel, a pris une longueur
d’avance sur ses concurrents. Il a permis de replacer en partie les
salariés de la banque dans leur cœur de métier : à la disposition
du client. Ce n’est pas un hasard si ce groupe est sacré meilleur
employeur de France, pour la quatrième année consécutive. La
version 1 de Watson date de 2016. Ce robot est intervenu cette
année-­là en tant qu’analyseur d’e‑mails pour aider les conseillers
clientèle du Crédit Mutuel à répondre. Le robot triait entre les
demandes de RDV et il proposait lui-­même des RDV en fonction
de l’agenda de chaque conseiller clientèle. Le salarié gardait la
main en vérifiant et en validant le travail du robot. L’IA interprète
également le train de vie et permet de vérifier automatiquement
la cohérence des renseignements fournis (revenus imposables,
salaires, dépenses) sur la base d’informations collectées auto-
matiquement. Pour l’heure, il n’existe pas de régulateur de l’IA
avec un cadre juridique et éthique et ce type d’analyse échappe au
règlement sur la protection des données personnelles. L’évolution
tend vers le conseil patrimonial, où l’IA sera un assistant rappelant
les modalités fiscales avec la loi de finances, les choix juridiques
avec le Code civil… Il devrait ensuite être incollable sur l’assu-
rance santé et la prévoyance.

Qu’est-­ce que cela signifie ?


Cela veut dire que toute avancée technologique dans l’entreprise
modifiant les conditions de travail ou les métiers devrait faire
l’objet d’une information et d’une consultation des instances
représentatives du personnel.

Après le groupe Crédit Mutuel, quelle est la banque


la plus avancée en IA ?
C’est La Poste. La Poste est très avancée, mais dans la distri-
bution courrier par IA. La Poste a acheté la société Probayes,
Interviews 153

propriétaire entre autres d’un logiciel qui sait lire les enveloppes,
notamment lorsqu’il manque une lettre ou qui sait remettre une
adresse dans le bon ordre. Désormais, Il faut une traçabilité pour
90 % des colis et courriers qui arrivent en France pour la lutte
Tracfin. Le logiciel va savoir décrypter quand un courrier arrive
régulièrement en provenance de tel pays, de tel lieu avec tel poids.
Il pourra recenser quand un même courrier arrive plusieurs fois
d’un lieu identique. C’est une directive européenne sur la lutte
anti-­blanchiment qui impose cette surveillance qui est très utile
à Tracfin. Le courrier qui arrivera à l’aéroport sera lu immé-
diatement par l’IA. Celle-­ci remettra l’adresse « à l’endroit » et
lira le code postal. Le courrier sera orienté vers un centre de
distribution, vers un facteur, et vers une tournée. Avec l’euro
numérique, seules les cryptomonnaies pourront échapper au
contrôle européen, car elles peuvent être achetées à partir de
comptes anonymes.

Et puis, une autre banque ?


Le Crédit Agricole bien sûr s’est très bien approprié l’IA. La BNP
a fait une avancée avec IBM blockchain, facilitateur pour la
gestion Tracfin et Lab. La blockchain est un coffre-­fort numé-
risé où l’on ne peut plus modifier ce qui est placé à l’intérieur.
Tous les d ­ ocuments de la blockchain sont des originaux véri-
fiés. Un exemple de blockchain est la convention Archipel, à
laquelle adhèrent La Poste, EDF, Engie et la Caisse des dépôts
et consignations. Les quatre groupes s’unissent pour détecter les
falsifications de justificatifs qu’ils émettent via la technologie de
registre décentralisé, et vont développer une offre multi-­acteurs
permettant ainsi aux banques, aux assureurs, et aux prestataires
sociaux de vérifier si les justificatifs fournis ont été falsifiés. Le
fait de pouvoir vérifier la validité d’un document avec peu d’er-
reurs autorise bien sûr beaucoup d’autres applications. En 2025,
le partage d’informations entre banques sera généralisé par les
réglementations européennes. Les banques vont devoir traiter
la question de leur positionnement, résoudre le problème de la
gestion des données et de leur exploitation.
154 Le guide de l’intelligence artificielle au travail

Par ailleurs, la Société Générale propose à ses clients d’ouvrir


des comptes avec uniquement une photographie faciale autorisée
par la Cnil. On peut également citer l’assistant Synoé à la Société
Générale.
Enfin, il existe un fichier (Ficoba) de tous les comptes que l’on
a ouvert dans sa vie à la Banque de France. Il est accessible à
la douane, aux services fiscaux, à Tracfin, ainsi qu’à plusieurs
organismes d’État.

Qui peut arrêter ce fichage des citoyens ?


Pas la Cnil, car ce n’est pas de son ressort. C’est l’Europe qui doit
dire « stop, on va un peu trop loin ». Certes, nous n’en sommes
pas au passeport QVT-­social des Chinois, mais c’est sous-­jacent.
Pour l’instant, l’IA s’immisce partout. Dans le CFDT magazine1,
je lis que le délégué CFDT Aymeric Pointub du Crédit Mutuel se
déclare satisfait du robot Watson, même s’il reconnaît que l’assis-
tance humaine sera toujours nécessaire. Mais dans les banques,
une grande partie des tâches de back-­office, du contrôle et de
l’analyse du risque pourrait disparaître. Prenons l’exemple de la
Belgique qui avait deux problèmes : trop de banquiers et pas assez
de personnel de la santé. Les directions bancaires sponsorisées
par des aides gouvernementales ont accompagné ce changement
radical de métier et motivé financièrement les mobilités, et le
résultat a été probant.
Entre 2006 et 2016, le nombre d’états de reporting obligatoires à
produire par les établissements bancaires a augmenté de 83 %,
Les effectifs de la conformité bancaire ont été multipliés par trois
ces dix dernières années et selon l’Observatoire de la banque,
20 % des effectifs vont voir leurs métiers disparaître d’ici 2025 et
50 % vont les voir profondément évoluer. Depuis 2010, les banques
françaises ont perdu 4 % de leurs effectifs. Après la crise finan-
cière, les effectifs avaient diminué, mais ce phénomène avait

1. No 449, janvier 2020.


Interviews 155

été masqué par la hausse des effectifs des services centraux


risque-­conformité.
Maintenant, on constate une érosion lente mais régulière des
effectifs car 80 % des opérations en back-­office sont automati-
sables. Côté création d’emplois, La Poste a eu la bonne idée de
créer un incubateur du numérique et de l’IA, qui comprend une
open-­class pour les salariés. Car elle estime qu’un ingénieur
recruté à l’extérieur de l’IA coûte très cher, et autant utiliser le
potentiel de ses 270 000 salariés. Même les IRP ont été formées
à l’IA à La Poste…
TESTER, TESTER, TESTER
LES BOÎTES NOIRES
DE L’INTELLIGENCE ARTIFICIELLE

Dominique Desbois
Dominique Desbois est ingénieur statisticien à l’Unité mixte
de recherches « Économie publique » d’AgroParisTech, et milite au
syndicat CFDT de l’Institut national de recherche pour l’agriculture
et l’environnement (Inrae). En tant qu’élu du personnel, il siège au
conseil scientifique d’AgroParisTech et au conseil d’administration
de l’Inrae. Par ailleurs, il est membre du comité de rédaction de
Terminal2, revue de réflexion critique qui analyse les impacts de
l’informatisation sur la société. À ce titre, il est le délégué français
au comité technique Information, Communication & Society (TC9)3
de la Fédération internationale pour le traitement de l’information
(IFIP)4, organisme des Nations unies à vocation professionnelle.

Peut-­on définir l’IA en quelques mots ?


Je répondrais : non. Sans remonter à la Machine analy-
tique de Charles Babbage 5 et au premier programme d’Ada

2. Terminal s’attache à une réflexion pluridisciplinaire sur les impacts culturels


et sociaux des technologies de l’information et de la communication (TIC).
Cette revue analyse les enjeux des TIC en termes de libertés individuelles
et de développement durable. Pour l’édition de ses dossiers, la revue colla-
bore avec des laboratoires universitaires, mais également avec des associations
citoyennes et des contributeurs indépendants.
3. ifiptc9.org/
4. International Federation for Information (www.ifip.org).
5. Intégrant les travaux de Pascal et de Leibniz sur les machines à calculer,
Charles Babbage élabora les concepts fondamentaux sur lesquels repose encore
de nos jours l’architecture des ordinateurs, dans un mémoire intitulé On
the Economy of Machinery and Manufactures (Charles Knight, Londres, 1835),
Interviews 157

Lovelace6 dont les applications potentielles visaient l’astronomie


et la navigation, il suffit d’un regard rétrospectif sur les princi-
pales étapes de son développement pour constater que l’IA est
une véritable tour de Babel !
Il y a 70 ans, Alan Turing, co-­déchiffreur du code Enigma et auteur
du concept de machine universelle, pose dans la revue Mind la
question de l’automatisation des capacités cognitives sous une
forme volontairement provocatrice : « Une machine peut-­elle
penser ? »
Depuis ses balbutiements, les annonces médiatisées des
prouesses technologiques attribuées à l’IA portent à croire à une
unité disciplinaire alors que, sous le même vocable, s’agrègent
des problématiques très diverses et des techniques très diffé-
rentes. Cependant, cette tour de Babel numérique qui s’étend des
mathématiques théoriques à l’électronique industrielle, s’orga-
nise autour de tâches fondamentales qui fédèrent les différentes
approches : représenter l’information, raisonner, résoudre et
in fine apprendre.

Comment l’IA peut-­elle impacter


notre environnement socio-­économique ?
Au cœur de technologies comme la robotique ou la reconnais-
sance des formes, l’IA vient assister, suppléer, voire dépasser
un certain nombre de facultés cognitives humaines de manière
efficace à la fois au plan technique mais aussi économique, qu’il
s’agisse de processus de production comme dans le secteur de
l’automobile, d’assistance à des opérateurs humains comme pour
le pilotage d’installations à risque, ou d’intermédiation comme
dans le secteur de la distribution ou des services à la personne.

destiné au calcul et à l’impression automatiques des tables nautiques et astro-


nomiques qui comportaient à l’époque de nombreuses erreurs.
6. Née Ada Byron, Augusta Ada King, comtesse de Lovelace, est l’auteure du
premier programme destiné à être exécuté sur une machine (la Machine analy-
tique de Charles Babbage) pour le calcul des nombres de Bernoulli en 1843.
158 Le guide de l’intelligence artificielle au travail

Est-­ce que l’IA change nos vies ?


Bien sûr, et assez souvent à notre insu. Par exemple, dans le
domaine de la santé. La technique de l’apprentissage profond
permet désormais d’entraîner un réseau de neurones à détecter
des mélanomes sur des photos de peau et des rétinopathies
diabétiques sur des images de fonds d’œil.
Dans notre vie quotidienne, les « bots » se multiplient : pour trier le
courrier postal7, filtrer nos courriels indésirables ou analyser nos
traces sur Internet, pour la gestion des préférences, des files d’at-
tente et la prise de réservations sur les plateformes numériques,
ces agents conversationnels capables de traiter le langage naturel
(écrit ou parlé) peuvent désormais remplir certaines fonctions
relationnelles. C’est le cas des auxiliaires de vie dans les établis-
sements d’hébergement pour personnes âgées dépendantes8.
L’automatisation des procédures de contrôle constitue également
un des domaines d’application de l’IA parmi les plus dynamiques.
En matière fiscale, l’utilisation de techniques d’apprentissage
automatique permet de détecter les comportements récurrents
qui seraient spécifiques à certains types de fraudes9 (à la TVA, au
blanchiment, à la fausse domiciliation et à l’optimisation illicite).
De telles techniques sont désormais mises en œuvre par l’admi-
nistration fiscale française.
Dans le domaine financier, la quasi-­totalité des opérateurs tels
que les banques, les fonds de pension ou les investisseurs institu-
tionnels utilisent désormais des logiciels de trading algorithmique
qui mobilisent des techniques d’IA pour exécuter les transac-
tions électroniques nécessaires à l’optimisation en continu de
leur portefeuille boursier.

7. Y. LeCun et al., « Backpropagation applied to handwritten zip code reco-


gnition », Neural Computation, 1989, 1(4), p. 541-551.
8. Édouard Pfimlin, « Zora, la solution robotique au service des seniors »,
Le Monde, 13 juillet 2018.
9. D. Desbois, « Drague fiscale sur les réseaux sociaux », Terminal, no 125-126,
25 novembre 2019.
Interviews 159

La lecture automatique des plaques minéralogiques est désor-


mais une application intégrée à la gestion du trafic routier, comme
c’est le cas pour le péage urbain du Grand Londres.
La reconnaissance faciale est couramment utilisée lors des
contrôles de police, notamment dans les aéroports, et par certains
pays dans la gestion des manifestations à partir de caméras de
surveillance, fixes ou embarquées sur des drones, en se basant
sur des techniques de reconnaissances de formes biométriques
similaires à celles développées pour les empreintes digitales.
Dans le secteur de l’énergie, EDF propose à ses clients industriels
Metroscope, une solution de diagnostic énergétique basée sur
l’intégration de techniques d’IA10.
Ces quelques exemples ne représentent que la partie émergée
de l’iceberg dans la mesure où de nombreux projets restent
confidentiels, car ils sont en phase de développement, comme le
pilotage automatique dans l’industrie ferroviaire, ou de test pour
l’industrie aéronautique voire couverts par le secret industriel ou
le secret-­défense.

Et si l’IA se trompe ?
Cela arrive effectivement et les antécédents sont le plus souvent
assimilables à des erreurs dans l’utilisation ou la conception des
logiciels. Leurs conséquences sont loin d’être anodines : des biais
peuvent être générés par la base des données sur laquelle on
entraîne un algorithme (base d’apprentissage), ou induits par
des corrélations insoupçonnées avec des règles de décision, des
critères de sélection voire des comportements algorithmiques.
En 2018, Amazon a été contraint de revoir son système de sélec-
tion automatique de curriculum vitæ après avoir constaté qu’il
pénalisait systématiquement les curriculum vitæ féminins : en
cause, la base d’apprentissage reproduisant un déséquilibre dans

10. Emmanuel Grasland, « EDF lance sa start-­up dans l’intelligence artifi-


cielle », Les Échos, 29 mars 2018.
160 Le guide de l’intelligence artificielle au travail

la distribution des genres, car constituée à partir des recrute-


ments antérieurs sans que leurs biais n’aient été corrigés. De ce
point de vue, la technologie d’IA mobilisée n’est pas neutre, car
certaines méthodes tendent à renforcer les biais inscrits dans la
base d’apprentissage.
En reconnaissance faciale, les problèmes de biais entachant les
résultats fournis par les algorithmes d’IA peuvent aboutir à des
discriminations ethniques ou sexistes. Une étude du MIT Media
Lab a révélé en 2018 que ReKognition, l’IA de reconnaissance
faciale d’Amazon, présentait des biais susceptibles de générer des
discriminations : la détection de genre affichait un taux de réus-
site à 100 % pour les hommes à la peau claire alors que ce score
tombait à 81 % pour les femmes, voire à 69 % pour les femmes à
la peau sombre, sachant que le score de réussite d’un progiciel
concurrent était de 98,5 % pour les femmes à la peau sombre.
La reproduction, voire l’amplification par renforcement, de biais
non détectés a priori dans les bases de données d’apprentissage,
fait de l’IA un levier de discrimination, d’autant que ces biais dits
« cognitifs11 » sont difficilement détectables a priori : c’est le talon
d’Achille des algorithmes pointé par un rapport récent de l’Office
parlementaire d’évaluation des choix scientifiques et technolo-
giques (Opecst)12.
Récemment, en 2018, la Commission nationale informatique et
libertés a mis en demeure le ministère français en charge de
l’enseignement supérieur de réformer la procédure d’admis-
sion post-­bac à la suite d’une plainte introduite en 2016, afin que
celle-­ci respecte les dispositions de la loi informatique et libertés
de 1978 sur le traitement informatisé des données personnelles.
Entre autres motivations, la Cnil souligne que l’absence de détails

11. Initialement, le terme de « biais cognitif » a été introduit par Daniel


Kahneman et Amos Tversky pour décrire les tendances observées dans
les comportements humains apparaissant comme irrationnelles au plan
économique.
12. Rapport d’information no 464 (2016-2017), C. de Gannay et D. Gillot,
Office parlementaire d’évaluation des choix scientifiques et technologiques,
déposé le 15 mars 2017.
Interviews 161

sur les rouages de l’algorithme utilisé pour procéder au clas-


sement et à l’affectation du candidat bachelier contrevenait à
l’article 39 de la loi de 1978 en ne lui permettant pas « de connaître
et de contester la logique qui sous-­tend le traitement automatisé
en cas de décision prise sur le fondement de celui-­ci et produisant
des effets juridiques à l’égard de l’intéressé ».

Que peut-­on faire pour lutter contre les biais ?


« Accroître l’auditabilité des systèmes d’IA » est l’une des voies
préconisées par le rapport Villani13. À l’heure actuelle, trouver un
compromis optimal entre performance et interprétabilité selon le
contexte d’application reste du domaine de la recherche.
Cependant, il serait vain de chercher une solution exclusivement
technique à un problème qui demeure avant tout politique. Ainsi,
l’accès au crédit bancaire est une figure classique des discrimina-
tions de genre et d’origine. Aux États-­Unis, encore actuellement,
l’accès au crédit logement est conditionné par votre lieu de rési-
dence plutôt que par vos capacités de remboursement.
Le rapport Villani propose « la constitution d’un corps d’experts
publics assermentés, en mesure de procéder à des audits d’al-
gorithmes, des bases de données et de procéder à des tests par
tout moyen requis ». De fait, certaines institutions indépendantes
prennent déjà en charge dans leur champ de compétences cet
audit public et indépendant, à l’instar de la Cnil et de l’Opecst,
même s’il devient opportun de renforcer les capacités d’expertise
scientifique et technique sur lesquelles elles pourraient s’ap-
puyer. Par exemple, une meilleure intégration des dispositions
législatives à l’arsenal réglementaire constitue l’une des voies de
progrès : en France, depuis 2010, pour intégrer les dispositions
de la loi du 27 mai 2008 relative à la lutte contre les discrimina-
tions, la Cnil a modifié l’autorisation accordée aux banques pour
les traitements dits de « credit scoring » attribuant un risque de
défaillance et donc un taux différencié d’emprunt aux clients sur

13. Cédric Villani, op. cit.


162 Le guide de l’intelligence artificielle au travail

la base de leurs profils individuels. En conséquence, les analystes


de risque en matière de crédits ne doivent plus prendre en compte
depuis cette date le sexe du demandeur de crédit, pratique
jusqu’alors courante mais aboutissant à discriminer les mères
de famille monoparentales dans l’accès au crédit.
Il n’empêche : plusieurs fois alertée par certains de ses adminis-
trés, la mairie de Villeurbanne, dans le Rhône, lance une opération
de « testing » pour objectiver les discriminations qui ont cours dans
le secteur bancaire pour l’accès au prêt immobilier et au crédit à
la création d’entreprise. Sur l’ensemble de l’agglomération lyon-
naise, 90 tests ont été conduits dans 63 agences de 12 banques
différentes, d’avril à décembre 2016. Les résultats du testing
révèlent des discriminations à chacune des étapes du parcours
du demandeur de prêt : ainsi, ils montrent que le genre peut être
un critère discriminant dans l’accès au crédit bancaire, mais de
façon moins caractérisée que pour l’origine migratoire supposée.
Il devient urgent d’ouvrir les « boîtes noires » de l’IA dans bien
d’autres secteurs : une enquête récente menée conjointement
par le CNRS et SOS Racisme montre que ces discriminations
s’étendent à des domaines qui demeurent insuffisamment
explorés en France : la formation professionnelle, l’assurance
automobile, l’accès aux complémentaires santé, le crédit à la
consommation, l’achat d’une voiture d’occasion, l’hébergement
touristique et la reprise d’entreprise.
Signalons à cette occasion, la contribution originale sur l’enjeu
sociétal majeur des inégalités dans l’accès à l’emploi réalisée
par l’Observatoire des discriminations de l’université Panthéon-­
Sorbonne qui propose une plateforme internet de différents outils
avec un test d’autoévaluation14.
La formation des professionnels à ces problématiques de discri-
mination peut également jouer un rôle avec une sensibilisation
aux règles éthiques nécessaires pour encadrer les activités
basées sur l’IA.

14. www.observatoiredesdiscriminations.fr/
Interviews 163

Dans le domaine éthique, l’IFIP a publié un code d’éthique pour


les informaticiens professionnels qui codent les programmes et
gèrent les systèmes d’information15. Même si elles ne possèdent
pas la force contraignante des lois, les chartes éthiques servent de
référentiel lorsque le cadre juridique est insuffisant, voire absent
pour les firmes transnationales (FTN) gérant des marques et des
labels : leur gouvernance étant assez sensible à leur réputation
globale du fait de la structure de leur financement et de leurs
marchés, les FTN essayent de se conformer aux codes éthiques
lorsqu’ils existent, dans une démarche interne le plus souvent
préférée à la certification externe.
De fait, le meilleur moyen de se protéger contre ces biais cognitifs
est de contraindre les opérateurs de l’IA à ouvrir leurs « boîtes
noires » à une expertise publique et indépendante afin de trouver
un équilibre durable entre le développement technologique et la
protection des citoyens. Ceux-­ci doivent être protégés en tant
que consommateurs de produits, mais aussi comme producteurs
d’interactions sociales dans la sphère du travail autant que dans
l’espace public.

L’IA change-­t‑elle l’emploi ?


En tant qu’administrateur salarié représentant de la CFDT au
conseil d’administration de l’Inrae, je suis très attentif à cette
question dans le contexte de la recherche appliquée et du déve-
loppement d’innovations pour le secteur agroalimentaire. En tant
qu’élu du personnel, l’incidence sur l’emploi est l’une de nos prin-
cipales préoccupations qui légitime également mes interventions
en tant que membre élu du conseil scientifique d’AgroParisTech
et observateur CFDT au conseil scientifique de l’Inrae.
Il faut bien admettre que, depuis une décennie, l’IA a pris une part
de plus en plus importante dans la gestion des processus au sein
de l’agroalimentaire pour réduire les coûts, pas seulement en

15. D. Desbois, « Le code d’éthique et de conduite professionnelle de l’IFIP »,


Terminal, no 128, 2020.
164 Le guide de l’intelligence artificielle au travail

éliminant les gaspillages avec des applications au tri alimentaire


et à la gestion des intrants, mais également en contribuant à la
réduction de la main-­d’œuvre et des coûts qui y sont généralement
associés par les gestionnaires, y compris dans la distribution.
Cela pose des problèmes de reconversion évidents aux moins
qualifiés des salariés que notre syndicalisme doit protéger et
accompagner.

Gaia‑X, le projet pour l’autonomie européenne


dans le stockage des données
Des alliances industrielles et des partenariats, en ce cas gouver-
nemental, Gaia‑X est un partenariat franco-­allemand visant à
combler le retard européen en matière d’informatique de nuage
(cloud computing) de façon à assurer une souveraineté minimale
sur un marché jusqu’ici dominé par les opérateurs états-­uniens
comme Amazon, Google et Microsoft ou chinois comme Alibaba.
Une plateforme française, Agdatahub, accompagne les opérateurs
des filières agricoles pour mettre en œuvre des projets d’aide à
la décision basés sur l’accumulation des données générées par
l’Internet des objets de l’agriculture de précision, qu’il s’agisse
des moissonneuses-­batteuses ou des robots de traite.

Les différences d’impact peuvent être sectorielles comme pour


les secteurs liés à l’innovation où l’IA est désormais large-
ment utilisée pour le dépôt de brevets16 ou dans la recherche
pharmaceutique.
Pour rassembler les capacités de prévisions et de prospectives,
mais aussi faire le lien avec des expérimentations de terrain
ciblées sur les catégories d’emploi les plus menacées, le rapport
Villani propose la création d’un laboratoire public sur la transfor-
mation du travail. Mobilisant un montant global de 32 milliards
d’euros, le levier de la formation professionnelle est également

16. V. Kanesarajah et E. White, « Chasing change: Innovation and patent


activity during COVID‑19. A report on the pandemic’s impact on the global
R&D community and innovation lifecycle », Clarivate, 2020.
Interviews 165

évoqué pour développer la médiation numérique et l’innovation


sociale afin que l’IA bénéficie à tous. Néanmoins, il convient
d’être vigilant afin que cela soit réellement un moyen pour l’in-
dividu d’être acteur dans la négociation de sa propre transition
professionnelle. De ce point de vue, davantage de recherches
socio-­économiques doivent être entreprises sur la réorganisa-
tion des chaînes de valeur affectées par l’IA dans le contexte de
l’après-­Covid‑19.
L’INTELLIGENCE ARTIFICIELLE EST
UN OUTIL PUISSANT. TROP PUISSANT ?

Soraya Duboc
Soraya Duboc est ingénieure dans un groupe international,
ancienne présidente de l’Observatoire des cadres (OdC),
ancien membre du comité d’éthique pour la recherche
agronomique. Au Conseil économique social et environnemental
(CESE) où elle siège au titre de la CFDT, elle a co-­rapporté l’avis
« Économie et gouvernance de la donnée » (février 2021).

À quoi sert l’intelligence artificielle ?


On peut considérer que l’intelligence artificielle est un outil qui
démultiplie les capacités humaines, celles de l’individu et celles
d’une communauté. Mais n’est-­ce pas déjà le cas d’autres appli-
cations de la science : bombe atomique, microscope électronique,
organisme génétiquement modifié ?

Quelles spécificités présentent les technologies basées


sur l’IA ?
Si les applications de l’IA dans de nombreux domaines apportent
des bénéfices indéniables (optimisation et automatisation des
procédés de fabrication, anticipation des phénomènes clima-
tiques extrêmes, médecine sur mesure, etc.), elles font émerger
de vives questions dès lors qu’elles touchent à nos droits fonda-
mentaux, nos libertés.
Les deux exemples d’application qui me viennent le plus vite à
l’esprit sont le recrutement et les décisions de justice.
Interviews 167

L’IA peut-­elle nous déterminer ?


Dans ces deux domaines pris en exemple, l’IA va sur le terrain
de nos comportements, de nos émotions, de nos croyances et
même de nos intentions : elle glane des données innombrables
et disparates, les nôtres et celles des autres, celles de notre
environnement immédiat, du temps présent et passé, les croise
et prétend anticiper au plus juste nos réactions, nos décisions
– que nous pensons libres. Quand bien même ces anticipations se
révèlent exactes, il se peut que la personne n’ait pas eu l’intention
de les énoncer. Elle peut faire de nous des êtres prévisibles par le
calcul algorithmique. Elle peut nous faire douter de notre capacité
à bifurquer, de notre liberté à aller hors des sentiers battus. Elle
nous fait perdre notre singularité, en quelque sorte. Et conduire
à une forme de déterminisme algorithmique.

La naïveté et la méfiance sont-­elles adaptées


quand on parle d’IA ?
Le premier polar bioéthique sur l’intelligence artificielle publié
en 2018, S.A.R.R.A., met en scène dans un horizon proche (2025)
une IA à qui l’on confie le soin de gérer une épidémie d’Ebola au
plein cœur de Paris. Son auteur, David Gruson17, nous décrit en
connaisseur de l’IA ce qu’elle peut produire en intégrant la prévi-
sibilité des motivations et comportements humains. D’où, à mon
sens, l’importance de sortir d’une forme de naïveté, ou d’excès
de défiance envers l’IA. Il nous faut connaître quelles sont les
finalités d’un outil basé sur l’IA et quels sont ses effets sociaux
et économiques non prévus et non désirables. Collectivement,
nous devrions être en mesure de définir les aspects de notre vie
où l’IA ne doit pas être utilisée du tout, et des domaines où l’on
peut l’utiliser mais avec prudence. Une analogie peut être faite
avec ce que la biologiste Anne McLaren (1927-2007) désignait par
« No go areas » et « Slow go areas ».

17. Ex-­délégué général de la Fédération hospitalière de France et membre


du comité de direction de la chaire santé de Sciences Po Paris.
L’INTELLIGENCE ARTIFICIELLE,
DE L’USINE DE DEMAIN
AU RENOUVEAU DU DIALOGUE
SOCIAL ET SOCIÉTAL

Warda Ichir
Warda Ichir est secrétaire fédérale à la Fédération
générale des mines et métallurgie (FGMM-­CFDT).
Elle a en charge les questions de digitalisation
et de RSE au sein du pôle économique de la fédération.

Alain Larose
Alain Larose, secrétaire général adjoint FGMM-­CFDT,
est responsable des questions de dialogue social après
avoir supervisé pendant des années le pôle économique
de la FGMM. Il a particulièrement travaillé sur les liens
entre dialogue social et transitions numériques et écologiques.

Comment définiriez-­vous l’intelligence artificielle ?


L’intelligence artificielle est une technologie avancée à usage
général, c’est-­à‑dire qui a vocation à s’étendre à tous les secteurs
économiques, avec un impact sur la société dans son ensemble.
L’IA renvoie à une puissance de calcul, capable de traiter diffé-
rents types de données (reconnaissance vocale, faciale, de vidéos,
et « compréhension de texte »), qui s’appuie sur des réseaux déve-
loppés et des données en grande quantité. La disponibilité d’une
grande masse de données, stockées dans le cloud, alimentée
par de nombreux terminaux connectés comme les ordinateurs,
les smartphones, les capteurs, ou les robots permet à l’IA de
s’entraîner et de gagner en pertinence.
Interviews 169

Quel est l’intérêt de cette technologie ?


L’intérêt de l’IA est de proposer des prédictions (saisie de texte,
interprétation de radios médicales, maintenance prédictive), de
formuler des recommandations (vidéos sur YouTube et Netflix),
voire de prendre des décisions (fixer des prix sur Amazon18).
L’IA conduit donc à la prise de décision, en fonction de ce pour
quoi elle a été programmée. En fait, si les machines et robots se
substituent à notre force physique (nos bras et nos jambes notam-
ment), l’IA remplace en partie les capacités de notre cerveau.
Or, nous n’avons pas cessé d’utiliser nos jambes depuis que les
vélos, voitures et transports existent. De même, les calculatrices
nous font gagner du temps et laissent finalement notre cerveau
disponible pour autre chose. Quoi qu’il en soit, rappelons que l’hu-
main reste incontournable pour la conception des programmes,
pour leur assigner une finalité, sélectionner les données d’en-
traînement et en contrôler les résultats. Même si le principe de
l’apprentissage automatique de l’IA conduit à s’affranchir en
partie de la programmation, les hommes peuvent et doivent donc
garder la main.
Le premier problème est que la prise de décision individuelle
est considérée comme le propre de l’homme, notamment pour
des questions juridiques. En effet, l’âge de la majorité fixé à
18 ans permet d’exercer pleinement ses droits, mais ceux-­ci
sont assortis d’une pleine responsabilité. Au-­delà du fait que l’ar-
ticle 22 du RGPD interdit de « faire l’objet d’une décision fondée
uniquement sur un traitement automatisé dans l’Union euro-
péenne19 », il est aisé de comprendre que toute décision doit être
rattachable à un humain, responsable, pour être expliquée, et
éventuellement réparée. En effet, l’IA résulte d’une programma-
tion humaine, et rappelons qu’un outil n’a pas de volonté propre.
Le second problème se situe au-­delà de la décision individuelle : au

18. « Pleins feux sur l’intelligence artificielle », Harvard Business Review,


décembre 2020-janvier 2021.
19. www.cnil.fr/fr/reglement-­europeen-­protection-­donnees/chapitre3#
Article22
170 Le guide de l’intelligence artificielle au travail

niveau collectif, la décision renvoie au politique. Rappelons que


l’OCDE qualifie l’IA de technologie « pervasive » (envahissante),
tant cette technologie est prête à couvrir chacun des aspects de
notre quotidien20.

Quels sont les enjeux derrière l’IA ?


La transformation digitale en général – et l’IA en particulier –
renvoie donc certes à des enjeux économiques et sociaux, mais
aussi politiques car elle présente potentiellement un impact sur
l’ensemble de la société.
De manière générale, si l’industrie a amorcé sa transforma-
tion numérique, il semble néanmoins que le déploiement de l’IA
n’en soit qu’à ses débuts, faute de maturité de ses applications
industrielles. Le mouvement est cependant bien lancé et l’acti-
vité de production devrait se trouver profondément chamboulée
par l’IA et les autres technologies numériques. Les évolutions
de l’entreprise se traduiront ainsi par des impacts plus ou moins
prévisibles en termes d’emploi et de conditions de travail. Face à
l’ampleur de ces enjeux, le dialogue social, dans sa forme insti-
tutionnelle, semble actuellement peu efficace pour traiter des
questions de l’IA et de transformation digitale. Enfin, au-­delà des
préoccupations économiques et sociales, l’IA renvoie à des ques-
tions démocratiques, tant au sein de l’entreprise, qu’en dehors
au niveau territorial.

Quel est le niveau des investissements


en matière d’intelligence artificielle ?
Les investissements sont encore limités, mais inéluctables.
L’industrie a amorcé sa transformation numérique depuis
une quinzaine d’années, même si l’IA n’a pas atteint sa pleine

20. OCDE, « Artificial intelligence in society », 2019.


Interviews 171

maturité. En effet, selon l’étude de la Fabrique de l’industrie21,


les deux tiers des investissements de l’industrie française
sont immatériels et un tiers sont matériels (contre 50‑50 pour
­l’Allemagne). Les produits informatiques et électriques, les
machines et équipements, et les matériels de transports (auto-
mobile et aéronautique) concentrent 62 % des investissements
immatériels de l’industrie française, alors qu’ils représentent un
quart de la valeur ajoutée de l’industrie.
Cela signifie que les investissements réalisés portent sur
le logiciel, les bases de données, l’IA, mais ne se retrouvent
pas dans l’appareil productif au sens matériel du terme. En
outre, cette situation se trouve encouragée par les politiques
publiques, notamment par le crédit d’impôt recherche, destiné
à soutenir les dépenses en R&D des entreprises, ou encore le
plan « Industrie du futur ». Le « produire en France » est donc la
victime collatérale de cette politique22 et, d’une certaine manière,
la dématérialisation ou servicialisation de l’industrie est en cours.
Au cœur de l’industrie du futur, les usines intelligentes sont
peuplées d’organes sensoriels, les objets connectés. Équipés
de capteurs, ils sont capables de mesurer n’importe quelle quan-
tité physique (son, lumière, couleur, vitesse, poids, effort, etc.),
de localiser (GPS, gyroscope), de reconnaître (données biomé-
triques, caméras), de tracer pièces, sous-­ensembles, produits,
outils, et d’accéder à leurs caractéristiques contenues dans les
étiquettes RFID (mémorisation de données récupérées à distance
par radiofréquence).
À l’instar de l’organisme humain, les fonctions sensorielles
de l’usine intelligente collectent une masse de données volu-
mineuses qui sont stockées, via un réseau numérique, dans
ce que l’on appelle le big data. Un traitement complexe des
données adresse des commandes aux fonctions mécaniques et
motrices : approvisionnement en pièces par véhicules à guidage

21. Sarah Guillou, Rémi Lallement et Caroline Mini, L’Investissement des


entreprises est-­il efficace ?, Les Notes de la Fabrique, Presse des Mines, 2018.
22. Marc Chevallier, « L’industrie française investit-­elle mal ? », Alternatives
Économiques, décembre 2018.
172 Le guide de l’intelligence artificielle au travail

automatique, réglage du poste de travail en fonction de la morpho-


logie de l’opérateur et du type de produit à fabriquer, pilotage
d’un robot, etc.
Les données stockées dans le big data représentent une somme
de connaissances mobilisées par l’intelligence artificielle. L’usine
intelligente est ainsi dotée d’une capacité d’autoapprentissage
et de résolution de problèmes complexes dont l’homme était
jusque-­là seul capable.
Ces unités de production ont le pouvoir de communiquer grâce aux
réseaux numériques : les unes avec les autres aux frontières de
l’entreprise ; entre donneurs d’ordre et sous-­traitants pour l’en-
treprise étendue à la filière. La fabrication d’un produit est alors
le résultat d’un processus industriel qui dialogue et se déploie au
sein d’une chaîne de valeur connectée. Elle communique avec le
monde extérieur grâce à Internet, donnant au client la possibilité
d’adresser une commande personnalisée qui sera traduite en
ordre de fabrication. L’industrie du futur ambitionne également
d’augmenter les capacités de l’être humain. Il en est ainsi de la
réalité augmentée qui permet d’évoluer dans un espace virtuel
numérisé où les opérations réalisées agissent physiquement sur
un environnement réel et distant ; de l’exosquelette, un appendice
biomécanique installé sur le corps humain pour l’assister dans
ses tâches physiques ; ou encore du cobot, robot qui collabore
et interagit avec l’être humain. L’industrie du futur est donc une
transformation profonde dont l’objectif est d’accroître la perfor-
mance économique. L’enjeu pour le syndicalisme est d’en faire
un progrès pour l’humanité.

Quelles sortes de bénéfices l’IA offre-­t‑elle


à la plupart des entreprises ?
Des bénéfices immédiats mais encore limités. Il faut reconnaître
que si l’IA fait beaucoup de bruit, les exemples de déploiement
significatifs demeurent relativement confidentiels aujourd’hui.
Concernant l’industrie, la priorité serait accordée aux technolo-
gies susceptibles d’apporter un bénéfice immédiat (réduction de
Interviews 173

coûts, par exemple). Les entreprises attendent de l’IA une accélé-


ration de l’automatisation de certains process, par ailleurs rendus
plus agiles, et visent aussi la satisfaction des clients.
Or, l’IA n’étant pas encore totalement mature, les coûts associés
à son déploiement peuvent sembler exorbitants en regard des
résultats immédiats obtenus (voir le schéma « Les freins à l’IA »).
Naturellement, le degré de diffusion de l’IA dépend beaucoup des
applications concrètes imaginées pour un secteur, en fonction
des ponts entre les univers de la recherche et de l’industrie qui
ne sont pas assez développés et doivent s’amplifier, malgré les
initiatives telles que les pôles de compétitivité et les plateformes
collaboratives telles que le Lamips23.
Pour l’instant, les principaux usages de l’IA d’après IDC 24
concernent les services clients automatisés (chatbots), la défense
et la sécurité nationale (reconnaissance faciale), l’assistance aux
diagnostics médicaux et la médecine personnalisée, la gestion de
fret/logistique, le traitement de requêtes automatisé, la simulation
avancée, la gestion d’actifs et de flotte à distance (optimisation des
trajets, diagnostic de véhicule à distance, monitoring du conduc-
teur), la recommandation d’achats personnalisée, les solutions
de contenu automatisé (jumeau numérique) et les smart grids.

23. www.pole-­tes.com/adherent/lamips/
24. IDC Worldwide semi-­annual artificial intelligence systems spending guide,
mars 2020.
174 Le guide de l’intelligence artificielle au travail

Les freins à l’IA


Source : FGMM-­CFDT, février 2021.

Et du côté des données, que se passe-­t‑il ?


L’IA requiert une certaine quantité et une qualité de données afin
de s’entraîner et proposer des recommandations fiables. La faible
disponibilité des données en partage constitue l’un des principaux
obstacles. Les entreprises craignent de partager leurs données,
ce qui empêche la mise en œuvre de l’IA dans les chaînes de
Interviews 175

valeur, d’autant plus que les problèmes d’interfaces et de normes


différentes ne contribuent pas à la coopération. L’intérêt du big
data, c’est de pouvoir tirer profit de nouvelles données produites
par tous les acteurs (les entreprises, les particuliers, les scien-
tifiques et les institutions publiques) dans le but d’optimiser son
offre commerciale, ses services, développer la recherche et le
développement. L’effet de réseau n’est donc pas très visible tant
que cette taille critique n’est pas atteinte et la plupart des algo-
rithmes pâtissent d’un démarrage à froid avant d’acquérir les
bonnes données. Mais une fois lancé, le digital peut permettre de
générer de la valeur et de dépasser rapidement les entreprises
traditionnelles. Ce travail en amont sur les données nécessite du
temps et rejoint par ailleurs des questions organisationnelles et
culturelles dans les entreprises. Sur le plan technique, le déve-
loppement de la 5G et des objets connectés favoriseront celui de
l’IA en France, ne serait-­ce que par rapport aux flux de données
supplémentaires apportés.

Quel regard porte-­t‑on sur l’IA ?


Par ailleurs, l’un des freins les plus importants concernant
l’adoption de l’IA par les entreprises, relevé par la Commission
européenne, renvoie au manque de confiance autour de l’IA25.
À ce propos, la proportion d’entreprises ayant relevé l’IA comme
représentant un risque potentiel dans le cadre de leur rapport
annuel destiné aux actionnaires a plus que doublé en 2018, ce
qui représente 55 grandes entreprises, d’après le Wall Street
Journal26 (réputation de marque entachée, confiance en baisse,
coûts cachés, plaintes éventuelles…). Le manque de confiance
provient tant des entreprises que des autres acteurs de la société
et résulte principalement d’un sentiment de manque de maîtrise
par rapport à des risques susceptibles de survenir.

25. Commission européenne, Technology Focus on Artificial Intelligence, Advanced


Technologies for Industry, AT Watch, juillet 2020.
26. Becky Yerak et Tatyana Shumsky, « More Companies Flag a New Risk:
Artificial Intelligence », Wall Street Journal, 9 janvier 2019.
176 Le guide de l’intelligence artificielle au travail

Les risques sont de plusieurs ordres. Concernant les bugs infor-


matiques, ou même les biais reprochés à l’IA, il convient de
rappeler que les erreurs sont… humaines ! En effet, si Gérard
Berry27, professeur au Collège de France, se dit convaincu que
le bug est constitutif de l’informatique des systèmes complexes,
il précise toutefois que ce dernier résulte toujours initialement
d’une erreur humaine. De même, les algorithmes ne sont pas par
nature racistes ou sexistes, mais reproduisent les biais (humains)
constatés via les données. La complexité des systèmes informa-
tiques entraîne une difficulté à en assurer la maîtrise.
Les problèmes de sûreté et de sécurité revêtent une importance
cruciale, tant la portée des intrusions informatiques peut être
grave à mesure que le volume de données croît. En tout cas,
investir dans la sûreté et la sécurité des données permet d’agir
sur la confiance autour de l’IA, et pourrait même constituer un
gisement d’emplois. De plus, du point de vue des clients-­citoyens,
l’incertitude par rapport à la gouvernance des données person-
nelles doit être levée par plus de transparence et une éthique
claire. La captation et l’utilisation des données personnelles
doivent être explicitées et acceptées par l’ensemble des acteurs
économiques et sociaux. Le manque de compétences en IA au
sein des entreprises est aussi un frein dans la mesure où les
entreprises ne maîtrisent pas le déploiement de l’IA et recourent
à des prestataires extérieurs. Le nombre d’experts en IA serait
actuellement insuffisant pour répondre à la demande. Cédric
Villani28 affirmait que la recherche française se situait au premier
plan mondial en mathématiques et en intelligence artificielle,
en revanche, la transformation des avancées scientifiques en
applications industrielles économiques est plus délicate et la
France pâtit de la fuite de ses cerveaux… Rappelons que l’une
des figures les plus importantes de l’intelligence artificielle en
France travaille pour Facebook : il s’agit de Yann Lecun.

27. Gérard Berry, « Pourquoi et comment le monde devient numérique »,


leçon inaugurale au Collège de France, 2008.
28. Cédric Villani, op. cit.
Interviews 177

Mais l’adoption de l’IA n’est qu’une question de temps…


et de données, n’est-ce pas ?
Oui. Selon IDC29, plus d’un quart des entreprises européennes
auraient adopté l’IA et une moitié prévoiraient de le faire prochai-
nement. Naturellement, la crise sanitaire de la Covid‑19 a plutôt
ralenti les plans d’adoption de l’IA, compte tenu des incertitudes
et du manque de liquidités. Néanmoins, les investissements en IA
devraient reprendre leur croissance après la crise sanitaire afin
d’accélérer l’automatisation et la transformation digitale. L’IA
peut même être une manière de rebondir intelligemment à la
suite de la crise engendrée par les confinements et quarantaines.
Comme toute nouvelle technologie, l’IA doit être domestiquée par
le système socio-­économique pour atteindre son plein potentiel.
Rappelons qu’à la fin des années 1990, les technologies de l’in-
formation et de la communication ont eu un impact économique
lent car profond, sans amélioration apparente des performances
microéconomiques des entreprises30. L’IA fait ainsi partie des
grandes mutations complexes, car elles revêtent un caractère
fondamental, et pénètrent tous les secteurs de la société.
Au-­delà des entreprises et des considérations techniques, il
convient également de prendre en compte les changements de
pratiques tant dans la vie économique que sociale. C’est ce que
Pascal Griset résume de la manière suivante : « Quelles que soient
les époques, les nouvelles techniques résultent d’une dialectique
entre une autre technique, le travail des chercheurs, des ingé-
nieurs, des entrepreneurs, et la demande sociale, l’aspiration
des dirigeants politiques, les exigences des citoyens, les désirs
des consommateurs, les revendications des travailleurs, les
critères financiers ou bien encore le rêve des visionnaires, voire
des utopistes31. »

29. IDC Worldwide semi-­annual artificial intelligence systems spending guide,


mars 2020.
30. Éric Brousseau et Nicolas Curien, « Économie d’Internet, économie du
numérique », Revue Économique, vol. 52, 2001.
31. Pascal Griset, « De la machine à vapeur aux GAFA(M) : D’une innovation
technologique à l’autre », Questions internationales, mai-­août 2018.
178 Le guide de l’intelligence artificielle au travail

Ne pensez-­vous pas que la valeur économique


s’appuie de plus en plus sur le réseau
avec les plateformes et la recomposition
des chaînes de valeur ?
Oui. Pour Nicolas Colin et Henri Verdier32, la valeur réside désor-
mais dans la multitude que nous formons tous, individus éduqués,
équipés et connectés. En effet, les milliards d’individus connectés
de par le monde et leurs échanges représentent un formidable
gisement de richesses pour qui sait le capter et l’exploiter. Il s’agit
d’ailleurs de la recette du succès des géants du web. La valeur
des entreprises du numérique est créée par les utilisateurs et
leurs données, véritable carburant de l’IA.
Il suffit de regarder l’exemple le plus abouti de plateformes avec
les GAFAM, avec leur percée rapide et leur diversification qui
s’étend à l’ensemble de l’économie. Il leur est souvent reproché
de capter abusivement la valeur produite par les autres, mais
l’économie du partage, ou l’économie collaborative s’inscrit
également dans le champ des « plateformes ». En s’appuyant sur
les effets de réseaux, considérablement amplifiés par Internet,
chaque géant du web a, d’une certaine manière, su imposer un
standard à la population mondiale, que ce soit par un moteur de
recherche, un logiciel, un smartphone, un réseau social…
En conséquence, l’avantage compétitif dépend désormais de la
capacité à créer et à contrôler des réseaux : les entreprises qui
parviennent à connecter les activités, agréger les données qui
circulent entre elles et à en extraire la valeur à l’aide de l’analy-
tique et l’IA sortiront gagnantes de la transformation numérique.
De plus, les effets de la plateformisation sont régulièrement
qualifiés de disruptifs du fait de la recomposition des chaînes
de valeur, plutôt vers le service. En 2015, Michael Porter et

32. Nicolas Colin et Henri Verdier, L’Âge de la multitude. Entreprendre et


gouverner après la révolution numérique, Armand Colin, 2015.
Interviews 179

James Heppelmann33 ont décortiqué le processus de transfor-


mation très profond qui caractérise le passage d’une économie
classique à une économie numérique. Au départ, un simple
produit, auquel on ajoute une puce électronique pour le rendre
intelligent, puis que l’on connecte à un utilisateur ou à un fabri-
cant, devient finalement un simple élément d’un système bien
plus large (voir le schéma « Les systèmes de systèmes »). C’est
le système reliant les produits – et non les produits par eux-­
mêmes – qui constitue l’avantage principal. Le modèle de ces
plateformes conduit à reconsidérer la place du produit matériel,
c’est-­à‑dire du produit d’origine dans la chaîne de valeur, donc
celle de l’usine et des emplois qui sont derrière.

Quelles sont les conséquences de l’IA sur l’emploi ?


Le groupe chinois Ant, cinq ans après sa création, concurrence
le premier groupe de services financiers au monde JPMorgan
Chase, avec dix fois plus de clients que les banques américaines,
mais dix fois moins de salariés pour exécuter les opérations clas-
siques : « La valeur obtenue n’est pas générée par des processus
métiers exécutés par les travailleurs, managers, ingénieurs et
services clients, mais par des algorithmes34. » Il semble clair
que l’une des conséquences de l’IA conduit à l’automatisation
d’un nombre croissant de tâches et d’opérations effectuées par
l’homme. De manière générale, personne ne sait exactement
combien d’emplois seront détruits, ni à quel rythme les progrès
combinés de la robotique et de l’intelligence artificielle se subs-
titueront aux capacités humaines, au moins en partie. À terme,
plusieurs études convergent vers le fait que plus de la moitié des
activités actuelles pourraient être remplacées par des systèmes
d’IA. La promesse faite par la 5G, l’IA et les objets connectés

33. Michael Porter et James Heppelmann, « Comment les produits intel-


ligents changent les règles de la concurrence », Harvard Business Review,
avril-­mai 2015.
34. « Pleins feux sur l’intelligence artificielle », Harvard Business Review,
décembre 2020-janvier 2021.
180 Le guide de l’intelligence artificielle au travail

Les systèmes de systèmes plateformisent les secteurs traditionnels


Source : Porter & Heppelmann, Harvard Business Review, avril-­mai 2015.
Interviews 181

pour les prochaines années va parfois même jusqu’au pilotage à


distance d’une usine sans ouvrier35, ou en tout cas avec le moins
possible. Néanmoins, il est probable que de nouveaux emplois
soient créés pour gérer les machines, bien que nous ne connais-
sions pas encore les emplois de demain. En effet, selon une étude
publiée en 2017 par Dell et l’Institut pour le futur, un think tank
californien, 85 % des emplois de 2030 n’existent pas encore36.
Enfin, notons que les destructions d’emplois ne concerneront pas
seulement les ouvriers et s’étendront aux tâches administratives,
aux fonctions support, etc.
Autre élément significatif, si le CDI demeure la norme, il l’est toute-
fois de moins en moins. En 2018, le ministère du Travail publiait
une étude37 se penchant sur l’évolution des embauches en CDI et
CDD depuis 25 ans en France : la part des personnes en CDI (hors
intérim) dans l’économie française, est passée de 94 % en 1982 à
88 % en 2017. De plus, la durée moyenne des CDD a, quant à elle,
été divisée par un peu plus de deux, passant de 112 jours en 2001
à 46 jours en 2017. Plus inquiétant encore, près d’un tiers des
CDD signés chaque année en France est de moins d’une journée !
Dans le même temps des nouveaux statuts de travailleurs ont
émergé, comme celui des autoentrepreneurs. En outre, l’impact
de l’IA sur l’emploi est aussi qualitatif et s’exprime au travers des
compétences requises. L’usage de la calculatrice nous a certes
quelque peu déqualifiés, car nous sommes moins bons en calcul
mental que nos aïeux mais… et alors ? Est-­ce si grave que cela ?
Le déploiement de l’IA conduira à une recomposition des tâches
confiées à la machine et à l’humain. À l’évidence, les compétences
en extraction et traitement de données, en analytique et en déve-
loppement d’algorithmes seront demandées. Au niveau des soft

35. Sébastien Grob, « Bientôt des usines sans ouvriers ? Comment la 5G pour-
rait décupler la robotisation de l’industrie », Marianne, 19 novembre 2020.
36. Dell Technologies, « Emerging technologies’ impact on society & work
in 2030 », 2017, www.delltechnologies.com/content/dam/delltechnologies/
assets/perspectives/2030/pdf/SR1940_IFTFforDellTechnologies_Human-­
Machine_070517_readerhigh-­res.pdf
37. Dares, « CDD, CDI : comment évoluent les embauches et les ruptures
depuis 25 ans », juin 2018.
182 Le guide de l’intelligence artificielle au travail

skills, la créativité, l’interdisciplinarité, l’esprit critique, l’aptitude


à coopérer tendent également à devenir des compétences clés.

Quelles sont les conséquences de l’IA


sur les conditions de travail ?
S’agissant des conditions de travail, il convient de rappeler que
l’automatisation des tâches manuelles a globalement réduit
la pénibilité physique, mais a accru l’intensité du travail et la
charge cognitive pour les salariés. Pour l’IA, les zones de risque
demeurent nombreuses, sachant que les technologies numé-
riques ont jusque-­là plutôt eu pour effet d’accroître les risques
psychosociaux. Si l’IA peut aider dans l’élaboration de certaines
tâches avec son apport d’informations, la relation hommes-­
machines est à construire, le degré de prescription faite par l’IA
à l’homme étant susceptible de réduire son autonomie, et de
générer une forme de déshumanisation du travail. À cet égard,
Cédric Villani propose, par exemple, d’envisager de faire évoluer le
compte pénibilité, pour prendre en compte de nouvelles situations
de travail (l’obéissance exclusive aux instructions de machines,
l’impossibilité de discuter avec ses collègues sans passer par une
interface machine…). Les biais de discrimination, dans le cadre
de process de recrutement, doivent être surveillés en organisant
une gouvernance des données dans l’entreprise, par exemple
dans le cadre du dialogue social. Lors de la mise en place de l’IA
dans une entreprise, une réflexion peut être engagée sur le type
de données alimentant l’IA, les modalités de mise à jour de ces
données, mais aussi sur les spécifications techniques, c’est-­à‑dire
les exigences éthiques et autres imposées à la programmation. De
même, les transformations de l’entreprise impacteront les orga-
nisations du travail qui devraient se caractériser par davantage de
flexibilité (horaire notamment, disponibilité permanente par les
outils numériques). La recherche de l’efficacité, la suppression de
temps morts peuvent engendrer du stress (pas de micro-­pauses
du fait des optimisations). Le télétravail ou travail à distance
devrait aussi gagner du terrain, du fait des contrôles et de la main-
tenance à distance rendue possible. Par ailleurs, les nouveaux
Interviews 183

statuts d’emplois combinés à l’intensification du travail à distance


conduisent à l’éclatement des collectifs de travail, qu’il importe
de ­recon­struire. Cet élément est particulièrement un défi pour les
équipes syndicales. Enfin, les risques de surveillance accrue des
salariés inquiètent d’ores et déjà certains travailleurs, soumis à un
flicage continu en temps réel : le risque est que cette surveillance
serve de base à la gestion de la performance dans l’entreprise.
Le recueil et l’utilisation des données personnelles des salariés
doivent faire l’objet d’une attention particulière, notamment au
regard de la protection de la vie privée.

La plateformisation est-­elle une déconstruction


des filières industrielles verticales au profit
de la production de biens et de services en réseau ?
Oui. Au cœur de la plateforme, la collection de données et d’al-
gorithmes façonne l’intelligence du système pour répondre
aux besoins et aux attentes du consommateur, mais aussi pour
prendre en compte, voire anticiper les évolutions sociétales.
Dans ce vaste réseau dématérialisé et internationalisé, l’ap-
pareil productif devient un satellite dont l’agilité et la plasticité
sont recherchées pour s’adapter rapidement à la demande. La
structure classique, la grande entreprise, n’est plus adaptée car
trop rigide. L’évolution du modèle d’affaires conduit à la reconfi-
guration en un réseau d’entreprises interopérant pour concevoir
et proposer le produit final ainsi que le service associé. L’acteur
qui capte les données stratégiques pour le modèle d’affaires
est aussi celui qui détient le pouvoir au sein de la plateforme,
soulevant de fait un problème de gouvernance. De même, pour
le sous-­système productif, les enjeux majeurs sont centrés sur
les capacités technologiques et d’innovation. À ce niveau, ce sont
ces fonctions qui détiennent le pouvoir et qui définissent les orien-
tations stratégiques. Dans cette perspective, le dialogue social
ne peut plus être l’affaire des seuls DRH et DRS, mais doit se
nourrir des problématiques métiers au sein d’un environnement
complexe et en perpétuelle transformation.
184 Le guide de l’intelligence artificielle au travail

Que pensez-­vous du niveau du dialogue social


face aux enjeux de l’IA ?
Le dialogue social institutionnel est globalement insuffisant pour
faire face aux enjeux de la digitalisation. Dans le cadre des consul-
tations et négociations obligatoires, un positionnement syndical
sur les questions numériques est possible. Ainsi, le numérique et
l’IA peuvent être appréhendés de différentes manières. En premier
lieu, les questions relatives à l’évolution quantitative (destructions
et créations d’emplois) et qualitative de l’emploi (transformation
des métiers et des compétences) peuvent être abordées dans
le cadre de la consultation sur les orientations stratégiques du
comité de groupe ou du CSE, qui trouve son pendant dans la négo-
ciation sur la gestion de l’emploi et des parcours professionnels.
De même, les questions relatives à la déconnexion et aux risques
psychosociaux peuvent être abordées dans le cadre de la consul-
tation sur la politique sociale du CSE, et lors de la négociation sur
la qualité de vie au travail (QVT).
Aussi une réflexion sur l’impact du numérique sur les rému-
nérations peut être abordée, à la fois sous l’angle des gains de
productivité (automatisation, robotisation, par exemple) et de la
modification des chaînes de valeur induite par la plateformisa-
tion : ces questions trouveront naturellement leur place dans la
consultation relative à la situation économique de l’entreprise,
et dans la négociation sur les rémunérations et le partage de la
valeur ajoutée.
Enfin, la consultation du CSE relative à l’introduction de nouvelles
technologies peut être l’occasion de déclencher une expertise afin
d’obtenir plus d’informations. Toutefois, en dépit de ce cadre exis-
tant, la digitalisation et l’IA ne sont pas au cœur du dialogue social
dans les entreprises. Les modalités actuelles du dialogue social
sont globalement insuffisantes, car la transformation digitale et
ses conséquences sont imparfaitement traitées dans les informa-
tions consultations du CSE, des comités de groupe et dans le cadre
des négociations d’entreprises ou de branche. Alors que le partage
d’information constitue la base d’un diagnostic partagé entre les
partenaires sociaux, il n’est pas rare de se retrouver avec une
Interviews 185

information absente ou incomplète, qui n’est pas à même de favo-


riser des échanges constructifs. L’information aborde rarement
les conséquences d’un déploiement technologique en termes de
conditions de travail, et encore moins en termes d’emploi.
Et dans le meilleur des cas, le dialogue social intervient dans le
cadre d’une anticipation liée aux conséquences de la numérisation,
mais la décision d’investissement et la mise en œuvre ne sont pas
discutées. Par ailleurs, considérant que l’activité de production
pourrait s’orienter vers, d’une part, des décisions hypercentra-
lisées (plateformes connues aujourd’hui), d’autre part, par une
multitude d’écosystèmes locaux interconnectés, cela signifie que
les contours de l’entreprise devraient évoluer, et il en sera donc
de même pour la place du dialogue social. Néanmoins, la taille des
plateformes fait qu’elles seront de plus en plus contraintes d’inté-
grer des considérations éthiques, sociétales, donc politiques. La
régulation de ces nouvelles formes d’entreprises n’est aujourd’hui
pas vraiment acquise, si ce n’est par la loi. Néanmoins les lois
sont nationales, alors que les plateformes ne connaissent pas,
par essence, de frontières. La frontière entre l’économique et
le politique s’efface : l’activité de régulation doit être relayée en
interne, au sein même des entreprises et des plateformes. Les
enjeux soulevés par l’IA, les données, la surveillance, la sécurité
vont au-­delà du champ économique.

La FGMM-­CFDT a une proposition originale


qui est de conduire les transformations de l’entreprise
par le design social. Pourriez-­vous l’expliquer ?
Afin de développer les méthodes et outils du design social, la
FGMM-­CFDT a répondu à un appel à projet émis par la délégation
générale à l’Emploi et à la Formation professionnelle (DGEFP), une
administration centrale du ministère du Travail. Piloté par Alain
Larose, secrétaire général adjoint de la FGMM-­CFDT, le projet
déposé est financé pour moitié par le Fonds social européen.
L’UIMM38 et l’Alliance Industrie du Futur ont accepté d’en être

38. Patronat de la métallurgie.


186 Le guide de l’intelligence artificielle au travail

parties prenantes. Des ergonomes du Cnam interviennent pour


créer la phase « Imaginer » du design social et la simulation des
transformations. Le cabinet Syndex quant à lui a la charge de l’in-
génierie projet, et travaille également sur les questions relatives
à l’économie et à la stratégie industrielle. Des expérimentations
doivent avoir lieu en entreprise pour mettre au point la démarche.
L’origine des réflexions de la FGMM-­CFDT sur les transformations
de l’industrie a commencé suite à la volonté affichée par l’Alliance
Industrie du Futur39 de « placer l’être humain au centre de l’indus-
trie du futur ». Que voulait dire concrètement cette affirmation ?
Les employeurs n’avaient pour seules réponses que la formation
professionnelle et la gestion prévisionnelle des emplois et des
compétences. En clair, adapter le travailleur aux transformations
et non les concevoir avec lui.
Si les entreprises continuent de conduire le changement sur le
modèle enseigné par les écoles de management et appliqué par
les cabinets de conseil, le déploiement de l’industrie du futur
se déroulera dans de mauvaises conditions. En effet, plusieurs
études (notamment les travaux de la Harvard Business School)
démontrent que, très majoritairement, les projets de transforma-
tion des entreprises n’atteignent jamais leurs cibles. Pire encore,
il arrive fréquemment qu’ils dégradent la performance ainsi que
la santé des travailleurs. Il apparaît donc nécessaire de proposer
une autre façon de conduire les transformations.
La méthode du design social procède d’une autre logique. Elle
pose le préalable que toute transformation du travail mobilise
deux dimensions – stratégique et opérationnelle. La direction
de l’entreprise et les organisations syndicales sont les interve-
nants légitimes sur les sujets stratégiques ; les travailleurs et le
management sont eux directement concernés par les questions
opérationnelles. En d’autres termes, la FGMM-­CFDT propose de
conduire le changement en articulant le dialogue social, entre
la direction et les syndicats, avec le dialogue professionnel qui

39. AIF est une association qui réunit des organisations professionnelles, des
partenaires académiques, technologiques et de financement des entreprises.
Interviews 187

aborde les questions concrètes du contenu du travail et de son


organisation, entre opérateurs et manageurs.

Pouvez-­vous décrire précisément le design social ?


Pour cette nouvelle méthode de conduite des transformations
baptisée design social, Alain Larose a identifié cinq étapes :
• Comprendre : sur la base d’un état des lieux et d’un diagnostic
de la situation économique, sociale, environnementale, indus-
trielle et technologique, les partenaires sociaux discutent et
partagent les objectifs de transformation. C’est aussi à ce stade
que syndicats et direction doivent s’approprier la démarche de
design social, à l’aide d’une formation qu’ils suivent en même
temps. Cet apprentissage commun est le moyen de mesurer
le degré de maturité des acteurs sociaux de l’entreprise pour
la mise en œuvre du design social. Si tel n’est pas le cas, cette
voie sera abandonnée pour retourner aux procédures d’infor-
mations et de consultations du Code du travail.
• Conduire : le cadre de la démarche est mis en place par la
négociation d’un accord de design social. Il s’agit de définir
le périmètre de réalisation du projet de transformation, de
formaliser les objectifs et les méthodes pour mesurer leur
niveau de réalisation, les acteurs qui seront concernés et
mobilisés, le calendrier de déploiement du design social, l’ar-
ticulation avec l’information et la consultation du CSE, et enfin
les moyens consacrés à la mise en œuvre de la démarche.
• Imaginer : l’offre technologique est aujourd’hui suffisamment
diversifiée et flexible pour que la numérisation de l’outil de
production soit conçue en prenant en compte les facteurs
humains, organisationnels et la réalité du travail. Cette étape
met à contribution les travailleurs et leurs manageurs afin
qu’ils imaginent plusieurs scénarios de transformation qui
sont ensuite simulés et caractérisés.
• Concrétiser : la caractérisation de chacun des scénarios de
transformation permet à la direction de l’entreprise et les
188 Le guide de l’intelligence artificielle au travail

syndicats de s’accorder sur celui qui sera mis en œuvre. Les


partenaires sociaux élaborent ensuite l’accompagnement
nécessaire constitué de plans d’actions, de plans de forma-
tion et d’accords.
• Évaluer : il s’agit à cette étape de mesurer le niveau d’ac-
complissement des objectifs du projet de transformation de
l’entreprise. Les méthodes d’évaluation conçues à l’étape
« Conduire », complétées par d’autres le cas échéant au cours
du déroulement de la démarche de design social, sont utili-
sées pour piloter la transformation. En fonction des résultats
obtenus, le scénario pourra être ajusté et les dispositifs d’ac-
compagnement adaptés en conséquence.
Finalement, avec le design social, la FGMM-­CFDT ambitionne
de faire évoluer le dialogue social de l’accompagnement vers
la conduite des transformations. Elle souhaite aussi clairement
établir ce qui relève du dialogue social, du dialogue professionnel
et les acteurs concernés tout en proposant une articulation et
une interaction entre ces deux constituants de la démocratie en
entreprise. C’est le moyen de mettre en discussion le projet de
l’entreprise et de faire en sorte que les considérations humaines,
sociales et environnementales soient également prises en compte.
Des objectifs réellement partagés et compris par la communauté
de travail concernée doivent favoriser la mobilisation nécessaire
à la réussite de la transformation.

L’IA est-­elle un sujet de démocratie dans et en dehors


de l’entreprise, finalement ?
Oui. L’activité de l’entreprise et ses transformations ont des
conséquences qui vont au-­delà des questions économiques,
concernant plus largement la société. Les décisions stratégiques
de ceux qui les détiennent revêtent ainsi une dimension politique.
Elles doivent à ce titre s’inscrire dans un processus démocratique
auquel l’ensemble des parties prenantes, internes et externes,
doivent participer.
Interviews 189

Dans l’entreprise, quelles sont les questions


à se poser ?
À quoi sert l’entreprise ou plutôt, à qui devrait-­elle servir ? La
finalité des entreprises doit être questionnée. La crise sanitaire
de la Covid‑19 a tristement mis en lumière en 2020 les limites de
la désindustrialisation française et notre dépendance aux impor-
tations, y compris sur des productions stratégiques. En effet, les
logiques d’optimisation poussée ont conduit les entreprises, avec
des motivations plus financières qu’industrielles, à rechercher les
coûts d’approvisionnement les plus faibles, sans se préoccuper
des risques de rupture d’approvisionnement, de souveraineté, etc.
L’industrie de demain pourrait être l’occasion, avec ses capteurs,
robots, fabrication 3D, d’utiliser concrètement l’IA pour répondre
à des besoins réels des citoyens comme la (re)localisation de
certaines usines, la réduction de notre empreinte carbone, la
reconquête de certains territoires, et le soutien à l’emploi40. La
question de l’IA renvoie aux finalités qui lui sont assignées et donc
aux priorités de l’entreprise qui doit agir pour le bien commun, et
non dans le seul intérêt des actionnaires. L’IA et les technologies
numériques sont donc un ensemble de moyens pour lesquels il
convient de définir une finalité acceptable socialement de tous.
Cette question se pose d’autant plus que l’IA requiert des données
pour lesquelles les questions de propriété ne sont pas toujours
très claires. Si une entreprise utilise des données qui relèvent du
bien commun pour servir des intérêts privés, ou une surveillance
généralisée, l’acceptabilité sociale risque de s’en trouver tôt ou
tard égratignée.
Certes, la loi Pacte permet des avancées puisque l’objet des
sociétés n’est plus limité au seul profit des actionnaires, mais les
enjeux sont tels que c’est hélas insuffisant. En effet, compte tenu
de l’importance prise par les grandes plateformes notamment, un
des modèles d’organisation de la vie économique d’aujourd’hui et

40. Pascal Laurin (Bosch France), « L’industrie 4.0 n’est-­elle qu’une question
de technologie ? », La Tribune, 28 octobre 2020.
190 Le guide de l’intelligence artificielle au travail

de demain, il est urgent de remettre plus de démocratie dans l’en-


treprise. Au-­delà des considérations économiques, cette question
renvoie aux enjeux sociaux et environnementaux : c’est donc un
sujet éminemment politique41.
Dans les entreprises françaises, les travailleurs ont la possibi-
lité d’élire leurs représentants et de choisir les organisations
syndicales qui auront la faculté de négocier des accords, choix
issu de la représentativité qui est calculée au premier tour des
élections professionnelles. Le système démocratique de l’entre-
prise est donc de type représentatif. Néanmoins, si les travailleurs
élisent leurs représentants, ceux-­ci disposent des seules facultés
d’être informés et consultés sur les choix de l’entreprise, mais
n’ont pas la capacité de les remettre en cause. Dans les faits, le
gouvernement de l’entreprise est assuré par une seule de ses
parties prenantes : la direction. C’est elle qui décide des choix
stratégiques, et des options qui auront des impacts sur l’ensemble
de la collectivité de travail (travail, organisation, conditions de
travail, emploi, etc.). La négociation entre partenaires sociaux de
l’entreprise est alors mobilisée pour accompagner ces projets.
À ce stade, la FGMM considère que le système démocratique de
l’entreprise est incomplet.
Isabelle Ferreras42 propose justement de démocratiser le champ
économique, en prônant un « bicamérisme » qui permettrait aux
travailleurs – qui investissent non en capital, mais en travail –
d’avoir une voix égale à celle des actionnaires dans la gouvernance
des grandes entreprises. Doté d’autant de compétences que le
conseil d’administration, le CSE permettrait aux salariés de se
positionner collectivement, à la majorité, sur les choix straté-
giques de l’entreprise, avec un droit de veto collectif sur toutes
les questions traitées par le conseil d’administration, y compris
la nomination du PDG ou la répartition des profits générés par
l’activité.

41. Pascal Demurger, L’Entreprise du xxie siècle sera politique ou ne sera pas,
Éditions de l’Aube, 2019.
42. Isabelle Ferreras, « La contradiction entre capitalisme et démocratie atteint
un point de non-­retour », Le Monde, 11 octobre 2019.
Interviews 191

Si le capitalisme est un régime de gouvernement qui alloue les


droits politiques en fonction de la possession du capital, la démo-
cratie, au contraire, est fondée sur la reconnaissance de l’égalité
de chacun et chacune en dignité et en droits. La logique extrac-
tive du mode de gouvernement capitaliste, dénoncée par Isabelle
Ferreras, domine les salariés et épuise la planète, mettant en
concurrence les États entre eux.
Parallèlement à la proposition d’Isabelle Ferreras de donner un
poids égal aux salariés par rapport aux actionnaires, il convient
aussi d’imaginer une instance au sein de laquelle seraient repré-
sentées les parties prenantes externes intéressées, comme la
collectivité locale ou les ONG, en vue de recevoir des informations
de la part de l’entreprise (comme le CSE aujourd’hui). Il n’est
pas anormal de considérer qu’une entreprise implantée dans un
territoire rende des comptes aux élus de celui-­ci sur son activité,
son impact environnemental, etc.

Dans les écosystèmes locaux, l’IA est-­elle à l’origine


d’interrogations socio-­environnementales ?
Le numérique échappe certes aux lieux de décisions démo-
cratiques en raison de la puissance des acteurs qui le pilotent,
notamment des GAFAM, mais il offre aussi la possibilité à des
citoyens ordinaires de se prendre en main, au nom d’un projet
solidaire, par exemple. Il existe d’ailleurs plusieurs exemples
d’utilisation vertueuse de l’IA, qui vont dans le sens du bien
commun (lutte contre la faim, gestion des déchets, amélioration
du système de santé dans des zones reculées, etc.).
Jeremy Rifkin, économiste et conseiller politique américain, célé-
brait déjà le passage d’une logique de propriété à une économie
de partage entre usagers, nouveau paradigme, qui selon lui éclip-
sera le capitalisme et ses valeurs43. Il montre que l’économie du
partage est en train de se développer et d’effacer la frontière

43. Jeremy Rifkin, L’Âge de l’accès. La Révolution de la nouvelle économie,


La Découverte, 2000.
192 Le guide de l’intelligence artificielle au travail

entre le producteur et le consommateur44. Jeremy Rifkin s’en-


thousiasme tout particulièrement pour les imprimantes 3D, dont
la généralisation permettra à chacun de produire ses objets
du quotidien, comme sa voiture ou sa maison. Cette produc-
tion collective intelligente serait, par ailleurs, gérée par des
« communs collaboratifs », sortes d’associations ou coopératives
constituées pour l’intérêt collectif.
En outre, pour Jeremy Rifkin, le secteur de l’énergie serait le
premier concerné. Les énergies renouvelables vont se développer
– comme c’est déjà le cas en Allemagne, où près d’un quart de
la production d’électricité était renouvelable en 2015 – et leur
production et leur consommation seront pilotées et optimisées
par un Internet de l’énergie pour devenir abondantes et quasiment
gratuites. Bien sûr, les prévisions de Jeremy Rifkin ne sont pas
partagées par tout le monde, loin de là, mais elles méritent quand
même toute notre attention.
La transformation numérique pourrait ainsi « naturellement » favo-
riser l’éclosion d’une pluralité d’écosystèmes locaux auto­suffisants
sur les plans énergétique et agricole (fermes verticales45), par
exemple. Ces écosystèmes implantés pourraient fonctionner en
économie circulaire, afin de répondre aux besoins élémentaires de
leur territoire, tout en réduisant leur impact environnemental. Ils
pourraient aussi prendre en charge des productions aujourd’hui
assurées par des entreprises classiques via les imprimantes 3D,
mutualisées à l’échelle d’un territoire plus ou moins étendu.
Par ailleurs, les citoyens pourraient gérer politiquement plus
directement leurs priorités éthiques, sociales et environnemen-
tales par des modalités de démocratie directe et représentative
en fonction des thématiques46. À l’échelle d’un territoire quel qu’il

44. Jeremy Rifkin, La Nouvelle Société du coût marginal zéro, Les Liens qui
Libèrent, 2014.
45. Voir la vidéo diffusée par The Economist, « Under the streets of south
London », en février 2021.
46. Voir la « démocratie liquide », qui combine des éléments de démocratie
directe et indirecte, en fonction des appétences, du temps, etc.
Interviews 193

soit, les questions environnementales gagneraient en impor-


tance, car personne ne veut une antenne 5G à côté de chez soi
par exemple, ou une quelconque pollution de proximité, tandis
que pour les grandes entreprises, ce rapport à l’environnement
est moins direct. Quoi qu’il en soit, le bilan environnemental de
la transformation numérique est difficile à apprécier entre, d’une
part, les promesses d’optimisation, d’autre part, l’explosion de
la consommation énergétique dénoncée notamment par le Shift
Project et l’épuisement des métaux rares47.

Faut-­il réguler l’IA ?


Au niveau de la régulation globale du numérique, Anne-­Thida
Norodom observe que le contrôle de l’ordre public se trouve
partagé entre les États certes, mais aussi les plateformes numé-
riques48. En cela, la transformation numérique remet également
en question les autorités étatiques et bouscule notre démocratie.
En effet, d’une part, les plateformes empiètent sur certaines
prérogatives des États, d’autre part, elles parviennent à régler
des problèmes collectifs grâce notamment à l’IA que les auto-
rités actuelles, elles-­mêmes, ne sont pas en capacité de gérer et
constituent, de ce point de vue, une ressource précieuse.
Néanmoins, les États se sont rapidement heurtés au caractère
global, décentralisé et ouvert d’Internet qui s’accommode peu
des régulations nationales. Sur le plan monétaire, rappelons que
les bitcoins court-­circuitent les autorités étatiques. Pourtant, le
« pouvoir de battre monnaie » renvoie à l’une des prérogatives
de base de tout État, de même que celui de la fiscalité… Sur ce
dernier point, Airbnb collecte l’impôt pour le compte de plusieurs
municipalités françaises et hors de France. Au-­delà de la monnaie
et de la fiscalité, la technologie blockchain, en ce qu’elle permet
d’éviter les tiers de confiance, défie les organisations étatiques.

47. Guillaume Pitron, La Guerre des métaux rares. La Face cachée de la transition
énergétique et numérique, Les Liens qui Libèrent, 2018.
48. Anne-­Thida Norodom, « La galaxie Internet », Questions internationales,
mai-­août 2018.
194 Le guide de l’intelligence artificielle au travail

Le groupe de haut niveau de l’Union européenne sur l’IA a défini


sept exigences clés en 2018, invitant à organiser une gouvernance
incluant de multiples parties prenantes, garantes du respect de
ces principes : bon pour l’humain, supervision humaine, robus-
tesse, sécurité, bien-­être sociétal, environnement, et redevabilité.
Au niveau européen, Aida Ponce del Castillo49 observe une proli-
fération des codes de conduite et lignes directrices sur l’éthique
de l’IA (plus de 84 documents dénombrés). Rien ne permet de
garantir leur adoption et leur respect par les entreprises : ces
textes, basés sur le volontariat, ne prévoient généralement
aucune sanction en cas de violation. Ces démarches relèvent
donc plus de l’« ethics washing ». Enfin, la loi européenne gagne-
rait à être mise à jour afin de garantir que les droits humains
soient respectés par les systèmes d’IA (discriminations et inéga-
lités), en mettant en place, par exemple, des contrôles nationaux
indépendants.
En conclusion, en dépit des freins observés, l’IA va s’imposer
dans l’économie et la société. Si les entreprises peuvent être
momentanément gagnantes en remplaçant le travail par le
capital, même immatériel, pour autant, au niveau collectif,
risquent de se poser des problèmes de demande solvable, mais
aussi de financement de la protection sociale, de la couverture
chômage, des retraites, etc. Enfin, s’agissant des perspectives,
la société de demain pourrait avoir deux visages : l’un séduisant,
affichant les traits radieux d’un retour à une économie locale et
solidaire et l’autre, grimaçant, qui serait le reflet de l’exploi-
tation la plus sauvage et de la régression sociale. À ce tableau
pourraient se greffer des considérations environnementales : la
prédation économique et l’épuisement de la planète pourraient
s’effacer au profit d’une consommation collaborative par le troc,
le covoiturage, un financement participatif comme le prêt entre
particuliers, etc.

49. Aida Ponce del Castillo, « Le Travail à l’ère de l’IA : pourquoi la régle-
mentation est nécessaire pour protéger les travailleurs », ETUI, février 2020.
Interviews 195

La digitalisation de l’économie est une évolution profonde et


structurante de la société. L’IA en est une pièce maîtresse. Sera-­
t‑elle à l’origine d’un progrès pour l’humanité et la planète ou le
dernier avatar du capitalisme financier ? Seul le débat démocra-
tique dans la société et l’entreprise permettra de trouver la voie
de l’intérêt et du bien commun.
UN PROJET
D’INTELLIGENCE ARTIFICIELLE EST
UN PROJET DE TRANSFORMATION

David Giblas
David Giblas est ingénieur et statisticien.
Il est directeur général délégué aux opérations
d’assurances, à la relation client, à l’innovation
et aux partenariats santé chez Malakoff Humanis.

Stéphane Barde
Stéphane Barde est ingénieur et mathématicien.
Il est directeur Data & Digital dans le groupe.

Il y a quatre ans, tous deux ont créé une direction Data


au sein de Malakoff Humanis. Cette direction se penche sur tous
les travaux de gouvernance et de visualisation des données.
Elle gère aussi le big data et l’intelligence artificielle.

Pourquoi une direction Data (données)


au sein de Malakoff Humanis ?
David Giblas : L’usage de l’intelligence artificielle révolutionne
tous les secteurs de l’économie, et Malakoff Humanis ne fait pas
exception. Notre direction générale a compris très tôt l’utilité
d’investir dans cette technologie disruptive et de la mettre au
centre de sa transformation dans une direction Data. L’IA agit
comme un levier de performance en optimisant certains traite-
ments, mais aussi comme un moyen d’améliorer la satisfaction
de nos clients. Grâce à la formation de nos équipes en actuariat,
en mathématiques, en ingénierie, nous avions conscience que
cette direction Data pourrait aider le Groupe à se transformer. Un
projet d’intelligence artificielle est en effet avant tout un projet de
transformation de processus, mais dans un cadre de confiance.
Interviews 197

Quels sont les piliers de ce projet de transformation ?


David Giblas : Nous avons recensé trente cas d’usage de données
d’intelligence artificielle, avant la diffusion progressive d’algo-
rithmes au sein de Malakoff Humanis. Il y a quatre ans, dans le
cadre de notre projet de transformation par la Data, nous avons
décidé de poser les bases d’un grand pilier concernant la gouver-
nance des données, en cohérence avec le cadre protecteur du
RGPD.
Nous avons intégré les notions de « Privacy by Design » (sécurité
intégrée à la conception) dans nos projets en limitant les fina-
lités d’usage et les données à caractère personnel, ainsi qu’un
dispositif d’analyse de l’éthique dans un cadre de travail euro-
péen. Nous avons aujourd’hui une gouvernance interne à Malakoff
Humanis en charge de l’analyse des algorithmes, qui est parti-
culièrement attentive à des sujets tels que l’éthique, le rôle de
l’humain ou la protection de la vie privée.

Avez-­vous un processus de certification


des algorithmes ou de choix comme l’éthique
by Design… ?
Stéphane Barde : L’idée d’éthique by Design consiste à intégrer
des valeurs et des principes humains dès la conception des outils
technologiques. Cela se traduit par une réflexion déontologique,
qui se concrétise ensuite techniquement.
Mais chez Malakoff Humanis, nous avons choisi un processus de
choix des algorithmes à partir d’un vivier de cas d’usage, en amont
d’un processus de suivi de production. Notre Data Protection
Officer rencontre tous les mois nos professionnels en matière
de protection des données à caractère personnel, de sécurité de
l’information, de gestion des risques, de finalité de traitement… Il
est essentiel d’associer les collaborateurs lorsqu’on met de l’IA
dans les processus. C’est l’un des facteurs de réussite de tout
projet de transformation.
198 Le guide de l’intelligence artificielle au travail

Dans quels cas utilisez-­vous l’intelligence artificielle


au sein de Malakoff Humanis ?
Stéphane Barde : Transformer les processus de l’entreprise
demande beaucoup d’énergie ! Notre objectif consiste à faciliter
le travail des collaborateurs en leur apportant des éléments de
décision ou en automatisant des tâches répétitives. Par exemple,
lorsque Malakoff Humanis reçoit des factures de ses fournisseurs,
vérifier si le bon de commande est bien présent dans chaque
facture est une opération fastidieuse. Pour l’IA, cette opéra-
tion peut être très rapide. En outre, elle permettrait de réduire
les temps de traitement et réduire les risques d’erreurs. Autre
exemple, Malakoff Humanis reçoit des documents de la part
des assurés tels que des demandes de prise en charge, et pour
certains, des algorithmes en extraient les données. Sans IA, il
faudrait recopier à la main les informations pour chacune de ces
demandes. Troisième exemple enfin, pour lutter contre la fraude,
l’IA est très performante, l’algorithme fait une présélection des
dossiers litigieux, qui sont ensuite instruits par des collaborateurs
dont l’expertise est alors précieuse.

Comment les collaborateurs appréhendent-­ils


ces nouveaux outils ?
David Giblas : Les collaborateurs sont d’autant plus acteurs
d’un projet de transformation qu’ils y sont associés. En début
de projet, il y a toujours des questionnements sur le fonction-
nement et l’apport de l’IA, puis une fois ces étapes franchies,
l’intérêt pour ces approches est rapidement validé. L’algorithme
ne prend jamais une décision à la place de l’humain. Lorsque nous
concevons un algorithme, les premières versions de ce dernier
sont très perfectibles. Nous l’accompagnons par le savoir-­faire
de nos collaborateurs : leur décision est éclairée par l’IA, et ce
sont eux qui améliorent l’IA pour être in fine plus efficaces et
se concentrer sur des tâches à plus grande valeur ajoutée. Les
collaborateurs sont extrêmement intéressés et satisfaits par cette
nouvelle forme de travail. Leur retour est unanime.
Interviews 199

Estimez-­vous aujourd’hui qu’une IA peut remplacer


l’humain dans votre secteur d’activité ?
Stéphane Barde : Non. Il y a une représentation de l’IA qui dépasse
parfois la réalité. De manière générale, l’IA est encore loin de
reproduire des raisonnements sophistiqués ; elle assure plutôt
des tâches assez rudimentaires qui permettent néanmoins de
garantir une prestation de qualité. N’oublions pas que l’intel-
ligence artificielle demande beaucoup de données pour être
performante.
Nous utilisons une intelligence artificielle très ciblée pour faire des
choses simples, des micro-­tâches, tout à fait basique comparée
à l’intelligence humaine. Ce qui est important, c’est d’avoir des
compétences pour maîtriser cette technologie.

L’IA libère-­t‑elle du temps chez les salariés ?


David Giblas : Oui, l’IA a libéré du temps dans les tâches les plus
fastidieuses. Grâce au temps libéré, les collaborateurs peuvent
ainsi réinvestir dans une relation plus qualitative avec les four-
nisseurs, consacrer plus de temps à des tâches à valeur ajoutée,
par exemple. Il faut comprendre qu’en le dégageant des tâches
fastidieuses qui peuvent être traitées par l’IA, le collaborateur
voit l’intérêt de son travail se renforcer.

Y a-­t‑il eu des discussions sur le temps libéré


ou l’intensification du travail ?
David Giblas : Chaque métier comporte des tâches fastidieuses.
Identifier ces tâches suppose une compétence technique. En
matière d’achats, par exemple, il est pertinent de discuter avec
les acheteurs pour identifier ces tâches.
L’objectif c’est d’optimiser le temps de travail lié à ces activités
fastidieuses pour le réorienter vers un travail plus qualitatif.
200 Le guide de l’intelligence artificielle au travail

Quel investissement prévoyez-­vous pour l’IA ?


David Giblas : Un investissement important. L’élaboration d’un
algorithme prend deux mois, la transformation du processus
associé… un an et demi à deux ans. La collecte des données et
la conception d’un algorithme représentent 30 % du temps, du
budget, de l’énergie de la transformation. Les 70 % du temps
restant sont liés à la transformation du métier.
Quand on s’engage sur des projets de ce style-­là, c’est coûteux.
L’algorithme bouscule les idées préconçues. Au début, cela
nécessite de comprendre le besoin du métier pour collecter les
données nécessaires à la création de l’algorithme. S’ensuit une
phase de rodage et d’adaptation de l’algorithme, dont les colla-
borateurs peuvent ne pas valider les conclusions. Lorsque les
collaborateurs ne valident pas les prédictions ou sélections des
algorithmes, nous devons en décortiquer les raisons. Il faut avoir
un bon niveau de compétences pour confirmer le résultat de l’al-
gorithme, car progressivement, on tombe sur des cas de plus en
plus complexes.
Quand on pose un algorithme dans un métier, il faut continuer
à s’occuper de celui-­ci et cela requiert un niveau d’expertise
senior dans les métiers sur ces projets. Nous devons identifier
les compétences internes pour le suivre. Or, celles-­ci n’ont pas
toujours le temps nécessaire. Dans ce cas, nous devons identifier
les sujets sur lesquels elles doivent se focaliser. L’algorithme leur
permet d’apprendre sur leur métier, car il sort des cas qu’il était
impossible de voir auparavant. C’est une boucle d’amélioration
continue.

Et du point de vue des métiers ?


Stéphane Barde : De nouvelles activités apparaissent dans les
métiers et d’autres se développent ; cela est rendu possible grâce
au temps dégagé par le traitement automatique de tâches simples
par l’IA. L’IA intervient sur 1 % de la palette d’activités d’un colla-
borateur. On ne peut pas dire qu’il y ait un remplacement massif
des activités.
Interviews 201

L’impact de l’IA sur l’emploi est très difficile à mesurer. Dans


le Groupe, l’IA ne génère pas de suppressions d’emplois. Au
contraire, l’IA crée de nouveaux métiers. On trouve des personnes
sensibilisées à la qualité des données, des personnes qui ont des
compétences sur l’enrichissement et l’entretien du patrimoine
des données. Les collaborateurs qui produisent les données sont
ceux qui les traitent et leurs compétences sont importantes autant
que précieuses.

Peut-­il y avoir des biais dans vos algorithmes ?


Certaines assurances peuvent, grâce à des algorithmes,
choisir des clients qui ont le moins de risques…
David Giblas : Nous sommes un groupe de protection sociale à but
non lucratif, nous ne faisons pas de sélection médicale.

Y a-­t‑il un risque de biais ?


Stéphane Barde : D’un point de vue général, il peut y avoir des biais
dans les données historiques, l’algorithme peut alors en être un
amplificateur. Nous avons de la chance de ne pas avoir de cas
d’usages qui nous exposeraient à ce type de problématique, pour
l’instant. Nous analysons systématiquement les données, pour
voir les potentiels biais : par exemple, des surreprésentations,
selon l’âge ou le sexe… Nous comparons toujours ce que fait l’al-
gorithme à un échantillon témoin, utilisé comme garde-­fou. Par
ailleurs, nous raisonnons sur des données anonymisées, c’est-­
à‑dire sans les données à caractère personnel, pour limiter les
possibilités de biais.

Quelles sont l’explicabilité et l’interprétabilité


de vos algorithmes ?
Stéphane Barde : Il y a un mythe de l’algorithme qui décide seul.
Un algorithme ne prend pas de décision, ce qui est intéressant,
202 Le guide de l’intelligence artificielle au travail

c’est de comprendre sa « recommandation ». Nous faisons souvent


de la composition de plusieurs algorithmes, ce qui veut dire qu’on
fait une moyenne entre eux. L’explicabilité n’est pas toujours si
facile. Nous utilisons du machine learning, très peu d’« apprentis-
sage profond », une famille d’algorithmes moins « explicables ».
Nous faisons donc un choix technique qui permet une meilleure
explicabilité.
Dans nos processus augmentés avec de l’IA, ce sont les humains
qui prennent les décisions. Il n’y a pas de décisions automatiques
issues de nos algorithmes. Nous veillons bien à ce que les colla-
borateurs challengent les algorithmes dans la durée, notamment
dans nos comités de pilotage mensuels. En faisant appel à l’ex-
pertise des collaborateurs, l’IA est plus une opportunité qu’une
menace.
Postface

L’introduction d’une technologie comme celle de l’intelligence artifi-


cielle, permise par une évolution numérique rapide et sans précédent, a
des impacts profonds sur les citoyens et les travailleurs, et nécessite une
gouvernance qui doit associer tous les acteurs de la société civile. Pour
la CFDT, ces changements ne doivent laisser personne sur le bord de la
route.
La CFDT mesure les opportunités que cette technologie offre, sans en
sous-­estimer les risques. Des opportunités dans de nombreux domaines
– médical, celui des transports ou de l’agriculture –, qui peuvent contri-
buer à sauver des vies, réduire les émissions de gaz à effet de serre,
optimiser la consommation des ressources, créer de nouveaux emplois,
pour n’en citer que quelques-­unes…
Dans l’organisation du travail, l’essor du télétravail pendant la crise sanitaire
a offert des opportunités de souplesse auxquelles beaucoup de travailleurs
sont désormais attachés.
Des risques néanmoins, tels la destruction et le changement rapide des
emplois, la perte de savoir-­faire professionnel, la précarisation des emplois
et la perte des protections sociales, des inégalités… Ces changements
nécessitent de nouvelles compétences et qualifications, de l’anticipation,
de l’accompagnement et de la formation. Les impacts sur les conditions
de travail, l’intensification du travail, la relation homme-­machine doivent
être discutés et régulés.
Cette technologie pose des défis sociétaux et éthiques inédits : la protec-
tion de la vie privée et celle de la dignité humaine, la place de l’humain
dans la décision face à la machine, la question des discriminations. Elle
pose aussi des enjeux pour nos démocraties.
Dans les lieux de travail, nous avons des outils en Europe et en France,
comme ce guide le souligne et nous devons les utiliser. Des législa-
tions françaises et européennes prévoient que l’introduction de nouvelles
204 Le guide de l’intelligence artificielle au travail

technologies doit donner lieu à une information-­consultation des repré-


sentants des travailleurs.
Le dialogue social, professionnel et sociétal doit permettre d’interroger la
finalité et le fonctionnement des systèmes d’intelligence artificielle, pour
choisir ceux qui sont bons pour l’humain et pour nos sociétés et éviter,
voire interdire, ceux qui sont néfastes.
Comme le recommande ce livre, l’humain doit rester maître de la déci-
sion. Voulons-­nous confier à une machine la possibilité de décider du
recrutement d’un travailleur ou de son évolution professionnelle ou de
l’octroi d’un prêt à un citoyen, sur la base d’algorithmes opaques ? Je pense
que l’humain doit garder la main. Dans les entreprises et les administra-
tions, les DRH doivent pouvoir s’opposer à une décision des algorithmes
et avoir le dernier mot sur ceux-­ci. Les cadres et les managers doivent être
associés et formés sur l’IA, tous comme les syndicalistes et les travailleurs.
Je salue ce livre qui participe à la prise de conscience, met en évidence
les enjeux à l’œuvre, et offre des outils et témoignages précieux pour
questionner cette technologie et poser les organisations syndicales et
les individus comme acteurs de ces évolutions et des orientations qui
s’imposent.
Des syndicats aux États-­Unis se créent dans les entreprises de la « tech » sur
des enjeux éthiques et sur la finalité de l’entreprise qui affiche des valeurs
pour lesquelles ils l’ont choisie et qu’elle ne respecte plus. En France et en
Europe, les syndicats ainsi que d’autres acteurs de la société civile seront
attendus sur ces défis. La CFDT est prête à les relever !

Laurent Berger
Secrétaire général de la CFDT
Remerciements

Mes remerciements vont à la CFDT Cadres, et en particulier à Laurent


Mahieu pour sa confiance et à Jérôme Chemin pour son soutien. Je
remercie chaleureusement tous les acteurs du terrain qui ont contribué à
ce livre par leurs témoignages et ont soulevé les questions que l’IA pose
dans leurs réalités de travail.
Merci d’avoir choisi ce livre Eyrolles.
Nous espérons que sa lecture vous a été utile
et vous aidera pour mener à bien vos projets.

Nous serions ravis de rester en contact avec vous


et de pouvoir vous proposer d’autres idées de livres
à découvrir, des nouveautés, des conseils
ou des événements avec nos auteurs.

Intéressé(e) ? Inscrivez-vous à notre lettre d’information.

Pour cela, rendez-vous à l’adresse


go.eyrolles.com/newsletter ou flashez ce QR code
(votre adresse électronique sera à l’usage unique
des éditions Eyrolles pour vous envoyer
les informations demandées) :

Vous êtes présent(e) sur les réseaux sociaux ?


Rejoignez-nous pour suivre d’encore plus près nos actualités :

Eyrolles Business et Eyrolles Web Dev et Web Design

Eyrolles Business

Eyrolles Business

Merci pour votre confiance.

L’équipe Eyrolles.

Vous aimerez peut-être aussi