Académique Documents
Professionnel Documents
Culture Documents
RÉSUMÉ
Depuis leur apparition au milieu du XXe siècle dans le domaine industriel, les
robots se développent dans de nombreux secteurs économiques, autour de
l’utilisation de l’intelligence artificielle (IA).
Dans cette communication, après avoir examiné ce que signifie aujourd’hui la
notion de robot, nous analysons les questions éthiques qu’engendre la robotique
dans divers secteurs de la société, à commencer par l’industrie, en passant par la
robotique militaire et policière, la santé, l’éducation, les robots ménagers et en
terminant par l’agriculture et l’environnement.
À partir de cette analyse, nous recherchons un cadre éthique pour la robotique,
dont nous essayons de définir une problématique à partir du couple « action et
responsabilité » des robots.
SUMMARY
Since their appearance in the middle of the twentieth century in the industrial field,
robots are developing in many economic sectors, around the use of artificial
intelligence (AI).
In this paper, after examining what the concept of robot means today, we analyze
the ethical issues that robotics engenders in various sectors of society, starting with
industry, through military and police robotics, health, education, household robots
and ending with agriculture and the environment.
From this analysis, we seek an ethical framework for robotics, which we try to
define a problematic from the couple "action and responsibility" of robots.
PLAN
1
Introduction
3.1. La notion de robot
3.1.1. La définition du terme de « robot »
3.1.2. L’imaginaire des robots
3.1.3. Capacités des robots et questions éthiques
3.1.4. L’extension de la notion de robot
3.1.5 L’IA et le changement de paradigme de la robotique
3.2. Les effets éthiques de la robotisation dans les rapports sociaux-économiques
3.2.1. Les effets éthiques de la robotique industrielle
3.2.2. Les effets éthiques de la robotique policière et militaire
3.2.3. Les effets éthiques de la robotisation des transports
3.2.4. Les effets éthiques de l’utilisation des robots dans le domaine de la
santé
3.2.5. Les effets éthiques de l’utilisation des robots éducatifs
3.2.6. Les effets éthiques de l’utilisation des robots ménagers
3.2.7. Les effets éthiques de l’utilisation des robots dans l’agriculture et
l’environnement
3.3. À La recherche d’une éthique de la robotique
3.3.1 À la recherche d’un cadre éthique de la robotique
3.3.2. Vers une problématique de l’éthique de la robotique
3.3.3. La multi responsabilité vis à vis des robots
3.3.4. La capacité d’agir des robots
3.4. Les sciences de gestion et le statut éthique des robots
3.4.1 La robotisation et l’éthique de l’organisation
3.4.2. Le statut éthique des robots
Bibliographie
2
Introduction
Les robots sont apparus de manière généralisée dans le domaine industriel depuis
e
la première moitié du XX siècle et se développent rapidement aujourd’hui, au plan
qualitatif comme quantitatif autour de l’utilisation de plus en plus approfondie des
technologies d’intelligence artificielle (IA). Cette dernière procure aux robots des
capacités de perception, d’utilisation d’un langage, d’interaction avec les hommes
et l’environnement, de résolution de problèmes et d’apprentissage voire de
créativité.
Il en résulte que les robots dotés de plus ou moins d’IA peuvent prendre des
décisions imprévisibles pour les hommes1, car elles dépendent de l’expérience
acquise par les robots et de conditions stochastiques intégrées par l’IA. La question
se pose donc, au plan éthique, de la responsabilité des actions exécutées par des
robots dotés de l’IA, les robots cognitifs.
Ce faisant, nous inscrivons cet article dans le champ des sciences de gestion et des
organisations, afin d’y introduire une nouvelle problématique engendrée par
l’apparition de la robotique, non seulement au travail mais dans l’ensemble du
champ des activités humaines. Avant de « découper » cette problématique en
champs de recherche spécifiques, portant par exemple sur l’avenir du travail ou sur
le management d’une organisation imprégnée par l’IA, il s’agit ici de prendre la
mesure des promesses et des risques de la robotisation au regard de l’éthique dans
son ensemble, et notamment autour de la question de la responsabilité de l’acteur,
que celui-ci soit incarné par l’entreprise ou par l’individu. In fine, comment
intégrer la responsabilité d’un robot dans le champ de l’éthique, et notamment dans
celui de l’éthique de l’altérité?
Dans une perspective plus large encore, la robotisation peut apparaître comme
l’instrument d’un transhumanisme, voire d’un anti humanisme, qui modifierait non
seulement le travail mais l’ensemble des conditions de vie de l’humanité. Si cet
article ne prétend pas aborder l’ensemble de ces problématiques, du moins souhaite
t-il en considérer les prolongements possibles.
Nous commencerons par observer en quoi l’introduction de robots cognitifs au sein
de la société humaine a un impact sur les comportements humains, qu’elle induit
des changements d’ordre social comme culturel, ce qui engendre des questions
éthiques que nous examinons dans cet article, en nous appuyant tout d’abord sur la
notion de robot (1.) qui nous permettra ensuite de décrire les effets de
l’introduction des robots dans les rapports sociaux (2.), à partir desquels nous
examinerons ce que peut signifier une éthique de la robotique (3.).
3. 1. La notion de robot
1
https://www.archyworldys.com/eric-sadin-artificial-intelligence-breeds-a-progressive-banishment-
of-the-human/
2
Le terme de robot a été créé par le tchèque Karel Čapek dans une pièce de science-fiction de 1920
appelée R.U.R. (Rossumovi Univerzální Roboti ).
3
1.1. La définition du terme de « robot » :
Nous avons défini un robot dans son acception anthropomorphique (Farzaneh &
Boyer 2018) comme étant une machine qui fournit des services pour les êtres
humains, soit en se substituant à eux, soit en collaborant avec eux. D’autres
définitions ont été proposées par Rosenberg3 (1986) ou par Angelo4 (2007), mais
l’évolution des robots doit être prise en compte pour saisir le sens en devenir du
concept de robot. C’est ainsi que Gibilisco (2003) distingue quatre générations de
robots, chacune acquérant par rapport à la précédente des capacités croissantes :
- Avant 1980, les robots de la première génération étaient fondés sur des
servomécanismes stationnaires et n’utilisaient ni capteurs externes, ni
intelligence artificielle.
- Entre 1980 et 1990, les robots de la deuxième génération étaient
programmables, contrôlés par des microprocesseurs et disposaient de
capteurs visuels et tactiles.
- À partir des années 90, les robots de la troisième génération deviennent
mobiles et autonomes, capables de reconnaître et de synthétiser la parole et
intégrant l’intelligence artificielle et des systèmes de navigation.
- Gibilesco prévoit enfin que les futures générations de robots devraient être
capables d’acquérir progressivement la plupart des caractéristiques du
cerveau humain, sauf celles qui tiennent à sa nature purement biologique.
Or, depuis ce classement, la robotique s’est diversifiée au-delà de l’ingénierie
mécanique et électrique qui traite spécifiquement des robots ou « bots » pour
s’adjoindre les nanosciences pour les « nanobots », la biologie pour les « biorobots
» ou les « cyborgs ») et même la botanique avec les « plantoïdes », alors qu’il
semblerait que l’éthique de la robotique soit restée cantonnée aux robots déjà en
fonction et non aux robots du futur.
Il en résulte que cette éthique risque d’être sans cesse en retard par rapport à
l’apparition de nouveaux types de robots. En outre, la robotique ne relève pas
seulement de la science mais aussi de l’imaginaire des hommes, d’où un risque de
biais anthropomorphique vis à vis des robots « réels ».
dangereuses, ou d’autres opérations directement sur commande d’un être humain ou de façon
autonome, en utilisant un ordinateur à logiciel intégré (contenant des commandes et des instructions
préalablement enregistrées) ou reposant sur un niveau avancé d’intelligence machinique
(artificielle) (qui permet de baser les décisions et les actions sur les données recueillies par le robot
sur son environnement actuel) » (Angelo, 2007, p.309).
4
terme de « robot ». Le thème de la pièce traduit bien les inquiétudes
sociales que suscitent les robots. Ces derniers, constitués de matière
organique sont destinés par l’inventeur à servir de force de travail bon
marché, mais ils se révoltent contre leurs créateurs et s’emparent du
pouvoir.
- Isaac Asimov introduit le terme de « robotique » et propose dans une de ses
nouvelles, Cercle vicieux, (1942) une éthique de la robotique fondée sur
trois lois :
o Un robot ne peut porter atteinte à un être humain, ni, en restant
passif, permettre qu'un être humain soit exposé au danger ;
o Un robot doit obéir aux ordres qui lui sont donnés par un être
humain, sauf si de tels ordres entrent en conflit avec la première loi ;
o Un robot doit protéger son existence tant que cette protection n'entre
pas en conflit avec la première ou la deuxième loi.
Asimov jugera ensuite que ces trois lois doivent être complétées par une loi Zéro
qu’il propose dans Les robots et l’Empire (1985) :
o Un robot ne peut porter atteinte à l’humanité, ni, en restant passif,
permettre que l’humanité soit exposée au danger.
Les œuvres précédentes traduisent, par la révolte (Frankestein), l’utilisation des
robots contre le travail humain (R.U.R) ou la nécessité d’encadrer le comportement
des robots (Cercle Vicieux), la crainte d’un homme dépassé par les créatures qu’il
a conçues et fabriquées. Cette crainte s’est largement exprimée dans les films et
séries de science-fiction, comme, pour ne citer que les œuvres les plus connues,
dans Metropolis de Fritz Lang (1927) qui décrit la révolte des robots contre les
êtres humains dans 2001, l’Odyssée de l’espace de Stanley Kubrick (1968) qui
présente un ordinateur contrôlant toutes les fonctions d’un vaisseau spatial et qui
cherche à détruire son équipage humain ou dans Terminator de James Cameron
(1984) qui décrit un monde futur constitué en dictature gouvernée au moyen de
l’intelligence artificielle et d’une armée de robots.
Cette présentation des robots n’est cependant pas systématiquement catastrophique.
Le duo de robots R2-D2 et C3PO dans La guerre des étoiles de George Lucas
(1977) possède des qualités humaines ; de même, l’enfant robot David dans A.I.
Intelligence artificielle de Steven Spielberg (2001) souffre d’avoir été abandonné
par sa mère biologique.
Ces approches du comportement imaginé des robots ont des fondements religieux.
En effet, le christianisme et le judaïsme considèrent la création de tels êtres comme
une interférence illégitime avec le rôle du Créateur, alors qu’a contrario le
bouddhisme et le shintoïsme considèrent tous les êtres vivants et non vivants
comme dotés d’une âme ou d’un esprit. Cette dernière approche se traduit dans la
culture japonaise par une acceptation des robots humanoïdes (Bar-Cohen et
Hanson, 2009).
Il faut observer que ces représentations du comportement des robots ont largement
précédé l’arrivée pratique des robots dans la société humaine, mais il faut retenir
aussi que ces représentations influencent les préoccupations éthiques de l’humanité
vis à vis des robots. Le premier robot industriel (Stone, 2005), Unimate, n’a été
conçu qu’en 19545 et le premier robot fondé sur l’IA a été développé entre 1966 et
19726. Nous pouvons dégager les caractéristiques des robots existants ou en projet,
5
Par Joseph Engelberger et George Devol pour la chaîne de montage de General Motors à Trenton
dans le New Jersey.
6 Shakey, un robot à roues conçu par Charles Rosen et ses associés du Centre pour l’intelligence
artificielle en Californie.
5
en regard de l’éthique, en ne faisant référence qu’à l’état actuel de la robotique et
en essayant d’en prolonger les tendances pour imaginer l’état de la robotique dans
quelques décennies tout au plus.
7
C’est pourquoi les développeurs proposent des systèmes de reconnaissance vocale et de synthèse
vocale de plus en plus perfectionnés. Par exemple, les robots humanoïdes Wakamaru (Mitsubishi)
et Nao (Aldebaran Robotics) peuvent communiquer avec des êtres humains à la fois par le geste et
la parole (Bekey, 2012).
6
bien organiques qui ont des capacités spécifiques 8 (Ummat et al., 2004)
qu’inorganiques (Weir et al., 2005). Invisibles à l’œil humain, les nanorobots
exigent un examen du niveau de sécurité et de sauvegarde de la vie privée requis
pour protéger les êtres humains et les écosystèmes.
7
sur la responsabilité respective du concepteur et de l’utilisateur pour ne pas
mentionner celle du robot IA lui-même.
C’est pourquoi les questions éthiques liées à la robotique doivent intégrer les
caractéristiques rapidement évolutives des robots dans le cadre des rapports
sociaux–économiques qu’ils entretiennent avec la société humaine.
8
modifiant les relations de pouvoir. Mais il est déjà perceptible qu’elle
modifie les échanges sociaux (Peláez, 2014).
- La thèse de la fin du travail, avec son cortège d’impacts sociaux intégrés
dans le paradigme d’une post modernité succédant au fordisme (Durand,
Boyer, 2000) peut se trouver renforcer par l’apparition de la robotique. Or
les rapports entre la postmodernité et son rapport au travail, et d’une
manière plus générale au sens et à l’éthique ont été abordés dans les travaux
de Bruna, Peretti & Yanat (2016)10, complétés par Bruna, Montargot &
Peretti (2017) qui montrent en quoi la diversité au travail s'inscrit dans une
perspective de développement durable, fondée sur une éthique de l’altérité
et une poursuite de la Justice organisationnelle, tandis que se trouvent
précisés les liens entre le concept de diversité, le « totem » de la norme et
l’idéologie du contrôle qui affectent l’entreprise postmoderne dans Bruna,
Ducray & Montargot (2017).
- En effet, les progrès de la robotisation modifient en profondeur les
conditions de travail et les emplois. Travailler côte à côte avec des robots
exige de nouvelles compétences professionnelles et la mise en place de
mesures de sécurité nouvelles et adéquates sur le lieu de travail. Trois
catégories de robots sont présentes sur les lieux de travail où elles affectent
la sécurité, les robots industriels, les robots de service personnels ou
professionnels et les robots collaborateurs :
o La plupart des robots industriels ne sont pas conscients de leur
environnement, ce qui les rend dangereux pour les travailleurs et il
s’agit donc de maintenir une distance suffisante entre les travailleurs
humains et les robots en activité en créant des espaces réservés.
o Les robots de service sont utilisés principalement en dehors des sites
industriels, dans des environnements non structurés et imprévisibles.
Ils ne peuvent généralement pas être isolés des travailleurs, car ils
partagent souvent le même lieu de travail et la complexité de
l’environnement contraint à donner aux robots un certain degré
d’autonomie et de mobilité, susceptibles de créer des situations
dangereuses pour les travailleurs.
o Les robots collaborateurs sont conçus pour l’interaction directe avec
un être humain ; ils comprennent à la fois des robots industriels et
des robots de service professionnels ou personnels, en combinant la
dextérité, la flexibilité et la capacité à résoudre avec la force,
l’endurance et la précision des robots mécaniques. Comme les
robots collaborateurs travaillent côte à côte avec des travailleurs
humains, la sécurité ne peut pas être obtenue par l’isolement du
robot, ce qui nécessite d’autres méthodes.
9
Nous traitons ci-après de la surveillance policière autonome, des drones, des armes
autonomes et du détournement des robots :
- La robotique est de plus en plus appliquée à la surveillance. Comme la
vidéosurveillance et les satellites, les drones peuvent voir et entendre en
permanence. Ils permettent par exemple de contrôler les frontières, les
foules ou la circulation. Il en résulte des implications majeures pour le
respect de la vie privée et la protection des données. Dans ce domaine,
l’adaptation des technologies militaires peuvent conduire à une logique de
gestion de la société reposant sur une économie de la peur, celle « d’un
ennemi omniprésent » (Crandall and Armitage, 2005, p.20). En particulier,
l’utilisation de robots équipés d’armes dites « non létales » dans la
répression des formes de contestation publiques peut servir d’outil
d’oppression, car les robots ne risquent pas de désobéir à un régime
autoritaire comme pourraient être amenés à le faire des soldats ou des
policiers.
- Un drone est défini comme « un véhicule terrestre, marin ou aérien qui est
contrôlé à distance ou de manière automatique » (Chamayou, 2015, p.11).
Ils ouvrent de nouvelles possibilités sur le plan militaire tout en créant de
nouveaux risques sur le plan moral11. Or distinguer un combattant d’un
civil dans une situation de télé pilotage est par nature difficile et la
complexité très fortement accrue des séries de données sur lesquelles
reposent les décisions de tir augmente les risques d’erreur dans
l’identification des cibles. En outre, évaluer la proportionnalité à distance
est problématique, car le pilote de drones doit, individuellement ou avec
son équipe d’analystes, décider d’appliquer une force létale en fonction de
données contextuelles qui sont souvent insuffisantes12. En ce qui concerne
la responsabilité, il s’agit de vérifier que les drones sont utilisés par des
forces militaires régulières aux mêmes fins que celles qui misent en oeuvre
pour les avions classiques.
- Plus généralement, les armes autonomes sont des armes qui, une fois
activées, sélectionnent et attaquent des cibles sans intervention humaine
supplémentaire. Elles posent les mêmes questions éthiques, au regard des
principes de distinction, de proportionnalité, de responsabilité et de
transparence, mais dans ce cas, l’absence d’intervention humaine suscite
des inquiétudes quant à la capacité de logiciels à prendre des décisions qui
devraient normalement être prises par un être humain, notamment parce
que des décisions de vie et de mort peuvent difficilement être prises par des
machines13, alors que le pouvoir de tuer ou de déléguer le pouvoir de tuer14
ne peut être attribué à une machine sans nier ce qui constitue le fond de
l’être moral d’un individu et sa valeur intrinsèque, la dignité humaine. En
outre, les armes robotiques ont des implications stratégiques, notamment en
11
Les opérateurs de drones se trouvent à distance de la machine armée, isolant leurs actes,
pratiquement proche d’un jeu, de toute considération morale.
12 Il s’agit de mettre en balance l’avantage militaire attendu et le risque de pertes de vies civiles.
13 Un rapport de la Royal Society (2017) relève que les machines sont incapables de faire preuve de
10
abaissant le seuil de déclenchement d’un conflit armé 15 et posent des
problèmes en termes de sécurité, par exemple en termes de détournement
ou de piratage.
- Enfin, le marché des véhicules téléguidés de petite taille soulève des
questions éthiques en matière de respect de la vie privée, du fait des risques
d’utilisation criminelle de ces produits16.
L’intérêt du film est tout d’abord visuel. Le spectateur est éberlué par la qualité
des images dont disposent les opérateurs militaires, installés dans des containers
climatisés au milieu d’une base aérienne proche de Las Vegas, images grâce
auxquelles ils peuvent suivre tous les faits et gestes, voire les expressions, des
personnes qu’ils observent et qu’ils vont le plus souvent assassiner en quelques
secondes, dix secondes s’écoulant exactement entre la décision de tuer et la mort.
Une fois cette prise de conscience opérée, c’est l’indignation qui m’a suffoqué.
Voilà des gens, avec leurs états d’âme c’est entendu, qui assassinent leurs
prochains qu’ils voient, circonstance aggravante, mourir sous leurs yeux,
simplement parce qu’un bureaucrate quelconque de la CIA installé à Langley,
Virginie (très beau la Virginie, très vert, très calme) a décidé que ces gens étaient
des ennemis des USA, qu’ils représentaient un danger « immédiat » pour la
« sécurité » du « peuple » américain !
15 Déjà la capacité de cibler à une grande distance a ouvert la pratique des assassinats ciblés, qui
sont devenus plus aisés grâce aux systèmes robotiques.
16 Des drones équipés de logiciels de reconnaissance faciale, de technologie infrarouge et de micros,
permettant d’enregistrer des conversations personnelles, constituent en effet une atteinte sans
précédent au droit au respect de la vie privée.
17
D’autres exemples de ce dilemme sont proposés par Bonnefon et al. (2016, p.1576) :
- Est-il acceptable qu’un véhicule autonome, pour éviter une moto, fasse un écart et entre dans un
mur, la probabilité de survie en pareil cas étant plus grande pour le passager du véhicule que pour le
conducteur de la moto ?
11
Il s’agit enfin de déterminer si ces questions doivent faire l’objet d’une
réglementation à l’échelon national ou international, si elles doivent être soumises
à des normes ou à des codes de conduite des véhicules autonomes ou laissées au
jeu des forces du marché.
3.2.4. Les effets éthiques de l’utilisation des robots dans le domaine de la santé :
Nous examinerons successivement les questions éthiques engendrées par
l’utilisation de robots médicaux, de robots infirmiers, de robots de soin pour les
personnes âgées et de robots compagnons.
- Des robots semi-autonomes sont utilisés en chirurgie et ils présentent de
nombreux avantages18, mais les chirurgiens expriment certaines réticences
techniques à l’égard de la chirurgie robotique, comme la perte du sens du
toucher. Mais, d’ores et déjà, la robotique chirurgicale pose une question
d’ordre économique et finalement éthique, car la multiplication des robots
en chirurgie a des incidences sur l’allocation des ressources dans les
systèmes de santé publique, en raison de son coût actuellement plus élevé
que celui d’une opération avec un chirurgien normal.
- Des robots infirmiers sont utilisés dans certaines approches thérapeutiques
auprès des enfants autistes et des enfants trisomiques. Cependant les rares
études consacrées à l’utilisation de robots dans ce contexte n’indiquent pas
que la dyade robot-enfant autiste soit supérieure, d’un point de vue
fonctionnel, à la dyade parent-enfant autiste (Simut et al., 2016). De même,
les exosquelettes utilisés pour aider les personnes handicapées à accroître
leur mobilité s’inscrivent dans le développement de la robotique médicale,
mais, comme les implants neurologiques ou les nanorobots, ils ouvrent la
voie à une transformation du corps humain et la question se pose, sur le
plan éthique, de savoir jusqu’où doit aller le développement de
l’hybridation et à quelles fins.
- Les robots de soins pour personnes âgées font partie des robots sociaux, qui
sont des robots qui communiquent et interagissent avec des êtres humains.
On se réfère aussi à la notion de robots compagnons pour souligner les
dimensions fonctionnelles et affectives de cette catégorie de robots (Oost
and Reed, 2010). Or, en raison du vieillissement rapide de la population et
des difficultés de recrutement du personnel de soins, les robots apparaissent
comme un moyen de remédier à l’écart entre le besoin et l’offre de services
de soins. C’est ainsi qu’apparaissent sur le marché médical, des robots qui
fournissent une aide physique (nettoyage, cuisine, hygiène personnelle), les
robots compagnons (stimulation des activités cognitives) et des robots de
surveillance de la santé et de la sécurité (risques de chute, défaillance
cardiaque, troubles de la mobilité). Ces robots soulèvent la question des
moyens utilisés et des fins recherchées. Par exemple, comment équilibrer le
contrôle comportemental et l’autonomie des personnes âgées à l’aide de
- La décision doit-elle être différente lorsque des enfants sont à bord du véhicule, puisqu’ils ont plus
longtemps à vivre en tant que futurs adultes et moins de contrôle sur la décision qui les a conduits à
être présents dans le véhicule ?
- Si un fabricant offre des versions différentes de son algorithme moral et qu’un acheteur en choisit
une en connaissance de cause, l’acheteur doit-il être tenu pour responsable des conséquences
néfastes des décisions de l’algorithme ?
18 Il offre plus de confort pour le chirurgien, une réduction de la durée d’hospitalisation et une perte
de sang moindre pour le patient, minimisant ainsi le traumatisme causé, même si elles
n’apparaissent pas forcément plus efficientes que la chirurgie habituelle et l’utilisation d’un robot
chirurgical (Kappor, 2014).
12
robots ? le but visé est-il d’améliorer la qualité de vie des personnes âgées
ou de réduire le travail du personnel de soins ou encore, plus généralement
de décharger la société du soin des personnes âgées (Wu et al., 2010) ?
Selon l’objectif choisi pour ces robots infirmiers, les questions de leur coût,
de leur efficacité en matière de soins ou de leur acceptabilité19 par les
personnes âgées deviennent plus ou moins primordiales. Enfin, les robots
compagnons sont en voie de développement dans le domaine de la sexualité
et posent la question de la réduction de la sexualité à l’individu et non au
couple, remettant en question les relations interpersonnelles.
19
Cette acceptation signifie que le robot doit être intégré volontairement à la vie d’une personne
âgée en prenant en compte la motivation à utiliser un robot, une facilité d’utilisation suffisante et
l’absence d’inconfort physique, cognitif et affectif en présence d’un robot ; en outre, ses effets sur
le rôle des aidants naturels doivent être pris en compte, afin que cette acceptation soit mise en
balance avec son coût, en y incluant son entretien.
20
Par exemple passer l’aspirateur, ramasser les poubelles, nettoyer les vitres, arroser les plantes,
nettoyer la piscine, repasser, préparer à boire et à manger. Les appareils comme les robots
d’alarmes et de sécurité, les tondeuses à gazon robotiques, les robots de surveillance d’animaux
domestiques, les berceaux robotiques et les assistants d’achat robotiques sont aussi classés dans la
catégorie des robots de service, au même titre que les robots de divertissement et, dans une certaine
mesure, les robots compagnons.
13
des personnes âgées. En outre, ils se prêtent facilement à être détournés de leur
usage officiel vers des fins non éthiques. Souvent équipés de caméras et de micros,
il est facile de les transformer en outils pour s’introduire dans la vie privée et ils
permettent de stocker quantité de données privées et confidentielles (photos de
l’intérieur d’une maison et de ses habitants, données sur leurs habitudes, mot de
passe de leur système d’alarme, emplacement de leurs objets précieux). Le danger
s’accroît encore lorsque les robots ménagers sont connectés à l’internet ou à un
autre réseau insuffisamment protégé et facile à pénétrer. Dans ce type de situations,
le piratage du robot peut faciliter des activités criminelles comme le vol ou le
chantage.
L’apparence extérieure des jouets robotiques et des robots compagnons est aussi un
aspect sensible d’un point de vue éthique (Pearson et Borenstein, 2014). Leur
forme et leur apparence devraient refléter les préférences esthétiques collectives
d’une culture, ne pas renforcer les stéréotypes de genre, être adaptées au niveau de
développement des enfants et prêter une attention particulière au degré d’apparence
humaine de ces jouets, l’impact positif ou négatif d’une telle apparence variant en
général selon l’âge ou les traits de personnalité de leurs utilisateurs.
14
croissant de secteurs de la vie professionnelle et personnelle des êtres humains,
nous avons pu observer l’étendue et la variété de ces effets sur l’organisation de la
société humaine ; ces effets peuvent, à terme, entraîner des changements profonds
de la perception par l’homme de la signification de son environnement. L’éthique
porte un regard sur les jugements de l’homme ou de la société sur cette perception
de l’environnement transformée par les robots. Ses fondements en étant renouvelés
par l’irruption de la robotique dans l’organisation de la société humaine, nous
cherchons ci-après à en poser le cadre.
15
malgré les initiatives que nous avons mentionnées, à des codes éthiques
professionnels et à des directives éthiques sur les modalités de mise en œuvre de
projets robotiques. Sans doute de telles directives devraient émerger des initiatives
prises pour promouvoir une réglementation éthique de la robotique :
- Concernant l’éthique de la recherche en robotique, Allistene (2016), issu
d’un consortium d’instituts de recherche français comprenant le CNRS, le
CEA, l’INRA, le CDEFI, entre autres, a formulé plusieurs propositions afin
de renforcer la responsabilité éthique des chercheurs en robotique quant à
l’interaction homme-robot.
- Le Projet de Rapport contenant des recommandations à la Commission
concernant des règles de droit civil sur la robotique, publié en 2016 par la
Commission des affaires juridiques du Parlement européen, propose un
cadre éthique de la robotique et de l’industrie des robots. Ce rapport aborde
la protection des données et de la vie privée, les dommages qui pourraient
être causés par la nouvelle génération de robots et la responsabilité des
fabricants de robots, le principe de précaution, le test des robots en milieu
réel, le consentement éclairé dans la recherche en robotique impliquant des
êtres humains, les dispositifs d’interruption (coupe-circuit) et l’impact de la
robotique sur l’emploi et l’éducation. Il souligne également l’importance de
la traçabilité et de la mise en place d’un système d’immatriculation des
robots avancés. (JURI, 2016, p.13).
- Le rapport de la World Commission on the Ethics of Scientific Knowledge
and Technology (COMEST, 2017) fait la synthèse des différentes
problématiques de l’éthique de la robotique et proposent une série de
recommandations pour un code éthique.
Cependant, de nombreuses contributions sont proposées aujourd’hui à propos de
l’éthique et du droit de la robotique (Asaro, 2012 ; Calo, 2015 ; Holder et. al.,
2016 ; Leenes et al., 2017 ; Matsuzaki et Lindemann, 2016), alors qu’au plan
pratique la robotique reste en grande partie non réglementée. Actuellement, les
dommages potentiels causés par les robots sont couverts par la législation civile sur
la responsabilité des produits, alors que l’autonomie de plus en plus forte des
robots brouille la ligne de démarcation entre les responsabilités des fabricants de
robots et celles des utilisateurs (Asaro, 2012).
En outre, les producteurs de robots mettent en garde contre le risque de freiner le
développement des robots par des normes posées à priori qui augmenteraient leur
niveau d’incertitude, tant il apparaît qu’une réglementation de la robotique doit
rester en phase avec l’évolution rapide des technologies, tout en recherchant
l’équilibre entre la protection des valeurs et des droits humains fondamentaux et la
préservation de l’innovation (Leenes et al., 2017). Mais le débat sur la
réglementation de la problématique ne peut être tranché sans que celui portant sur
les fondements de l’éthique de la robotique ne le soit au préalable.
16
brouillage induit aussi un débat au sein de la société qui oscille entre ce que nous
pouvons qualifier de techno-optimisme, exprimé par l’utopie du transhumanisme,
et un techno-pessimisme qui invoque la nécessité d’un bioconservatisme destiné à
défendre l’humanité contre l’impact trop radical des technologies.
Le techno-optimisme soutient que les progrès de la technologie ne peuvent pas être
freinés et qu’il faut donc les utiliser au mieux21. Si l’on idéalise les effets du
progrès technologique, on rejoint alors l’idéal transhumaniste qui veut mettre la
technologie au service de l’amélioration des capacités humaines (Hottois et al.,
2015). À l’opposé de cette approche, le techno-pessimisme craint que les
innovations technologiques affectent les relations sociales et les capacités
cognitives de l’humanité. C’est pourquoi il défend un bio conservatisme autour de
la dignité humaine (Fukuyama, 2002) ou de la capacité à être l’auteur de sa propre
vie (Habermas, 2003).
S’il est logique que la robotique, en tant que phénomène technico-social émergent
génère des enjeux éthiques nouveaux, il est également nécessaire, au delà des choix
globaux engendrés par le techno optimisme ou pessimisme, d’approfondir les
questions concrètes que posent les robots au plan pratique pour tracer les limites du
débat éthique. Ainsi, la question première qui émerge, au plan éthique, est celle de
l’établissement des actes d’un robot, afin de pouvoir les apprécier.
21
Par exemple, les véhicules autonomes permettront de réduire le nombre d’accidents, les robots
chirurgicaux accroîtront la précision des interventions médicales, les robots de service améliorerons
la qualité de vie des personnes âgées et des personnes atteintes de maladies chroniques.
22
Par exemple, lorsqu’un véhicule autonome provoque un accident entraînant des victimes
humaines, à qui devra en incomber la responsabilité ? L’équipe de roboticiens qui a conçu le
véhicule ? Le fabricant ? Le programmeur ? Le vendeur ? La personne qui a décidé d’acheter et
d’utiliser le véhicule ? Le robot lui-même ?
17
de la nature de l’action des robots.
23
Par exemple, les téléphones portables permettent aux individus de rester en contact ou les
appareils d’imagerie par résonance magnétique (IRM) permettent aux médecins d’obtenir une
image du corps de leurs patients.
18
3.4. Les sciences de gestion et le statut éthique des robots
24 https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/social-robots-ai-and-ethics/
25 Farzaneh et Boyer (2018) ont mis en avant la question de l’écologie comme un éventuel critère de
choix entre les robots et les êtres humains sur le lieu de travail. De ce point de vue, les auteurs
suggèrent de faire un choix entre les hommes et les robots, lorsque cela est possible, en se fondant
sur le coût comparé en matière de consommation d’énergie et de matières premières entre les
hommes et les robots.
26 http://www.onrec.com/news/features/the-importance-of-social-media-in-recruiting
27
Cette loi a un impact important sur les professionnels des RH, car elle couvre les droits
des employés sur les données personnelles qu’une entreprise conserve : les entreprises ne
peuvent utiliser les données qu’aux fins qui ont motivé leur recueil et elles ne peuvent pas
en collecter de nouvelles sans autorisation des employés.
19
En outre, il est tentant d’affecter l’IA à des activités de surveillance qui portent
atteintes aux droits de l’homme à partir des photos prises à l’aide de satellite, de la
reconnaissance faciale ou des publications sur les réseaux sociaux, ce qui
commence à provoquer des réactions de protection, telle que la décision de la ville
de San Francisco, qui, depuis le 14 mai 2019 28 , a adopté une ordonnance
bannissant l’usage de technologies de reconnaissance faciale par la police et par les
autres instances municipales. Avant que des abus ne soient commis, l’ordonnance
est préventive, afin de s’assurer que les citoyens puissent contrôler la manière dont
ils sont surveillés et contrôlés.
À partir d’un ensemble de comportements collectifs, se met donc en place une
culture qui permet de protéger le volume massif et toujours croissant des
informations recueillies sur les personnes et les organisations (Dhillon, 1997, Lim
et al, 2009). Les cultures d’entreprise en sont impactées, car les failles de sécurité
dans les systèmes informatiques résultent d’erreurs de codage humain 29 et le
comportement des employés a un impact sur la sécurité des informations dans les
organisations (Andersson et al., 2014).
Au travers des différentes facettes de la robotique et des technologies de
l’intelligence artificielle, la robotique et l’IA soulèvent donc de multiples questions
éthiques que ce soit sur l’opportunité de leur utilisation ou sur le contrôle de
l’information recueillie, qui nous conduisent à considérer la construction d’un
statut éthique des robots.
28 https://www.economist.com/democracy-in-america/2019/05/16/why-san-francisco-banned-the-
use-of-facial-recognition-technology
29 https://www.forbes.com/sites/justinwarren/2017/04/06/the-human-point-of-cyber-
security/#15ec13233768
30 Par exemple, les distributeurs automatiques de billets sont programmés pour rendre exactement la
20
ramenés à ce niveau à un débat sur le choix d’une éthique des robots fondée sur
une éthique humaine parmi plusieurs possibles.
Il reste cependant à s’interroger, lorsque les robots seront dotés dans l’avenir d’une
éthique explicite, sur les droits éthiques des robots.
Finalement, peut-on concevoir que les robots aient droit, à l’avenir à une protection
contre les dommages identiques à celle accordée aux êtres humains et à certains
animaux ?
Dans la mesure où les robots sont capables d’effectuer par eux-mêmes des tâches
cognitives, ils possèdent une forme de rationalité limitée, sans libre arbitre, sans
intentionnalité et sans conscience de soi. De plus, ils n’éprouvent pas de sentiments,
même si des robots sociables peuvent être programmés pour développer des
sentiments artificiels (Valverdu and Casacuberta, 2009).
Or, l’apparition à l’avenir d’hybrides homme-machine ou animal-machine ou de
cyborgs, des robots intégrés à un organisme biologique ou contenant au moins
certaines composantes biologiques, pourrait remettre en cause cette distinction
simple entre les hommes et les robots.
C’est bien le déplacement de frontière entre l’homme et l’objet qui a été le point de
départ de notre analyse, c’est ce déplacement de frontière qui engendre la nécessité
de développer une éthique de la robotique, qui reste à définir et à faire évoluer au
fur et à mesure où la frontière se déplace. C’est pourquoi nous avons cherché à
montrer dans cet article les principales données à prendre en compte pour
l’élaboration dynamique d’une éthique de la robotique, en particulier autour du
concept de responsabilité, face aux défis présents de la postmodernité voire d’un
futur transhumaniste.
21
Bibliographie
Alonso E., Sherman A. M., Wallington T. J., Everson M. P., Field F. R., Roth R.,
Kirchain R. E. (2012). Evaluating rare-earth element availability: a case with
revolutionary demand from clean technologies, Environmental Science and
Technology,46, 3406-3414.
Anderson M., Anderson S. L. (2011). General introduction, in: Anderson M. and
Anderson S. L. eds. (2007), Machine Ethics. Cambridge, Cambridge University
Press, 1-4.
Anderson, D., Reimers, K. and Barretto, C. (2014). Post-Secondary Education
Network Security: Results of Addressing the End-User Challenge, INTED2014
(International Technology, Education, and Development Conference).
Angelo J. A. (2007). Robotics: A Reference Guide to the New Technology.
Westport, Greenwood Press.
Asimov I. (1950). Robot. New York, Gnome Press.
Asimov I. (1985). Robots and Empire. New York, Doubleday.
Asaro P. M. (2012). A body to kick, but still no soul to damn: legal perspectives on
robotics, in: Lin, P., Abney, K. and Bekey, G. A. eds. Robot Ethics: The Ethical
and Social Implications of Robotics. London, MIT Press, pp. 169-186.
Balding C. (2016). Will Robots Ravage the Developing World?, Bloomberg View,
25 July. London, Bloomberg
Bar-Cohen Y. and Hanson D. (2009). The Coming Robot Revolution: Expectations
and Fears About Emerging Intelligent, Humanlike Machines. New York, Springer-
Verlag.
Bekey G. A. (2012). Current trends in robotics: technology and ethics, in Lin, P.,
Abney K. and Bekey G. A. eds., Robot Ethics: The Ethical and Social Implications
of Robotics. London, MIT Press, 17-34.
Beran T. N., Ramirez-Serrano, A., Kuzyk, R., Fior, M. and Nugent, S. 2011.
Understanding how children understand robots: Perceived animism in child-robot
interaction, International Journal Human-Computer Studies, 69 (7-8), 539-550.
Beran T. N., Ramirez-Serrano A., Kuzyk, R., Fior M. and Nugent S. (2011).
Understanding how children understand robots: Perceived animism in child-robot
interaction, International Journal Human-Computer Studies, 69(7-8), 539-550.
Bonnefon J.-F., Shariff A. and Rahwan I. (2016). The social dilemma of
autonomous vehicles, Science, 352 (6293), pp. 1573-1576.
Bruna M-G, Peretti J_M, Yanat Z. (2016). Les nouveaux défis de la diversité :
totems et à dépasser et défis à relever, RIMHE 2016/1, 20, pp 68-88.
Bruna M-G, Montargot N., Peretti J-M. (2017). Point de vue : les nouveaux
chantiers du management de la diversité, Gestion 2000, 34, pp 433-462.
Bruna M-G, Ducray L_F., Montargot N. (2017). Décrypter les ambiguïtés de la
société post-moderne pour repenser la morphologie de l’entreprise de demain.
Une illustration réticulaire. Management & Sciences Sociales N°23, pp 64-85.
Calo R. (2015). Robotics and the lessons of cyberlaw, California Law Review, 103,
513-563.
Carr N. (2014). The Glass Cage: Automation and Us. New York, W.W. Norton
and Company.
Chamayou G. (2015). A Theory of the Drone. New York, The New Press.
Crandall J. and Armitage J. (2005), Envisioning the Homefront: Militarization,
Tracking and Security Culture, Journal of Visual Culture, 4 (1), 17-38.
Dhillon, G. (1997). Managing Information System Security. Houndmills,
Basingstoke, Hampshire: Macmillan Press LTD.
22
Driessen C. P. G. and Heutinck L. F. M. (2015). Cows desiring to be milked?
Milking robots and the co-evolution of ethics and technology on Dutch dairy farms,
Agriculture and Human Values, 32 (1), 3-20.
Durand J-P, Boyer R. (2000). L’aprés-fordisme, Syros, Paris.
Farzaneh F., Boyer A. (2018). Vacillate between humans and robots in the
workplace: the role of ecological factors, IRMBAM 2018, 5-7 juillet, Nice.
Franklin S. (2014). History, motivations, and core themes, in Frankish K. and
Ramsey W. M. eds. The Cambridge Handbook of Artificial Intelligence,
Cambridge University Press, 15-33.
Frey C. B. and Osborne M. (2013). The Future of Employment. Oxford, University
of Oxford.
Fukuyama F. (2002). Our Posthuman Future: Consequences of the Biotechnology
Revolution, New York, Farrar, Straus, and Giroux
Gibilisco S. (2003). Concise Encyclopedia of Robotics. New York, McGraw-Hill.
Holder C., Khurana V., Harrison F. and Jacobs L. (2016). Robotics and law: key
legal and regulatory implications of the robotics age (part I of II), Computer Law
& Security Review, 32 (3), 383-402.
Habermas J. (2003), The Future of Human Nature. Cambridge, Polity Press.
Hottois G., Missa J-N., Perbal L. eds. (2015). Encyclopédie du
trans/posthumanisme, Paris, Vrin.
Kappor A. (2014). L’invasion robotique au Canada, Canadian Urology
Association Journal, 8, 5-6.
Ingram B., Jones D., Lewis A., Richards M., Rich, C. and Schachterle L. (2010). A
code of ethics for robotics engineers, Proceedings of the 5th ACM/IEEE
International Conference on Human-Robot Interaction (HRI), 103-104.
JURI (2016). Draft Report with recommendations to the to the Commission on
Civil Law Rules on Robotics, Committee of Legal Affairs of the European
Parliament, Brussels, European Parliament.
Leenes R., Palmerini E., Koops B.-J., Bertolini A., Salvini P., Lucivero F. (2017).
Regulatory challenges of robotics: some guidelines for addressing legal and
ethical issues, Law, Innovation and Technology, 9 (1), 1-44.
Leopold A. (1949). A Sand County Almanac and Sketches Here and There. New
York, Ballantine Books.
Lin P. (2012). Introduction to robot ethics, in: Lin, P., Abney, K. and Bekey, G. A.
eds. Robot Ethics: The Ethical and Social Implications of Robotics. London, MIT
Press, 3-16.
Lim J-S., Chang S., Maynard S., Ahmad A., (2009), Exploring the Relationship
between Organizational Culture and Information Security Culture, 7th Australian
Information Security Management Conference, Perth, Western Australia.
Matsuzaki H. and Lindemann G. (2015). The autonomy-safety-paradox of service
robotics in Europe and Japan: a comparative analysis, IA & Society, 31 (4), 501-
517.
Moor J. (2011). The nature, importance, and difficulty of machine ethics. In
Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge, Cambridge
University Press, 13-20.
Oost E. and Reed D. (2010). Towards a Sociological Understanding of Robots as
Companions. In: Lamers, M. H., Verbeek, F. J. eds. Human-Robot Personal
Relationships. Heidelberg, Berlin, Springer.
Pearson Y. and Borenstein J. (2014). Creating ‘‘companions’’ for children: the
ethics of designing esthetic features for robots, IA & Society, 29, 23-31.
Peláez L. (2014). The Robotics Divide. A New Frontier in the 21st Century?
23
London, Springer-Verlag.
Rifkin J. (1995) The End of Work. New York, Putnam.
Reimers, K., Andersson, D. (2017). Post-secondary education network security:
the end user challenge and evolving threats, ICERI2017 Proceedings, pp. 1787-
1796.
Rosenberg J. M. (1986). Dictionary of Artificial Intelligence and Robotics. New
York, John Wiley & Sons.
Rosenberger R. and Verbeek P. P. (2015). A Field Guide to Postphenomenology.
In, Rosenberger, R., Verbeek, P. P. eds. Postphenomenological Investigations:
Essays on Human-Technology Relations. London, Lexington Books, 9-41.
Shelley M. (1818). Frankenstein ou le Prométhée moderne, traduction d'Alain
Morvan et Marc Porée, Gallimard.
Stone W. L.(2005), The history of robotics, in: Kurfess T. R. ed., Robotics and
Automation Handbook. Boca Raton, CRC Press.
Simut R. E., Vanderfaeillie J., Peca A., Van de Perre G. and Vanderborght B.
(2016). Children with Autism Spectrum Disorders Make a Fruit Salad with Probo,
the Social Robot: An Interaction Study, Journal of Autism Development Disorder,
46, 113-126.
Tzafestas S. G. (2016). Roboethics. A Navigating Overview, Switzerland, Springer.
Turing A.M. (1950), Computing Machinery and Intelligence. Mind 49: 433-460.
Ummat A., Dubey A. and Mavroidis C. (2004). Bionanorobotics: a field inspired
by nature, in: Bar-Cohen, Y. ed. CRC Handbook on Biomimetics: Mimicking and
Inspiration of Biology. Boca Raton, CRC Press, 201-226.
Valverdu J. and Casacuberta D. (2009). Handbook of Research on Synthetics
Emotions and Sociable Robots: New Applications in Affective Computing and
Artificial Intelligence. Hershey, IGI Publishing.
Van de Poel I. (2016). An Ethical Framework for Evaluating Experimental
Technology, Science and Engineering Ethics, 22 (3), 667-686.
Verbeek P. P. (2013). Technology Design as Experimental Ethics. In: Van den
Burg S. and Swierstra Tsj. eds. Ethics on the Laboratory Floor. Basingstoke,
Palgrave Macmillan, pp. 83-100.
Weir N. A., Sierra D. P., and Jones, J. F. (2005). A Review of Research in the Field
of Nanorobotics. SAND2005-6808, Unlimited Release.
Wise E. (2005). Robotics Demystified. New York, McGraw-Hill.
Whitby B. (2011), On computable morality: an examination of machines as moral
advisors. In, Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge,
Cambridge University Press, 138-150.
Wu Y.-H., Faucounau V., Boulay M., Maestrutti M. and Rigaud A. S. (2010).
Robotic agents for supporting community-dwelling elderly people with memory
complaints: Perceived needs and preferences, Health Informatics Journal, 17 (1),
33-40.
Source Electronique:
24
http://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_382_en.pdf
Report of COMEST on robotics ethics (2017). Retrouvé sur :
http://www.unesco.org/new/en/social-and-human-
sciences/themes/comest/robotics-ethics/
Riek, Laurel and Howard, Don, A Code of Ethics for the Human-Robot Interaction
Profession (April 4, 2014). Proceedings of We Robot, 2014. Available at SSRN:
https://ssrn.com/abstract=2757805
The Royal Society (2017). Machine learning: the power and promise of computers
that learn by example. London, The Royal Society. Retrouve sur
https://royalsociety.org/-/media/policy/projects/machine-
learning/publications/machine-learning-report-summary.pdf
Archyworld (2019). Retrouvé sur : https://www.archyworldys.com/eric-sadin-
artificial-intelligence-breeds-a-progressive-banishment-of-the-human/
https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/social-robots-
ai-and-ethics/
https://www.economist.com/democracy-in-america/2019/05/16/why-san-francisco-
banned-the-use-of-facial-recognition-technology
https://www.forbes.com/sites/justinwarren/2017/04/06/the-human-point-of-cyber-
security/#15ec13233768
25