Vous êtes sur la page 1sur 25

André Boyer

Professeur Émérite en Sciences de Gestion


Laboratoire GRM, EA 4711
Faranak Farzaneh
Chargée de cours à l’IPAG
IPAG LAB

3 VERS UNE ÉTHIQUE DE LA ROBOTIQUE

RÉSUMÉ
Depuis leur apparition au milieu du XXe siècle dans le domaine industriel, les
robots se développent dans de nombreux secteurs économiques, autour de
l’utilisation de l’intelligence artificielle (IA).
Dans cette communication, après avoir examiné ce que signifie aujourd’hui la
notion de robot, nous analysons les questions éthiques qu’engendre la robotique
dans divers secteurs de la société, à commencer par l’industrie, en passant par la
robotique militaire et policière, la santé, l’éducation, les robots ménagers et en
terminant par l’agriculture et l’environnement.
À partir de cette analyse, nous recherchons un cadre éthique pour la robotique,
dont nous essayons de définir une problématique à partir du couple « action et
responsabilité » des robots.

MOTS-CLÉS : Éthique, Robot, Robotique, Intelligence artificielle (IA),


Responsabilité

SUMMARY
Since their appearance in the middle of the twentieth century in the industrial field,
robots are developing in many economic sectors, around the use of artificial
intelligence (AI).
In this paper, after examining what the concept of robot means today, we analyze
the ethical issues that robotics engenders in various sectors of society, starting with
industry, through military and police robotics, health, education, household robots
and ending with agriculture and the environment.
From this analysis, we seek an ethical framework for robotics, which we try to
define a problematic from the couple "action and responsibility" of robots.

KEYWORDS: Ethics, Robot, Robotics, Artificial intelligence (AI), Responsibility

PLAN

1
Introduction
3.1. La notion de robot
3.1.1. La définition du terme de « robot »
3.1.2. L’imaginaire des robots
3.1.3. Capacités des robots et questions éthiques
3.1.4. L’extension de la notion de robot
3.1.5 L’IA et le changement de paradigme de la robotique
3.2. Les effets éthiques de la robotisation dans les rapports sociaux-économiques
3.2.1. Les effets éthiques de la robotique industrielle
3.2.2. Les effets éthiques de la robotique policière et militaire
3.2.3. Les effets éthiques de la robotisation des transports
3.2.4. Les effets éthiques de l’utilisation des robots dans le domaine de la
santé
3.2.5. Les effets éthiques de l’utilisation des robots éducatifs
3.2.6. Les effets éthiques de l’utilisation des robots ménagers
3.2.7. Les effets éthiques de l’utilisation des robots dans l’agriculture et
l’environnement
3.3. À La recherche d’une éthique de la robotique
3.3.1 À la recherche d’un cadre éthique de la robotique
3.3.2. Vers une problématique de l’éthique de la robotique
3.3.3. La multi responsabilité vis à vis des robots
3.3.4. La capacité d’agir des robots
3.4. Les sciences de gestion et le statut éthique des robots
3.4.1 La robotisation et l’éthique de l’organisation
3.4.2. Le statut éthique des robots

Bibliographie

2
Introduction

Les robots sont apparus de manière généralisée dans le domaine industriel depuis
e
la première moitié du XX siècle et se développent rapidement aujourd’hui, au plan
qualitatif comme quantitatif autour de l’utilisation de plus en plus approfondie des
technologies d’intelligence artificielle (IA). Cette dernière procure aux robots des
capacités de perception, d’utilisation d’un langage, d’interaction avec les hommes
et l’environnement, de résolution de problèmes et d’apprentissage voire de
créativité.
Il en résulte que les robots dotés de plus ou moins d’IA peuvent prendre des
décisions imprévisibles pour les hommes1, car elles dépendent de l’expérience
acquise par les robots et de conditions stochastiques intégrées par l’IA. La question
se pose donc, au plan éthique, de la responsabilité des actions exécutées par des
robots dotés de l’IA, les robots cognitifs.
Ce faisant, nous inscrivons cet article dans le champ des sciences de gestion et des
organisations, afin d’y introduire une nouvelle problématique engendrée par
l’apparition de la robotique, non seulement au travail mais dans l’ensemble du
champ des activités humaines. Avant de « découper » cette problématique en
champs de recherche spécifiques, portant par exemple sur l’avenir du travail ou sur
le management d’une organisation imprégnée par l’IA, il s’agit ici de prendre la
mesure des promesses et des risques de la robotisation au regard de l’éthique dans
son ensemble, et notamment autour de la question de la responsabilité de l’acteur,
que celui-ci soit incarné par l’entreprise ou par l’individu. In fine, comment
intégrer la responsabilité d’un robot dans le champ de l’éthique, et notamment dans
celui de l’éthique de l’altérité?
Dans une perspective plus large encore, la robotisation peut apparaître comme
l’instrument d’un transhumanisme, voire d’un anti humanisme, qui modifierait non
seulement le travail mais l’ensemble des conditions de vie de l’humanité. Si cet
article ne prétend pas aborder l’ensemble de ces problématiques, du moins souhaite
t-il en considérer les prolongements possibles.
Nous commencerons par observer en quoi l’introduction de robots cognitifs au sein
de la société humaine a un impact sur les comportements humains, qu’elle induit
des changements d’ordre social comme culturel, ce qui engendre des questions
éthiques que nous examinons dans cet article, en nous appuyant tout d’abord sur la
notion de robot (1.) qui nous permettra ensuite de décrire les effets de
l’introduction des robots dans les rapports sociaux (2.), à partir desquels nous
examinerons ce que peut signifier une éthique de la robotique (3.).

3. 1. La notion de robot

Le terme même de robot est à la frontière de la technique et de l’imaginaire. Dérivé


du terme robota, qui signifie « travail » en tchèque, il remplace celui
« d’automate », en faisant son apparition en 1920 dans une œuvre de fiction2.
Depuis cette date, les robots ne cessent de mobiliser l’imagination humaine avec
un biais négatif engendré par la crainte qu’ils supplantent les êtres humains.

1
https://www.archyworldys.com/eric-sadin-artificial-intelligence-breeds-a-progressive-banishment-
of-the-human/
2
Le terme de robot a été créé par le tchèque Karel Čapek dans une pièce de science-fiction de 1920
appelée R.U.R. (Rossumovi Univerzální Roboti ).

3
1.1. La définition du terme de « robot » :
Nous avons défini un robot dans son acception anthropomorphique (Farzaneh &
Boyer 2018) comme étant une machine qui fournit des services pour les êtres
humains, soit en se substituant à eux, soit en collaborant avec eux. D’autres
définitions ont été proposées par Rosenberg3 (1986) ou par Angelo4 (2007), mais
l’évolution des robots doit être prise en compte pour saisir le sens en devenir du
concept de robot. C’est ainsi que Gibilisco (2003) distingue quatre générations de
robots, chacune acquérant par rapport à la précédente des capacités croissantes :
- Avant 1980, les robots de la première génération étaient fondés sur des
servomécanismes stationnaires et n’utilisaient ni capteurs externes, ni
intelligence artificielle.
- Entre 1980 et 1990, les robots de la deuxième génération étaient
programmables, contrôlés par des microprocesseurs et disposaient de
capteurs visuels et tactiles.
- À partir des années 90, les robots de la troisième génération deviennent
mobiles et autonomes, capables de reconnaître et de synthétiser la parole et
intégrant l’intelligence artificielle et des systèmes de navigation.
- Gibilesco prévoit enfin que les futures générations de robots devraient être
capables d’acquérir progressivement la plupart des caractéristiques du
cerveau humain, sauf celles qui tiennent à sa nature purement biologique.
Or, depuis ce classement, la robotique s’est diversifiée au-delà de l’ingénierie
mécanique et électrique qui traite spécifiquement des robots ou « bots » pour
s’adjoindre les nanosciences pour les « nanobots », la biologie pour les « biorobots
» ou les « cyborgs ») et même la botanique avec les « plantoïdes », alors qu’il
semblerait que l’éthique de la robotique soit restée cantonnée aux robots déjà en
fonction et non aux robots du futur.
Il en résulte que cette éthique risque d’être sans cesse en retard par rapport à
l’apparition de nouveaux types de robots. En outre, la robotique ne relève pas
seulement de la science mais aussi de l’imaginaire des hommes, d’où un risque de
biais anthropomorphique vis à vis des robots « réels ».

3.1.2. L’imaginaire des robots :


L’esprit humain est hanté par la tentation démiurgique de créer des êtres
intelligents, c’est pourquoi de tels êtres sont représentés dans la mythologie, la
littérature ou le cinéma. Nous citerons par exemple, pour nous limiter aux
représentations récentes des robots :
- Frankenstein de Mary Shelley (1818), qui décrit un être vivant artificiel qui
se révolte contre son créateur au nom de son droit au bonheur.
- La pièce de théâtre de Karel Čapek, R.U.R. ou Les robots universels de
Rossum publiée en 1920, qui a créé, comme nous l’avons indiqué supra, le

3 « Machine équipée de capteurs ou d’instruments de détection de signaux d’entrée ou d’états


environnementaux mais comprenant aussi des mécanismes de réaction ou d’orientation et pouvant
effectuer des tâches de détection, de calcul ou autres, et des programmes enregistrés déterminant la
consécution des actions. » (Rosenberg, 1986, p.161).
4 « Machine intelligente pouvant exécuter des tâches mécaniques courantes, répétitives ou

dangereuses, ou d’autres opérations directement sur commande d’un être humain ou de façon
autonome, en utilisant un ordinateur à logiciel intégré (contenant des commandes et des instructions
préalablement enregistrées) ou reposant sur un niveau avancé d’intelligence machinique
(artificielle) (qui permet de baser les décisions et les actions sur les données recueillies par le robot
sur son environnement actuel) » (Angelo, 2007, p.309).

4
terme de « robot ». Le thème de la pièce traduit bien les inquiétudes
sociales que suscitent les robots. Ces derniers, constitués de matière
organique sont destinés par l’inventeur à servir de force de travail bon
marché, mais ils se révoltent contre leurs créateurs et s’emparent du
pouvoir.
- Isaac Asimov introduit le terme de « robotique » et propose dans une de ses
nouvelles, Cercle vicieux, (1942) une éthique de la robotique fondée sur
trois lois :
o Un robot ne peut porter atteinte à un être humain, ni, en restant
passif, permettre qu'un être humain soit exposé au danger ;
o Un robot doit obéir aux ordres qui lui sont donnés par un être
humain, sauf si de tels ordres entrent en conflit avec la première loi ;
o Un robot doit protéger son existence tant que cette protection n'entre
pas en conflit avec la première ou la deuxième loi.
Asimov jugera ensuite que ces trois lois doivent être complétées par une loi Zéro
qu’il propose dans Les robots et l’Empire (1985) :
o Un robot ne peut porter atteinte à l’humanité, ni, en restant passif,
permettre que l’humanité soit exposée au danger.
Les œuvres précédentes traduisent, par la révolte (Frankestein), l’utilisation des
robots contre le travail humain (R.U.R) ou la nécessité d’encadrer le comportement
des robots (Cercle Vicieux), la crainte d’un homme dépassé par les créatures qu’il
a conçues et fabriquées. Cette crainte s’est largement exprimée dans les films et
séries de science-fiction, comme, pour ne citer que les œuvres les plus connues,
dans Metropolis de Fritz Lang (1927) qui décrit la révolte des robots contre les
êtres humains dans 2001, l’Odyssée de l’espace de Stanley Kubrick (1968) qui
présente un ordinateur contrôlant toutes les fonctions d’un vaisseau spatial et qui
cherche à détruire son équipage humain ou dans Terminator de James Cameron
(1984) qui décrit un monde futur constitué en dictature gouvernée au moyen de
l’intelligence artificielle et d’une armée de robots.
Cette présentation des robots n’est cependant pas systématiquement catastrophique.
Le duo de robots R2-D2 et C3PO dans La guerre des étoiles de George Lucas
(1977) possède des qualités humaines ; de même, l’enfant robot David dans A.I.
Intelligence artificielle de Steven Spielberg (2001) souffre d’avoir été abandonné
par sa mère biologique.
Ces approches du comportement imaginé des robots ont des fondements religieux.
En effet, le christianisme et le judaïsme considèrent la création de tels êtres comme
une interférence illégitime avec le rôle du Créateur, alors qu’a contrario le
bouddhisme et le shintoïsme considèrent tous les êtres vivants et non vivants
comme dotés d’une âme ou d’un esprit. Cette dernière approche se traduit dans la
culture japonaise par une acceptation des robots humanoïdes (Bar-Cohen et
Hanson, 2009).
Il faut observer que ces représentations du comportement des robots ont largement
précédé l’arrivée pratique des robots dans la société humaine, mais il faut retenir
aussi que ces représentations influencent les préoccupations éthiques de l’humanité
vis à vis des robots. Le premier robot industriel (Stone, 2005), Unimate, n’a été
conçu qu’en 19545 et le premier robot fondé sur l’IA a été développé entre 1966 et
19726. Nous pouvons dégager les caractéristiques des robots existants ou en projet,

5
Par Joseph Engelberger et George Devol pour la chaîne de montage de General Motors à Trenton
dans le New Jersey.
6 Shakey, un robot à roues conçu par Charles Rosen et ses associés du Centre pour l’intelligence

artificielle en Californie.

5
en regard de l’éthique, en ne faisant référence qu’à l’état actuel de la robotique et
en essayant d’en prolonger les tendances pour imaginer l’état de la robotique dans
quelques décennies tout au plus.

3.1.3. Capacités des robots et questions éthiques :


Un certain nombre de caractéristiques des robots, telles que la mobilité,
l’interactivité, la communication et l’autonomie soulèvent des questions éthiques.
- La mobilité des robots : si la plupart des robots industriels ne sont pas
mobiles, l’activité d’autres types de robots le nécessite. Ils peuvent alors
générer des risques pour les êtres humains, d’autant plus qu’ils disposent
d’un fort degré d’autonomie et de capacités avancées d’interaction avec
leur environnement.
- L’interactivité avec l’environnement distingue les robots des ordinateurs,
par l’équipement des premiers en capteurs tels que des caméras ou lasers ou
d’actionneurs comme des bras ou des préhenseurs. La question éthique est
directement liée à cette capacité d’action des robots qui peuvent infliger des
dommages aux êtres humains en cas de mauvais fonctionnement. En outre,
au moyen de leurs capteurs, les robots peuvent recueillir des données qui
peuvent nuire aux êtres humains, sous forme d’espionnage ou d’autres
activités criminelles.
- La communication avec les robots s’effectue désormais directement avec
les hommes à l’aide de systèmes de reconnaissance de la parole et de
synthèse vocale. La question se pose donc du niveau de compréhension par
les robots des langues humaines. Ces dernières ont en effet des
significations multiples avec des aspects contextuels complexes et des
présupposés implicites (Wise, 2005) alors que les robots ont besoin
d’instructions explicites7.
- L’autonomie est substantielle au robot qui détient « de façon essentielle un
certain degré d’autonomie ou l’aptitude à « réfléchir » seul et à prendre ses
propres décisions pour agir sur l’environnement » (Bekey, 2012, p.18).
Contrairement aux premiers robots qui n’étaient capables que d’exécuter
des tâches répétitives, les robots actuels peuvent exécuter des tâches
compliquées sans dépendre de commandes ou d’un contrôle humain direct.
La question se pose donc du niveau de performance que doit atteindre un
robot autonome par rapport à celles d’un être humain exécutant une tâche
identique. Se pose également la question de la coopération homme-machine,
dans la mesure où il semblerait que les performances du couple homme-
machine soient supérieures aussi bien aux hommes qu’aux machines
travaillant seuls.

3.1.4. L’extension de la notion de robot :


Si, dans l’esprit humain, la notion de robot se confond avec celle de machine, elle
doit désormais s’étendre à la nanorobotique dont l’objet est de créer et développer
des robots dont les composants ont une dimension réduite, de quelques nanomètres,
que l’on appelle nanobots, nanoïdes, nanites ou nanomites.
À cette dimension réduite, s’ajoute l’utilisation de matériaux qui peuvent être aussi

7
C’est pourquoi les développeurs proposent des systèmes de reconnaissance vocale et de synthèse
vocale de plus en plus perfectionnés. Par exemple, les robots humanoïdes Wakamaru (Mitsubishi)
et Nao (Aldebaran Robotics) peuvent communiquer avec des êtres humains à la fois par le geste et
la parole (Bekey, 2012).

6
bien organiques qui ont des capacités spécifiques 8 (Ummat et al., 2004)
qu’inorganiques (Weir et al., 2005). Invisibles à l’œil humain, les nanorobots
exigent un examen du niveau de sécurité et de sauvegarde de la vie privée requis
pour protéger les êtres humains et les écosystèmes.

3.1.5 L’IA et le changement de paradigme de la robotique :


Si la plupart des robots industriels n’ont pas besoin d’IA, puisque leur
comportement est préprogrammé pour exécuter automatiquement un nombre limité
de tâches spécifiques et répétitives dans un environnement fixe, en revanche les
robots dotés d’IA sont capables de percevoir et de représenter formellement les
changements de leur environnement et d’adapter leur fonctionnement en
conséquence.
Alan Turing (1950) a offert la première formulation théorique d’une possibilité de
l’intelligence artificielle (IA) en proposant un test destiné à décider si de
l’intelligence peut être attribuée à un robot lorsqu’un être humain, placé dans un
contexte expérimental, s’avère incapable de distinguer si les réponses qu’il obtient
proviennent du robot ou d’un être humain. Même si, à ce jour, ce test n’a jamais pu
être validé par un robot (Franklin, 2014), il existe désormais des robots capables de
résoudre des problèmes d’une manière semblable, sinon identique, à la pensée
humaine. On pose alors par définition qu’un tel robot est doté d’une IA, ce qui
modifie le paradigme que l’on applique désormais aux robots.
En effet, les premiers robots dotés de l’IA étaient encore programmés sur la base
d’un paradigme hiérarchique, alors que les plus récents 9 s’appuient sur un
paradigme réactif. Or, appliquer un paradigme hiérarchique à un robot signifie
qu’il est supposé commencer par capter les informations nécessaires avant de
préparer son action. Il est donc nécessaire, au préalable, de définir dans quel cadre
le robot est censé agir, ce qui implique de définir à l’avance quelles sont les
informations pertinentes et non pertinentes pour son action, entrainant un recueil de
données quasiment illimitées.
Cette difficulté pratique a conduit à se référer à un paradigme réactif, inspiré de la
psychologie cognitive. La planification de l’action est limitée, ce qui libère de la
puissance de calcul, et les actions du robot sont reliées à des données sensorielles.
Cependant, quel que soit le paradigme utilisé, les robots exécutent leurs tâches sur
la base d’algorithmes qui contrôlent aussi bien le comportement prévisible des
robots déterministes que les capacités d’apprentissage des robots cognitifs dotés
d’IA.
Simplement, le comportement d’un robot déterministe est préprogrammé, ce qui
résout la traçabilité de ses actions lorsqu’il s’agit de résoudre un différent éthique
ou juridique. En revanche, les robots cognitifs, reposant sur l’IA apprennent de
leurs expériences pour recalibrer eux-mêmes leurs algorithmes. Il n’est donc plus
possible de prévoir complètement les comportements, ce qui crée une ambigüité

8 Dans le cas de nanorobots organiques, il s’agit de machines moléculaires naturelles constituées


d’un assemblage de protéines dotées de fonctions biologiques préprogrammées pouvant être
activées en réponse à des stimuli physicochimiques spécifiques in vitro ou dans un milieu artificiel.
Les nanorobots organiques ont des capacités spécifiques, telles que leur durabilité, leur activation
rapide, leur aptitude à extraire de l’énergie, leur intelligence collective, leur facilité à se reproduire
et leur architecture d’interfaces depuis le niveau nano jusqu’au niveau macro (Weir et al., 2005),
avec des applications surtout médicales.
9
C’est ainsi que le robot Kismet, conçu un demi-siècle après le robot Shakey, a pour but d’obtenir
une interaction sociale entre le robot et les êtres humains : il peut remuer les yeux, changer
d’expression faciale en fonction de son humeur, communiquer par la parole avec des êtres humains
et réagir aux émotions de son interlocuteur.

7
sur la responsabilité respective du concepteur et de l’utilisateur pour ne pas
mentionner celle du robot IA lui-même.
C’est pourquoi les questions éthiques liées à la robotique doivent intégrer les
caractéristiques rapidement évolutives des robots dans le cadre des rapports
sociaux–économiques qu’ils entretiennent avec la société humaine.

3.2 Les effets éthiques de la robotisation dans les rapports sociaux-


économiques

En fonction de la rapidité de son développement et de l’importance de ses effets


sur l’éthique du secteur concerné, nous avons choisi de traiter successivement des
robots industriels qui constituent historiquement le premier champ de
développement de la robotique , des robots militaires et policiers qui posent des
questions fondamentales en matière d’éthique, des robots de transport, des robots
du secteur de la santé, du secteur de l’éducation, des robots ménagers et des robots
dans l’agriculture et l’environnement qui constituent les champs les plus avancés
en matière de développement robotique.

3.2.1. Les effets éthiques de la robotique industrielle :


La première implication des robots dans les rapports sociaux s’observe dans le
remplacement progressif des travailleurs par des robots dans l’industrie. Depuis le
milieu du XXe siècle, des robots industriels ont peu à peu remplacé les opérateurs
humains pour les tâches répétitives dans le secteur manufacturier, tandis que les
robots plus récents, dotés d’une IA, commencent à exécuter des tâches manuelles
de type non répétitif. Le coût des robots diminuant et leurs capacités
technologiques s’accroissant, ils remplacent progressivement le travail humain
dans une large gamme de fonctions du secteur des services (Frey and Osborne,
2013). Cette évolution conduit à un accroissement de la productivité mais aussi,
dans un premier temps, à une augmentation du chômage. On peut à ce titre,
évoquer l’apparition d’une nouvelle période de l’histoire qui se caractériserait par «
la fin du travail » (Rifkin, 1995), même si le recul manque pour évaluer l’ensemble
des conséquences d’un fort accroissement de l’utilisation de robots sur l’activité
humaine et notamment sur ses effets sociaux. Deux tendances semblent cependant
se dégager quant aux effets de la robotique sur la répartition du pouvoir en général
et sur les conditions de travail en particulier :
- la robotique se caractérise par une convergence des technologies, des
progrès rapides et une réduction progressive des coûts qui doivent
s’intégrer dans nos sociétés tout en les modifiant. Tout d’abord, l’impact de
la robotisation sur l’économie mondialisée est asymétrique. Des robots de
moins en moins chers et de plus en plus efficients poussent progressivement
les êtres humains hors du marché de l’emploi, sauf si l’on prend en compte
le coût énergétique et en matières premières des robots (Farzaneh, Boyer
2018). Cet effet se manifeste à la fois sur le marché de travail national, mais
aussi au travers de la concurrence mondialisée entre les pays à bas et à haut
coût de salaire. Les travailleurs peu rémunérés pourront difficilement faire
concurrence à la productivité des robots. À cet égard, on observe le
rapatriement de la production d’usines fortement automatisées à proximité
de leurs marchés, ce qui répond mieux aux coûts et risques, aussi bien
financiers qu’écologiques d’une longue chaine logistique (Balding, 2016).
Le risque est donc que le développement de la robotique ne creuse un fossé
technologique, social et politique entre les sociétés et dans les sociétés, en

8
modifiant les relations de pouvoir. Mais il est déjà perceptible qu’elle
modifie les échanges sociaux (Peláez, 2014).
- La thèse de la fin du travail, avec son cortège d’impacts sociaux intégrés
dans le paradigme d’une post modernité succédant au fordisme (Durand,
Boyer, 2000) peut se trouver renforcer par l’apparition de la robotique. Or
les rapports entre la postmodernité et son rapport au travail, et d’une
manière plus générale au sens et à l’éthique ont été abordés dans les travaux
de Bruna, Peretti & Yanat (2016)10, complétés par Bruna, Montargot &
Peretti (2017) qui montrent en quoi la diversité au travail s'inscrit dans une
perspective de développement durable, fondée sur une éthique de l’altérité
et une poursuite de la Justice organisationnelle, tandis que se trouvent
précisés les liens entre le concept de diversité, le « totem » de la norme et
l’idéologie du contrôle qui affectent l’entreprise postmoderne dans Bruna,
Ducray & Montargot (2017).
- En effet, les progrès de la robotisation modifient en profondeur les
conditions de travail et les emplois. Travailler côte à côte avec des robots
exige de nouvelles compétences professionnelles et la mise en place de
mesures de sécurité nouvelles et adéquates sur le lieu de travail. Trois
catégories de robots sont présentes sur les lieux de travail où elles affectent
la sécurité, les robots industriels, les robots de service personnels ou
professionnels et les robots collaborateurs :
o La plupart des robots industriels ne sont pas conscients de leur
environnement, ce qui les rend dangereux pour les travailleurs et il
s’agit donc de maintenir une distance suffisante entre les travailleurs
humains et les robots en activité en créant des espaces réservés.
o Les robots de service sont utilisés principalement en dehors des sites
industriels, dans des environnements non structurés et imprévisibles.
Ils ne peuvent généralement pas être isolés des travailleurs, car ils
partagent souvent le même lieu de travail et la complexité de
l’environnement contraint à donner aux robots un certain degré
d’autonomie et de mobilité, susceptibles de créer des situations
dangereuses pour les travailleurs.
o Les robots collaborateurs sont conçus pour l’interaction directe avec
un être humain ; ils comprennent à la fois des robots industriels et
des robots de service professionnels ou personnels, en combinant la
dextérité, la flexibilité et la capacité à résoudre avec la force,
l’endurance et la précision des robots mécaniques. Comme les
robots collaborateurs travaillent côte à côte avec des travailleurs
humains, la sécurité ne peut pas être obtenue par l’isolement du
robot, ce qui nécessite d’autres méthodes.

3.2.2. Les effets éthiques de la robotique policière et militaire :


Il s’agit d’examiner quelles sont les conséquences de l’utilisation de systèmes
robotiques dans les conflits armés à l’égard de l’application des principes les plus
importants du Droit International Humanitaire (DIH), à savoir les principes de
distinction, de proportionnalité et de responsabilité.

10L’article met en question deux tabous, le « totémisme » de la norme et celui de l’instantanéité, le


premier qui invite à résoudre l’antinomie entre une recherche de prévisibilité et le besoin
d’innovation et le second qui questionne le rapport au temps comme levier de transformation des
mentalités, de refonte des systèmes et des pratiques des organisations, en vue de concevoir un
management qui permette d’atteindre une performance socioéconomique durable.

9
Nous traitons ci-après de la surveillance policière autonome, des drones, des armes
autonomes et du détournement des robots :
- La robotique est de plus en plus appliquée à la surveillance. Comme la
vidéosurveillance et les satellites, les drones peuvent voir et entendre en
permanence. Ils permettent par exemple de contrôler les frontières, les
foules ou la circulation. Il en résulte des implications majeures pour le
respect de la vie privée et la protection des données. Dans ce domaine,
l’adaptation des technologies militaires peuvent conduire à une logique de
gestion de la société reposant sur une économie de la peur, celle « d’un
ennemi omniprésent » (Crandall and Armitage, 2005, p.20). En particulier,
l’utilisation de robots équipés d’armes dites « non létales » dans la
répression des formes de contestation publiques peut servir d’outil
d’oppression, car les robots ne risquent pas de désobéir à un régime
autoritaire comme pourraient être amenés à le faire des soldats ou des
policiers.
- Un drone est défini comme « un véhicule terrestre, marin ou aérien qui est
contrôlé à distance ou de manière automatique » (Chamayou, 2015, p.11).
Ils ouvrent de nouvelles possibilités sur le plan militaire tout en créant de
nouveaux risques sur le plan moral11. Or distinguer un combattant d’un
civil dans une situation de télé pilotage est par nature difficile et la
complexité très fortement accrue des séries de données sur lesquelles
reposent les décisions de tir augmente les risques d’erreur dans
l’identification des cibles. En outre, évaluer la proportionnalité à distance
est problématique, car le pilote de drones doit, individuellement ou avec
son équipe d’analystes, décider d’appliquer une force létale en fonction de
données contextuelles qui sont souvent insuffisantes12. En ce qui concerne
la responsabilité, il s’agit de vérifier que les drones sont utilisés par des
forces militaires régulières aux mêmes fins que celles qui misent en oeuvre
pour les avions classiques.
- Plus généralement, les armes autonomes sont des armes qui, une fois
activées, sélectionnent et attaquent des cibles sans intervention humaine
supplémentaire. Elles posent les mêmes questions éthiques, au regard des
principes de distinction, de proportionnalité, de responsabilité et de
transparence, mais dans ce cas, l’absence d’intervention humaine suscite
des inquiétudes quant à la capacité de logiciels à prendre des décisions qui
devraient normalement être prises par un être humain, notamment parce
que des décisions de vie et de mort peuvent difficilement être prises par des
machines13, alors que le pouvoir de tuer ou de déléguer le pouvoir de tuer14
ne peut être attribué à une machine sans nier ce qui constitue le fond de
l’être moral d’un individu et sa valeur intrinsèque, la dignité humaine. En
outre, les armes robotiques ont des implications stratégiques, notamment en

11
Les opérateurs de drones se trouvent à distance de la machine armée, isolant leurs actes,
pratiquement proche d’un jeu, de toute considération morale.
12 Il s’agit de mettre en balance l’avantage militaire attendu et le risque de pertes de vies civiles.
13 Un rapport de la Royal Society (2017) relève que les machines sont incapables de faire preuve de

« sens commun » lorsque la situation devient complexe.


14 La Convention de La Haye requiert qu’un combattant soit « commandé par une personne »

(Conférence internationale de la paix, 1899, Art. 1 de l’Annexe de la Convention). Le


développement des armes autonomes se poursuivant, les systèmes de défense autonomes d’un État
pourront entrer dans une relation interactive avec les armes autonomes de vitesse équivalente d’un
autre État, pouvant conduire par inadvertance au déclenchement d’un conflit armé avant même que
des êtres humains aient eu la possibilité de réagir.

10
abaissant le seuil de déclenchement d’un conflit armé 15 et posent des
problèmes en termes de sécurité, par exemple en termes de détournement
ou de piratage.
- Enfin, le marché des véhicules téléguidés de petite taille soulève des
questions éthiques en matière de respect de la vie privée, du fait des risques
d’utilisation criminelle de ces produits16.

GOOD KILL (2015)

L’intérêt du film est tout d’abord visuel. Le spectateur est éberlué par la qualité
des images dont disposent les opérateurs militaires, installés dans des containers
climatisés au milieu d’une base aérienne proche de Las Vegas, images grâce
auxquelles ils peuvent suivre tous les faits et gestes, voire les expressions, des
personnes qu’ils observent et qu’ils vont le plus souvent assassiner en quelques
secondes, dix secondes s’écoulant exactement entre la décision de tuer et la mort.
Une fois cette prise de conscience opérée, c’est l’indignation qui m’a suffoqué.
Voilà des gens, avec leurs états d’âme c’est entendu, qui assassinent leurs
prochains qu’ils voient, circonstance aggravante, mourir sous leurs yeux,
simplement parce qu’un bureaucrate quelconque de la CIA installé à Langley,
Virginie (très beau la Virginie, très vert, très calme) a décidé que ces gens étaient
des ennemis des USA, qu’ils représentaient un danger « immédiat » pour la
« sécurité » du « peuple » américain !

3.2.3. Les effets éthiques de la robotisation des transports :


Le secteur des transports est l’un des domaines où la robotique est le plus utilisée
et acceptée car l’industrie automobile est de plus en plus organisée autour de
l’automation. Avec l’évolution des capteurs, une proportion toujours croissante des
fonctions de conduite est déléguée à des robots, comme la régulation de la vitesse,
la mise en stationnement ou le changement de voie. Un saut qualitatif est en cours
de réalisation avec la technologie émergente des véhicules autonomes (VA), qui
permettra non seulement d’assister le conducteur mais de le remplacer
complètement en s’adossant à des algorithmes cognitifs.
Les problèmes éthiques que pose la technologie des VA se situe dans l’opposition
entre l’intérêt individuel et collectif. Si du premier point de vue, une fois les
difficultés techniques surmontées, l’IA présente de nombreux avantages,
notamment en matière de sécurité, il reste que la prise de décision des machines sur
la base de principes moraux doit faire prévaloir soit l’intérêt individuel, soit le bien
public. Par exemple, dans l’éventualité d’un accident impossible à éviter, la priorité
doit-elle être donnée à la réduction maximum du nombre de victimes, même si cela
implique de sacrifier les occupants du véhicule, ou à la protection à tout prix des
passagers17?

15 Déjà la capacité de cibler à une grande distance a ouvert la pratique des assassinats ciblés, qui
sont devenus plus aisés grâce aux systèmes robotiques.
16 Des drones équipés de logiciels de reconnaissance faciale, de technologie infrarouge et de micros,

permettant d’enregistrer des conversations personnelles, constituent en effet une atteinte sans
précédent au droit au respect de la vie privée.
17
D’autres exemples de ce dilemme sont proposés par Bonnefon et al. (2016, p.1576) :
- Est-il acceptable qu’un véhicule autonome, pour éviter une moto, fasse un écart et entre dans un
mur, la probabilité de survie en pareil cas étant plus grande pour le passager du véhicule que pour le
conducteur de la moto ?

11
Il s’agit enfin de déterminer si ces questions doivent faire l’objet d’une
réglementation à l’échelon national ou international, si elles doivent être soumises
à des normes ou à des codes de conduite des véhicules autonomes ou laissées au
jeu des forces du marché.

3.2.4. Les effets éthiques de l’utilisation des robots dans le domaine de la santé :
Nous examinerons successivement les questions éthiques engendrées par
l’utilisation de robots médicaux, de robots infirmiers, de robots de soin pour les
personnes âgées et de robots compagnons.
- Des robots semi-autonomes sont utilisés en chirurgie et ils présentent de
nombreux avantages18, mais les chirurgiens expriment certaines réticences
techniques à l’égard de la chirurgie robotique, comme la perte du sens du
toucher. Mais, d’ores et déjà, la robotique chirurgicale pose une question
d’ordre économique et finalement éthique, car la multiplication des robots
en chirurgie a des incidences sur l’allocation des ressources dans les
systèmes de santé publique, en raison de son coût actuellement plus élevé
que celui d’une opération avec un chirurgien normal.
- Des robots infirmiers sont utilisés dans certaines approches thérapeutiques
auprès des enfants autistes et des enfants trisomiques. Cependant les rares
études consacrées à l’utilisation de robots dans ce contexte n’indiquent pas
que la dyade robot-enfant autiste soit supérieure, d’un point de vue
fonctionnel, à la dyade parent-enfant autiste (Simut et al., 2016). De même,
les exosquelettes utilisés pour aider les personnes handicapées à accroître
leur mobilité s’inscrivent dans le développement de la robotique médicale,
mais, comme les implants neurologiques ou les nanorobots, ils ouvrent la
voie à une transformation du corps humain et la question se pose, sur le
plan éthique, de savoir jusqu’où doit aller le développement de
l’hybridation et à quelles fins.
- Les robots de soins pour personnes âgées font partie des robots sociaux, qui
sont des robots qui communiquent et interagissent avec des êtres humains.
On se réfère aussi à la notion de robots compagnons pour souligner les
dimensions fonctionnelles et affectives de cette catégorie de robots (Oost
and Reed, 2010). Or, en raison du vieillissement rapide de la population et
des difficultés de recrutement du personnel de soins, les robots apparaissent
comme un moyen de remédier à l’écart entre le besoin et l’offre de services
de soins. C’est ainsi qu’apparaissent sur le marché médical, des robots qui
fournissent une aide physique (nettoyage, cuisine, hygiène personnelle), les
robots compagnons (stimulation des activités cognitives) et des robots de
surveillance de la santé et de la sécurité (risques de chute, défaillance
cardiaque, troubles de la mobilité). Ces robots soulèvent la question des
moyens utilisés et des fins recherchées. Par exemple, comment équilibrer le
contrôle comportemental et l’autonomie des personnes âgées à l’aide de

- La décision doit-elle être différente lorsque des enfants sont à bord du véhicule, puisqu’ils ont plus
longtemps à vivre en tant que futurs adultes et moins de contrôle sur la décision qui les a conduits à
être présents dans le véhicule ?
- Si un fabricant offre des versions différentes de son algorithme moral et qu’un acheteur en choisit
une en connaissance de cause, l’acheteur doit-il être tenu pour responsable des conséquences
néfastes des décisions de l’algorithme ?
18 Il offre plus de confort pour le chirurgien, une réduction de la durée d’hospitalisation et une perte

de sang moindre pour le patient, minimisant ainsi le traumatisme causé, même si elles
n’apparaissent pas forcément plus efficientes que la chirurgie habituelle et l’utilisation d’un robot
chirurgical (Kappor, 2014).

12
robots ? le but visé est-il d’améliorer la qualité de vie des personnes âgées
ou de réduire le travail du personnel de soins ou encore, plus généralement
de décharger la société du soin des personnes âgées (Wu et al., 2010) ?
Selon l’objectif choisi pour ces robots infirmiers, les questions de leur coût,
de leur efficacité en matière de soins ou de leur acceptabilité19 par les
personnes âgées deviennent plus ou moins primordiales. Enfin, les robots
compagnons sont en voie de développement dans le domaine de la sexualité
et posent la question de la réduction de la sexualité à l’individu et non au
couple, remettant en question les relations interpersonnelles.

3.2.5. Les effets éthiques de l’utilisation des robots éducatifs :


Avec le développement rapide des technologies de communication, des outils
multimédias de plus en plus nombreux sont utilisés dans le domaine de l’éducation,
y compris désormais des robots éducatifs.
La robotique éducative permet l’exploration, la conception, la modélisation, la
programmation, la construction et la mise à l’épreuve de concepts d’apprentissage,
à partir d’activités d’apprentissage individuelles ou en collaboration. Du point de
vue de la conception de l’éducation, l’utilisation de robots s’inscrit dans un modèle
d’apprentissage constructiviste qui implique une participation active des élèves à la
construction et à l’acquisition des connaissances. C’est une participation qui n’est
pas forcément acquise, dans la mesure où d’une part, l’intérêt pour les robots peut
se révéler éphémère pour les apprenants et d’autre part parce que l’introduction des
robots dans le système dépend de valeurs culturelles, qui font que la culture
japonaise ou coréenne semble s’y prêter mieux (Tzafestas, 2016) que la culture
européenne, par exemple (EC, 2012).
Du point de vue de l’éthique de l’individu, l’une des principales questions éthiques
qui se pose dans ce contexte concerne le rôle assigné au robot et notamment dans
quelle mesure il peut remplacer un enseignant. Une autre question importante
concerne la relation entre les robots et les enfants qui sont, plus que les adultes,
susceptibles d’attribuer des caractéristiques cognitives, comportementales et
affectives aux robots (Beran et al., 2011).

3.2.6. Les effets éthiques de l’utilisation des robots ménagers :


Les robots ménagers, appelés aussi robots de service ou robots domestiques ont
pour but d’aider les êtres humains à exécuter certaines tâches considérées comme
pénibles ou à leur servir de moyens de divertissement20.
Au plan éthique, le premier risque concerne les dommages dont ils peuvent être la
cause, résultant d’une force ou d’une vitesse inappropriée, d’une incompréhension
du mode d’emploi ou d’une erreur dans l’exécution de tâches spécifiques. Les
conséquences peuvent être aggravées lorsque les utilisateurs sont des enfants ou

19
Cette acceptation signifie que le robot doit être intégré volontairement à la vie d’une personne
âgée en prenant en compte la motivation à utiliser un robot, une facilité d’utilisation suffisante et
l’absence d’inconfort physique, cognitif et affectif en présence d’un robot ; en outre, ses effets sur
le rôle des aidants naturels doivent être pris en compte, afin que cette acceptation soit mise en
balance avec son coût, en y incluant son entretien.
20
Par exemple passer l’aspirateur, ramasser les poubelles, nettoyer les vitres, arroser les plantes,
nettoyer la piscine, repasser, préparer à boire et à manger. Les appareils comme les robots
d’alarmes et de sécurité, les tondeuses à gazon robotiques, les robots de surveillance d’animaux
domestiques, les berceaux robotiques et les assistants d’achat robotiques sont aussi classés dans la
catégorie des robots de service, au même titre que les robots de divertissement et, dans une certaine
mesure, les robots compagnons.

13
des personnes âgées. En outre, ils se prêtent facilement à être détournés de leur
usage officiel vers des fins non éthiques. Souvent équipés de caméras et de micros,
il est facile de les transformer en outils pour s’introduire dans la vie privée et ils
permettent de stocker quantité de données privées et confidentielles (photos de
l’intérieur d’une maison et de ses habitants, données sur leurs habitudes, mot de
passe de leur système d’alarme, emplacement de leurs objets précieux). Le danger
s’accroît encore lorsque les robots ménagers sont connectés à l’internet ou à un
autre réseau insuffisamment protégé et facile à pénétrer. Dans ce type de situations,
le piratage du robot peut faciliter des activités criminelles comme le vol ou le
chantage.
L’apparence extérieure des jouets robotiques et des robots compagnons est aussi un
aspect sensible d’un point de vue éthique (Pearson et Borenstein, 2014). Leur
forme et leur apparence devraient refléter les préférences esthétiques collectives
d’une culture, ne pas renforcer les stéréotypes de genre, être adaptées au niveau de
développement des enfants et prêter une attention particulière au degré d’apparence
humaine de ces jouets, l’impact positif ou négatif d’une telle apparence variant en
général selon l’âge ou les traits de personnalité de leurs utilisateurs.

3.2.7. Les effets éthiques de l’utilisation des robots dans l’agriculture et


l’environnement :
Les robots sont présents dans l’agriculture, par exemple dans le secteur laitier où
des vaches peuvent être traites par un robot, leur alimentation adaptée en fonction
du niveau de production et de l’âge de l’animal pour maximiser leur productivité.
Dans ce cas particulier, du point de vue éthique, il faut prendre en compte la
transformation de la relation entre l’animal et l’homme, les vaches perdant toute
familiarité avec les êtres humains. De ce même point de vue éthique, se pose la
question du bien-être de l’animal dans un modèle de productivité fondé sur
l’animal-machine (Driessen and Heutinck, 2015).
Les drones sont également présents dans l’agriculture, pour laquelle ils fournissent
des données pour une utilisation plus efficace d’intrants chimiques ou de l’arrosage,
contribuant ainsi à une agriculture durable, ou permettant de sélectionner des
plantes plus résistantes, augmentant ainsi la productivité agricole. Au total, ils
s’insèrent dans un modèle d’agriculture intensive et de précision, qui induit une
modification de la relation de l’être humain à la terre (Leopold, 1949), ce qui pose
également une question éthique.
À ce titre, il faut mettre en balance l’utilité des robots pour la protection de
l’environnement, dans la recherche océanique, dans l’exploration spatiale ou dans
le cas dramatique de la surveillance et de la restauration de l’environnement après
un accident nucléaire ou chimique (Lin, 2012) et l’impact environnemental de
l’ensemble du cycle de production des robots. Ce cycle inclut en effet l’extraction
d’éléments terrestres rares et d’autres matières premières, l’énergie nécessaire pour
produire et alimenter les machines et les déchets générés pendant la production des
robots et au terme de leur cycle de vie.
Il est probable que la robotique va renforcer les préoccupations que suscitent le
volume croissant de déchets électroniques et l’amenuisement des ressources en
éléments terrestres provoqué par l’industrie informatique (Farzaneh et Boyer,
2018 ; Alonso et al., 2012) et il ne semble pas qu’aient déjà été effectuées des
études approfondies sur l’impact environnemental ou de l’empreinte écologique
des robots, et par conséquent les questions éthiques engendrées par cet impact
négatif.
À l’issue de l’examen des effets de l’introduction des robots dans un nombre

14
croissant de secteurs de la vie professionnelle et personnelle des êtres humains,
nous avons pu observer l’étendue et la variété de ces effets sur l’organisation de la
société humaine ; ces effets peuvent, à terme, entraîner des changements profonds
de la perception par l’homme de la signification de son environnement. L’éthique
porte un regard sur les jugements de l’homme ou de la société sur cette perception
de l’environnement transformée par les robots. Ses fondements en étant renouvelés
par l’irruption de la robotique dans l’organisation de la société humaine, nous
cherchons ci-après à en poser le cadre.

3.3. À La recherche d’une éthique de la robotique

Comme le cadre éthique de la robotique (3.3.1.) est en construction, dans la mesure


où il suit plus qu’il accompagne les changements rapides de ses développements,
nous chercherons à contribuer à cette construction par une analyse de la
problématique de la robotique (3.3.2.) qui nous conduit à la question, centrale du
point de vue éthique, de l’attribution de la responsabilité des actions des robots
(3.3.3.) pour aboutir à une réflexion sur le concept de capacité d’action des robots
(3.3.4.)

3.3.1 À la recherche d’un cadre éthique de la robotique :


Les propositions visant à définir un tel cadre restent rares, deux d’entre elles se
dégagent néanmoins en se situant à deux niveaux d’analyse différents de l’éthique
de la robotique, celles d’Ingram et al. (2010) et de Riek et Howard (2014). Les
premiers concentrent leurs recommandations sur le comportement des roboticiens,
tandis que les seconds définissent des obligations non seulement pour les
roboticiens mais aussi pour toutes les personnes impliquées dans la conception, la
fabrication et la commercialisation de robots.
Pour Ingram et al. (2010) tout d’abord, un roboticien doit se préoccuper du bien-
être de toutes les communautés humaines parmi lesquelles ils distinguent
notamment les roboticiens, les clients, les utilisateurs et les employeurs. En outre,
un roboticien doit, autant qu’il lui est possible, prévoir d’éventuelles utilisations
non éthiques de ses créations et chercher à les limiter. Ils ajoutent dans leur projet
de code d’éthique le respect du bien-être physique et des droits des individus ainsi
que les règles à envisager pour prévenir les informations inexactes et les conflits
d’intérêts.
Il reste naturellement à traduire ces recommandations générales en règles précises
et in fine en actes. C’est pourquoi les professions de la robotique se sont dotées de
codes de conduite conséquents, comme le code d’éthique de l’IEEE (Institute of
Electrical and Elecronics Engineers) ou le code d’éthique de l’ACM (Association
for Computing Machinery), mais ces codes éthiques, spécifiquement conçus à
l’intention des roboticiens, en sont encore à leurs débuts et il n’est pas encore
possible d’observer les conséquences pratiques de leur application.
Riek et Howard (2014) s’adressent à un public plus large que les roboticiens. Ils
proposent un « code d’éthique des professionnels de l’interaction homme-robot »,
qui contient une « directive primordiale ». Cette dernière recommande que les
activités de recherche, de développement et de commercialisation qui concernent
l’interaction homme-robot, soient fondées sur le principe général du respect de la
personne humaine ainsi que sur d’autres principes, tels que le respect des besoins
affectifs humains, le droit au respect de la vie privée, l’existence de coupe-circuits
et la nécessité de limiter les aspects humanoïdes de la morphologie des robots.
Ces deux essais de définition d’un cadre éthique de la robotique n’ont pas conduit,

15
malgré les initiatives que nous avons mentionnées, à des codes éthiques
professionnels et à des directives éthiques sur les modalités de mise en œuvre de
projets robotiques. Sans doute de telles directives devraient émerger des initiatives
prises pour promouvoir une réglementation éthique de la robotique :
- Concernant l’éthique de la recherche en robotique, Allistene (2016), issu
d’un consortium d’instituts de recherche français comprenant le CNRS, le
CEA, l’INRA, le CDEFI, entre autres, a formulé plusieurs propositions afin
de renforcer la responsabilité éthique des chercheurs en robotique quant à
l’interaction homme-robot.
- Le Projet de Rapport contenant des recommandations à la Commission
concernant des règles de droit civil sur la robotique, publié en 2016 par la
Commission des affaires juridiques du Parlement européen, propose un
cadre éthique de la robotique et de l’industrie des robots. Ce rapport aborde
la protection des données et de la vie privée, les dommages qui pourraient
être causés par la nouvelle génération de robots et la responsabilité des
fabricants de robots, le principe de précaution, le test des robots en milieu
réel, le consentement éclairé dans la recherche en robotique impliquant des
êtres humains, les dispositifs d’interruption (coupe-circuit) et l’impact de la
robotique sur l’emploi et l’éducation. Il souligne également l’importance de
la traçabilité et de la mise en place d’un système d’immatriculation des
robots avancés. (JURI, 2016, p.13).
- Le rapport de la World Commission on the Ethics of Scientific Knowledge
and Technology (COMEST, 2017) fait la synthèse des différentes
problématiques de l’éthique de la robotique et proposent une série de
recommandations pour un code éthique.
Cependant, de nombreuses contributions sont proposées aujourd’hui à propos de
l’éthique et du droit de la robotique (Asaro, 2012 ; Calo, 2015 ; Holder et. al.,
2016 ; Leenes et al., 2017 ; Matsuzaki et Lindemann, 2016), alors qu’au plan
pratique la robotique reste en grande partie non réglementée. Actuellement, les
dommages potentiels causés par les robots sont couverts par la législation civile sur
la responsabilité des produits, alors que l’autonomie de plus en plus forte des
robots brouille la ligne de démarcation entre les responsabilités des fabricants de
robots et celles des utilisateurs (Asaro, 2012).
En outre, les producteurs de robots mettent en garde contre le risque de freiner le
développement des robots par des normes posées à priori qui augmenteraient leur
niveau d’incertitude, tant il apparaît qu’une réglementation de la robotique doit
rester en phase avec l’évolution rapide des technologies, tout en recherchant
l’équilibre entre la protection des valeurs et des droits humains fondamentaux et la
préservation de l’innovation (Leenes et al., 2017). Mais le débat sur la
réglementation de la problématique ne peut être tranché sans que celui portant sur
les fondements de l’éthique de la robotique ne le soit au préalable.

3.3.2. Vers une problématique de l’éthique de la robotique :


Cette problématique trouve son fondement dans la révolution technologique
induite par les robots, qui d’un point de vue éthique, brouillent les limites entre
sujets humains et objets.
Ce brouillage est manifeste lorsque les robots montrent une certaine capacité à
prendre des décisions, à exprimer des sentiments, ce qui leur permet de prendre en
charge un nombre croissant de tâches humaines. Ce faisant, ils modifient des
notions éthiques telles que la capacité d’agir et la responsabilité, quand ils ne
brouillent pas les valeurs qui s’expriment dans différents domaines de la vie. Ce

16
brouillage induit aussi un débat au sein de la société qui oscille entre ce que nous
pouvons qualifier de techno-optimisme, exprimé par l’utopie du transhumanisme,
et un techno-pessimisme qui invoque la nécessité d’un bioconservatisme destiné à
défendre l’humanité contre l’impact trop radical des technologies.
Le techno-optimisme soutient que les progrès de la technologie ne peuvent pas être
freinés et qu’il faut donc les utiliser au mieux21. Si l’on idéalise les effets du
progrès technologique, on rejoint alors l’idéal transhumaniste qui veut mettre la
technologie au service de l’amélioration des capacités humaines (Hottois et al.,
2015). À l’opposé de cette approche, le techno-pessimisme craint que les
innovations technologiques affectent les relations sociales et les capacités
cognitives de l’humanité. C’est pourquoi il défend un bio conservatisme autour de
la dignité humaine (Fukuyama, 2002) ou de la capacité à être l’auteur de sa propre
vie (Habermas, 2003).
S’il est logique que la robotique, en tant que phénomène technico-social émergent
génère des enjeux éthiques nouveaux, il est également nécessaire, au delà des choix
globaux engendrés par le techno optimisme ou pessimisme, d’approfondir les
questions concrètes que posent les robots au plan pratique pour tracer les limites du
débat éthique. Ainsi, la question première qui émerge, au plan éthique, est celle de
l’établissement des actes d’un robot, afin de pouvoir les apprécier.

3.3.3. La multi responsabilité vis à vis des robots :


La question posée est celle de savoir qui est exactement responsable sur le plan
éthique et donc sur le plan juridique lorsqu’un robot provoque des dommages à des
êtres humains, des biens ou à l’environnement22. Pour ce faire il faut disposer
d’une traçabilité qui désigne la nécessité de pouvoir déterminer les causes des
actions d’un robot (Riek and Howard, 2014, p.6). Or l’exigence de traçabilité n’est
pas compatible avec le développement de robots dotés d’un degré élevé
d’autonomie, de capacités de décision et d’aptitudes à l’apprentissage, car la
robotique en poursuivant « deux tâches contradictoires : accroître l’autonomie des
robots et, en même temps, assurer qu’ils sont sans risques » (Matsuzaki et
Lindemann, 2016, p.502), remet en cause la notion de traçabilité.
La responsabilité de l’acte d’un robot apparaît le plus souvent partagée entre le
concepteur, l’ingénieur, le programmeur, le fabricant, l’investisseur, le vendeur et
l’utilisateur du robot, car aucun de ces acteurs ne peut être désigné comme la
source ultime de l’action.
Si aucun des acteurs n’est entièrement responsable de l’acte d’un robot, se
manifeste alors un effet potentiellement paralysant pour la robotique, d’où deux
voies proposées pour résoudre la question de la responsabilité. La première serait
de développer des techniques permettant d’anticiper dans la mesure du possible les
impacts du développement robotique (Verbeek, 2013). La deuxième consisterait à
réfléchir soigneusement à l’apparition inévitable d’effets imprévus, en considérant
que l’introduction dans la société de technologies robotiques est une
expérimentation sociale » (Van de Poel, 2013). Mais se pose désormais la question

21
Par exemple, les véhicules autonomes permettront de réduire le nombre d’accidents, les robots
chirurgicaux accroîtront la précision des interventions médicales, les robots de service améliorerons
la qualité de vie des personnes âgées et des personnes atteintes de maladies chroniques.
22
Par exemple, lorsqu’un véhicule autonome provoque un accident entraînant des victimes
humaines, à qui devra en incomber la responsabilité ? L’équipe de roboticiens qui a conçu le
véhicule ? Le fabricant ? Le programmeur ? Le vendeur ? La personne qui a décidé d’acheter et
d’utiliser le véhicule ? Le robot lui-même ?

17
de la nature de l’action des robots.

3.3.4. La capacité d’agir des robots :


Les robots peuvent agir de façon autonome en entrant, par eux-mêmes, en
interaction avec leur environnement. Or d’une part la capacité d’agir a toujours été
considérée comme le propre de l’homme et l’autonomie des robots reste relative.
En effet, elle est le produit du travail des concepteurs et des programmeurs qui
aboutit à des processus d’apprentissage des systèmes robotiques cognitifs. De ces
derniers provient l’action des robots qui est la conséquence directe de leurs propres
interactions et de leurs processus de décision, mais qui n’est plus la conséquence
directe des instructions fournies par leurs concepteurs. Cette question de relation
directe ou indirecte entre la conception d’un robot et ses actions est le nœud de la
détermination de la responsabilité des acteurs, entre le robot, ses utilisateurs et
finalement ses concepteurs.
Sous l’angle éthique, un agent est responsable de ses actes lorsqu’il agit d’une
manière libre et intentionnelle, sans qu’il soit dirigé ou contraint. On peut donc en
conclure que les robots ne sont pas dotés d’une liberté et d’une intentionnalité
comparables à celles des êtres humains, mais les robots disposent d’un certain
degré de liberté puisqu’ils peuvent prendre des décisions à partir d’une certaine
forme d’intentionnalité liée aux algorithmes qui les régissent.
Pour échapper à l’alternative consistant à décrire les robots soit comme des objets
technologiques, soit comme des sujets quasi-humains, Rosenberger and Verbeek ,
(2015) proposent l’approche de .la médiation technologique qui présente les robots
comme des médiateurs23 entre les êtres humains et leur environnement. Selon cette
approche, lorsque l’on introduit un robot dans une pratique spécifique, comme
l’enseignement, les soins infirmiers ou le nettoyage, ce dernier joue un rôle de
médiation qui modifie la pratique d’action des êtres humains. Il ne s’agit plus alors
de comparer les robots aux êtres humains mais de déterminer de quelle façon les
robots modifient les pratiques humaines.
Se pose finalement la question du statut des robots en tant qu’agents éthiques et ses
implications dans le champ des sciences de gestion.

23
Par exemple, les téléphones portables permettent aux individus de rester en contact ou les
appareils d’imagerie par résonance magnétique (IRM) permettent aux médecins d’obtenir une
image du corps de leurs patients.

18
3.4. Les sciences de gestion et le statut éthique des robots

Nous avons successivement défini la notion de robot et sa double extension,


organique et dotée de l’IA, ses effets sur les rapports sociaux économiques en les
analysant au travers des secteurs ou l’action des robots nous a paru
particulièrement significative, avant de rechercher les fondements d’une éthique de
la robotique pour laquelle l’origine de la responsabilité des robots semble
déterminante. Il s’agit donc de considérer tout d’abord l’influence de la
robotisation sur l’éthique de l’entreprise (3.4.1.) avant de considérer la construction
d’un statut éthique des robots (3.4.2.)

3.4.1 La robotisation et l’éthique de l’organisation :


Alors que les robots se développent de manière de plus en plus autonome, la
société est contrainte d’élaborer des règles pour les gérer, dans la mesure où ces
technologies dotées d’immenses avantages potentiels, s’accompagnent d’un grand
nombre de dangers qui peuvent être pris en compte par les principes de l’éthique de
l’organisation.
Il faut rappeler que, d’ores et déjà, de nombreux travaux en ligne d’assemblage
dans le monde ont remplacé les travailleurs humains par des robots, ce qui
améliore la sécurité des travailleurs, diminue le risque d’erreurs et d’accidents de
travail et augmente la productivité. Aussi, de ce point de vue, les robots peuvent
apparaitre un choix éthique, mais il faut noter aussitôt que l’utilisation des robots
menace de supprimer une partie des emplois, d’écarter les hommes du sens du
travail et de laisser des personnes sans aucun contact humain24.
Il est donc légitime de se poser la question de l’utilisation optimale des robots et de
l’IA dans l’entreprise. Lorsqu’il est possible de faire un choix entre les robots et les
êtres humains, il est nécessaire, d’un point de vue éthique, d’examiner les
avantages et les inconvénients de l’utilisation des robots, notamment de déterminer
les coûts du choix robotique et de définir des frontières à l’utilisation de la
robotique et corrélativement de l’IA25.
L’introduction des robots et de l’IA dans l’organisation a une influence sur les
droits humains. Alors que l’IA peut permettre aux agences de recrutement d’aller
chercher les meilleurs talents sur Internet en s’appuyant sur la vérification des
profils des candidats à l’emploi sur les medias sociaux, tandis que les demandeurs
d’emploi peuvent envoyer leur CV plus rapidement et à moindre coût à un grand
nombre d’entreprises,26cette recherche d’information a un impact en matière de
justice et d’équité ; elle provoque de nouvelles réglementations, telles que la loi
canadienne sur la protection des renseignements personnels et les documents
électroniques (Personal Information Protection and Electronic Documents Act ou
PIPEDA)27.

24 https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/social-robots-ai-and-ethics/
25 Farzaneh et Boyer (2018) ont mis en avant la question de l’écologie comme un éventuel critère de
choix entre les robots et les êtres humains sur le lieu de travail. De ce point de vue, les auteurs
suggèrent de faire un choix entre les hommes et les robots, lorsque cela est possible, en se fondant
sur le coût comparé en matière de consommation d’énergie et de matières premières entre les
hommes et les robots.
26 http://www.onrec.com/news/features/the-importance-of-social-media-in-recruiting
27
Cette loi a un impact important sur les professionnels des RH, car elle couvre les droits
des employés sur les données personnelles qu’une entreprise conserve : les entreprises ne
peuvent utiliser les données qu’aux fins qui ont motivé leur recueil et elles ne peuvent pas
en collecter de nouvelles sans autorisation des employés.

19
En outre, il est tentant d’affecter l’IA à des activités de surveillance qui portent
atteintes aux droits de l’homme à partir des photos prises à l’aide de satellite, de la
reconnaissance faciale ou des publications sur les réseaux sociaux, ce qui
commence à provoquer des réactions de protection, telle que la décision de la ville
de San Francisco, qui, depuis le 14 mai 2019 28 , a adopté une ordonnance
bannissant l’usage de technologies de reconnaissance faciale par la police et par les
autres instances municipales. Avant que des abus ne soient commis, l’ordonnance
est préventive, afin de s’assurer que les citoyens puissent contrôler la manière dont
ils sont surveillés et contrôlés.
À partir d’un ensemble de comportements collectifs, se met donc en place une
culture qui permet de protéger le volume massif et toujours croissant des
informations recueillies sur les personnes et les organisations (Dhillon, 1997, Lim
et al, 2009). Les cultures d’entreprise en sont impactées, car les failles de sécurité
dans les systèmes informatiques résultent d’erreurs de codage humain 29 et le
comportement des employés a un impact sur la sécurité des informations dans les
organisations (Andersson et al., 2014).
Au travers des différentes facettes de la robotique et des technologies de
l’intelligence artificielle, la robotique et l’IA soulèvent donc de multiples questions
éthiques que ce soit sur l’opportunité de leur utilisation ou sur le contrôle de
l’information recueillie, qui nous conduisent à considérer la construction d’un
statut éthique des robots.

3.4.2. Le statut éthique des robots :


Si le dysfonctionnement des robots peut infliger des dommages aux personnes, il
ne s’agit pas seulement de demander aux roboticiens de respecter des normes
éthiques mais d’inscrire des normes éthiques dans la programmation des robots.
C’est ainsi que pourrait émerger une nouvelle discipline que nous appellerons
éthique de la robotique destinée à « doter les robots de principes éthiques ou d’une
procédure de résolution des problèmes éthiques qu’ils peuvent rencontrer»
(Anderson and Anderson 2011, p.1).
Se pose dés lors de question de la possibilité de construire des agents moraux
artificiels, ce qui a été amorcé par la proposition de distinguer des agents éthiques
implicites et explicites (Moor, 2011). Selon cette conception, un robot est un agent
éthique implicite dans la mesure où il est équipé d’un logiciel qui empêche ou
restreint des comportements non éthiques30. Mais, pour que des robots puissent
devenir des agents éthiques explicites, il faudrait les programmer pour qu’ils
puissent agir conformément à des principes et justifier éthiquement leurs actes. Or,
la création de tels robots n’est pas encore effective, même si les programmes
informatiques actuels de jeu d’échecs ouvrent la voie à ce type de robot (Whitby,
2011).
Pour que de tels robots soient programmés, il faut au préalable choisir un code
éthique. Asimov (1950), dans une œuvre de fiction, a eu le mérite de proposer
trois lois de la robotique qui ne sont pas applicables dans la pratique parce qu’elles
sont trop générales, potentiellement contradictoires et qu’elles obèrent les principes
philosophiques sur lesquels elles s’adossent implicitement. Nous sommes donc

28 https://www.economist.com/democracy-in-america/2019/05/16/why-san-francisco-banned-the-
use-of-facial-recognition-technology
29 https://www.forbes.com/sites/justinwarren/2017/04/06/the-human-point-of-cyber-

security/#15ec13233768
30 Par exemple, les distributeurs automatiques de billets sont programmés pour rendre exactement la

monnaie aux clients.

20
ramenés à ce niveau à un débat sur le choix d’une éthique des robots fondée sur
une éthique humaine parmi plusieurs possibles.
Il reste cependant à s’interroger, lorsque les robots seront dotés dans l’avenir d’une
éthique explicite, sur les droits éthiques des robots.
Finalement, peut-on concevoir que les robots aient droit, à l’avenir à une protection
contre les dommages identiques à celle accordée aux êtres humains et à certains
animaux ?
Dans la mesure où les robots sont capables d’effectuer par eux-mêmes des tâches
cognitives, ils possèdent une forme de rationalité limitée, sans libre arbitre, sans
intentionnalité et sans conscience de soi. De plus, ils n’éprouvent pas de sentiments,
même si des robots sociables peuvent être programmés pour développer des
sentiments artificiels (Valverdu and Casacuberta, 2009).
Or, l’apparition à l’avenir d’hybrides homme-machine ou animal-machine ou de
cyborgs, des robots intégrés à un organisme biologique ou contenant au moins
certaines composantes biologiques, pourrait remettre en cause cette distinction
simple entre les hommes et les robots.
C’est bien le déplacement de frontière entre l’homme et l’objet qui a été le point de
départ de notre analyse, c’est ce déplacement de frontière qui engendre la nécessité
de développer une éthique de la robotique, qui reste à définir et à faire évoluer au
fur et à mesure où la frontière se déplace. C’est pourquoi nous avons cherché à
montrer dans cet article les principales données à prendre en compte pour
l’élaboration dynamique d’une éthique de la robotique, en particulier autour du
concept de responsabilité, face aux défis présents de la postmodernité voire d’un
futur transhumaniste.

21
Bibliographie

Alonso E., Sherman A. M., Wallington T. J., Everson M. P., Field F. R., Roth R.,
Kirchain R. E. (2012). Evaluating rare-earth element availability: a case with
revolutionary demand from clean technologies, Environmental Science and
Technology,46, 3406-3414.
Anderson M., Anderson S. L. (2011). General introduction, in: Anderson M. and
Anderson S. L. eds. (2007), Machine Ethics. Cambridge, Cambridge University
Press, 1-4.
Anderson, D., Reimers, K. and Barretto, C. (2014). Post-Secondary Education
Network Security: Results of Addressing the End-User Challenge, INTED2014
(International Technology, Education, and Development Conference).
Angelo J. A. (2007). Robotics: A Reference Guide to the New Technology.
Westport, Greenwood Press.
Asimov I. (1950). Robot. New York, Gnome Press.
Asimov I. (1985). Robots and Empire. New York, Doubleday.
Asaro P. M. (2012). A body to kick, but still no soul to damn: legal perspectives on
robotics, in: Lin, P., Abney, K. and Bekey, G. A. eds. Robot Ethics: The Ethical
and Social Implications of Robotics. London, MIT Press, pp. 169-186.
Balding C. (2016). Will Robots Ravage the Developing World?, Bloomberg View,
25 July. London, Bloomberg
Bar-Cohen Y. and Hanson D. (2009). The Coming Robot Revolution: Expectations
and Fears About Emerging Intelligent, Humanlike Machines. New York, Springer-
Verlag.
Bekey G. A. (2012). Current trends in robotics: technology and ethics, in Lin, P.,
Abney K. and Bekey G. A. eds., Robot Ethics: The Ethical and Social Implications
of Robotics. London, MIT Press, 17-34.
Beran T. N., Ramirez-Serrano, A., Kuzyk, R., Fior, M. and Nugent, S. 2011.
Understanding how children understand robots: Perceived animism in child-robot
interaction, International Journal Human-Computer Studies, 69 (7-8), 539-550.
Beran T. N., Ramirez-Serrano A., Kuzyk, R., Fior M. and Nugent S. (2011).
Understanding how children understand robots: Perceived animism in child-robot
interaction, International Journal Human-Computer Studies, 69(7-8), 539-550.
Bonnefon J.-F., Shariff A. and Rahwan I. (2016). The social dilemma of
autonomous vehicles, Science, 352 (6293), pp. 1573-1576.
Bruna M-G, Peretti J_M, Yanat Z. (2016). Les nouveaux défis de la diversité :
totems et à dépasser et défis à relever, RIMHE 2016/1, 20, pp 68-88.
Bruna M-G, Montargot N., Peretti J-M. (2017). Point de vue : les nouveaux
chantiers du management de la diversité, Gestion 2000, 34, pp 433-462.
Bruna M-G, Ducray L_F., Montargot N. (2017). Décrypter les ambiguïtés de la
société post-moderne pour repenser la morphologie de l’entreprise de demain.
Une illustration réticulaire. Management & Sciences Sociales N°23, pp 64-85.
Calo R. (2015). Robotics and the lessons of cyberlaw, California Law Review, 103,
513-563.
Carr N. (2014). The Glass Cage: Automation and Us. New York, W.W. Norton
and Company.
Chamayou G. (2015). A Theory of the Drone. New York, The New Press.
Crandall J. and Armitage J. (2005), Envisioning the Homefront: Militarization,
Tracking and Security Culture, Journal of Visual Culture, 4 (1), 17-38.
Dhillon, G. (1997). Managing Information System Security. Houndmills,
Basingstoke, Hampshire: Macmillan Press LTD.

22
Driessen C. P. G. and Heutinck L. F. M. (2015). Cows desiring to be milked?
Milking robots and the co-evolution of ethics and technology on Dutch dairy farms,
Agriculture and Human Values, 32 (1), 3-20.
Durand J-P, Boyer R. (2000). L’aprés-fordisme, Syros, Paris.
Farzaneh F., Boyer A. (2018). Vacillate between humans and robots in the
workplace: the role of ecological factors, IRMBAM 2018, 5-7 juillet, Nice.
Franklin S. (2014). History, motivations, and core themes, in Frankish K. and
Ramsey W. M. eds. The Cambridge Handbook of Artificial Intelligence,
Cambridge University Press, 15-33.
Frey C. B. and Osborne M. (2013). The Future of Employment. Oxford, University
of Oxford.
Fukuyama F. (2002). Our Posthuman Future: Consequences of the Biotechnology
Revolution, New York, Farrar, Straus, and Giroux
Gibilisco S. (2003). Concise Encyclopedia of Robotics. New York, McGraw-Hill.
Holder C., Khurana V., Harrison F. and Jacobs L. (2016). Robotics and law: key
legal and regulatory implications of the robotics age (part I of II), Computer Law
& Security Review, 32 (3), 383-402.
Habermas J. (2003), The Future of Human Nature. Cambridge, Polity Press.
Hottois G., Missa J-N., Perbal L. eds. (2015). Encyclopédie du
trans/posthumanisme, Paris, Vrin.
Kappor A. (2014). L’invasion robotique au Canada, Canadian Urology
Association Journal, 8, 5-6.
Ingram B., Jones D., Lewis A., Richards M., Rich, C. and Schachterle L. (2010). A
code of ethics for robotics engineers, Proceedings of the 5th ACM/IEEE
International Conference on Human-Robot Interaction (HRI), 103-104.
JURI (2016). Draft Report with recommendations to the to the Commission on
Civil Law Rules on Robotics, Committee of Legal Affairs of the European
Parliament, Brussels, European Parliament.
Leenes R., Palmerini E., Koops B.-J., Bertolini A., Salvini P., Lucivero F. (2017).
Regulatory challenges of robotics: some guidelines for addressing legal and
ethical issues, Law, Innovation and Technology, 9 (1), 1-44.
Leopold A. (1949). A Sand County Almanac and Sketches Here and There. New
York, Ballantine Books.
Lin P. (2012). Introduction to robot ethics, in: Lin, P., Abney, K. and Bekey, G. A.
eds. Robot Ethics: The Ethical and Social Implications of Robotics. London, MIT
Press, 3-16.
Lim J-S., Chang S., Maynard S., Ahmad A., (2009), Exploring the Relationship
between Organizational Culture and Information Security Culture, 7th Australian
Information Security Management Conference, Perth, Western Australia.
Matsuzaki H. and Lindemann G. (2015). The autonomy-safety-paradox of service
robotics in Europe and Japan: a comparative analysis, IA & Society, 31 (4), 501-
517.
Moor J. (2011). The nature, importance, and difficulty of machine ethics. In
Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge, Cambridge
University Press, 13-20.
Oost E. and Reed D. (2010). Towards a Sociological Understanding of Robots as
Companions. In: Lamers, M. H., Verbeek, F. J. eds. Human-Robot Personal
Relationships. Heidelberg, Berlin, Springer.
Pearson Y. and Borenstein J. (2014). Creating ‘‘companions’’ for children: the
ethics of designing esthetic features for robots, IA & Society, 29, 23-31.
Peláez L. (2014). The Robotics Divide. A New Frontier in the 21st Century?

23
London, Springer-Verlag.
Rifkin J. (1995) The End of Work. New York, Putnam.
Reimers, K., Andersson, D. (2017). Post-secondary education network security:
the end user challenge and evolving threats, ICERI2017 Proceedings, pp. 1787-
1796.
Rosenberg J. M. (1986). Dictionary of Artificial Intelligence and Robotics. New
York, John Wiley & Sons.
Rosenberger R. and Verbeek P. P. (2015). A Field Guide to Postphenomenology.
In, Rosenberger, R., Verbeek, P. P. eds. Postphenomenological Investigations:
Essays on Human-Technology Relations. London, Lexington Books, 9-41.
Shelley M. (1818). Frankenstein ou le Prométhée moderne, traduction d'Alain
Morvan et Marc Porée, Gallimard.
Stone W. L.(2005), The history of robotics, in: Kurfess T. R. ed., Robotics and
Automation Handbook. Boca Raton, CRC Press.
Simut R. E., Vanderfaeillie J., Peca A., Van de Perre G. and Vanderborght B.
(2016). Children with Autism Spectrum Disorders Make a Fruit Salad with Probo,
the Social Robot: An Interaction Study, Journal of Autism Development Disorder,
46, 113-126.
Tzafestas S. G. (2016). Roboethics. A Navigating Overview, Switzerland, Springer.
Turing A.M. (1950), Computing Machinery and Intelligence. Mind 49: 433-460.
Ummat A., Dubey A. and Mavroidis C. (2004). Bionanorobotics: a field inspired
by nature, in: Bar-Cohen, Y. ed. CRC Handbook on Biomimetics: Mimicking and
Inspiration of Biology. Boca Raton, CRC Press, 201-226.
Valverdu J. and Casacuberta D. (2009). Handbook of Research on Synthetics
Emotions and Sociable Robots: New Applications in Affective Computing and
Artificial Intelligence. Hershey, IGI Publishing.
Van de Poel I. (2016). An Ethical Framework for Evaluating Experimental
Technology, Science and Engineering Ethics, 22 (3), 667-686.
Verbeek P. P. (2013). Technology Design as Experimental Ethics. In: Van den
Burg S. and Swierstra Tsj. eds. Ethics on the Laboratory Floor. Basingstoke,
Palgrave Macmillan, pp. 83-100.
Weir N. A., Sierra D. P., and Jones, J. F. (2005). A Review of Research in the Field
of Nanorobotics. SAND2005-6808, Unlimited Release.
Wise E. (2005). Robotics Demystified. New York, McGraw-Hill.
Whitby B. (2011), On computable morality: an examination of machines as moral
advisors. In, Anderson, M. and Anderson, S. L. eds. Machine Ethics. Cambridge,
Cambridge University Press, 138-150.
Wu Y.-H., Faucounau V., Boulay M., Maestrutti M. and Rigaud A. S. (2010).
Robotic agents for supporting community-dwelling elderly people with memory
complaints: Perceived needs and preferences, Health Informatics Journal, 17 (1),
33-40.

Source Electronique:

Alliance des sciences et technologies de numérique, (2016). Éthique de la


recherche en robotique, Retrouve sur http://cerna-ethics-
allistene.org/digitalAssets/38/38704_Avis_robotique_livret.pdf
European Commission (EC), (2012). Public Attitudes Towards Robots. Report,
Special Eurobarometer 382. Brussels, EC. Retrouve sur

24
http://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_382_en.pdf
Report of COMEST on robotics ethics (2017). Retrouvé sur :
http://www.unesco.org/new/en/social-and-human-
sciences/themes/comest/robotics-ethics/
Riek, Laurel and Howard, Don, A Code of Ethics for the Human-Robot Interaction
Profession (April 4, 2014). Proceedings of We Robot, 2014. Available at SSRN:
https://ssrn.com/abstract=2757805
The Royal Society (2017). Machine learning: the power and promise of computers
that learn by example. London, The Royal Society. Retrouve sur
https://royalsociety.org/-/media/policy/projects/machine-
learning/publications/machine-learning-report-summary.pdf
Archyworld (2019). Retrouvé sur : https://www.archyworldys.com/eric-sadin-
artificial-intelligence-breeds-a-progressive-banishment-of-the-human/

https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/social-robots-
ai-and-ethics/
https://www.economist.com/democracy-in-america/2019/05/16/why-san-francisco-
banned-the-use-of-facial-recognition-technology
https://www.forbes.com/sites/justinwarren/2017/04/06/the-human-point-of-cyber-
security/#15ec13233768

25

Vous aimerez peut-être aussi