Vous êtes sur la page 1sur 11

1

INTRODUCTION

Après avoir suivi le cours d’Ethique et Déontologie


Professionnelle, en deuxième année de licence Informatique, nous voici au
moment où nous devons exprimer notre compréhension des matières apprises,
par écrit, en vue d’une évaluation. Ainsi, nous avons mené des recherches, en
vue de constituer une étude composée deux parties, dont la première porte sur
des concepts de bases (éthique, morale, déontologie) et autres concepts
apparentés.
Ces concepts de base nous enseignent de faire référence deux
grandes approches, notamment : « ce qu’il faut faire et ce qu’il ne faut pas
faire ». Ici, on insiste sur les principes fondamentaux de conduite sociale, à ce
qui est permis et ce qui est interdit, beaucoup plus précisément à l’idée de ce
qui est agréable et désagréable à nous-mêmes et à notre société ou
communauté.

Notre expérience professionnelle exige que nous ayons le courage


de nous pencher sur le bienfondé social, d’où « cultiver l’esprit de la sagesse
en distinguant ce qui est permis de ce qui ne l’est pas, soit, l’essentiel de
l’accessoire » ; car la paix sociale de notre civilisation en dépend
concrètement. Ainsi, le cours de l’Ethique et Déontologie nous permet
d’approfondir d’avantage sur cette matière.

De ce qui précède, et en notre qualité d’ingénieurs informaticiens,


évoluant dans le domaine des sciences et technologies, l’ensemble de nos
compétences doit converger dans le besoin de bâtir ou de rendre notre société
de plus en plus agréable, en appliquant les principes et règles adéquats.

Ainsi, nous devons faire preuve des valeurs culturelles


patriotiques, universelles et républicaines dans l’exercice de notre profession.
Sur ce, évoluant dans le domaine des sciences et technologies, la classification
des compétences du référentiel professionnel commun en sciences et
technologies, selon ce cours du Professeur MUSESA LANDA, nous donne
plus de lumière en terme de recommandations suivantes :

- Communiquer dans une langue vivante (Français, Anglais et autres) de


manières appropriée à l’oral et à l’écrit dans divers contextes liés à la
profession des sciences et technologies ;
- Utiliser les NTIC et autres outils appropriés à la réalisation des taches
2

liées à la profession des sciences et technologies, en vue de produire un


outil d’aide à la prise de décision ;
- Agir de manière éthique en appliquant les règles déontologiques
professionnelles ;
- Intégrer la protection de l’environnement ainsi que les normes de santé et
sécurité au travail dans l’exercice de notre profession ;
- Exploiter les capacités scientifiques et technologiques acquises pour
créer, innover et entreprendre une activité en vue de résoudre un
problème de la société ;
- Mobiliser les savoirs disciplinaires et interdisciplinaires dans les sciences
et technologie pour traiter une problématique.
3

CHAPITRE I : MORALE, ETHIQUE, DEONTOLOGIE,


ETCONCEPTSAPPARENTES

1. LA NOTION DE MORALE
I.1.1 Historique
Quand les moralistes latins ont assimilé la pensée grecque, ils ont
conservé le mot êthika en le latinisant. Aussi les commentaires latins de
l'éthique d'Aristote sont-ils intitulés des commentaires in librosethicorum. Puis
les Latins ont fabriqué le mot moral, dérivé demos, moris,quiales sensd’éthos
et d’êthos:

a) Quand mos signifie usage ou coutume, il correspond à éthos ou au


deuxième sensdeêthos;
b) Employé au pluriel, il signifie caractère : C'est le premier sens de êthos–
et il signifie morale. On disait scientiamoralis, philosophiamoralis ou
ethica. C'étaient des expressions synonymes.

La morale a besoin des autres sciences. Par exemple, la diététique


fait des recherches sur les aliments en général et sur les aliments qui
conviennent à telle ou telle personne.

I.1.2 Définition
C'est tout ce qui, dans l'ordre du bien et du mal, se rapporte à des
lois, des normes, des impératifs. La morale fait référence à des valeurs
communes parfois universelles, elle se transmet par des principes, des règles et
des normes.

NB: Pour certains penseurs, «morale» et «éthique» ont la même signification:


le premier provient d'un mot latin («mores») et les second d'un mot grec
(«éthos ») qui, tous les deux, signifient «mœurs».

2. LANOTIOND’ETHIQUE
I.2.1 Historique

En grec, éthique se disait êthikê ou êthika. Le premier mot est un


féminin singulier ; le deuxième, un pluriel neutre. « Transcrit en latin, le mot
ethica, comme les mots physica, metaphysica, politica, a d’abord gardé sa
4

valeur de pluriel (cf. l’anglaisEthics, Physics, Mataphysics) ; par la suite, il a


été traité comme un féminin, et c’est comme féminin qu’il a donné le français
: éthique » (Joseph de Finance, Éthique générale, Presses de l’Université
Grégorienne, Roma, 1967). La racine des mots êthikê ou êthika, c'est êthos qui
revêt quatre significations :

Habitude morale, caractère, mœurs. On employait ce mot, par exemple, pour


parler du caractère d'une bête ou de ses mœurs, de ses inclinations innées.
C'est de ce premier sens du mot êthos que vient le mot éthique. Usages,
institutions. Demeure habituelle, domicile (de l’homme et des animaux).

Selon Aristote, êthos vient d’éthos, ce dernier mot signifiant


habitude, coutume, usage. On employait le mot éthos pour traduire le mot
habitude dans les expressions suivantes :

 L'habitude devient une seconde nature;


 Faire quelque chose par habitude;
 Avoir l'habitude de;
 S’habituer.

I.2.2 Définition
L'éthique est une discipline qui cherche à évaluer les conduites
humaines par rapport à un système de valeurs, ou des exigences de respect, de
promotion de l'humanité.
D’après Aristote, l'éthique est la science du bonheur humain, et il
énumère les biens qui, à ses yeux, constituent les parties du bonheur humain.
Consulter la liste de ces biens dans la Rhétorique, I, 1360b – 1362a.On
remarquera que la dernière partie du bonheur, c’est la chance il faut de la
chance pour être heureux.

NB : L'Éthique a pour centre de préoccupation : l'homme. Elle cherche en


permanence ce qui est le meilleur pour la personne.
5

I.3. LA NOTION DE DEONTOLOGIE

Le mot déontologie a été fabriqué par le philosophe et juris


consulte anglais Jérémie Bentham (1748-1832). Chez lui, le mot déontologie
est synonyme de morale, comme en fait foi le titre d'un livre qu'il publiait en
1834 : Deontology or Science of Morality.

Le mot déontologie vient du grec deon (deontos au génitif),


participe présent de dei: il faut, il convient, et de logos: discours, traité, etc. En
se référant à l'étymologie du mot, certains vont définir la déontologie comme
une «science des devoirs».

En leur sens premier, éthique, morale et déontologie sont des


synonymes .Ils désignent la science de la conduite humaine ; la science qui
recherche ce qui convient à l'être humain dans tous les domaines de son
activité. Plus d'un siècle après la mort de Bentham, les médecins français se
sont donné un Code de déontologie (1947). C'était un recueil des « devoirs »
des médecins envers leurs patients et envers leurs confrères. Ce fut le premier
Code de déontologie. Maintenant, toutes les professions en ont un.

Il faut se garder de dire «code d'éthique» au lieu de «code de


déontologie ». Les deux formules ne sont pas synonymes. L'éthique ou la
morale, au sens premier de ces termes, évoquent le bien de la personne, tandis
qu'un code de déontologie évoque le bien de la profession ; le code de
déontologie existe pour la profession. Une profession est « juridiquement » bien
exercée si ses membres respectent le code de déontologie qui la régit.

I.4. LA NOTION DE LOI OU DROIT

Qu’il arrive à l’éthique d’être «confondue avec la morale et la


déontologie », comme dit Chantal Audet, c’est explicable ; mais, quand elle
ajoute avec « la Loi », Le droit est l’objet de la justice, vertu qui règle nos
rapports avec autrui. Or, la vertu de justice n’est qu’une partie de la morale; il y
a aussi le courage (anciennement la force) et la modération (anciennement la
tempérance).
6

I.5. CONCEPTS APPARENTES

Dans cette section, nous déterminons quelques concepts


nécessaires dits : « apparentés » dont nous exploitons en complément dans le
cours d’éthique et déontologie. Nous avons : Commandement, Norme, Traité,
Convention et Accord.

a) Commandement

Il s’agit de satisfaire ou obéir aux obligations résultant d'un acte authentique.

b) Norme

Une norme, du latin norma « équerre, règle », désigne un état habituellement


répandu, moyen, considéré le plus souvent comme une règle à suivre. C’est
aussi l’un des modes d’expression privilégiés de la souveraineté, car tout ce
qui entre dans une norme est considéré comme « normal », alors que ce qui en
sort est « anormal ».

c) Traité :

Un traité est un contrat conclu entre plusieurs sujets de droit international


public.

d) Convention :

Le mot convention peut désigner une réunion solennelle de personnes liées par
un intérêt commun qui peut être scientifique, littéraire, professionnel ou
artistique.

e) Accord :

L'accord est un consentement ou une traduction de l'expression des volontés


concordantes entre les sujets de droit en vue de produire des effets juridiques.
7

CHAP II : QUELQUES PROBLEMES ETHIQUES EN


INTELLIGENCES ARTIFICIELLE

En abordant cette partie du présent travail, nous soulignons les


problèmes et les solutions possibles en intelligence artificielle dans
l’élaboration des systèmes qui sont destinés d’opérer dans notre société que
nous souhaitons agréable. Ainsi, les applications utilisant des IA nous amènent
à nous questionner sur leurs véritables usages et impacts sur la société. Il
devient de plus en plus important d’intégrer l’éthique dans tous les projets de
recherche.

Il s’agit d’identifier les risques potentiels, d’adopter des principes


débouchant sur des processus pour les maîtriser sur la durée afin de s’assurer
que le développement de l’IA s’effectue réellement au service et non au
détriment de l’homme. Par exemple, il y a aujourd’hui impossibilité de
connaître si l’information reçue par un système d’IA est suffisamment
complète (toutes les données brutes ont bien été enregistrées) pour valider
l’analyse demandée et le modèle ainsi obtenu au vu des apprentissages
effectués.

Parmi les menaces envisageables, on peut considérer la


manipulation des données d’apprentissage, les biais cognitifs, les failles de
sécurité des algorithmes, plus généralement tous les actes de cyber
malveillance envers les systèmes, etc. En résumé il s’agit de pouvoir expliquer
telle ou telle décision prise par le système. En effet, les algorithmes de
reconnaissance faciale pourraient être biaisés pour répondre à des demandes
d’administrations.

NB : Définir une éthique et/ou une morale pour l’ensemble des pays est
difficile (est-ce souhaitable ?) car les priorités gouvernementales sur le
traitement des données ne sont pas les mêmes pour tous, à moins d’une
décision prise de manière unilatérale pour une organisation mondiale donc
supranationale : les Etats-Unis considèrent la donnée comme un élément
commercial, la Chine la considère comme un élément de pouvoir centralisateur
et l’Europe la protège avec le RGPD (règlement général sur la protection des
données).

Parmi les défis que les humains auront à affronter, ils devront ne pas perdre
8

leur faculté de jugement qui distingue les humains de l’IA. L’être humain doit
rester une priorité et demeurer au centre des décisions. En considérant les
impacts sociaux, la perte de centaines de milliers d’emplois voire beaucoup
plus dans les années à venir est à prendre au sérieux. En effet ce chômage ne
touche pas seulement les ouvriers mais concerne aussi les cadres dont les
fonctions seront assurées par des systèmes automatiques et des assistants
artificiels. On ne connaît pas encore les futurs métiers dans les prochaines
décennies. La perte d’expertise sera aussi un risque dont il faudra mesurer
l’impact.

Questions :

« Dans le cas d’un dysfonctionnement d’un véhicule autonome, d’une erreur


fatale effectuée par un robot chargé du diagnostic médical d’un patient, quel est
le responsable juridique : le robot, le concepteur des algorithmes, l’un des
fabricants de composants du système, la société utilisatrice ? »

Autant de questions auxquelles le Parlement européen tente


d’édicter des règles de droit applicables à la robotique et à l’IA. Récemment, en
février 2019, le Parlement européen, a adopté une nouvelle résolution sur une
politique industrielle européenne globale sur l’intelligence artificielle. Elle
concerne plus particulièrement la mise en place d’un cadre juridique pour
l’intelligence artificielle et la robotique. Par exemple, il explicite que « tout
système d’IA doit être développé dans le respect des principes de transparence et
de la responsabilité des algorithmes, de manière à permettre la compréhension
de ses actions par les êtres humains » (ibid., n° 158) (selon Dalloz Actualités).
L’Europe désire être pionnière dans ce domaine. La mise en place d’une
intelligence artificielle éthique est donc un véritable enjeu technologique,
économique, social et sociétal.

Mais il ne faut pas se limiter à cela : il s’agit de déterminer quel


type de relation construire entre l’humain et la machine. Dans le cadre d’actions
militaires, par exemple, les limites sont dictées par le droit humanitaire
international et le droit des conflits armés. La France est la première à se doter
d’une structure de réflexion à ce sujet.
9

La technologie est neutre : ce sont les humains qui déterminent les


usages, les limites et les objectifs des applications qu’ils développent.
L’humanité est riche de sa diversité. Cela doit être transcrit à tous les niveaux de
développement sans biais, du concepteur à l’utilisateur.

Dans le cas où la morale serait introduite dans les systèmes IA, ils
émettent une objection car nul ne réalisera de robot moral parce qu’un tel robot
serait capable d’être immoral : que seront ses actes ?

Derrière cette question se joue notre conception de la conscience.


Si nous acceptons l’idée selon laquelle la conscience humaine ne serait qu’un
processus mathématique, il sera un jour ou l’autre possible de la coder
informatiquement et les robots nous battront dans tous les domaines, y compris
la morale. Mais là est bien la question (TheConversation.com, 2 octobre 2017).
10

CONCLUSION

En guise de conclusion, nous disons brièvement que les enjeux


technologiques de souveraineté nationale sont aujourd’hui indissociables des
enjeux mondiales. Les actions de coopération entre la recherche académique et
l’industrie, et des synergies avec la défense sont encouragées.

Cependant, que ce soit dans le domaine civil ou militaire,


l’utilisation de l’IA et des algorithmes de plus en plus performants engendrent
des questions d’éthique et de morale.

Cela engendre donc nécessairement une réflexion sur l’opportunité


de concevoir de tels systèmes numériques intelligents ou sinon de savoir si leur
conception a les capacités de limiter ou d’éliminer les erreurs, de protéger la vie
privée et de servir l’humanité.

Pour aller plus loin, quelques auteurs renchérissent suffisamment


dans leurs citations suivantes :

« Réfléchir est la véritable ressource de l’humanité. La qualité de notre avenir


dépend entièrement de la qualité de notre réflexion. Ceci est vrai à un niveau
personnel, organisationnel et mondial ». Edwardde Bono

« Les problèmes importants que nous affrontons aujourd’hui ne peuvent être


résolus au niveau de conscience qui les a créés ». Albert Einstein

« Les grands enjeux de l'humanité ne sont pas la faim, la pauvreté, le


développement durable, la paix, la santé, l'éducation, l'économie, les ressources
naturelles... mais notre capacité à élaborer de nouvelles organisations capables
de les résoudre. Notre enjeu principal est l'intelligence collective ».Jean-
François Noubel

« Le problème de l’intelligence collective est de découvrir ou d’inventer un au-


delà de l’écriture, un au-delà du langage tel que le traitement de l’information
soit partout distribué et partout coordonné, qu’il ne soit plus l’apanage d’organes
sociaux séparés, mais s’intègre au contraire naturellement à toutes les activités
humaines, revienne entre les mains de chacun ». Pierre Lévy
11

REFERENCES BIBLIOGRAPHIQUES

IA :
 Cours d’Intelligence Artificielle destiné aux étudiants de la Première
année de Licence, à l’Université de Kinshasa, Professeur KASORO
MULENDA Nathanaël.
 L'intelligence artificielle et ses enjeux pour la Défense, Revue Défense
Nationale, Mai 2019, n°820,
http://www.defnat.com/sommaires/sommaire.php?cidrevue=820
 Jean-Pierre DAMIANO, La robotique : quand les humains et les robots
collaborent, IESF Côte d’Azur, Bull. n°2, p.3-7, Mai 2019.
https://www.researchgate.net/publication/333146017_La_cobotique_quan
d_les_humains_et_les_robots_collaborent

Ethique, IA et robotique :
 Ethique du robot et de la robotisation, article publié dans le cadre de la
Fête de la Science 2017 dont The Conversation France est partenaire.
octobre 2017, http://theconversation.com/ethique-du-robot-et-de-
larobotisation-84298
 Paul DUMOUCHEL, Luisa DAMIANO, Vivre avec les robots. Essai sur
l’empathie artificielle, Paris, Éd. LeSeuil, coll. La Couleur des idées
(2016). Commentaires Céline NGUYEN, Questions de communication,
mars2017,
http://journals.openedition.org/questionsdecommunication/10988
 Alliance des sciences et technologies de numérique (Allistene),
https://www.allistene.fr/tag/ethique/

Adresses Web :
 https://fr.wikipedia.org/wiki/Commandement
 https://fr.wikipedia.org/wiki/Norme
 https://fr.wikipedia.org/wiki/Traité
 https://fr.wikipedia.org/wiki/Convention_(droit)
 https://www.dictionnaire-juridique.com/definition/convention.php
 https://fr.wikipedia.org/wiki/Accord

Vous aimerez peut-être aussi