Académique Documents
Professionnel Documents
Culture Documents
UNN
BIBLJOTHEOue
&A
FINANCE
Quels enjeux ?
16OCT 20
cybersécurité,
régulation,
éthique...
SOMMAIRE
«L'IA a connu des vagues successives
d'enthousiasme». *************** "*********** 4
Larégulation des intelligences artificielles.32
INTERVIEWPIERRE BESSIERE, CNRS Sorbonne Université NATHALIE METALLINOS, ldea AARPI
ISSN 1777-5752/CPPAP o624 T 84972 Imprimé à Nancy (54) par Bialec Dépôt légal 4* trimestre
-
-
20o19.
Numéro mis sous presse le jeudis octobre 2019.
Revenant sur l'origine de l'intelligence que ce sont essentiellement les connaissances humaines
des experts qui vont permettre de résoudre les problmes
artificielle et les différentes formes Il faut trouver des moyens de mecaniser ces connaissances
humaines et de faire en sorte qu'elles S'enchaînent les
qu'elle peut prendre, Pierre Bessière unes aux autres de manière rationnelle, pour arriver aux
aborde les principales questions conclusions. Cette démarche a un certain nombre de qua
lités : nous pouvons comprendre exactement ce que fait le
qu'elle soulve. Sans en sous-estimer système puisque ce sont des connaissances humaines qui
ont été intégrées. Le phénomène de « boîte noire », souvent
PIERRE BESsIÈRE les apports possibles, il en relativise reproché à l'lA, est dans ce cas très atténué.
Directeur la portée. Dans les années 1980 ont commencé à apparaître les
de recherche réseaux de neurones artificiels, quasiment identiques à
CNRS-Sorbonne ceux exploités aujourd'hui; mais ils n'ont eu qu'un suc
Universitéé
Quelle est l'origine de l'intelligence artificielle? cès académique, car il n'y avait pas assez de données, ni
Cofondateur La notion d'intelligence artificielle (IA) est très ancienne: assez de puissance de calcul, pour les faire tournereffi
ProbaYes elle remonte au moins jusqu'aux pères fondateurs de l'infor- cacement. Ils réapparaissent aujourd'hui, car la disponi-
et HawAl.tech matique, c'est-à-dire Alan Turing ou John von Neumann, bilité de masse de données (le Big Data) et les machines
qui ont conçu les premiers ordinateurs dans l'idée qu'ils plus performantes permettent de faire les apprentissages
pouvaient évoluer vers des formes d'lIA. II est même pos- nécessaires.
sible de dater les prémices de l'LA plus loin encore dans le A l'opposé de la logique, et de façon un peu caricatu-
INTERVIEW temps, au XVII° siècle, quand Leibnitz' a cherché à conce- rale, les réseaux de neurones ne prennent en compte que
voir une langue rationnelle, lingua rationalis, utilisable par des connaissances humaines minimales, mais en les fai
tous pour exprimer la logique mathématique. Déjà à cette sant tourner sur d'immenses bases de données. Ils font
époque, l'idée était de construire une langue pour méca- de l'apprentissage et génèrent des systèmes avec des mil-1
niser, d'une certaine manière, le raisonnement. lions de paramètres. Cet apprentissage consiste à fixer
Mais depuis l'apparition des ordinateurs, l'IA a connu ces millions de valeurs alors qu'un processus logique ne
des vagues successives d'enthousiasme, comme dans les comprend que très peu de valeurs ajustables. L'avantage
années 198o, où tout le monde s'est mis à faire des sys- des réseaux de neurones vient de la facilité de développe
tèmes experts (c'est-à-dire des enchaînements de règles ment, car il n'est pas nécessaire de mobiliser des experts
logiques), de la même façon qu'aujourd'hui tout le monde et de traduire leurs connaissances.
se concentre sur les réseaux de neurones formels. Mais Prenons l'exemple de la détection de fraudes à l'utili-
ces vagues d'enthousiasme sont toujours retombées parce sation de cartes bancaires dans les DAB ou sur Internet:
que les chercheurs ont promis beaucoup de réalisations vous pouvez aborder cette question en demandant
aux
qu'ils ne sont pas parvenus à concrétiser, en tout cas pas experts de la fraude d'expliquer les comportements des
totalement- par exemple, des systèmes experts, restés fraudeurs et essayer de traduire ces connaissances sous
en informatique traditionnelle, ou les « langages à base forme d'un certain nombre de règles. Cela demanae
de règles », utilisés dans de nombreuses applications. beaucoupd'efforts et présente l'inconvénient d'ëtre peu
adaptable à l'évolution des comportements frauduleux
Quelles sont plus précisément les grandes évolutions quand ceux-ci changent, il faut aussi changer les règles
identifiées au cours de ces différentes vagues? Une autre possibilité est de charger des millions de do
La première a été celle de la logique informatique qui a de toutes les uu
duré pendant 30 ou 40 ans. La logique se fonde sur l'idée
nees, reprenant par exemplel'historique
lisations des cartes bancaires françaises, et faire r o s
ner
de
extraire ce
des algorithmes d'apprentissage qui vont
données des paramètres pour apprendre en perman
1. Alan Turing, mathématicien et cryptologue britannique (1912-1954): John von
Neumann mathématicien et physicien américano-hongrois (1903-1957).
la manière dont ces cartes bancaires frauduleuses ont
utilisées et ensuite détecter quand une carte est utl
2. Gottfried Wilhelm Leibniz, philosophe, mathématicien et scientifique allemand
(1646-1716). de manière suspecte. L'avantage est qu'il est poss1DIC
eurs.
nOurquoi de v a l e u r
les proba-
millions
steme »: caricaturalement le
Dans le cas de cette intelligence sensori-motrice, c'est
aPprend
Présenté peutpar ceur des réponses aux données à-dire qui perçoit et agit avec ses sens, les
avoir du mal avec des performances
denles algorithmes de deep learning sontnouveaux cas, des machines sont done très loin de celles d'un enfant.
Quelle est la différence entre ces deux problèmes, « jouer
le plus performants en la
matière. Dans ce cas
aujourd'hui auxéchecs »et« jouer avec des échecs»? Ladifférence fon-
es connaissances humaines sont importantes
iia damentale vient de la capacité à bien cerner les connais-
eralisation car elles permettent de gérer ces
W'ions
ou sances nécessaires. Celle-ci existe
quand il s'agit de « jouer
l'algorithme
ln'a pa
elesas apprises et
es onfronté à des donné« aux échecs»: il faut un échiquier, 6 types de pièces et un
pour lesquelles il faut définir des nombre fixé pour chacun d'entre eux, connaître les
enéralisation adéquates. règles
incabilité
hquer àal'utilisateur
recouvre à la fois le fait
d'être
de déplacement sur l'échiquier et
quelques règles spéci-
Oncepte la décis
écision prise, maiscapable d''ex-
aussi que e le fiques du jeu, comme le roque. Vous disposez alors des
SvE puisse connaissances nécessaires pour jouer et gagner. Le jeu en
me ne comprendre pourquoi dans certains cas lui-même se résumeà un problème de combinatoire: il faut
marche pas. Ce
les
réseaux de
point
bint est particulièrement envisager un très grand nombre de combinaisons possibles
neurones
Cnangeant très peu de choses qui peuvent dans le futur pour déterminer lesquelles sont intéressantes;
(deceptive cases l'ordinateur sait très bien faire cela. Pour « jouer avec les
OCTOBR
RB
IA
&IN.NCL
RIVUE 8ANO
à un seuil où cela pose un vrai problème, c'est-à-dire qu'il Etl'utilisateur doit, de soncoté, garder une
ine. wwladr
n'est plus possible de donner du travail à tout le distance et son esprit critique vis-à-vis de la mat
monde.
Cela questionne la répartition des richesses,
aujourd'hui Élisabeth Coulomb
an dev
Propos recueillis par
krise
6 HORS-SÉRIE BANQUE & DroIT-OCTOBRE 2019
Faut-il redouter l'IA?
que se demander si
mathématicien et informaticien
néerlandais.
Edsger DIJKSTRA (1930-2002),
prendre, le préfixe
«
de multiples fantasmes, capacité
millénaristes. Si
l'intrusion de l'IA ligare » (lier) évoquantla
(choisir, cueillir)
ou«
a cree un
Ogisme de
Maurice Levy, «
Terme issu de
l'entreprise
Uber qui service 5. NormelSO/IEC 2382-28:1995, Technologies
appicatton fondamentales et systèmes experts », révisée
,17
décembre 2014.
tourisme avec chaufteur S'appuyant sur une Depuis,
aIntelligence artificielle- Notions
voiture de
traditionnels.
Universellement partagée:
A
andre, La Guerre des intelligences, JC Lattès 2017, Spec. p.
RosSum
KOSum's première fois en 1921 dans la pièce de théâtre 105
de Karel Capek
Dans les Universal Robots (RUR).
20 ay.aits, attribue à Ctésibios
on 26. Exode 20:4. «Tune te feras point d'image taillée, ni de représentetion quelconque des
REVURBANQUE
faut-il
redouter? nions plus facilement
ce coincide qui
3. Que explicabilité» du monde et minimisons ce qui va à aveci notre vision
Heuristiques,
biais et « est de même des biais issus des
son
encontr
3.1. Une IA« trop
humaine thético-déductifs. Si l'on vous demande de c raisonnements po.
llen
des spécialistes de l'lA, l'avène- la suite 2, 4, 6, la plupart
De l'avis de la plupart
gens des répondront t
forte totalement a u t o n o m e et ayant bien même aucune consigne n'aurait été
ment d'une lA
« »,
conscience de son existence, relève pour d'indiquer que la suite doit être
donnd
une pleine
de nombres pairs. N'importe
linéaire . ain
Ainsi Yann Le Cun3? met quel chiffre nosée
I'instant de la science-fiction.
en balance l'intelligence
humaine, mais aussi animale, que 6 convient, mais notre formatage
de modéliser rapi- conduit à ne fournir qu'une seule réponse. intelleche
capable d'agir à partir d'intuitions, et nous
dement son environnement et de conclure « les intelli- Au cours d'une étude conduite
par des
les plus abouties ont moins de commun MIT Boston, d'Harvard, et de chercheure.
gences artijficielles
sens
l'université alifornie
de
qu'un rat!», touten soulignant que « Les humains, comme sur le simulateur Moral achines0,
ont été
àcollectées
les animaux, apprennent á partir de tres peu d'exemples, ce qui «
préférences morales » relatives à des situations devant se
est un mystère pour les ordinateurs ». d'apprentissage a un vehicule autonome devant chois
Cette remarque sur la manière dont les humains entre des scénarios d'accidents inévitables, impliguant
apprennent, avec une économie de moyens remar- la survie de diverses catégories de personnes. Envio
quable par rapport à l'ordinateur, met en reliefla place quatre millions d'utilisateurs ont fourni près de
des heuristiques dans le mode de fonctionnement de millions de réponses dans une centaine de pays.Juarante
l'esprit humain. Dans le domaine informatique, une Ainsi, ce projet démontre que plus les inégalités éco-
heuristique est une « méthode de résolution de problèmes, nomiques sont importantes dans un pays, plus on choi-
nonfondée sur un modèleformel et qui n'aboutit pas nécessai- sira d'épargner les riches plutöt que les pauvres. En Fin-
rement à une solution »4, Appliquée à l'homme, on vise lande, pays dont la population présente un faible écart de
le recours à des stéréotypes destinés à résoudre, de niveaux
de vie,
ce
type de préfërence
n'est pas sensible.
manière rapide, quasi-instinctive, un problème quitte Cette étude, outre le fait qu'elle confirme qu'il n'existe
à produire un biais cognitif. pas de morale universelle, permet toutefois de consta
Les biais cognitifs constituent quantà eux « des erreurs » ter qu'émergent trois principes vers lesquels convergent
de raisonnement, en ce sens que le résultat obtenu n'est les réponses, à savoir protéger la vie humaine plutôt que
pas systématiquement faux, mais qu'il est n'est pas celle des animaux, sauver le plus grand nombre de vies et,
conforme à un schéma de rationalité. Cette manière par priorité, sauver les enfants. Au total, l'intérêt de cette
d'agir fait la place belle à quelque chose que les machines étude n'est pas tant le réalisme des situations proposées,
ignorent, Pintuition. que les résultats qui pourraient augurer des choix d'une
Toutefois, ces « chemins de traverse intellectuels » peuvent IAainsi« alimentée» par« des humains trop humains».
s'avérer néfastes lorsqu'ils se manifestent dans les lignes La voie vers l'« humanity by design » est semée d'embûches.
de codes qui alimentent une IA. Ainsi, dans le domaine On notera qu'en France, l'article 125 de la loi n' 2019
de la santé, l'IA d'IBM baptisée WATSONa été majori- 486 du 22 mai 2019 relative à la croissance et latrans
tairement alimentée par des données issues du Memo- formation des entreprises a pour objectifde permettre ae
rial Sloan Kettering Cancer Center (MSK). De médecins développer les tests de véhicules autonomes. Il envisage
se sont émus des biais que comporte cet apprentissage, notamment une indemnisation des victimes d'accidents
les recommandations de cet hôpital n'étant pas néces- sur'unique fondement du délit d'atteinte involontairea
sairement conformes aux pratiques d'autres médecins la vie ou àl'intégrité de la personnes", le titulaire de lau-
ailleurs dans le monde. Les médecins du MSK ont ainsi torisation d'expérimentation, à l'exclusion du conduc
de
reconnu leur infuence sur Watson :« Nous n'hésitons pas teurayant activé la conduite autonome, répondant
à insérer notre parti pris »5. cette responsabilité.
Outre, les partis pris, les biais qui peuvent se manifester
chez un humain sont nombreux. On citera par exemple 3.2. Une IA insufhsamment transparente blic
le biais de confirmation qui conduit à ce que nous rete- Une des questions qui agite chercheurs, granap
etsuperviseurs bancaires est celle de l'explicabll Conseil
port, p.banques
oDlemes ». Rannor prestataires de services
e 6o: https://acpr.banque-france.fr/sites/detault/hles/medias/documents/201812_20
l https://www.fsb.org/wp-content
1/sb-considers-financial-stability-implications-or-
intelligence_artificielle_fr_o.pdf.
Rligereanductce-aionnd-machimanquene-learningi
«e
prétabilité ou d'auditabilité des méthodes
of-
48. P.g du document, ce dernier visant les normes IS0/IEC AWI 2305333.
49. En décembre 2018, étude menée pour Amaguiz.
50. Étude conduite par tfop pour Impact Alsurle thème « Notoriété et image de
modeles uepourtait
s autn opr enit
ues peut devenir un risque au niveau macro. De
P'ntelligence Artifhicielle auprès des Frangais et des salariés ».
européennes entraîner
de
des
risquauences nao
conséquences inatendues.menme
surveillance,
51. La question se pose ici de l'éthique appliquée aux traitements faisant appel àl'A.
V.dans ce mëme numéro, la contribution de Marina Teller, p. 38.
21
oéc.95*
mars 2018, Spe: S
52. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016.
une menace en raison de l'accumulation des en æuvre à son égard. It en resulte que ne peuvent être utilis
personnelles détenues. commefondement exclusif d'une décision administratiive it
di-
Le RGPD est prolixe sur ce sujet, puisqu'il énonce viduelle, des algorithmes susceptibles de réviser eux-mêmes le
Tout d'abord, la prohibi-
quatre « principes directeurs
». règles qu'ils appliquent, sans le controle et la validation du re
données », les données à
tion du « chalutage intensif de ponsabledu traitement»
caractère personnel devant être adéquates,
pertinentes
finali
Cette décision, rendue soulignons-le dans le contete
nécessaire au regard des
et limitées à ce qui est
traitées*°, Ensuite le pro- des décisions administratives, est néanmoins porteuse
tés pour lesquelles elles sont d'un message important, à savoir qu'l, ne peuty avoir de
est autorisé lorsqu'il est
fondé sur le consente
filage on
décision individuelle, fondée sur un algorithme « auto-
concernée". Enfin,
ment explicite de la personne apprenant», capable de réviser lui-mëme les règles qufil
relèvera l'interdiction de recourir à des algorithmes met en æuvre, en l'absence de contröle et de validation
données sensibles énumérées àl'article 9,
utilisant les du responsable du traitement.
paragraphe 4, du RGPD. de« deux droits Cette décision met en reliefla difficulté que représente
A ces deux principes, s'ajoute le rappel
droit de ne pas faire
l'explicabilité des algorithmes d'apprentissage machine,
Jondamentaux ». Tout d'abord, le notion entendue comme la possibilité « de donner àl'en
d'une décision fondée exclusivementsur un trai-
l'objet semble des utilisateurs, quel que soit leur bagage éducatif, une
tement automatisé, y compris le profilage", ainsi que
vision claire des procédures employées et des fonctionnalité rem-
le droit de demander un traitement par une personne
humaine relève du minimum requis d'un responsable plies par l'algorithme, afin de permettre un usage informé»*".
Gérard Berry, professeur au Collège de France, décrit
de traitement". Pour compléter ce tableau, s'ajoute le la situation de la manière suivante « Dans un programme
recours à une « étude d'impact sur la protection des données»
de
nécessaire pour les traitements comportant des risques informatique classique, si on connaît le code, on est capable
savoir ce qui se passe et de prévoir le résultat. Avec les résea
particuliers pour les personnes.
Par ailleurs, le Code des relations entre le public et profonds, on ne sait pas ce qui se passe: quand un algorithme
l'administration envisage d'ores et déjà des obliga- donne une réponse, cest comme ça.»
tions de transparence°, tandis que le Rapport Lemaire Si les processus d'apprentissage machine deviennent
tant
de décembre 2016 envisage pour les entreprises, une a ce point complexes qu'il est difficile d'en décrire,
le fonctionnement que les résultats, dans des termes
accessibles au plus grand nombre, peut-être faut-il env
53. Cf. rapport 1. Pavel et J. Serris, « Modalités de régulation des algorith mes sager autre chose que la transparence afin
de
gaau
la confiance des utilisateurs. Peut-être que « renare
de traitement des contenus », 15 décembre 2016.
54. Pour le Conseil d'Etat: « Boîtes noires impossibles à contróler tant en raison
du secret industriel qui les protge que de leur complexité technique ». $ystemes visibles, transparents, n'est pas que o la même chose
rendre responsables" », ce qui explique que des voix Se rou
55. Sondage FOP pour la CNIL, janvier 2017.
56. Article s-1-C: Principe de minimisation des données.
entendre pour qu'émerge, en lieu et place de la no
57. Article 22-2-c trop vague d'explicabilité, celle de responsabilte
58. Article 22-1. Cette question se
posant avec d'autant plus d'acuité s'agissant
des déisions judiciaires faisant
la contribution de Nathalie
appel à 'A. V. dans ce même numéro,
Metallinos, p. 32.
59. Article 22-3.
60. Article 35 et36 cf. également Guidelines on Data Protection Impact Assessment
(DPIA) and determining whether processing is "likely to result in a high risk"
for the purposes of
les Regulation 2016/679, wp248. V. , dans ce meme numéro,
développements d'Eric Caprioli., p. 22.
61. Article
L.312-1-3: règles concernant la publication en 63. Relative à la réforme de la loi Informatique et Libertes.
les principaux traitements ligne les règles définisant
algorithmiques
décisions individuelles et article L. utilisés lorsque ceux-ci fondent des 64.71 de la décision.
311-3-1 du même code: Sous des réserves 65.
limitativement énumérées (secret des
délibérations du Mal Pégny et Mohamed Issam Ibnouhsein, Quelletranrisfrhal-o17910
agorithmesd'apprentissage machine?, 2018: https:/|hal.inna.
de la défense
sreté de l'Ëtat, etc.) « une Gouvernement, secret
eskims,
nationale,
le fondement d'un décision individuelle prise sur
traitement algorithmique 66. Cité in Benoit Georges, « Le talon d'Achille delP'intelligentde-linteligel
intéressé. Les règles comporte une mention explicite en informant
déf1nissant ce traitement ainsi que les 5 mai 2017 : https://www.lesechos.fr/2017/05/le-talon-dachie
de mise Euvre sont communiquées par l'administrationprincipales
sa en
caractéristiques
d l'intéressé sil en artificielle-1680g9. ofthe
demande Limitations
troisième proposition du
». 3 aecembre 2016: http:/ljournals.sagepub.com/do/ruuy
rapport. 58. Ibid.
lemonde.uPeut-on
armer la
transparence de l'information? », Internet Actu
du janvier 2017:
21
http://internetactu.blog.lemonde.fr/2017/01/21
0 On-armer-la-transparence-de-linformation/.
ette e apparaît dans la synthèse du débat public conduit par la CNIL, « Comment 75. https://www.lemondeinformatique.fr/actualites/lire-55-des-consommateurs
francais-prets-a-falsifier-leurs-donnees-clients-71009.html. Les données qui
et de intomme de garder la main- Les enjeux éthiques des algorithmes seraient les
plus communément falsifiées sont: numéro de téléphone (32 % des
d'une ence artifhcielle ». La recommandation n° 4 répondants), date de naissance (19 %), adresse personnelle (18 %) et nom (17 %).
tetorme nationale d'audit des algorithmes »: évoque constitution
la
dofs YouGov Plc sur la commande de RSA (Groupe Dell
Etude réalisée par le cabinet
Conseil d' https://www.cnil.r/ses
escni_rapport garder_la_main_web.pdf. ldem, rapport au EMC) du 15 décembre 2017 au 3 janvier 2018.
la Documa e annuelle 2014, « Le numérique et les droits fondamentaux >, 76. Basel Committee on Banking Supervision's standard, numéro 239.
le contrl on trançaise, septembre 2014, Pp 301. Proposition n 25: T7. Gouvernance, architecture de données infrastructure informatique,
et
exactitude
Developp
disries resultats produits par les algorithmes, notamment pour detecter u actualité (mise å jour des données sur
les risques tout en
et intégrité, exhaustivité,
1. Ce ns licites, en renforçant les moyens dont dispose la CNIL. d'exhaustivité et d'adaptabilité),
n. h re poubelle à l'entrée, poubelle à la sortie . respectant principes d'exactitude, d'intègrité,
les les
toutes grandes
familles
«
: https:/ auprès
risques),
e de Boo8oo banquiers dans 25 pays-Citée in Lesechos.ft, 24
bang mai
concernees en veillant au respect de leur
confidentialité).
id ent ifier
marché
et de
me a hancaires
surveillées, COm
es de
des
aCivsetétroitement opératpariolens personnel
traitées sujet, de autres
opérateisonsou suspect
peuvent faire porter à la collectivité.
Jla
fiuirsegur
o
PSI. grandes
de es, qur'ils di
au'elcementedeSlen bancaire, l'entreprise d'in- 1.1. certaines agisse
Le
de arché est
important
frastructure
Les
contrôle des opérations
et obligations, opérations
St senenlusla
la supervis1on est vigoureuse.
ans
ergie,
la plupart
régulée
télécommunication
5ystemugue des activités
port, MIFIL,
esrég
découlant
ons m
nee
ou nications.),
pouraes
Comne
da
cette
éviden
supervision pass
ntes d'efficacité- et détenir vigilance
raisons
des relatif aux mettre régleenmentplaceatiounns MAR
saremeforme de délégation. Aussi, les établis- dans ce informations personnes
sairement, dispo-
cadre, d'opérer des privilégiées susceptibles
gadesxeset
par une
ropre des fonctions de contrôle de deuxième et et proportionné aux butsaatteindre); des opérations
troisièm les -le respect de la vie privée (s'agissant
ne pas se borner à rejouer
LVeaux est de personnelles réalisées par
le salarié).
Controles de niveau inférieur mais d'évaluer la pertinence
Ge ces
controôles et de mener, le cas échéant, leurs propres
OLes, qui peuvent être des contrôles systématiques
Ou
a1eatoires (échantillonage...). II s'agit, pour l'esSen
de privilégiées
les qualites pour être qualiées
29. C'est-i-dire ne revëtant pas toutes au titre notamment
ie, de détecter, à la fois dans les procédures organsa mais susceptibles
neanmoins de donner
lieu a des intractions,
eene
-turned
nsances, de possibles irrégularités ou,
dans les cas 30. Aridles315-2 dudotaRG mining
A l'exploration de grandes quantités de donné
ies plus graves, des nanquements ou des fraudes. 31. On désigne par
tirer dU sens.
HORS-SÉRIE BA
RB et n'importe
l nous semble qu'une atteinte à ces principes ne pourr:at forme de contróle comme
ctre la banque, interne acactivite o
un dispositit de contróle
de«pourcriticine
rait i,
justihce quc par disposition légale sufisammen
une
en place, adapte
volumes etau:niveau
aux
prescriptive, ce qui n'est pas le cas à ce jour. Parailleurs, le Le
de l'activité concerne. recours au data
Croisement de fichiers (par exemple confronter une tran lux gigantesques de données,
peut co mining,
Saction personnelle des fichiers de titres pour ies
avec de pattortuer
qucles le salarié n'était pas supposé a v o i r d ' i n f o r m a t i o n s ) intéressante, par la detection
aeja dotés, pour ce faire, d'outils de détection du langag Depuis la crise financiere des années 20
de termes à conno
1aurel ou de détection automatique susciter
obligations déclaratives (reportings) des acte08, et
tation douteuse (identification de mots pouvant n'ont cessé de croitre. Pour s'en tenir à la ce e
une suspicion de fraude). citer
Citerons bien
nous
seule régle
mentation europeenne,
elles-mêmesestdéjà en place declaration des dérivés OTC EMI
e controle des opérations de marché de 2003
mais (obligation de aux r
aepuis la première directive abus le règlement de 2014 tiels
centraux deaonnees), plus récemmentle
a
ete considérablement élargi par
quil'a étendu non seulementà tous types d'instruments
SFTR (même obligations pour les cessionst
de titres) et enfin les multiples obligations déclas
de cotation)
financiers (quels que soient le lieu et le mode issues de MIF 2 (extension a l'ensemble desinstrum
échappaientjusqu'a
mais aussi à des classes d'actifs quiy financiers négociés, Sur marchés organisés com
me de
présent (commodities, indices). gréà gré). Ces multiples reportings, qui peuvent seri
Cette obligation-et c'est le point le plus délicat en termes
fois à des fins macroprudentielles (détection desSOurces
esda
de mise égalementéééétendue aux simples
en æuvre-a de risques systémiques) ou à des fins de surveillance d
dans les marchés de gre
offres de prix qui sont proposées ». La question s'est marche(detection
d'abus de marché) constittents
ent nvéri- bu
a gré, ce qu'on appelle les quotes «
sans distinction
les table défi pour les superviseurs dont les équipes ne son
posée de savoir si, ce terme incluait
sont affichés et pas toujours dimensionnées pour y faire ace e
quotes fermes et les quotes indicatives, qui de
« streamés »).
ajustés en permanence (appelés aussi prix 2.1. La détection de zones de risques
Concernant les quotes fermes, qui sont des prix immé- pour les superviseurs
entrer naturelle-
diatement traitables, celles-ci paraissent
a. L'expérimentation de
ment dans le périmètre de la réglementation
sur les abus la SEC sur P'emploi du teme
avoir une infuence directe
CDS dans les documents d'émetteurs. Dans un discours
de marchépuisqu'elles peuvent ceu
1998 dans
manquantes) de
façon améllorer a
jontrait
sculement
en
ce c et
rendre leur exploitation les jeuz de donnees
utikm.11mcrican
a r CeIC
o i sb a 7
CS
cain de
leur
)Our
rapport.
final
par
2.2. La
marché
posnible.
détection de fraudes et
apres la crise. I'em-
2004
Ch
2009, autres abus de
if en
en .
s o i é t é s
mASSil
avait quan à
csCIHNCnt
les
articles
de presse
ct 2 0 0 8 .
Commel'expliquede P. Amstrong, del'ESMA",
cation
1o
entre
2007
modeste qu'elle soit,
possible V'IA et
mettre aux autorités de du machine
une
appli
i é par nce, pour
nme détecter les de per learning est
sophisti-
périen ce
de detecter cer-
marchés ainsi que les comportements col-
rer tre,
quc bien employes,
structurées.
cours,
avec des
qui deviennent de manipulations de
plus en plus difficiles
traditionnels (notamment a détecter
eUvempermer non
trer
de données.
exige d'y consacrer des ressources
sr
es,cels centraux
rentiels Cenuarts considérables
efforts
des.
des acteurs pointues
considérables
et coüteuses, de sorte
techniques et humaines
je les
algréconformer que le recours à des tech-
deset
Acejour,. se
ligations, torce niques basées sur l'IA et le machine
à ces oblig
learning permettraitde
p0ur
termes de détection des faire ce travail de
marene
t econsta
rque ce but-
iblement pas
n'est visible atteint.
pré-instruction. La déjà au
Uni, et la SEC, aux Etats-Unis, ontFCA, Royaume-à
commencé
de -
erviseurs
supervise
les
p an rt é m o i g n e u n e «
e étude récente de la Banque de explorer la façon d'exploiter de grands volumes de don-
isques
c e n t raux données", il'ana-
a u x de données'5 nées pour déceler de
les réfërentiels potentiels abus de marché ou cas
CO r infrastructures est encore de fraudes (par exemple des cas de mauvaise
sancenées issues de
ces
conduite
de qualité des données des conseillers en investissement), en se basant sur un
des problemes
1 senceen raison
d'harmonisation des formats de reporting, algorithme auto-apprenant analysant les déclarations
de double comptabilisation reglementaires, qui comportent à la fois des données
tdnter les problèmesDes
sns compmanquants. Des ttravaux d harmonisation structurées et non structurées.
manquants.
etde
champs sous l'egide du CPMI et de IOSC0 Ace stade, et comme le reconnaît
Scott W. Bauguess
ues éré lancés, e n c o r e des
avant
d'aboutir. Dans
années a de la SEC, les ordinateurs utilisés par lAutorité, aussi
rendront sous-exD itent les seules sophistiqués soient-ils, ne sont pas encore capables de
superviseurs
les
te attente,
ete
atentcihies et
et rreconnaissent
eco
eux-mêmes que les mener defaçon autonomedes investgations et enquêtes
dispOnibles
17 mars 2015.
Elements (other than UTI and UPl)
harmonisation of Critical OTC Derivatives Data
Technical Guidance Isued by CPMI-IOSCO. octobre 2018, BIS.
Banque Centrale,
Fisher sur les statistiques
Settlements), « Ihe Use of 40. Comité Inving 27 novembre
2018.
Van lelyveld (Netherland Bank; BankofInternationaland Challenges ». « Developments
in RegTech and SupTech »,
ESMA,
Possibilities 41. P.Amstrong, Supervision, 2018
ervatives Trade Repositories Data: utilisateurs et SupTech : leveraging
Technology for Better
Poullennec, « La sur les dérivés met au défi
régulation 42. V.: Toronto Centre,
egulateurs », LAgefi, 12 février 2014.
DROIT-OCTOBR
éments
suivants": tion sdes données matière de
n en matière de protec-
r e s
elen
«
les usages qui
nhénomène
données( p h e
boite noire ») rendant très dif. sontfaits des données à caractere personnel les concernant
de «
Ce
des raisons conduisant au résultat
».
droit sert de cle de lecture des autres droits
et principes
l'identification
hle
ie lidece
ndanceà utiliser toutes les données disponibles de protection contenus dans le RGPD et la Loi Informa-
à utiliseri
p r o d u i t ,t e n d a
nduit,
limitesetde
façon quasi instantanée (volume, variététique et libertés. Il se décline notamment en un droit au
disruption
dans la alité des traitements, non-profilage qui a plusieurs facettes. En premier lieu,
vocdlocité),
lonnées nérant des connaissances nouvelles utili-
r velocité),
un droit discrétionnaire et spécifique d'opposition à ce
s
6
don,
profilage, en
V.également lesrapportsde
décembre 2017:
Trepublique numérique,
Royaume-
de contrõle du
atoms/files/cnil_rapport_garder_la_main_web.pdf.
12.
V.Antoinette
l'épreuve de la
Documentation
tisce ou
a des
pour objet
conscquences
la prise
affectant les individus de tère personnel sont
des IA est opposé aux
lors que des ani.
utilisees produites oue
ou
do
ouonnées auis'appliq
manicre NIilairc.
individus de que le
Lcprofilage d'une pcrsonneà
des fins de prise de déci- Ces principes
s'appliquent tant a la maniere: rés
sion automatisec
ou produisant des effets juridiques afec- (accumulation de données et phase de
tant de manière sgnificative de façon similaire »" est ainsi
interdit par principe par le RGPD (article 22), assurant la
corrélations), qu'à la phase traitement ur produireeptioden
révéler des informations surd'application (
conceptio
ontinuite avec la directive 95/46/CE et la Loi Informatique
ct libertés. Cette interdiction n'est toutefois pas absolue.
décisions ou autres mesures les
les
personnes
ore
affectant oshdre
lisation po
Des exeeptions s'appliquent ainsi lorsque le traitement est
conditionne la licéité de l'utilisation
rer des connaissances des A Jeur respeddes
nécessaire à la conclusion ou a lexécution d'un contrat individuelles. a géne.
avec la personne concernée, ou dans l'hypothèse d'une 1. La réutilisation des
principes de finalitéonnées par les
autorisation législative"; ou encore lorsque la personne
les
a explicitement (et librement) consenti" au traitement. et
Ces exceptions ne s'appliquent toutefois
un certain nombre de
que moyennant L'usage des données a caractère
minimisation
garanties : la reconnaissance d'un personnel
droit à une intervention humaine, d'un droit de discus- questionne en premier lieu les principes d
n-
e t 1o o
du RGPD, que les
g
oc01C8 ux
a u r
articles
une
que
du
contexte
le respect des
la pses
la pseudonymisation bilitéd'invoquer la présomption de compatibilité possiles
es
particulieres,
d ut r
ailleurs une présor
prévoyant que le trai
RGPD pose par mp tement peut quand même avoir lieu avec le
consentement
b) du
L h t h l,e 1 b ) d u
traitements réalisés a de la personne concernée ou en
mondecompatibilit
natibilité pour
les
conséquence d'une obli-
scientihque
historique ou à des fins gation légales.
he
recherche
tmises en ceuvre les garanties I peut toutefois paraître difficile
lors que
sont
d'exploiter ces possi
l'article 87 du RGPD (dont notam- bilités, soit parce qu'aucun texte ne prévoit le traitement,
dès
s à pour assurer le respe
r é enisation
proprees
prév
du principe soit que les conditions permettant d'obtenir un consen
eminimisau01,
dony
separation
ration fonctionnelle entre la phase tement valide ne sont pas réunies". La solution, en pareil
ation pour asurer le respect du
t i o n e td ' a p p l i c a t i c
cas, sera soit de revoir les conditions du traitement afin
derendre le traitementcompatible (par exemple en assu-
cepto
de
l est donc tentant de faire entrer
en CPUvre dans la phase de conception rantla pseudonymisation les données ou en modifantles
panicipe
d'application de la presomption effets du traitement sur les personnes), soit plus radicale
Tite lechamp ment d'anonymiser les données. Dans tous les cas, l'ana-
champ
ou de
wtraitements à des fhns statistiquesl'usage
dans
de
IA très
s
et ce, d'autant que, lorsque
lyse devra se faire au cas parcas*.Ilya toutefois une
torte incitation à ce que les traitements réalisés a l'aide
che scientifique"
le traitement ultérieur peut repo-
Ompatible, traitement initial
des IA soient effectués à l'aide de données anonymisées
juridique" que le pseudonymisées, notamment dans la
même base c o n s e n t e m e n t dans le sec-
Ou tout au moins
ou
deuxième série de principes
s entintérêtlégitime
mission d'intérêt général
dans phase de conception. Une
assurer la conformité des
d'une lA avec
nrivéetpoursuite le 102 Considerant
du RGPD doit être respectée pour
des données per-
etr Dublic). Toutefois, la législation en matière de protection
esecte
prévenir le biais algorithmique.
sonnelles et en particulier
traitements d'A
de considérer que les des données tondee sur
Sur laposibilité de l'autorité norvégienne de protection de la notion de recNercne
erCne la position
du RGPD invitant à
une interprétation
large
dans sa
rédaction issue de
17:nupsw et libertés
y consioerant intelligence and privacy Report, janvier 2018,P.L'autoritë emet toUrerois
l'article 4, 2)
de la loi
Informatique
cette
interdiction.
synet, Arthcial
et.nolglobalassets/global/english/ai-and-privacy.pdf. 31. décembre
201
reprenant
aeveoppa du 12
les modèles dynamques (se
l'ordonnance
ent 0 consid rant.
la protection des
considérer que diféërencier la phase sur
la possibilité de de Articdle 6, 4) et o' général
SUr donc diffhcile 32.
dans le Reglement
lesquels il est le consentement
ontinue et pour
«
rechercne Debet,
relever de la 33. V.A. Cit.
46 (disponible
n de l'application) puissent être mis en ceuvre que
s Role et
dehnition », 9p.
limitation, 2
avril 2013, WP203, P.
plon peut
traitement ne
données,
on purpose
qu'un e
a intérëtsvitaux og/2003
t GPD prévoit légales suivantes: le consentement, des 34. G29, Opinion
uniquement), p.
21.
interes
la sauvegardedes
des bases
nde sur P'une légale, enhn l'interet
legiime en anglais
défaut en
l'occurrence. Ains1, le ou lne.
»
entraînés) découle tout autant du données non personnelles lesalgorithmes trait Pas
ticle 5, 1), d du RGPD principe d'exactitude, l'ar- lectifs. Il ne
ou
résout pas plus touseffets sociétant de_
imposant, lorsque les conditions du les
raitementl'exigent, la vérification de la qualité des données. problèmes de
ponsabilité pouvant se poser, notamment
Dans le contexte des IA, le
traitement sera considéré responsabilité entre les différents acteurs artage de
le Darta
comme loyal s'il est
possible de démontrer que traitement, sous-traitant et aussi (responsa
programme ar de
rithme fait (exclusivement) ce l'algo- ment au regard de
l'obligation de tenir
qu'il est censéfaire et otam-
ne
reproduit pas les biais présents dans la société0,qu'il cipe de protection dès la conception compte du prin-
nécessité de disposer de La bien que prévue par le RGPD (privacy bu desian
systèmes capables d'auditer les n'impose
algorithmes découle
ainsi directement non seulement de
aux
concepteurs des IA. Une des pistes aucune obligati
à étendre à toutes les LA pourrait consistes
l'application du principe de loyauté, d'exactitude, mais par la certains des
mécanismes pr.
aussi du principe de
responsabilité (accountability) défi-
vus
nées
législation en matière
protection des don. de
nie aux articles 5, 2°) et du RGPD et 24 qui impose
personnelles, comme le
principe de
pouvoir démonter la conformité. D'aucuns opposeront
de
(accountability), la place des
mécanismes responsabilité
de
le phénomène de la « boîte noire »
et de
labélisation, apportant des assurancescertification
évoqué plus haut pour et de d'audibilité
traçabilité destinées notamment à démontrer
considérer qu'un tel audit n'est l'ab
techniquement pas envi-
sageable, les corrélations étant inférées par les IA selon
sence de biais
et des IA.l'efficacité
des règles créées par ces dernières et sans
qu'il soit pos-
sible à l'intelligence humaine de
comprendre le procédé
ayant conduit à l'inférence. Toutefois, il est avancé que
l'évolution de la recherche pourrait permettre de mettre
au point des systèmes d'audits performants et adaptés
aux AI", l'audit ne nécessitant pas nécessairement de
subid'aune
nents
e t les s o c i
és de gestion dactifs ont
DE
du temps, sous
lsion des profonde mutation RISQUE,
uis lemergence des des premiers texte
utions
-
normes
au
début des réglementaires,
DANS
NFORMI TÉ ET
tTABLISSEMEwTS CONTRÓLE
CONTROA
lus
récentes
t-crise. années 1990
ont, en outre,Les exigences en matière ANCIEAS
NNemance
établissement
été structurellement modi- BANQULS,
évol
ons des directives de ASSURANCES,
REGLEMENTATIONS TUROPLENNES
sociTiS
aux
européennes oI
2 pour
les
et entreprises 'investissement...
4 Yedton RAMÇAISES
ite
a n s
A s s e t
M a n a d
européennes
cerne la
gouvernance,. évaluation des
En ce
trateurs
qui
compétences
la prévention des conflits dintérêts
ainsique des admi MARIE-AGNÈS NICOLET
fait
ont rait
n s t e t
dautres
Denouveaux
thèmes ont, parailleurs, intégré le périmètre de
fonction compétences
Conformité (utte contre la corruption, protection des don GOUVERNANCE ET FONCTIONS CLÉS
nées personnelles. DE RISQUE, cONFORMITÉ ET
CONTRÔLE
Cet oUvrage présente les caracteristiques de ces fonctions clés qui consti" DANS LES ETABLISSEMENTS FINANCIERS
Dent le socle des dispositifs de contróle interne et de gestion des risques, BANQUES, ASSURANCES, SOCIÉTÉS DE GESTION
nsi que les nouvelles exigences pour les organes de gouvernance des éta- REGLEMENTATIONS EUROPÉENNES ET FRANÇAISEs
blissements. Marie-agnès NICOLET, 228 pages, 26 ¬, 3 édition
librairie@revue-banque.fr
RR
Ethique et IA: un
droit autre
un
pour
élément essentiel
est un (Re)trouver la confiance. Les experts inters
éthiques
de l'admission
et du développement
se sont lancés dans une épopée qui sera proba
décisive pour le siècle à venir: remporter
enationau,
commne la bataille
de l'IA. Elle est pensée igne de conf
intelligence artificielle
d'une
à côté nombreux sont les rapports et autres
un
instrument de régulation
effet,
qui contribuent à
élever la réflexion et a
armer
éclarati En
ELLER du droit, mais n o u s nions publiques pour raire en sorte que notro les oni.
-
ou en dehors -
Avecelle se dessine aussi une nouvelle mythologie assise valeur, à la subjectivité péjorative, qui correspond à
surle pouvoir statistique devenu substitut des sciences,
le BigData', et les données qui oscillent de l'infiniment Introduction: http:/lijoc.org/index.php/ijoc/article/view/2167/h164.
7. Y.Poullet, La Vie privée à l'heure de la sociétédu numérique, Larcier, 2019.
8. P.K. Dick, Les androides rêvent-ils de moutons électriques 2, Champ libre, 1976.
1. V.Y.N. Harari, Homo Deus. Une brève histoire du futur, Essai, Albin Michel, 2017.
9. l'une des premières alertes est venue du chercheur Nick Bostrom de l'université
2. D.Boullier, Sociolgiedu Mumérique, Paris, Armand Colin, 2016. d'Oxford. Son ouvrage, Superintelligence: Paths, Dangers and Strategy, Oxtford
3. F.Fukuyama, la fin de l'histoire et le dernier homme, Flammarion, 2009. University Press, imagine les conséquences-potentiellement dévastatrices- 'une
ll a été elayé en
4. D. Boyd et K. Crawford, «Critical questions for big data: Provocationsfora intelligence artificielle devenue supérieure à celle des humains.
cultural, technological, and scholarly phenomenon », Information, Communication & 2014 par Elon Musk ou encore Stephen Hawking.
Delamorniere,
Society, 2012, 1s(s), p. 662. 10. Sur les enjeux spécifiques à ce domain, v. N. Weinbaum et M.
5. Le Big Data permettrait de remplacer les théories scientifiques en mettant au jour «Algorithmes en milieu bancaire: une équation à deux inconnusentrepropriete
des patterns que la science ne parvient pas à prouver ni à théoriser: V. C. Anderson, et transparence », Revue Banque n° 176, 2017, p. 23; E. Francis,). Blumenstoc
», Revue bonue
et). Robinson, Quand les algorithmes remplacent banquier
The end oftheory », Wired, 16, 23 juin 2008: http://archive.wired.com/.Adde: «
le
n 818, Dossier « Services Financiers: 'innovation vue d'Afrique », mars2010
M.Graham, « Big data and the end oftheory? », The Guardian, gmars 2012: http://
www.theguardian.com/news/datablog/2012/mar/og/big-data-theory. Les algorithmes deviennent nouveaux
les oraceo
A. BasdevantetJ-P. Mignard, «
et Droit, sept. 201, P.a
V. K. Crawford, K. Miltner et M. Gray,
Critiquing Big Data: Politics, Ethics,
« spé. « Big Data et intelligence artificielle », Banque
Epistemology», International Journal of Communications, 2014, vol. 8, Special Section . Dictionnaire la langue française sous la direction d'Alain Rey,le
historique
Rober,
201
enote ue de l'arbitraire.
a l s
donc
à ce
donc
oie
id eni
Tout est dit! Le ainsi posées
rise IA» frappe les esprits sitifs
h
éthiques
(i.)er au prea
l e o t
qi
e
q u el e Dar
alors que Ors
com-
etil
u
cept. Dès lors,
en moins cette
'intelligence dont il
capacité à exer
s
en
en
h, e r choisir »
tueilir
Biais et Smart Datatransformer .
e dehnitiond
de
àdeux dimensions. Nous pren munauté dedonnées.
a 'IA du Big Data
l adéfinition suivante de l'IA.
ons pour détecter travaile depuis Smart au
données d' et à attenuer
ds
la
depart
et
e d'un omportement intelli,ligent en analysant
en etenpprenant des mesures-avecu
rtain
leur
degré
soultraitement
toutes sortes" risques de et la éré démontré intormatique d'apprentis age
etautdeomatisé du Big que
ptonomne-POur
yatnement
des objectifs
bi ais "
spécifiques Les sys- La qualité (racia les, Data
profdiesscrioinnelminatleiso,ns
t s d'A peuvenit vocaux, iciels, agissant dans le cidoit de la donnée estgenrées,
etre puremen logicio
vorasent
(assistants
logiciels nalyse de etre juste, donc un de
pirtuel
n a d t ev i r t u
dl.parexemple) mais l'TA peut aussi être intégrée vocaledans deset passer du Big Datafiable dans la représentative
s (robots évolués, voitur au Smart durée.Il s'agt
asitysm
ficationsde l'internet
objets, par autonomes, drones Léthique
nauté etla sécurité natives
Data.
é élargie", pour arifier exemple). Cette internationale et, tout (by design) la commu
»
ethinutiona
certains aspects européenne .
Quiestå
A elogie
la fois une discin
hique, condition
«
de la confiance.
La design), dans conception
cadre de respectueuse del'éthique
Puropéenne considere une IA digne de Commis-
le
juridiques, laquelle les (ethic by »
Les lacunes
bias genrés
-
coordonné dans le
domaine de
avril0
Les Arenes, 2010 bra5,
6.CONel,
T. V.P.E
Algorithmes, la
bombe d
S. Clemençon
retardement,
et P.
Waelbroeck,
«
Algorithmes:
DroIT-OCTOBRE
2019
39
BANQUE &
. B o u n i e ,
ORS-SÉRE
qui
international s'impose. Parmi toutes
ces initiatives
principale-
toute atteinte portee, ni nuire aux êtres
es humair
humains 68taver
d'une
nous retiendrons
finissent par se recouper,
quelconque larprotection
autre manière. Cela englobe la
ment celles proposées par
la Commission européenne" humaine ainsi que de
fondamentaux de la dignité l'intégritéme
physique. Les systèmes d'IA et les environnementale
distinguo entre les droits
qui opère un
et
et les principes éthiques. dans lesquels ils évoluent doivent être sûrs et
nents
La prévention de toute atteinte implique égalem
sécur
De
Des droits fondamentaux aux principes éthiques. entla
nombreux droits fondamentaux trouveraient às'appli- prise en compte de l'environnement naturel etddetoUs
t
les êtres vivants.
d'IA. Consacrés par le droit interna-
quer aux systèmes
traités de
tional en matière de droits de l'homme, les Le principe de l'équité. ='équité se caractérise à laf
dans
PUnion etla charte de l'Union, ils sont opposables,
fonda- ma
par un volet matériel et un voletprocédural. Le volet mate-
la plupart des cas, au sein de l'UE". Ces droits veiller à
mentaux se distinguent donc de l'éthique,
et renvoientau riel suppose l'engagement de une répartiti
égale et juste des bénéfices et des coûts, de veiller
et
de la humaine, à la liberté des individus,
au respect dedignité
respect la démocratie, de la justice et de l'état de ceque les individus et les groupes ne fassent pas l'obiet
debiais injustes, de discrimination et de stigmatisation,
droit, à l'égalité, la non-discrimination et la solidarité, L'équité implique, en outre, que les professionnels de
s'articulent avec les
etaux droits des citoyens. Ces droits néanmoins. PIA respectent le principe de proportionnalité entre la
principes éthiques, dont ils se distinguent
fin et les moyens. Le volet de l'équité sup-
procédural
Ancrés dans les droits pose la capacité de contester les décisions prises par
Quatre principes éthiques. des systèmes d'lA et par les êtres humains qui les uti-
fondamentaux, quatre principes éthiques sont présen-
tés comme des impératifs pour assurer le déploiement lisent, ainsi que celled'introduire un recours efficaceà
d'une lA digne de confiance. L'adhésion à ces principes l'encontre de ces décisions. L'entité responsable de la
décision doit pouvoir être identifiée, et le processus de
dépasse le respect formel de règles juridiques existantes prise de décisions devrait pouvoir être expliqué.
et implique un « supplément d'äme». Il s'agit des prin-
cipes suivants: le respect de lautonomie humaine, la
prévention de toute atteinte, l'équité etl'explicabilité28 Le principe de l'explicabilité. Ce principe implique que
les processus doivent être transparents, que les capac
tés et la finalité des systèmes d'lA soient communiques
21. En ce sens, v. Gouvernance de l"'intelligence artifñcielle dans les grandes entreprises, ouvertement, et que les décisions doivent pouvoir ëtre
CIGREF, septembre 2016 expliquées aux personnes directement et indirectement
22. 'Union européenne a réuni s2 experts pour travailler sur l'éthique de l'A: concernées. Ces informations sont indispensables pour
v.Communication de la Commission intitulée« l'intelligenceartificielle pour
PEurope »: https://ec.europa.eu/digital-single-market/en/news/communication pouvoir contester une décision. Dans le cas des algo
artificial-intelligence-europe; Déclaration de coopération sur P'intelligence rithmes à effet « boîte noire », d'autres mesures d'expli
artificielle: https://ec.europa.eu/digital-single-market/en/news/eu-member
cabilité pourraient trouver à s'appliquer: par exempie
states-sign-cooperate-artificial- intelligence); Alliance pour l'A: https://ec.europa.
eu/digital-single-market/en/european-ai-alliance. La France promeut un Groupe la traçabilité, l'auditabilité et la communication trans*
international dexperts en intelligence artificielle (G2IA), sur le modèle du GIEC parente concernant les capacités du système.
(Groupe d'experts intergouvernemental sur P'évolution du climat). Citons enfin le
rapport Donner un sens à l'lA- Pour une stratégie nationale et européenne, mission
parlementaire pilotée par Cédric Villani du 8septembre 2017 au 8mars2018 Acoté des principes éthiques, Paffirmationdevaleurs.
23. V. The Partnership on Al.
Pour parvenir à une IA digne de confiance, la Commis
24. CNIL, « Les enjeux éthiques des algorithmes et de
l'intelligence artificielle », 2017. certain nombre de
valeurs
25. V. Déclaration de Montréal pour un développement sion européenne affirme un
responsable de l'A, 2017: Nous
https://www.declarationmontreal-iaresponsable.com/la-declaration.
26. Communication de la Commission, Renforcer la confiance dans
qui complètent ces quatre principes éthiques". et lc
artificielle axée sur le facteur humain, 8.4.2019
P'intelligence
168 final.
pouvons citer l'exigence d'une action humaine
COM(2019)
27. 1d, p. 13
28. V. Groupe d'experts de haut niveau sur l'intelligence artificielle, «
Lignes directrices
on matière d'éthiaue pour une LA. digne de confance 0
bustesse technique et la sécurite
le umain, vIeprivée
etla c
gOuvernance des données,
non-discriminaees,
la ala Récem.
la diversite,
nsparence tre sociétal et
e d e
environnemolon er
éformnmens
e
l eD i e n - é t r es (
onnemental, et la et les u
droit
relations Kappor tdedu groupe
yuie. tement françai s
cadre de Y'lahypothéconomi
ese qd'uneues estla ve onsabide WAvailte lcvisurle
re
X DE L'ETHIQUE COM
LECHONrDA MME courants serétorme de la régulation deCarter ciplic
ULE AUX DROITS
NPRE
fondements dessinent responsabilite Y'A danmle
tive existants clairement: le recours
civile":» dew
NTAUX DU NUMERIQUE seule,suffiraità de la
la régler la
NDAME
OND rde laesponsabi
robots reconnaissancegrande lité al'un des
majorité des ile otiet
ciw
de l'IA
s technoiogIesde
remis
lifient en permettrait de répondrepersonnalité cas, (mais
profondeur le gence artiicielle,
question dans sa totalement la sans qu'à ce aux enjeuxjurdeidique ax
u i se trouve, en
teurs et ses
straditionnelles du o
iale, ses
concepts
t s'effritent, certaines
es
peu
auparavantconvi
, ction Le stade aucun l'înteli »,
nisme de est tout aussi rapport du n'emporte
ile droitveut nserver son rôle
odémocratie et luvivre ensemble, il im de gar- .ni
a
Sénat, rendu
légard de l1A. du méca- responsabilité réticental'égard
Medne .
rs et les juges
importe que
sissentles bons concer Theure, mmisei s eà e .iPuissque la déontologie.
itndigues
permettront de guider
ons gu' de
in
la l'écart, une autre notion est, pour
tdeurs
invoquée: responsabilité
A
choix
s le de
dans
des solutions
avoircom
qu'o offre
offre
comment rendre
savoir
la
la
regroupe pOur les Bn effet, aurait pu être
technologie. la
déontologie.
s'agit pas
sorte qu'eellenne
lIA bier
s e A bienveil. publiques ou personnes
privées, exerçant déontactivités
ologie
emais de tai
e .
e se qu' elles ontle
substitue pas à aux les
regles certaines
anlen
ral?. Dans cette
qu'agent
règles
devoir de juridiques et morales
rhomme en tant
éthique est un choix blitique, perspec de la
oud'unedéontologie, qui sont variables
manquements respecter".Les
dont fonction
recours à l'éth
questionner bien-fondé en tant que
méthode
à profession àune autre, sont de d'une
provoquer des poursuites
peu Jation
an les limites en
et pointer bien que le nature
termes d'effec-
) . Toutefois, la référence à léthique n'est pas contenu des
sans lien avec règles de disciplinaires. Néanmoins,
les déontologie ne
déontologie a étéenjeux portés par l'IA", le recours pasàla soit
intérêt: dénominateur commun permettant
p o u s
international sur la nécessité de réguler européens au profit de la par les experts expressément écarté
uncons
réthique
estla
la pren exclut la réfërence
première étape d'une marche le tions possibilité de poursuites dans l'leéthique", Cela
à
1Aeetégard, nous pensons qu'elle préfigure vers disciplinaires cadre de sanc-
l'avè teurs de
et manifeste
la volonté des
nementa futurs droits fondamentaux du
nunmérique maintenir le droit à bonne
distance de
régula
reste encore a decouvrir et à écrire (2.). drement de lIA. l'enca
2.
1Léthique, un choix politique Lethique, prélude à
l'émergence
futurs droits fondamentaux des
du numérique
stionner la méthode. Choisir l'éthique, c'est exclure
Questio
toutautre instrument de droit dur, qu'il s'agisse de res- Dépasser l'éthique. L'éthique est une bannière consen-
suelle sous laquelle se
rangent les décideurs et experts
onsabilité ou mëme de déontologie. de la question. Elle constitue
certainement un dénomi-
nateur commun, relativement
peu engageant, à partir
Niresponsabilité... En effet, la régulation de 'lAaurait dugquel la régulation par le droit poura prendre iorme
le canon traditionnel de la régulation de à l'avenir pour densifier l'encadrement de l'A. Mais
Du passer par
touteinteraction sociale, via le concept de la responsa- elle est tout aussi certainement source d'ambiguités,
de par son contenu et l'interprétation qui en résultera.
hlité, qui se décline sous toutes ses formes (délictuele,
la référence
contractuelle, pénale, pour risque, etc.)". Or,
de
ala responsabilité se trouve reléguée rang principe
au
Montréal", pour
teleologique (ainsi la Déclaration de
réforme du droit français de la responsabilité
35. Rapport du groupe de travail sur la
Civile et les relations économiques, avnil 2019:http://www.justice.goUv.rlart_pix
»)
artijficiele
un « développement responsable de l'intelligence Rapport_CA_PARIS_retorme_esponsabilite.chvile.pdt.