Annexes
Prsentation dAllistene
Prsentation de la CERNA
**********************
Prambule
Expert relecteur
Lon Bottou,
Chercheur Facebook AI : Machine learning, artificial intelligence
Introduction
2Deep Blue est un superordinateur spcialis dans le jeu d'checs dvelopp par IBM au dbut des annes 1990.
dIBM a gagn contre le champion du monde dchecs ds 1997. En 2011, Watson3 dIBM
a particip trois manches du jeu tlvis Jeopardy, au terme desquels il a remport la
partie. Alphago4 de Google DeepMind a vaincu en 2016 au jeu de go un des meilleurs
joueurs mondiaux, Lee Sedol.
Les algorithmes d'apprentissage machine sont nombreux et divers. Ils peuvent se classer
en trois grandes catgories selon leur mode dapprentissage supervis, non supervis et
par renforcement.
En apprentissage machine non supervis, aucun expert n'est requis pour annoter les
donnes. L'algorithme dcouvre par lui-mme la structure des donnes, en classant ces
donnes en groupes homognes. Les k-moyennes 7 (k-means, mthode de partitionnement
de donnes ou clustering) et les rseaux de neurones de type carte de Kohonen 8 (mthode
de rduction de dimensions) sont des exemples d'algorithmes d'apprentissage machine
non supervis.
Cette sortie peut tre une simple combinaison linaire des entres
ou la compose dune telle combinaison linaire avec une fonction dactivation (fonction
seuil, fonction sigmode, etc.). Les poids synaptiques w1, w2 de chaque neurone sont
dtermins itrativement au cours de la phase dapprentissage sur les donnes
annotes. Cette capacit des neurones changer ces poids au cours du temps est appele
plasticit crbrale 12.
9Sutton, R.S., 1988, Learning to Predict by the Method of Temporal Differences, Machine Learning, 3, pp. 9-44
10Watkins, C.J.C.H. & Dayan, P., Q-learning, Mach Learn (1992) 8 : 279
11Data-scientist au sein de lquipe de lAdministrateur Gnral des Donnes, https://agd.data.gouv.fr/
12 Hebb, D.O., The Organization of Behavior, New-York, Wiley and Sons, 1949.
Le premier rseau, le Perceptron de Rosenblatt, datant des annes 50 na quune couche.
Certains systmes, tel le Perceptron multicouche, empilent plusieurs couches de
neurones formels afin de pouvoir reconnatre une forme comme par exemple une image
- sans pour autant infrer les concepts humains ni la logique les articulant. Une couche
peut comporter des milliers de neurones, et donc des millions de paramtres. Entre la
couche d'entre et la couche de sortie, le rseau peut comporter plusieurs dizaines de
couches dites caches. Les systmes dapprentissage profond (deep learning)13 sont des
rseaux de neurones comprenant un grand nombre de couches.
La phase d'apprentissage dtermine les valeurs des poids synaptiques partir d'un
chantillon de donnes de trs grande taille (jusqu' des millions). Dans lalgorithme
dapprentissage supervis de rtro-propagation du gradient14, l'cart entre les sorties
attendues et les sorties constates est diminu pas pas (descente de gradient) en
modifiant les paramtres, de la sortie vers les premires couches (rtro-propagation),
jusqu' obtenir un minimum local (le minimum absolu est difficilement atteignable). La
valeur initiale des poids synaptiques est parfois tire au hasard, elle peut aussi tre
dtermine par un algorithme d'apprentissage non supervis.
Figure 2 : Le perceptron multicouche avec ici une couche cache (Michel Blancard)
13Y. LeCun, Y. Bengio et G. Hinton, (2015) Deep learning , Nature, vol. 521, no 7553, 2015, p. 436444
(PMID 26017442, DOI 10.1038/nature14539
14Rumelhart, David E.,Hinton, Geoffrey E., Williams, Ronald J. (8 October 1986). "Learning
representations by back-propagating errors". Nature, vol. 323 n 6088, p. 533536
15Yann LeCun, Chaire Informatique et Sciences numriques Collge de France/Inria, 2015-2016,
https://www.college-de-france.fr/site/yann-lecun/
cadre mathmatique de la descente de gradient justifie ces mthodes, mais n'assure pas
la russite de l'apprentissage (des thormes de convergence n'existent que dans des cas
trs simples) et ces algorithmes demandent un grand nombre ditrations pour
converger empiriquement vers une solution acceptable. Les succs rcents de ces
mthodes doivent beaucoup l'augmentation de la puissance de calcul des machines et
au grand nombre de donnes disponibles.
L'architecture (type de neurones, choix des connexions) doit tre adapte au domaine
d'application. Il existe diffrentes architectures de systmes de deep learning, par
exemple les rseaux rcurrents ou convolutifs et des approches complexes combinant
plusieurs systmes de deep learning.
Par exemple, le systme AlphaGo dvelopp par Google Deep Mind est une combinaison
de recherche arborescente Monte Carlo et de Deep Learning. Un rseau profond est
entran sur des parties de joueurs humains de haut niveau afin de prvoir leurs coups.
Ce rseau atteint un niveau de 3e Dan et amliore son jeu laide dapprentissage par
renforcement en jouant 30 millions de parties contre lui mme. Il utilise alors les
rsultats de ces parties pour entraner un autre rseau qui apprend valuer des
positions. La recherche arborescente Monte Carlo utilise le premier rseau pour
slectionner les coups intressants et le second rseau pour valuer les positions. Serge
Abiteboul et Tristan Cazenave prcisent la typologie des rseaux profonds dAlphaGo et
le principe de Monte-Carlo dans le bulletin de la SIF 2016 17 : Les rseaux utiliss pour
AlphaGo sont par exemple composs de 13 couches et de 128 256 plans de
caractristiques. Pour les spcialistes : ils sont convolutionnels , avec des filtres de taille
3 3, et utilisent le langage Torch, bas sur le langage Lua () Le principe de la recherche
Monte-Carlo est de faire des statistiques sur les coups possibles partir de parties joues
alatoirement. En fait, les parties ne sont pas compltement alatoires et dcident des
coups avec des probabilits qui dpendent dune forme, du contexte du coup (disposition
des pierres sur le goban). Tous les tats rencontrs lors des parties alatoires sont
mmoriss et les statistiques sur les coups jous dans les tats sont aussi mmorises. Cela
permet lorsquon revient sur un tat dj visit de choisir les coups qui ont les meilleures
statistiques. AlphaGo combine lapprentissage profond avec la recherche Monte-Carlo de
deux faons. Tout dabord il utilise le premier rseau, qui prvoit les coups, pour essayer en
premier ces coups lors des parties alatoires. Ensuite il utilise le second rseau, qui value
les positions, pour corriger les statistiques qui proviennent des parties alatoires.
16" Convolutional Neural Networks (LeNet) DeepLearning 0.1 documentation " sur DeepLearning 0.1,
LISA Lab
17"Go : Une belle victoire... des informaticiens !", Serge Abiteboul, Tristan Cazenave. Bulletin n 8 de la SIF
2016
Le champ de recherche de lapprentissage profond reprsente une part importante des
articles parus dans les revues de rfrence en apprentissage automatique. Yann LeCun a
donn un cours sur ce sujet dans le cadre de la chaire annuelle Informatique et
sciences numriques du Collge de France.
Les traces que nous laissons travers nos consultations sur Internet et travers les
objets auxquels nous sommes connects sont exploites par des algorithmes
d'apprentissage afin de mieux cerner nos prfrences de consommation, notre mode de
vie et nos opinions. Par rapport aux simples statistiques, ces algorithmes ont ou
peuvent avoir la capacit de fournir des prescriptions individuelles. Ainsi lorsque nous
naviguons sur Internet et achetons des gadgets connects, nous ne pensons pas que
notre sillage numrique peut entraner des algorithmes nous catgoriser pour
conditionner le montant de nos primes dassurance ou conduire des prescriptions
dhygine de vie. La conformit, la transparence, la loyaut, l'quit des algorithmes
d'apprentissage sous-jacents apparaissent ici comme une exigence.
II.2 Les agents conversationnels (bots)
Les deux exemples suivants, traits dans l'avis de la CERNA thique de la recherche en
robotique de la CERNA (2014)19, sont ici brivement voqus du point de vue de
l'apprentissage machine.
18http://www.lemonde.fr/pixels/article/2017/04/15/quand-l-intelligence-artificielle-reproduit-le-
sexisme-et-le-racisme-des-humains_5111646_4408996.html
19https://hal.inria.fr/ALLISTENE-CERNA/hal-01086579v1, 2014
20 Par exemple http://www.lexpress.fr/actualite/monde/amerique-nord/premier-accident-mortel-
pour-une-voiture-tesla-en-pilote-automatique_1808054.html et http://www.lefigaro.fr/secteur/high-
tech/2016/03/01/32001-20160301ARTFIG00118-la-google-car-provoque-son-premier-accident-de-la-
route.php
III. Questions thiques
Les thories thiques traditionnelles trouvent une illustration nouvelle dans le
numrique et lapprentissage machine. Les dilemmes lis aux voitures autonomes en
sont une illustration abondamment commente 21. De faon caricaturale, un vhicule
autonome qui se trouverait choisir entre sacrifier son jeune passager, ou deux enfants
imprudents, ou un vieux cycliste en rgle, pourrait tre programm selon une thique de
la vertu d'Aristote ici l'abngation - s'il sacrifie le passager, selon une thique dontique
de respect du code de la route s'il sacrifie les enfants, et selon une thique
consquentialiste s'il sacrifie le cycliste ici en minimisant le nombre d'annes de vie
perdues.
Le propos n'est pas ici de traiter de telles questions qui relvent de la socit toute
entire, mais d'tudier l'attention du chercheur, dans le cas de l'apprentissage
machine, certaines proprits particulires que doit satisfaire le comportement d'un
dispositif numrique.
Pour tout systme numrique, il faut viser satisfaire les proprits prsentes en III.1.
Les systmes d'apprentissage machine prsentent des spcificits voques en III.2 qui
entrent en tension avec ces proprits gnrales.
21 Jean-Franois Bonnefon, Azim Shariff2, Iyad Rahwan, The social dilemma of autonomous vehicles,
Science 24 Jun 2016
La conformit : Un systme numrique doit demeurer conforme son cahier des
charges, et son cahier des charges doit tre conforme la lgislation. La
conformit d'un systme son cahier des charges signifie que le systme est
conu pour effectuer des tches spcifies en respectant les contraintes
explicites dans ce cahier. Les spcifications du cahier des charges formalisent
souvent une interprtation restrictive de la loi, dfaut de pouvoir traduire les
finesses de cette dernire. La conformit doit tre vrifie avant que le systme
soit utilis, en analysant son code et ses donnes. Par exemple, la conformit
inclut le respect des rgles de protection des donnes personnelles pour un
systme danalyse de donnes ou le respect du code de la route pour la voiture
autonome.
22 Un joueur humain de go peut galement ne pas tre capable dexpliquer un coup. Dans le cas des jeux,
ce manque dexplicabilit est acceptable.
23 Human Attention in Visual Question Answering : Do Humans and Deep Networks Look at the Same
Regions? Abhishek Das, Harsh Agrawal, C. Lawrence Zitnick, Devi Parikh,Batra, 2016 ICML Workshop
on Human Interpretability in Machine Learning (WHI 2016), New York, arXiv :1606.03556
matire de crdit scoring, comme la taille du demandeur). Le mode de recueil des
donnes utilises pour lapprentissage nest pas toujours facile reprer.
Ces spcificits, qui sont autant de points de vigilance pour le chercheur, sont la
contrepartie de l'ampleur des possibilits offertes par l'apprentissage machine. Elles
ouvrent le champ de nouvelles recherches qui permettront dans de nombreux secteurs
de dvelopper des systmes destins tre plus srs que ne le sont les humains, tres
apprenants qui eux aussi faillissent et se trompent.
Lquit est difficile spcifier. Elle ncessite une apprciation humaine. Elle peut mettre
en uvre des donnes sur les personnes selon des critres empreints de subjectivit ou
conflictuels. Selon les cultures, elle peut par exemple viser prioritairement l'galit ou la
rcompense des mrites (la notion d'galit des chances illustre la complexit). Sur le
plan individuel, si l'quit consiste servir chacun au mieux de ses aspirations, un robot
doit-il faire plaisir une personne ge en lui servant un whisky, puis un deuxime,
mme si cela nest pas bon pour sa sant ? [DON-2].
La loi peut interdire lutilisation de certaines variables comme l'ethnie, le sexe, lge, la
religion pour classer des individus, afin par exemple de leur accorder ou pas certains
services personnaliss. Pourtant, un algorithme peut parfois reconstruire les valeurs de
telles variables, et ensuite prendre des dcisions fondes sur ces valeurs [DON-3].
26 http://www.huffingtonpost.fr/2015/07/02/logciel-reconnaissance-faciale-google-confond-afro-
americains-gorilles_n_7711592.html
27 http://europa.eu/rapid/press-release_IP-16-2532_fr.htm
-dire en cours dutilisation du systme. Pour vrifier labsence de biais, ils doivent
sappuyer sur des outils de mesure qui restent encore dvelopper.
[DON-4] Traces
Le chercheur doit veiller la traabilit de l'apprentissage machine et prvoir des
protocoles cet effet. Les traces sont elles-mmes des donnes qui doivent ce titre faire
lobjet dune attention sur le plan thique.
Expliquer un algorithme est faire comprendre ses utilisateurs ce qu'il fait, avec assez
de dtails et d'arguments pour emporter leur confiance. Cette tche est difficile mme
dans le cas d'un algorithme dpourvu de capacit d'apprentissage, comme l'illustre le
dbat autour de l'algorithme d'admission post-bac APB 30. En outre il convient de
distinguer preuve et explication : ainsi Gilles Dowek donne l'exemple simple de la
multiplication de 12345679 par 36, dont le seul calcul du rsultat (444444444)
n'explique pas aux yeux d'un esprit mathmatique pourquoi ce rsultat ne comporte que
des 4.
Pour qu'un algorithme soit explicable, ses principes doivent tre suffisamment
documents pour tre comprhensibles par l'ensemble des usagers, avec la mdiation
ventuelle d'experts ; le passage de l'algorithme au code puis l'excution du programme
doivent tre formellement vrifis, ce qui est affaire de spcialistes. En fin de comptes,
l'explicabilit d'un algorithme repose sur des mthodes rigoureuses mais aussi sur un
corpus de connaissances non formalises partages entre les humains.
Lvaluation des machines apprenantes est un sujet scientifique largement ouvert. Avec
un programme classique, la vrification du code est dj un problme extrmement
compliqu. Pour un systme apprenant, la tche est mouvante puisque des erreurs, des
biais, des comportements inacceptables peuvent surgir dans le temps, comme cela a t
illustr dans le cas de lapprentissage profond. Une grande difficult est de trouver des
critres mesurables, et des chantillons tests de situations garantissant un
fonctionnement correct dans l'ensemble des situations dexploitation. Quand le
dispositif apprend en continu en cours d'exploitation, la difficult est accrue par le fait
qu'en milieu ouvert, des situations imprvues, aux consquences elles-mmes
imprvisibles peuvent tre rencontres.
32 http://www.darpa.mil/program/explainable-artificial-intelligence
tre tests en mme temps sur une mme batterie de tests non dvoils l'avance, ce qui
est difficilement ralisable. Enfin le risque est gros que les machines soient conues pour
satisfaire aux tests. L'actualit de dbut 2016 - dans un contexte beaucoup plus simple
concernant le paramtrage par les constructeurs automobiles des moteurs en vue des
tests de pollution - alimente cette rserve. Le plan stratgique en recherche et
dveloppement en intelligence artificielle de la Maison Blanche 33 prconise pour sa part
une panoplie de mesures bases sur des infrastructures ouvertes de dveloppement, de
test et dvaluation, comprenant la collecte et louverture de donnes publiques massives
et denvironnements logiciels.
[EXP-1] Explicabilit
Le chercheur doit sinterroger sur la non-interprtabilit ou le manque dexplicabilit des
actions dun systme informatique apprenant. Le compromis entre performance et
explicabilit doit tre apprci en fonction de lusage et doit tre explicit dans la
documentation lusage de lentraneur et de lutilisateur.
Depuis le systme expert mdical Mycin des annes 1970, des dispositifs d'aide la
dcision existent dans de nombreux domaines, dont le secteur rgalien du droit et celui
vital de la sant. La question de la place accorder dans le processus de dcision aux
propositions fournies par la machine se pose de plus en plus. Les dcisions graves,
comme condamner une personne la prison, sont encore prises par des tres humains.
Mais une multitude de dcisions aux consquences moindres (condamner un
automobiliste une amende, accorder ou refuser un prt la consommation, etc.) sont
dj prises par des algorithmes. Une personne humaine responsable demeure encore
associe toutes les dcisions, ouvrant la possibilit de faire un recours, mais la
tendance est clairement l'automatisation.
Les dcisions des machines peuvent savrer plus sres et moins biaises que celles des
humains et de leurs humeurs. Dans certains cas la rapidit de dcision des machines
peut mme savrer dterminante. La dmarche thique nest pas de se priver de tels
avantages, mais de prendre conscience que, dune part lapprentissage est de nature
rintroduire de linscurit et des biais, et dautre part ces avantages sont articuler
avec la perception quen a lhumain - un patient pourrait mieux accepter une erreur de
son mdecin que dune machine. La difficult pour lhumain de contester la dcision de
la machine en ne restituant pas la part discrtionnaire prsente dans la plupart des
Dans les deux cas se pose la question de la capacit des personnes accomplir des actes
et rendre compte de ceux-ci.
[DEC-1] Place de lhumain dans les dcisions assistes par des machines
apprenantes
Le chercheur, concepteur de machines apprenantes daide la dcision, doit veiller ce
quaucun biais ne produise un rsultat qui devienne automatiquement une dcision alors
que lintervention humaine tait prvue par la spcification du systme, et prendra garde
aux risques de dpendance de lhumain aux dcisions de la machine.
[DEC-2] Place de lhumain dans lexplication des dcisions assistes par des
machines apprenantes
Le chercheur doit veiller ce que les rsultats du systme soient autant que possible
interprtables et explicables pour les personnes concernes, simpliquer dans les
ncessaires volutions des mtiers en faisant usage et dans lencadrement des pratiques.
34 https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3#Article22
Des agents experts contribueront lexplication et la vrification des comportements du
systme.
Nous consentons aujourd'hui ce que des donnes sur notre comportement soient
captes par des objets connects (de l'ordinateur au robot) afin de nous rendre des
services. Ces services dpendent parfois de paramtres volutifs calculs par
apprentissage sur de grandes quantits de donnes de nature diverse, selon des finalits
qui peuvent ne pas tre explicites. Il est possible que le concepteur lui-mme msestime
l'impact de son application sur l'environnement numrique global. Limpossibilit
dinformer lutilisateur de faon sre ou prcise sur les finalits est due la donne
technique et algorithmique, et plus concrtement, au fait que lapprentissage peut
rsulter en des configurations du systme que le concepteur ne pouvaient pressentir.
Cette situation est nouvelle par rapport au cas du consentement pour un usage ou un
type d'usage spcifique.
A titre d'exemple, lutilisation dun agent conversationnel qui sadapte par apprentissage
aux habitudes des utilisateurs illustre comment un tel systme peut rtroagir de faon
implicite sur le comportement de ces utilisateurs. Il peut par exemple imiter la parole de
lutilisateur jusqu rpter ses tics verbaux, ce qui risque de perturber linteraction. Il
est ncessaire que les usagers aient expliciter un consentent utiliser des machines
qui ont la possibilit dadaptation et soient vigilants sur des comportements non
souhaitables de la machine. Pour des personnes fragiles (personnes ges, enfants)
notamment, il convient dviter la perturbation par une machine dont le comportements
volue significativement sans que lutilisateur soit mis au courant de cette possibilit.
Les usagers devraient avoir la possibilit de se servir ou non de la fonction
dapprentissage et de contrler au moins globalement les donnes que la machine utilise
en apprenant : les leurs, celles collectes sur le rseau ou toutes donnes disponibles
[CON-1].
Au niveau des groupes, des sociologues et philosophes tudient l'impact au travail d'un
environnement d'intelligence artificielle, notamment en matire de mrite et
d'valuation des performances35. Derrire les vertus facilitatrices de certains dispositifs,
peut se dployer de manire sous-jacente une normativit prenant la forme d'un
paternalisme technologique aux multiples visages: ainsi, les environnements
d'intelligence artificielle peuvent alerter, recommander, rappeler l'ordre, bloquer,
interdire, voire influencer. Il s'agit alors de penser les effets potentiels de la technologie
sur les capacits et l'autonomie des individus, notamment en considrant les possibilits
d'improvisation et de spontanit36.
35N. Daniels, Merit and Meritocracy , Philosophy and Public Affairs, Vol. 7, No. 3, 1978, pp. 207-208 :
Merit is construed as ability plus effort .
36O. McLeod, Desert , in Stanford Encyclopedia of Philosophy, First published Tue May 14, 2002,
substantive revision Wed Nov 12, 2008, p. 2, http://plato.stanford.edu/entries/desert/.
donnes prcdemment prleves sur elle soient effaces peut devenir illusoires dans
la mesure o ses donnes ont aliment par apprentissage l'volution de paramtres
censs capter des comportements collectifs.
Plus gnralement, il s'agit ainsi dinformer lusager pour quil participe de faon
claire la transformation de la socit, tout en sachant que dans de telles situations
complexes, le consentement ne se fonde pas seulement sur la comprhension
rationnelle, mais aussi sur la confiance et, pour une application informatique, la curiosit
de lutilisateur, qui peut tre attise par une volont de sduction de la part du
concepteur.
Le chercheur doit dlibrer ds la conception de son projet avec les personnes ou les
groupes identifis comme pouvant tre influencs, afin que le projet au stade futur
dutilisation puisse recueillir le consentement des parties concernes [CON-2]. Cette
prconisation rejoint une recommandation gnrale de la CERNA sur la conduite de
projet [GEN-7].
Il s'agit plus largement d'tre conscient que l'apprentissage machine contribue
dplacer le consentement du niveau individuel de l'usage de ses donnes personnelles,
un niveau collectif du consentement ce que des systmes informatiques puissent servir
orienter la socit partir d'observations globales de cette socit. Des recherches
dans ce domaine pourraient conduire des dispositifs nouveaux concernant
l'apprentissage machine [CON-3].
[CON-1] Choix des usagers dactiver ou non les capacits d'apprentissage d'un
systme
Le chercheur doit crer la possibilit d'utilisation de systmes avec ou sans leur capacit
dapprentissage. Il doit donner lutilisateur au moins un paramtre de contrle global sur
la source des donnes utilises pour lapprentissage.
37 European Parliament. Directorate-General for Internal Policies Policy. Department C : Citizens Rights
and Constitutional Affairs. Legal Affairs. European Civil Law Rules in Robotics. Rsolution du 12 janvier
2017.
La difficult dimputabilit dune action dcide par un systme informatique conduit
distinguer plusieurs figures de responsabilit de lagent humain, limite ou partage :
Au niveau international
En Europe
L'European Data Protection Supervisor (EDPS) a cr fin 2015 l'Ethics Advisory Group53
sur l'impact des innovations numriques dans la socit et l'conomie. Le parlement
europen a vot en fvrier 2017 un texte dorientation sur le droit civil en robotique 54. Le
document de base comporte un Code conduite thique pour les ingnieurs en robotique et
un Code de dontologie pour les comits dthique de la recherche. La commission
europenne a organis, selon sa stratgie de Digital Single Market, une consultation
publique incluant les questions de transparence des moteurs de recherche ainsi que
lutilisation des donnes collectes entre autres sur les plate-formes, qui a donn lieu
un retour public en janvier 201655. On peut citer quelques lments qui en ressortent : la
rgulation en vigueur ne rpond pas aux questions de responsabilit introduites par les
technologies relatives au Big data et aux objets connects ; la crainte sur la transparence
des plate-formes ; les situations dhgmonie commerciales et de dynamique de march
etc.
En France
51 http://www.nytimes.com/2016/09/02/technology/artificial-intelligence-ethics.html
52 https://www.partnershiponai.org/
53https://secure.edps.europa.eu/EDPSWEB/edps/EDPS/Ethics
54http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+REPORT+A8-2017-
0005+0+DOC+PDF+V0//EN
55https://ec.europa.eu/digital-single-market/news/first-brief-results-public-consultation-regulatory-
environment-platforms-online-intermediaries
56 http://www.economie.gouv.fr/deuxieme-conference-numerique-franco-allemande-a-berlin
57 https://cnnumerique.fr/wp-
content/uploads/2014/06/CNNum_Rapport_Neutralite_des_plateformes.pdf
pour une Rpublique numrique58. Le Conseil dEtat dans son tude sur Le numrique et
les droits fondamentaux59 en 2014 pose la question sur les prdictions dont sont capables
les algorithmes dapprentissage machine en recommandant de mieux encadrer
lutilisation dalgorithmes prdictifs lgard des individus . La loi Rpublique numrique
confie la CNIL l'animation des questions thiques et socitales souleves par le
numrique : un dbat national sur l'thique des algorithmes a t lanc le 23 janvier
201760. Rcemment, le Conseil Gnral de l'conomie, missionn par le secrtariat dtat
lconomie numrique, a organis une consultation dexperts sur la rgulation des
algorithmes de traitement des contenus. Des prconisations ont t formules en vue de
vrifier la conformit aux lois et rglements dont la dtection de discrimination illicite.
Ces travaux ont dbouch sur la cration dune plate-forme scientifique collaborative
nationale TransAlgo 61 pour le dveloppement de la transparence et de la
responsabilit des algorithmes et des donnes. Le CNNum a rejoint linitiative
TransAlgo dans sa dmarche nationale dvaluation des plate-formes qui a fait lobjet
de sa mission dbut dcembre 201662 .
VI. Conclusion
58 https://cnnumerique.fr/plateformes/
59 http://www.ladocumentationfrancaise.fr/rapports-publics/144000541/
60 https://www.cnil.fr/fr/ethique-et-numerique-les-algorithmes-en-debat-0
61http://www.economie.gouv.fr/files/files/PDF/Inria_Plateforme_TransAlgo2016-12vf.pdf
62http://www.economie.gouv.fr/cge/modalites-regulation-des-algorithmes-traitement-des-contenus
63 http://www.senat.fr/presse/cp20170329.html
64 http://www.economie.gouv.fr/France-IA-intelligence-artificielle
Cette dynamique est propice une Initiative nationale fdrative de recherche sur
limpact socital et thique des sciences et technologies du numrique [GEN-11]
afin de
crer des synergies pour capitaliser sur les diffrents travaux et les enrichir ;
encourager le dialogue entre la recherche et la socit ;
construire une parole franaise suffisamment forte pour entraner une
dynamique europenne ;
mettre des prconisations de formation tous niveaux ;
valoriser lengagement des chercheurs dans ces directions interdisciplinaires.
La structuration pourrait reposer sur un rseau danimation, associant parts gales des
spcialistes des sciences et technologies du numrique et des spcialistes des sciences
humaines et sociales.
[GEN-10] Veille des chercheurs sur la qualit des plate-formes et des logiciels
dapprentissage machine en accs ouvert
Le chercheur contribuera la veille sur la qualit des plate-formes et des logiciels
d'apprentissage machine mis la disposition du public, et la sensibilisation aux risques de
mise en uvre non matrise travers certaines applications.
[GEN-8] Documentation
Le chercheur veillera documenter lobjet ou le systme conu et en exposer les capacits
et les limites. Il sera attentif aux retours dexprience tous les niveaux, du dveloppeur
lutilisateur.
[GEN-10] Veille des chercheurs sur la qualit des plate-formes et des logiciels
dapprentissage machine en accs ouvert
Le chercheur contribuera la veille sur la qualit des plate-formes et des logiciels
d'apprentissage machine mis la disposition du public, et la sensibilisation aux risques de
mise en uvre non matrise travers certaines applications.
4-[DON-4] Traces
Le chercheur doit veiller la traabilit de l'apprentissage machine et prvoir des
protocoles cet effet. Les traces sont elles-mmes des donnes qui doivent ce titre faire
lobjet dune attention sur le plan thique.
7-[EXP-1] Explicabilit
Le chercheur doit sinterroger sur la non-interprtabilit ou le manque dexplicabilit des
actions dun systme informatique apprenant. Le compromis entre performance et
explicabilit doit tre apprci en fonction de lusage et doit tre explicit dans la
documentation lusage de lentraneur et de lutilisateur.
11-[DEC-2] Place de lhumain dans lexplication des dcisions assistes par des
machines apprenantes
Le chercheur doit veiller ce que les rsultats du systme soient autant que possible
interprtables et explicables pour les personnes concernes, simpliquer dans les
ncessaires volutions des mtiers en faisant usage et dans lencadrement des pratiques.
Des agents experts contribueront lexplication et la vrification des comportements du
systme.
12-[CON-1] Choix des usagers dactiver ou non les capacits d'apprentissage d'un
systme
Le chercheur doit crer la possibilit d'utilisation de systmes avec ou sans leur capacit
dapprentissage. Il doit donner lutilisateur au moins un paramtre de contrle global sur
la source des donnes utilises pour lapprentissage.
ANNEXES
Prsentation dAllistene
En favorisant la recherche et les innovations dans le domaine du numrique, Allistene,
lalliance des sciences et technologies du numrique, accompagne les mutations
conomiques et sociales lies la diffusion des technologies numriques. Lalliance a
pour but dassurer une coordination des diffrents acteurs de la recherche dans les
sciences et technologies du numrique, afin dlaborer un programme cohrent et
ambitieux de recherche et de dveloppement technologique. Elle permet didentifier des
priorits scientifiques et technologiques communes et de renforcer les partenariats
entre les oprateurs publics (universits, coles, instituts), tout en crant de nouvelles
synergies avec les entreprises. Cre en dcembre 2009, Allistene regroupe en tant que
membres fondateurs la CDEFI, le CEA, le CNRS, la CPU, Inria et lInstitut Mines Tlcom.
Ses membres associs sont lINRA, lINRETS et lONERA.
Prsentation de la CERNA
Ses avis sont consultatifs, ils peuvent tre rendus publics sous le contrle conjoint des
prsidents de la CERNA et dAllistene, aprs consultation de lalliance. Ils doivent traiter
de questions gnrales et participer dune analyse de fond pouvant rendre compte de la
diversit des changes et des opinions de ses membres, tout en dgageant clairement
des conclusions.
La CERNA ne traite pas les questions oprationnelles dthique et de dontologie, qui
relvent de la responsabilit des acteurs et de leurs tablissements.