Vous êtes sur la page 1sur 37

Restitution des échanges

Table des matières
PREAMBULE..................................................................................................................................................... 4
INTRODUCTION............................................................................................................................................... 6

Regards d’Experts.....................................................................................7

Aïda El AMRANI RAOULT................................................................................................................................ 8
Benoît FAVRE................................................................................................................................................. 12
Rubin SFADJ................................................................................................................................................... 15
Laurence ALLARD.......................................................................................................................................... 18
Jean-Michel LIVOWSKY................................................................................................................................ 22

Table Ronde...............................................................................................25

Remerciements............................................................................................................................................... 31
ANNEXES....................................................................................................................................................... 33
Sondage du Public......................................................................................................................................... 34
Programme..................................................................................................................................................... 36
4/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

PREAMBULE
Le LICA lance un cycle de rendez-vous "Ethic&Tech" L’éthique des algorithmes au cœur des projets de
pour questionner l'éthique des technologies qui société
transforment et transformeront notre quotidien. Ce La numérisation de nos vies dans le cyberespace et
premier Opus intitulé "Vers une IA bienveillante ?" a pour leur appropriation par des entreprises privées et
objectif de poser un cadre et un vocabulaire commun institutions publiques apportent des changements
sur ce que sont les intelligences artifcielles et leurs sociétaux importants dont les externalités positives sont
implications. La particularité des évènements du LICA évidentes sur le plan pratique au quotidien - tandis que
réside dans l'expérimentation et l'implémentation de les externalités négatives seraient l'émergence d'une
méthodes d'intelligence collective facilitant l'émergence nouvelle ère de "refroidissement social" ("social cooling")
des idées et des projets. Elle permet un changement et de "blanchissement par les mathématiques" ("math
progressif de la façon dont nous pouvons débattre d'un washing") des discriminations sociales .[4] Aux États-Unis,
sujet collectivement. ce déploiement généralisé des algorithmes a incité la
Consultation publique sur l’éthique et les algorithmes Maison Blanche à publier en mai 2016, un rapport sur le
En 2017, la Commission National de l’Informatique et « Big data : les systèmes algorithmiques, opportunités et
des Libertés (CNIL) a lancé une consultation publique droits civils »[5] soulignant des risques et opportunités
sur l’éthique et les algorithmes dans le cadre de la loi dans les domaines juridique, bancaire, de l’éducation et
« république numérique »[1]. Le LICA a répondu présent enfn de l’emploi. 27 millions de dollars de fonds
en organisant le 6 octobre 2017 à Marseille l’événement publiques et privés ont ainsi été alloués au sujet
: « Vers une Intelligence Artifcielle bienveillante ? » afn spécifque de l’éthique de l’intelligence artifcielle (IA)
d’engager le débat. La CNIL a depuis publié son [6], .En Chine, le gouvernement envisage, à l'horizon
rapport en décembre 2017 intitulé : « Comment 2020, d'évaluer ses citoyens par un indice de
permettre à l’homme de garder la main ? Les enjeux "confance" dans le cadre d'un système ludique de
éthiques des algorithmes et de l’intelligence artifcielle ». "crédit social". En Europe, l'année 2018 est celle de la
[2] mise en place d'un règlement général sur la protection
des données (RGPD), texte de référence en matière de
Le LICA a choisi de traiter le sujet en sollicitant le
protection des données à caractère personnel.
regard croisé d’experts issus de diférentes disciplines :
Aïda RAOULT, philosophe du numérique, Benoît FAVRE, Des changements importants et en profondeur
enseignant-chercheur en informatique fondamentale , Au-delà des spéculations sur une IA « forte »
Rubin SFADJ, avocat en droit du numérique et de la programmant la fn de l’espèce humaine, les enjeux

fnance des barreaux de Marseille et de New-York et autour des algorithmes s’immisçant dans la société

Laurence ALLARD, sociologue sur les usages du contemporaine soulignent un certain nombre de

numérique . Le LICA a également fait appel à un questions et de dérives. Très brièvement, ces enjeux

spécialiste de la protection des données, Jean-Michel portent sur :

LIVOWSKY, du cabinet DPO Avocats. Le public, • le besoin de transparence sur l'utilisation des
composé de citoyens impliqués, a été convié à partager algorithmes dans l'espace public et privé,
son opinion sur le sujet, en direct ou numériquement, • les questions autour de la protection des données et
selon la méthode des Six Chapeaux de De Bono[3]. Tout l'anonymat des personnes,
au long de cet après-midi d'échanges et de réfexions, • les droits et devoirs des algorithmes « intelligents » et
les personnes présentes et les internautes étaient invités de leurs concepteurs,
à faire part de leurs questions, réfexions et remarques • la né ce ssi té d’u ne c onnai ssa nce e t d' u ne
de manière interactive via les réseaux sociaux afn appropriation du sujet par la population,
d’interagir avec les experts. • le besoin de concertations et de débats publiques.
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 5/37

L’IA et les technologies du numérique impulsent des L’automatisation c’est la disparité des échelles de
changements stratégiques et opérationnels dans les temps : les institutions politiques humaines mettent des
organisations, les entreprises et les industries… Selon le mois à prendre des décisions et encore autant à les
McKinsey Global Institute, il s’agit d’une révolution de la appliquer dans le meilleur des cas alors que, le trading
productivité dans le monde du travail : de 45 à 50% des haute fréquence des marchés fnanciers réalisent tous les
heures travaillées seraient ainsi déjà automatisables en jours des opérations à la milliseconde et pour des
France [7], au Royaume-Uni et aux Etats-Unis [8]. En lien montants de plusieurs milliards de dollars.
avec l’automatisation et la mutation des métiers, le Si les technologies donnent parfois le sentiment de
périmètre d’intervention de l’école est à redéfnir. Si les dynamiter la société, les opportunités sont toutes aussi
machines nous afranchissent de certaines tâches, un nombreuses : les tâches réalisées par les robots
certain nombre de diplômes risquent de devenir diminuent les risques d’erreurs, les avancées dans les
obsolètes et d’autres compétences vont émerger.[9] domaines technologiques adjacents à l’IA sont
Entre utopie et dystopie démultipliées et les possibilités de résoudre des
problèmes multiples et complexes feurissent.
Ces transitions nous renvoient à notre rapport au travail,
à la résilience économique de notre société,et à nos Pour le LICA, c’est le moment de réhabiliter les utopies.
modes de vie. Il s’agit alors de transformer ces Si les technologies du numérique et les algorithmes
importants changements économiques et socio- d’intelligence artifcielle vont être partie intégrante de
professionnels en opportunités, et notamment de nos quotidiens, il est opportun de se pencher ensemble
repenser la place de l’humain au travail. Si les tâches au sur ce qu’ils doivent réaliser dans notre intérêt. Nous
travail deviennent en partie automatisables, il est pourrions ainsi laisser aux ordinateurs la gestion du
envisageable de se préparer collectivement à une temps court afn que les humains puissent se
période de transition où le nombre d’emplois rémunérés réapproprier le temps de la réfexion, notamment sur les
risque de diminuer progressivement. C’est dans ce sens impératifs de développement durable et de respect du
que Bernard Stiegler expérimente à Plaine Commune un vivant. En s’investissant sur les réfexions autour de
«territoire-pilote » sur les questions relatives à l’avenir du l’éthique des technologies,, le LICA cherche à enrichir le
travail, de l'économie contributive, de l’urbanisation, de débat, à croiser les diférentes disciplines
l’éducation et de la recherche dans le contexte de la technologiques et humaines, à rapprocher les experts et
transformation numérique.[10] . les faire dialoguer sur la place publique pour restaurer la
place de l'humain.

[1] https://www.economie.gouv.fr/republique-numerique
[2] https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de
[3] Edward de Bono : « Les six chapeaux de la réfexion. » Editions Eyrolles.
[4] https://socialcooling.fr/ & https://www.mathwashing.com
[5] Ofce of the President: “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights”. May 2016.
[6] “Ethics and Governance of Artifcial Intelligence Fund”
[7] McKinsey Global Institut, «10 enjeux cruciaux pour la France à l'horizon 2022,» 1 Avril 2017 :
https://www.mckinsey.com/france/our-insights/10-enjeux-cruciaux-pour-la-france-a-lhorizon-2022/fr-fr
[8] McKinsey Global Institut, «A future that works: automation, employment, and productivity» McKinsey Global Institut, Washington,
2017.
[9] https://atelier.bnpparibas/life-work/article/metiers-issus-bots
[10] http://francestrategie1727.fr/wp-content/uploads/2016/02/projet-plaine-commune-10.03-bernard-stiegler.pdf
6/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

INTRODUCTION

Le LICA ? le désir de voir ses bons côtés. Pas que ses bons côtés,
Le Laboratoire d’Intelligence Collective et Artifcielle mais d’abord ses bons côtés.
(LICA) est une association créée en août 2017 du besoin Exercices de bienveillance : pour la muscler commencez
de s’organiser et de travailler ensemble pour construire par ce qui vous agace peu, les jours où vous êtes de
des futurs souhaitables. Ce besoin porte sur la nécessité bonne humeur. Puis augmenter la difculté. Le sommet
de se préparer collectivement autour des grands serait la bienveillance même quand vous êtes très agacé
changements sociétaux qui s’opèrent avec la révolution et pas très en forme. Personnellement, je n’y suis jamais
numérique, la mondialisation et les changements arrivé: je me contente alors du silence et de l’écoute. »
climatiques. Les futurs qui se trament impactent déjà nos Christophe André.
modes de vie, de travail et de consommation. Le LICA
L'intelligence Artifcielle ?
est engagé pour orienter de manière plus horizontale et
plus inclusive la transformation sociétale au service de « C'est un ensemble de théories, logiciels, algorithmes
l’humain et du vivant. qui ont pour objectif de simuler les capacités cognitives
Le LICA se veut un laboratoire en mode Recherche de l'Homme. IA forte est une IA avec des émotions, une
Action afn d’ajuster et d’adapter nos modes d’opération conscience, une intentionnalité, » Laurence Devillers,
aux territoires et aux personnes qui y vivent. Professeure à l'université Paris-Sorbonne et chercheuse
au Laboratoire d'informatique pour la mécanique et les
La Bienveillance ? sciences de l'ingénieur:

« C’est voir le bien chez les autres et aussi vouloir leur « C'est une discipline scientifque qui a pour projet de
bien. C’est porter sur le monde un regard amical : ne simuler l'ensemble des fonctions cognitives. Cela repose
jamais perdre de vue ce qu’il y a de bon, de fragile, de sur un postulat que l'intelligence peut se décomposer en
touchant chez les humains. Ne pas s’arrêter à ce qui fonctions cognitives élémentaires si élémentaires que l'on
agace ou ce qui déçoit, mais aller au-delà. La puisse les reproduire sur un ordinateur. », Bertrand
bienveillance, c’est le regard qui transperce la carapace Braunschweig, directeur de recherche INRIA Saclay
des mauvaises manières et des sales habitudes, des L'Algorithme est un ensemble de séquences
défenses et des provocations, pour aller au coeur des d’opérations. Il s’agit d’une suite fnie et non ambiguë
autres et de leur fragilité. Elle déblaye les oripeaux de la d’opérations ou d’instructions permettant, à l’aide
soufrance ou des croyances dont les humains s’afublent d’entrées, de résoudre un problème ou d’obtenir un
pour paraître forts ou malins. La bienveillance est une résultat, ces sorties étant réalisées selon un certain
décision existentielle : celle de s’avancer vers la vie avec rendement.
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 7/37

Regards
d’Experts

Aïda El AMRANI RAOULT
#Philosophie
Page 8

Benoit FAVRE
#Informatique fondamentale
Page 12

Rubin SFADJ
#Juridique
Page 15

Laurence ALLARD
#Sociologie
Page 18

Jean-Michel LIVOWSKY
#DPO
Page 22
8/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Aïda El AMRANI RAOULT
Institut Jean Nicod, ENS
Doctorante en philosophie
Recherche en philosophie et intelligence artificielle

Une brève histoire de l'IA changements de façon à maîtriser leurs conséquences.
Parmi les questions soulevées : quelle décision doit
En 1950, Alan Turing expliquait l'importance de
prendre un véhicule autonome lorsqu’une collision est
l'apprentissage dans le développement de l'intelligence
inévitable ? doit-il favoriser la solution qui résultera en un
artifcielle. Aujourd'hui, de nombreuses techniques
minimum de dégâts ? comment mesurer l’ampleur des
d'apprentissage profond sur de très vastes ensembles de
conséquences lorsque des vies humaines sont en jeu ?
données permettent à nos artefacts de dépasser des
doit-on interdire les armes autonomes afn de se
capacités humaines sur des tâches variées.
prémunir de nouvelles formes de guerres ? et bien sûr,
ils ont également soulevé des problèmes liés à la vie
privée : les intelligences artifcielles ont accès à de
nombreuses données sur nous, dont elles se servent
notamment pour nous soumettre à des publicités ciblées.
Où placer la barrière de l’information qu’elles sont
autorisées à traiter ? Alors que la liste de questions
Par exemple, on peut citer la victoire d'un algorithme au s’étend, nous observons qu’elles opèrent sur une
jeu de go[1], un jeu de stratégie dont la complexité démarche commune. Elles débutent par le constat de
dépasse largement celle des échecs. On retrouve nouvelles possibilités se proflant à l’horizon et
également des intelligences artifcielles qui excellent aux l’identifcation de dérives radicales dans certains de ces
tests de QI, au poker, capables d’imiter les Beatles[2] ou futurs, ce qui amène à se demander :
Shakespeare[3]. La liste des tâches que ces algorithmes 1. Quel est l’avenir que l’on souhaite ?
parviennent à accomplir s'accroît chaque jour. 2. Quelles règles faudrait-il formuler pour l’atteindre ?
3. Dans quelle mesure est-il possible de faire respecter
Future of life institute & Lettre Ouverte
ces règles ? (ce qui peut renvoyer à une étape
Alertés par la croissance rapide de ces avancées
précédente)
technologiques, un groupe de chercheurs et d'ingénieurs
A mon sens, on peut observer les efets préjudiciables
fondent en 2014 le Future of Life Institute, dédié à
ou avantageux de l'intelligence artifcielle sur deux plans
l'étude des grands enjeux de demain, parmi lesquels
complémentaires. Tout d'abord, on peut observer les
l'intelligence artifcielle fgure en tête de liste. En janvier
efets directs à travers les interactions homme-machine -
2015, cet institut organise une conférence sur le futur de
par exemple, lorsqu'il est question :
l'intelligence artifcielle à laquelle ont participé d'éminents
• de laisser des véhicules autonomes circuler librement
chercheurs en IA, physique, économie, droit, éthique. A
sur les routes,
cette occasion, ils ont rédigé une lettre ouverte [4]
• de confer des enfants ou des personnes âgées à
(traduite en français à la fn de l'article) sur les priorités de
des robots humanoïdes spécialisés,
recherche pour une IA robuste et bénéfque, signée
• de commercialiser des robots de service sexuel,
entre autres par Stephen Hawking, le célèbre physicien
• ou encore de développer des machines de guerre
spécialiste des trous noirs et Elon Musk, cofondateur de
intelligentes.
Paypal et Tesla. L’enjeu était d’attirer l’attention de tous
Quasiment tous les aspects de la vie en société sont
sur les changements que l’IA pourra apporter dans nos
concernés par les applications de l'intelligence artifcielle.
vies et une invitation à réféchir et anticiper ces
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 9/37

Aujourd'hui, nous sommes amenés à réféchir au rôle et à Révolution scientifque et utilitarisme classique
la place que nous allons accorder à ces artefacts. Afn de mieux comprendre où nous nous situons
Mais on compte également certains efets indirects, plus aujourd'hui, il est nécessaire de retracer brièvement
subtils, liés à l'émergence d'un nouveau pouvoir. Ceux-ci l'histoire des développements éthique et moraux dans
sont davantage liés à la maîtrise de l'utilisation des notre société. En efet, les avancées scientifques et
nouvelles technologies. Les nombreux systèmes auxquels technologiques ont toujours été accompagnées d'une
nous sommes déjà exposés, comme les restructuration de la façon dont les philosophes
recommandations automatiques ou la publicité ciblée, ont abordaient l'éthique.
des fonctionnements plutôt opaques.
Observer les changements
Le fait d'étudier l'intelligence artifcielle et de se tenir
informé des évolutions du secteur permet de déduire les
mécanismes mis à l’œuvre et d'être ainsi davantage
maître de ces outils. De simples réfexes, comme la
navigation privée, ou d’efacer certains cookies, modifent
activement l'expérience de navigation.
La révolution scientifque a été accompagnée de
Par ailleurs, tout le monde n'a pas accès aux mêmes
profondes remises en question de notre conception du
technologies puisqu'elles ont un coût. On assiste à une
monde et de notre accès à la réalité donnant naissance
amplifcation signifcative de l'inégalité technologique qui
à la méthode scientifque qui est encore de rigueur
correspond à une forme d'inégalité sociale. Ces
aujourd'hui dans une forme superfciellement rafnée. A
nouveaux outils sont certes puissants, mais avant tout
cette époque, le débat éthique et moral connait une
pour ceux qui peuvent ou savent les utiliser à bon nouvelle formulation calquée sur le modèle des sciences
escient. L'éducation technologique est donc une empiriques; à savoir l'utilitarisme qu'on associe au
nécessité prioritaire, notamment lorsqu’il s'agit de philosophe anglais Jeremy Bentham dont la doctrine est
prendre des décisions sur la construction de la société de maximiser le bonheur du plus grand nombre.
de demain. Lorsque ces questions d'ordre technologique En pratique la
prendront la place centrale du débat politique dans nos faiblesse de ce
sociétés démocratiques, il sera nécessaire que la modèle s'illustre
population soit sufsamment éduquée à ce sujet afn par le problème du
d'être en mesure de prendre des décisions pertinentes. Il tramway. Un train
faudrait donc, par exemple, développer des indicateurs avance à toute
précis afn de mesurer les écarts technologiques. A la allure vers une
façon d'un PIB, ces indicateurs auraient leurs limites et intersection de voies ferrées. Face à lui, 5 personnes
leurs imperfections mais ils fourniraient au moins un sont immobilisées sur les rails, condamnées à un destin
support pour suivre l'évolution de ce phénomène. tragique. Sur l’autre chemin ferré de l’intersection qui se
Maintenant que nous avons identifé les diférents présente au train, une seule personne est immobilisée sur
canaux par lesquels observer l'apparition des les rails. Vous vous situez face à un levier, si vous
changements impliqués par l'intelligence artifcielle, il est l’actionnez, la trajectoire du train sera déviée et une
temps d'aborder la question du jour à savoir celle de la seule personne sera sacrifée au lieu de 5. Choisissez-
bienveillance. Valeur morale empreinte de vertu, la vous d’actionner le levier afn de ne sacrifer qu'une seule
bienveillance semble difcile voire impossible à défnir vie ? Et s'il s'agit de 5 adultes criminels d'un côté et d'un
objectivement. enfant innocent de l'autre est-ce que votre réponse va
rester la même ? Les variations sont nombreuses et elles
10/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

révèlent la difculté que nous avons à attribuer une valeur Luciano Floridi, professeur de philosophie, a développé
universelle à une quelconque existence, ce qui rend la théorie de l'infosphère nous décrivant comme des
impossible les comparaisons. entités informationnelles évoluant dans un monde
informationnel. Il ne s'agit pas directement d'une réponse
Popper et utilitarisme négatif
à Bentham ou à Popper.
Au 20e siècle, suite aux révélations de la physique
relativiste et plus particulièrement suite à ses
contradictions avec la physique quantique, le paradigme
scientifque connaît un nouveau retournement : le
postmodernisme. Il s'agit en fait d'aller contre les
intuitions et le bon sens qui sont communément admis
par la méthode scientifque qui s'est avérée insufsante.
En revanche c'est un nouveau cadre qui permet de
Une fois de plus cette démarche aura des conséquences
repenser ces problèmes en utilisant les dernières
sur notre conception éthique et morale. L’épistémologue avancées mathématiques et plus particulièrement de
Karl Popper propose une alternative à la doctrine de l'informatique fondamentale. L'informatique pourra-t-elle
Bentham, celle de « l'utilitarisme négatif », dont l’objectif fournir le cadre philosophique le plus pertinent pour
n’est pas de maximiser le bonheur du plus grand monde, approcher les questions qu'elle soulève ? Le débat reste
mais de minimiser la soufrance. encore ouvert en philosophie.
En conclusion, les avancées rapides de l'intelligence
artifcielle nous amènent à réféchir aux conséquences
directes ou indirectes qu'elles peuvent avoir sur notre
mode de vie et dont les implications sont lourdes de
conséquences. D'après notre évolution historique, nous
avons pu observer que ce type de changements
scientifques et technologiques avait des impacts
politiques et moraux.
Age de l'information – Infosphère
A l'aune des derniers développements en science et en
Un nouveau paradigme émergeant se base quant à lui
éthique, quel regard voulons-nous porter sur l'avenir ?
sur la théorie de l'information de Shannon. Depuis 1999,

[1] https://fr.wikipedia.org/wiki/Match_AlphaGo_-_Lee_Sedol
[2]Une chanson composée par une intelligence artifcielle dans le style des Beattles : https://youtu.be/LSHZ_b05W7o
[3] http://shakespearebot.co/
[4] https://futureofife.org/ai-open-letter/
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 11/37

TRADUCTION DE LA LETTRE OUVERTE DU FUTUR OF LIFE INSTITUTE
POUR UNE INTELLIGENCE ARTIFICIELLE ROBUSTE ET AVANTAGEUSE

La recherche en Intelligence Artifcielle (IA) a exploré civilisation a à ofrir est le produit de l’intelligence
une variété de problèmes et d’approches depuis sa humaine, nous ne pouvons pas prédire ce que nous
conception mais, depuis les 20 dernières années environ, pourrions réaliser quand cette intelligence sera magnifée
elle s’est focalisée sur les problèmes entourant la par ce que les outils de l’IA pourraient fournir, mais
construction d’agents intelligents – des systèmes qui l’éradication de la maladie et la pauvreté ne sont pas
perçoivent et agissent dans certains environnements. inimaginables. A cause du grand potentiel de l’IA, il est
Dans ce contexte, l’« intelligence » est reliée aux notions important de rechercher comment récolter ses bénéfces
statistiques et économiques de la rationalité – plus tout en évitant ses pièges.
familièrement, la capacité à prendre des bonnes Le progrès de la recherche IA fait que c’est le bon
décisions, plans ou conclusions. L’adoption de moment de se focaliser non seulement sur la réalisation
représentation probabiliste et de théories de la décision d’une IA plus capable, mais aussi sur la maximisation d’un
et les méthodes d’apprentissage statistiques a mené à un bénéfce social de l’IA. De telles considérations ont
large degré d’intégration et de fécondité croisée entre motivé panel présidentiel AAAI 2008-09 sur les futurs IA
IA, apprentissage automatique, statistiques, théorie du à long terme et les autres projets sur les impacts de l’IA,
contrôle, neurosciences et autres domaines. et constituent une expansion signifcative du champ de
L’établissement d’une théorie partagée de cadre de l’IA en tant que tel, qui jusqu’à maintenant a largement
travail, combiné avec la disponibilité des données et la focalisé sur des techniques neutres. Nous
puissance de calculs, ont apportés des succès recommandons une recherche étendue visant à assurer
remarquables dans les diférentes tâches telles que la que les systèmes d’IA soient robustes et bénéfques : nos
reconnaissance vocale, la classifcation d’images, les systèmes d’IA doivent faire ce que nous voulons qu’ils
véhicules autonomes, les traductions automatiques, fassent. Le document attaché des priorités de la
l'apprentissage de la marche et les systèmes de recherche[1] donne de nombreux exemples de telles
questions-réponses. directions de recherche qui peuvent aider à maximiser le
Les possibilités dans ses champs et autres vont de la bénéfce sociétal de l’IA. Cette approche est par
recherche en laboratoire à des technologies nécessité interdisciplinaire, car elle implique à la fois la
économiquement viables, un cercle vertueux s’installe société et l’IA. Cela va de l’économie, le droit, la
tandis que même de petites améliorations dans la philosophie et la sécurité informatique, les méthodes
performance valent de grandes sommes d’argent, formelles et, bien entendu, les diférentes branches de
générant de plus grands investissements dans la l’IA elle-même.
recherche. Pour conclure, nous pensons que la recherche pour
Il y a maintenant un large consensus que la recherche faire des systèmes d’IA robustes et bénéfques est à la
en IA progresse constamment et que son impact sur la fois importante et temporellement adéquate, et qu’il y a
société est probablement en augmentation. Les des directions concrètes de recherche qui peuvent être
bénéfces potentiels sont immenses, car tout ce que la engagées aujourd’hui.

[1] https://futureofife.org/data/documents/research_priorities.pdf?x57718
12/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Benoît FAVRE
Chercheur en traitement automatique du langage
naturel
Maître de Conférence au Laboratoire d’Informatique
Fondamentale à Aix-Marseille Université
Il est intéressant d'évoquer le cas de la singularité*. De • Quel est l'impact de ces algorithmes sur la société?
plus en plus, la technologie actuelle permet de faire Par exemple, le fait d'avoir un téléphone ou une
travailler les intelligences artifcielles pour qu'elles oreillette qui est capable de traduire, dans n'importe
deviennent de plus en plus « intelligentes », mais il est quelle langue et en temps réel, va prendre le travail des
difcile d'afrmer qu'on a réussi à créer une IA capable traducteurs ?
de faire aussi bien que l'être humain : c'est-à-dire d'être Ce sont des questions qu'il est important de se poser
aussi autonome qu'un humain pour résoudre n'importe en ce moment, avant la singularité.
quel problème donné. Une fois qu'une intelligence générale autonome aura
* La singularité technologique ou la singularité est émergée, si jamais un jour elle émerge, alors les
l'hypothèse que l'invention de l'intelligence artifcielle questions seront vraiment beaucoup plus
déclencherait un emballement de la croissance philosophiques :
technologique qui induirait des changements • Quel va être le statut de cette intelligence face à
imprévisibles sur la société humaine. l'homme ?
• Est-ce que l'on doit vraiment la considérer comme
Certes, les IA actuelles ont réussi à battre les humains
un pair ?
dans certains jeux (jeux d'échecs, jeux de go, jeux
• Est-ce qu'on peut lui donner des droits ou des
vidéos...) ou encore, certaines IA vont pouvoir traduire un
devoirs ?
texte de manière aussi eface qu'un humain. Mais pour le
L'intelligence artifcielle est un domaine qui existe depuis
moment aucune IA n'est aussi efcace qu'un humain,
très longtemps en informatique et dont le début a
voire supérieur à un humain, dans tous les domaines.
commencé avec Alan Turing. Depuis le départ, l'objectif
L'avènement d'une IA de ce type est ce qu'on appelle la
primaire des ordinateurs c'est d'être capable de faire tout
singularité.
ce que font les humains. La méthode qui fonctionnait le
Quand on réféchit à l'éthique de l'intelligence artifcielle, mieux au début c'était d'essayer de réféchir à la façon
il faut se positionner par rapport à la singularité. dont un humain résolvait un problème et de reproduire le
L'intelligence artifcielle telle qu'on la défnit aujourd'hui, raisonnement à l'identique. Par conséquent, cela
c'est-à-dire toutes les technologies qui sont associées à consistait à réféchir à chacune des étapes - à l'instar
l'IA et que l'on va retrouver dans les produits et services, d'une recette de cuisine pour résoudre un problème -
se situe actuellement avant la singularité. puis de répliquer ces étapes dans un ordinateur pour
Si vous regardez les annonces des nouveaux produits qu'il puisse aussi résoudre le problème. Avec le système
Google, tout ce qui est lié à l'IA est devenu le facteur expert, un algorithme permet de calculer un plus court
premier de vente. Maintenant on ne vous vend plus un chemin pour aller d'un point A à un point B.
téléphone, on vous vend une intelligence artifcielle dans Il y a une limite aux systèmes experts avec certaines
une boîte qui sert aussi de téléphone. C'est devenu une classes de problèmes qui sont très difciles à résoudre
promesse et c'est un peu ce qu'attendent les gens. par les algorithmes. Par exemple, si vous avez la carte de
En ce qui me concerne, je pense que les questions que toutes les villes du monde et que vous devez trouver le
les gens doivent se poser sont les suivantes : plus court chemin qui permet de voyager par toutes les
• Est-ce que l'homme maîtrise vraiment ce que génèrent villes. Ce type de problème est très difcile à résoudre
ces algorithmes ? pour un ordinateur : c’est ce qu'on appelle le problème
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 13/37

du voyageur de commerce. Il y a aussi certains types de règles du jeu sont établies. L'ordinateur peut faire autant
problème pour lesquels on ne sait même pas comment de partie que nécessaire pour essayer de découvrir tout
écrire un algorithme. Par exemple, pour écrire un ce qu'il y a à découvrir. En revanche, si on met un robot
programme qui lit un fchier audio, un enregistrement, afn dans la vie réelle, cela ne marche pas.
d'en faire une transcription de ce que vous avez dit ou Un champ de recherche aujourd’hui est d'essayer de
essayer de faire comprendre. Pendant des années des faire l'apprentissage des choses comme dans le monde
chercheurs ont essayé d'écrire cet algorithme, mais la réel - où un robot va, par exemple, se retrouver dans le
solution n’a pas été trouvée pour décrire complètement feu et se brûler. C’est une expérimentation que l’on ne
« la recette de cuisine » qui permet de le faire. peut pas efectuer trop souvent car cela coûte cher. On
Aujourd’hui, pour résoudre ce type de problème, on va donc essayer de faire des simulations dans lesquelles
utilise des algorithmes qui apprennent par eux-mêmes. le programme informatique reproduit le monde réel et
C'est ce qu'on appelle l'apprentissage automatique. Le autorise le robot à tester plein de confgurations sans
principe est de donner un ensemble d'exemples à que cela ne coûte. Dans le monde physique on sait à
l'ordinateur, avec les solutions qu'il doit trouver ce qui va peu près bien faire ce type de simulations. En revanche,
lui permettre d'apprendre le cheminement. Cela lui il est difcile de faire avoir une conversation avec une
permet de passer d'une observation à la solution et c'est personne, de manipuler le langage ou bien d'avoir un
l'ordinateur lui-même qui va découvrir cette solution. échange qui exploite l'intelligence humaine, ce sont des
C'est ce qu'on appelle l'apprentissage et c'est la manière choses qu'on ne sait pas encore réaliser avec une IA à
dont le « deep learning » fonctionne. l'heure actuelle. C'est vraiment une barrière majeure qu'il
Parmi les méthodes par apprentissage, vous avez la y aurait à franchir pour arriver à la singularité.
méthode d'apprentissage par supervision: c'est un Face au développement des algorithmes d’IA plusieurs
apprentissage où le résultat d’un calcul est explicité. Une problèmes se posent. Le premier est l’interprétation des
autre méthode est faire de l'apprentissage par modèles. Sommes-nous en capacité d'interpréter et
renforcement : dans ce cas, on ne va pas explicitement d’expliquer ce que fait l'ordinateur? Est-ce de la magie
dire à l'ordinateur comment faire, il va un peu explorer quand on fait de l'apprentissage, notamment avec le
par lui-même et va déduire, pour une action donnée, deep learning ? Plusieurs chercheurs critiquent le deep
quel sera le gain pour l'objectif fnal recherché. A partir learning en expliquant que ce sont des mauvaises
de là il fera une estimation de ce gain et apprendre à méthodes car leurs résultats sont souvent inexplicables.
partir de ça. Alphago, l'ordinateur qui a gagné au go, a Dans son article « The Mythos of Model Interpretability »,
combiné ces deux techniques d'apprentissage. le chercheur Zachary Lipton pose la question suivante [1]
Beaucoup d'experts en IA pensent que la combinaison : est-ce que l'on sait interpréter ce que font ces
de ces deux techniques permettra de faire de grandes méthodes de deep learning et les méthodes alternatives?
avancées en intelligence artifcielle. Ce chercheur s'est aperçu qu'en fait il était aussi difcile
Un des problèmes de ces techniques est qu’elles ne d'interpréter les modèles linéaires - des modèles pour
sont pas du tout efcaces du fait du très grand nombre lesquels on est capable de dire ce que fait l'ordinateur
d'exemples qu'elles nécessitent. Imaginez un enfant qui en fonction des données d'entrée. Si un humain fait
veut toucher un feu et risque de se brûler. Si vous lui quelque chose, est-on pour autant capable d'interpréter
dîtes "attention, tu vas te brûler !", soit il vous écoute et ses actions? Si vous faîtes une action totalement
ne touche pas le feu – soit il touche le feu, se brûle et arbitraire, est-on capable de l'interpréter? On ne connaît
enlève sa main. L'enfant va comprendre en une fois et pas très bien le fonctionnement du cerveau, encore
apprend de cette manière. L'ordinateur va devoir répéter moins bien que le fonctionnement des algorithmes. Nous
l’opération des milliers de fois avant de comprendre. Il ne sommes pas forcément en mesure d'interpréter nos
en découle qu'il y a plein de problèmes sur lesquels on propres actions, est-il vraiment nécessaire de pouvoir
ne peut pas utiliser ce type de technique. Cela interpréter tous ces modèles et algorithmes?
fonctionne bien pour les jeux comme le Go et les jeux
vidéos, parce qu'on sait faire des simulateurs et que les
14/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

l'environnement dans lequel ils évoluent pour faire
échouer ces algorithmes à reconnaître un panneau
« Stop » ou un arbre sur le bord de la route. Il suft par
exemple d’ajouter des bouts de scotchs noirs ou blancs
sur un panneau Stop comme l’illustre la fgure ci-contre.

Un autre problème se pose lorsque l'on va entraîner un
système informatique à faire quelque chose: est-ce qu'il
va toujours correctement réaliser la tâche pour laquelle il
a été conçu? Il y a tout un pan de la recherche qui
essaye de faire échouer les prédictions des algorithmes.
Les auteurs de l'article « Robust Physical World Arracks
Ce type de défaillance pose la question des limites des
on Deep Learning Models » [2] ont montré qu’il est
approches actuelles. Comment peut-on essayer de
possible de faire échouer les systèmes qui équipent les
contrôler ces limites? Est-il nécessaire de contrôler un
voitures autonomes ou qui équiperont celles de demain.
peu ce qui se passe dans les algorithmes d'IA? Est-on
Ces systèmes apprennent, par exemple, à reconnaître un
capable de dire que l'on est sur la bonne voie si on
panneau « Stop » dans la rue et à s'arrêter face à ce
arrive à comprendre ce que les algorithmes sont en train
panneau. Il suft de faire des modifcations minimes sur
de faire ?

[1] http://zacklipton.com/media/papers/mythos_model_interpretability_lipton2016.pdf
[2] http://techpolicylab.org/wp-content/uploads/2017/12/Robust-Physical-World-Attacks-on-Deep-Learning-Modules.pdf
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 15/37

Rubin SFADJ
Avocat du droit du numérique et de la finance
Membre des barreaux de New York et de Marseille
Co-fondateur de la proposition 47

« Vers une intelligence artifcielle bienveillante ? » : Un de bien fonctionner, parce que personne ne porte
sujet juridique plainte, etc. Il existe plusieurs algorithmes de ce type, il y

Le sujet « Vers une intelligence artifcielle a une dizaine de sociétés qui font ça.

bienveillante ? » est en lui-même, à mon sens, un sujet Scandale : ces algorithmes-là sont racistes. À casier
juridique. Ça ne veut pas dire que l'angle juridique est judiciaire égal, les noirs ont des risques de récidive plus
évidemment le seul. Ça veut dire que l'idée de se élevés, les latinos un peu moins mais ce n’est pas génial.
demander « comment ? » ou « est-ce que l'intelligence Les blancs ça va, c’est même le contraire ! Les blancs
artifcielle, ou n'importe quelle technologie, peut devenir ont un risque de récidive qui est sous-évalué par les
ou doit devenir bienveillante ? » ; c’est-à-dire « comment algorithmes, même en dépit de 2 ou 3 histoires dans
est-ce qu'on sait si une technologie agit pour le bien ? » — leurs casiers judiciaires. Ça pose problème…
et bien entendu que s’il y a du bien c’est-à-dire qu'il y a Deuxième cas, en France depuis quelques mois, un
aussi du mal —, c’est déjà une réfexion juridique. On est fchier est mis en place pour stocker les données
bien sûr dans une réfexion éthique, mais on est d'abord biométriques de l’ensemble de la population française.
dans une réfexion juridique parce qu’avant de pouvoir C’est-à-dire que quand vous irez chercher votre carte
répondre à la question, on établit qu'il y a un bien et un d’identité, on va prendre vos empreintes digitales, votre
mal. Il en découle qu'il y a une règle, et qu'on se pose la photo, votre adresse email – choses que l’on ne faisait
question de savoir comment elle peut s'appliquer à pas avant. L’empreinte digitale on ne le faisait pas, sauf
l'intelligence artifcielle. pour les passeports, et il y a une foule de données que

Quelques exemples d'utilisation d'IA l’on ne collectait pas avant. Le problème c’est que ce
fchier, à priori, ne sert qu’aux identifcations, mais dans la
Avant de rentrer dans le cœur du sujet je vais faire une
foulée de celui-là, un autre décret a été pris pour
minute de chapeau noir [1]. On va parler de risques et
autoriser des traitements sur ce fchier sur l’origine des
de vigilances. Voici des exemples de réfexion éthique
gens, etc. Quand vous prenez le nom de quelqu'un, le
sur l’IA : deux qui sont déjà arrivés et un qui va arriver.
nom de son père et de sa mère, sa date et son lieu de
En droit pénal, aux États-Unis, il y a une phase de
naissance et celles des parents, et sans trop se casser la
condamnation et une phase de prononcé de la peine. Et
tête on peut remonter les origines. Des algos d’IA vont
depuis quelques années, dans de nombreux Etats
donc servir à ça.
américains, des sociétés ont décidé d’utiliser les
Troisième exemple : vous avez tous entendu parler de la
algorithmes à base d’intelligence artifcielle pour attribuer
bulle d’information suite à l’élection de Donald Trump aux
aux gens qui sont condamnés une note, en fonction de
USA et suite aux élections françaises. C’est l’idée selon
leur casier, de leur personnalité, et plusieurs choses pour
laquelle il y a eu tellement d’histoires de « fake news »
évaluer leurs risques de récidive. Le but est bienveillant :
pendant les dernières années, que ce n’est pas vraiment
réduire la peine pour les gens qui ont peu de chances
normal que les réseaux sociaux relaient des informations
de récidive. On a remis cette étude à chaque juge avant
sans jamais en vérifer la véracité. Donc il y a un efort qui
les sentences en précisant : « vous n’êtes pas obligé de
est demandé — à Facebook et à Twitter notamment —
suivre cette sentence, c’est purement indicatif, mais voilà
pour détecter les fausses informations et en ralentir la
le résultat de l’étude de l’IA ». Il en résulte que les juges
difusion. De prime abord c’est génial. Mais s’il avère que
ont commencé à suivre cet outil – parce qu’ils ont
si je ne peux pas difuser un article, ça pose problème.
beaucoup de gens à juger par jour, parce que ça a l’air
16/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Donc il se fait jour, depuis maintenant un an-et-demi, éthique. Comment est-ce qu’on implémente une éthique
deux ans, le besoin d’une éthique de l’IA. de l’IA dans une entreprise ou, encore plus difcile, dans
Une éthique « by design » un État ?
On l’implémente dès la conception, sinon ça ne marche
Alors l’éthique de l’IA c’est trompeur. Tant que nous ne
pas. Si vous faites venir, une fois que vous avez le
sommes pas dans la singularité, et jusqu’à preuve du
meilleur algorithme du monde, quelqu’un comme moi qui
contraire nous n’y sommes pas encore, l’éthique ne
dit « mais attendez, chapeau noir ! Il y a des problèmes
s’applique pas aux machines mais aux personnes. Donc
et des risques ! » personne ne l’écoute, tout le monde
l’éthique de l’IA, c’est celle de ceux qui utilisent l’IA. Elle
s’en fout. Il faut implémenter ça dans une logique
s’applique d’abord à ceux qui utilisent l’IA dans le cadre
aristotélicienne et se demander : « qu’est-ce que je suis
de leur service : aux « Fintech », c’est-à-dire aux
en train de faire ? » et la méthode des chapeaux de De
technologies pour les services fnanciers, et aux États
Bono est excellente pour ça. C’est ce que j’appelle une
parce qu'ils utilisent de plus en plus de l’IA pour les
« éthique by design », dès la conception et non pas
domaines de la souveraineté.
après, comme le règlement européen sur la protection
Donc, il y a ce besoin-là de développer une éthique de
des données impose la sécurité des systèmes « by
l’IA. Alors comment fait-on pour développer une éthique
design », la « privacy » ou protection des données « by
de l’IA ? Question : est-ce que le droit existant ne
design ». Il faut ajouter, il faudra ajouter l’« éthique by
s’occupe pas déjà de ça ? Réponse : ça dépend de ce
design ». Pas simplement sécuriser les systèmes, pas
que l’on appelle éthique et de ce que l’on appelle IA. Si
simplement protéger les données : dès la conception de
vous me dites « l’IA c’est du traitement de données » et
votre système, réféchir à quelle charte éthique vous vous
si vous me dites que l’éthique c’est de la réglementation,
imposez et à ce que vous ne vous laisserez pas faire. Et
alors oui ça existe. Aujourd’hui le traitement de données
c’est du droit aussi : l’éthique c’est du droit, du droit en
en France est réglementé, et le prochain règlement
plus exigeant. Donc, il faut sensibiliser les entreprises et
européen GDPR [2] (General Data Protection
ce n’est pas si difcile que ça.
Reglementation) vous oblige dans certain cas, lorsque
Il est très difcile de sensibiliser les États. Parce que
vous faites du traitement automatisé de données, quand
dans beaucoup d’États, surtout en Europe, on a cette
vous faîtes du « profling », quand vous êtes une
impression que puisqu’on est élu, puisqu’on est
entreprise ou un État, à expliquer comment vous
souverain, et que l’on paie des gens très compétents
fonctionnez, à expliquer quelles données vous traitez, à
pour faire plein de choses, alors on pense qu’il n’y a pas
dire aux gens comment sont traitées leurs données et à
besoin de plus de règles que cela. Donc, il faut aussi
donner des moyens de recours pour des interventions
sensibiliser les États et leur faire comprendre que quand
humaines. C’est bienvenu, mais comme je l’ai dit, 1) ça
ils font du traitement de données, quand ils utilisent des
ne marche que si l’on considère que l’IA c’est du
algorithmes, quand ils font de l’intelligence artifcielle, ils
traitement de données et rien d’autre, et 2) ça marche
ont une obligation supérieure. Il y a des choses qu’ils ne
que si on considère que la réglementation suft.
pourront pas faire – même s’ils ont l’impression qu’ils les
Je vais vous expliquer maintenant pourquoi l’IA ce n’est
font beaucoup mieux, qu’il s’agit de vous défendre, de
pas juste du traitement de données. Et pourquoi je pense
vous protéger contre des risques de sécurité ou même
surtout que la réglementation ne sufra pas. Pourquoi il
de vous servir en termes de services sociaux, et bien
faut une éthique. Pourquoi il faut que les gens qui
non : il faudra faire un peu moins, tant pis.
développent de l’IA travaillent avec des avocats. Il faut
que les gens qui développent de l’IA acceptent le temps Trois grands principes pour une éthique de l'IA
de la réfexion et acceptent de créer leurs propres Je vais vous proposer trois grands principes pour une
règles. Parce qu’il n’y a qu'eux qui comprennent vraiment éthique de l’IA.
ce qu’ils sont en train de faire — et encore, des fois ; Premier principe : la transparence
même eux vont vous dire qu’ils ne comprennent pas ce La transparence, qui est déjà présente dans la
qu’ils sont en train de faire. Mais ils comprennent déjà réglementation des données personnelles, ne va pas
mieux que moi et déjà mieux que vous. Donc, il faut une
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 17/37

assez loin. La transparence c’est quoi ? Je ne vous médiateur. C’est quelqu’un qui est là pour faire le lien.
informe pas seulement que j’utilise vos données, que je Pas comme simplement un DPO (Data Protection Ofcer) :
les collecte et que je les traite. Je vous informe sur le fait c’est déjà beaucoup mais un DPO, qu’est-ce qu’il fait ? Il
que j’utilise des algorithmes qu’il y a une intelligence aide l’entreprise à être en conformité et il sert d’interface.
artifcielle, que je fais un peu plus que ce que vous Moi je veux quelqu’un qui soit véritablement indépendant.
pensez et que ça va très vite. Je vous informe bien sûr, Pas dans tous les cas, pas à chaque fois, mais quand
comme je suis déjà obligé de le faire, sur les types de vous touchez à des sujets sensibles, vous mettez
données que je collecte et que j’utilise, mais je vous quelqu’un en dehors de l’entreprise ou de l’État.
informe aussi sur la raison pour laquelle j’utilise chaque Troisième principe : le suivi
donnée et sur la recette ou ce que j’en comprends. Je Qu’est-ce que c’est que le suivi ? Ça parle aux
vous informe aussi et surtout sur l’objectif poursuivi. informaticiens et ça parle aux développeurs. Le suivi c’est
C’est-à-dire : que vous appelez le « run », vous autres. C’est le
• quelle est la fnalité de cet algorithme ? « débugging », c’est la correction des erreurs, la
• pourquoi est-ce que mon business model repose correction des bugs. Efectivement, vous devez avoir une
sur cet algorithme ? obligation d’identifer, de suivre et de corriger, souvent,
• et surtout, si je suis un État, est-ce que l’utilisation de aussi souvent que nécessaire, vos algorithmes
cette IA c’est pour faire mieux, plus ou simplement pour d’intelligence artifcielle. Ce n’est pas évident aujourd’hui.
faire autrement ? Quel est le but ? quelle est la réfexion Il faudrait que les entreprises comprennent — et les États
qui vient derrière ? aussi — qu’il faut garder ça à jour, au-delà de la simple
Deuxième principe : la responsabilité sécurité, dans le code lui-même, dans ce que fait
La responsabilité, ce n’est pas si facile à défnir. Il s’agit l’algorithme lui-même.
d’identifer l’auteur de l’algorithme. Pour l’auteur, on le Deuxième sous-partie, dans cette dernière partie :
sait déjà dans un sens primaire : vous devez dire qui évaluer de façon régulière la précision de l’algorithme.
vous êtes et, quand vous faites du traitement de Le sujet a été abordé précédemment et ce qu’on
données, à quoi servent ces traitements, etc. Mais ça ne pense aujourd’hui être du Big Data, ce qu’on pense être
suft pas. Pour l’intelligence artifcielle, je prescris et je extraordinaire en termes d’IA, on se rendra peut-être
recommande pour les entreprises — c’est plus facile que compte dans 5 ans que c’était grossier, qu’on a fait
pour les États — l’identifcation de l’auteur en personne beaucoup d’erreurs et qu’en fait on pouvait faire
physique, comme en droit de la presse. Pour un beaucoup mieux. Pour ne pas avoir de situations
magazine, pour un éditeur, vous nommez un directeur de dramatiques, il est indispensable d’évaluer régulièrement
la publication. Pour un algorithme, pareil, il faut nommer la précision des algorithmes.
les personnes qui sont derrière la machine. Deuxième Dernière partie, pour certains cas seulement, et ça le
chose dans la responsabilité, il faut la possibilité de GDPR le prévoit assez bien, mais il faudra là aussi aller
porter réclamation. Oui ça existera bientôt un peu plus plus loin… dans certains cas, des audits indépendants
avec le GDPR mais ce n’est pas assez. Demander une doivent être prévus de façon régulière. Quand vous
intervention humaine c’est bien. Porter une réclamation et touchez aux données sensibles, ce que l’on appelle
demander un expert pour passer en revue ce qu’a fait « sensibles » ou « spéciales », quand vous créez des
l’algorithme, c’est mieux — surtout si je suis un homme situations portant grief, qui changent la vie des gens, et
noir et que je suis jugé dans un cas de récidive aux bien vous devez avoir une obligation d’être audité de
États-Unis. Troisième sous-partie du principe de façon régulière et de façon indépendante.
responsabilité : mon référent, personne physique, est un

[1] Le chapeau noir dans la méthode des 6 chapeaux de De Bono représente la pensée négative et pessimiste.
[2] https://www.eugdpr.org/
18/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Laurence ALLARD
Sociologue des usages numériques
maitre de conférences en Sciences de la
Communication à IRCAV Paris 3/Lille 3

Hybridations et compositions VS Mutations et les moyens fnalement de réaliser son imaginaire, sa
Substitutions dystopie.

Je vais vous présenter une approche sociologique qui Pour l’instant, il y a une intelligence artifcielle qui est
va plutôt développer des usages déjà présents au plutôt étiquetée comme "chapeau noir". Elle est vue
quotidien de l’intelligence artifcielle. La façon dont les comme malveillante, c’est un malware parce qu’elle est
artistes s’en emparent aujourd’hui pour le critiquer mais vraiment pensée dans ce paradigme de « la substitution »
aussi pour créer et la façon dont aussi il y a aussi une et de la mutation. On code la technique comme étant
autre intelligence artifcielle possible parce qu’il y a des l’agent de domination de l’humanité. On est dans ce que
« hack d'usage » On peut toujours détourner ce qui Bruno Latour désigne comme une anthropologie
existe déjà, réinventer ou comme le formule le compétitive où l’on met en compétition humain et
politologue Hirschman «sortir du système ». Comme dans machine et l’un doit dominer l’autre. C’est problématique,
« Noisedrive » l’épisode 1 de la saison 3 de Black c’est ce problème qui nous rassemble aujourd’hui.
Mirror, qui raconte une société complètement basée sur Je voudrais vous montrer qu’à travers quelques usages
l’évaluation à la « Uber ». On voit à la fn de l’épisode qu’il peut y avoir plus aujourd’hui de l’hybridation dès à
qu’en fait on peut sortir du système et ne pas vouloir présent « homme-machine » et qu’on peut penser
noter les autres quitte à rester en marge – il n’y a donc autrement, dans un cadre anthropologique un peu
pas de fatalités. diférent, qui n’est pas celui de la substitution, ni celui de
L'IA comme Malware la mutation mais ce qu’on appelle celui du
Pourquoi est-ce que l’IA nous pose un problème ? compagnonnage ou de la composition : composer avec
Parce que pour l’instant, elle est racontée dans les les machines, faire des machines et de leurs intelligences,
représentations comme relevant justement d’une fatalité. le compagnon de nos existences, penser un lien de
C'est, par exemple, le récit transhumaniste qui nous « biosocialité » comme le désigne Donna Haraway.
promet qu'à terme avec la singularité, il y aura un Le transhumanisme n'est pas un humanisme
surpassement de l’intelligence artifcielle vis-à-vis de Vous avez là des
l’intelligence humaine. D'où le titre " Hybridations et représentations de
compositions VS Mutations et Substitutions" : on est l’évolution de
plutôt avec les transhumanistes dans un schéma l’humanité vue par
« substitutionniste», c’est-à-dire que l’on va essayer de les transhumanistes
nous faire croire que l’intelligence artifcielle va se avec la
substituer à l’intelligence humaine. On est ainsi plongé « cyborgisation », le
dans un imaginaire de la mutation de l'espèce. Personne cerveau artifciel sur
n’a spécialement envie de muter, de devenir des patte - mais on
cyborgs, personne ici n’a spécialement envie d’être pourra aussi s’en passer bientôt.
surpassé par une intelligence artifcielle. Finalement, ce Souvent là pour l’instant, l’idéologie transhumaniste, si
récit, il nous fait peur. Il nous fait peur parce qu’il est on regarde bien, elle s’exerce et elle se perfectionne sur
aussi énoncé par les zélotes de l’université de la l’humanité diminuée – donc ça va être la prothèse, les
singularité, qui est en grande partie fnancée par Google handicapés etc. que l’on augmente. Donc, c’est une
– et Google est peut-être une frme qui a pour une fois
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 19/37

humanité augmentée mais d’abord expérimentée sur une
humanité diminuée.
Une anthropologie compétitive
Là, c’est tout le
folklore
transhumaniste qui est
à l’œuvre. C’est
l’anthropologie
compétitive : un
monde dominé par
les GAFAM comme
Quand vous regardez Netfix, il faut savoir que une
on le voit avec cette
grande partie des séries qui ont été créées par Netfix
image de ce que
l’ont été à partir de l’analyse du catalogue des séries
pourrait les
existantes qu’ils ont tagué avec plus de 800 mots clés et
autoroutes à l'heure des voitures autonomes.
ensuite ils ont fnalement pu observer quelles étaient les
Ce n’est pas grave si vous imaginez l'IA sous le signe niches culturelles qui n’étaient pas encore investies. Et ils
de la bienveillance. Si on peut imaginer d’autres usages ont fait « Orange is the New Black », etc. parce qu’ils ont
à l’intelligence artifcielle, dès à présent, il faut déjà savoir remarqué que si on croisait les femmes, noires,
l’observer, ensuite savoir la « hacker » et ensuite savoir la prisonnières, etc. ça pouvait justement créer une série
recréer. inédite. Et là, pour s’amuser il y a des gens qui ont créés
IA Au quotidien : CHATON + IA = CHATBOT un générateur de titres en jouant avec les 800 tags qui
Déjà l’intelligence artifcielle est présente au quotidien : sont utilisés par les « datascientists » de Netfix pour leur
l’IA dans notre compagnon d’existence qu’est le production culturelle. C’est pour dire que quand on
smartphone. Vous avez en efet de l’Intelligence regarde Netfix, fnalement on est aussi soumis à un peu
artifcielle au quotidien quand vous dictez un SMS, sur d’intelligence artifcielle dans la production de Netfix. On
« Whatsapp » par exemple, quand vous transformez votre entre dans l'ère de la « culture algorithmique » où il y a
voix en texte, vous avez déjà un moment donné de deux spectateurs, le public et la machine qui calcule les
l’intelligence artifcielle qui est mobilisée dans la données de son activité pour nourrir des algorithme de
reconnaissance vocale. Au quotidien, l’intelligence est recommandations.
déjà notre compagnon notre ami, elle nous aide à Après il y a aussi tout ce qui
interagir au quotidien. Vous pouvez déjà vous aussi créer est objet connecté où il y a
des petits chatbots sur Messenger [1] ou sur Telegram aussi de l’intelligence artifcielle.
[2], donc il y a cette possibilité avec des petits agents Par exemple, la fgure ci-contre
intelligents comme Robotify [3], vous avez déjà la est une petite blague sur les
possibilité de participer à des outils d’intelligence balances connectées, le « data
artifcielle pour votre quotidien. chantage ».
Il y a une petite expérimentation [Gordon] qui est assez IA et culture : pratiques
sympa où vous avez un petit robot, un petit bot, qui va critiques, reconnaissance d’image, cultural jaming, et
veiller pour vous et rassembler, faire l’acculturation hybridations
d’articles qui sont sur vos centres d’intérêts et pour vous Dans la culture, il faut savoir que le rôle des artistes est
éviter de faire une veille [4]. Ce chatbot c’est la version un peu par défnition un rôle de critique sociale. La
gentillette du robot, du cyborg, du Terminator malveillant critique sociale s’opère souvent depuis le point de vue
des idéologies transhumanistes. C’est le petit chabot au des artistes. D’ores et déjà aujourd'hui, vous avez un
quotidien. point de vue critique de l’intelligence artifcielle dans le
monde de l’art.
20/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Après, il y a cette idée que l’on rentre dans la question
de l’hybridation et non de la substitution pour que l’on
prenne en compte fnalement cette intelligence artifcielle
et qui va être fnalement un élément de créativité. Ce
n’est pas l’idée que l’IA va remplacer la créativité de
l’artiste mais que l’on peut jouer justement avec cette IA
pour créer. On observe un certain nombre de
propositions artistiques telles que Twitter. Ici, c’est
toujours le visage mignon de l’IA, ce n’est pas le
méchant robot mais le gentil bot qui est à l'oeuvre.
Il y aussi une artiste canadienne, Miss Pixels qui travaille
beaucoup autour de la photo mobile, en utilisant Deep
Dream, et qui va superposer des photos qu’elle réalise
Dans la culture, il faut savoir que le rôle des artistes est du paysage québécois, ce qui va créer des paysages
un peu par défnition un rôle de critique sociale. La hybrides, imaginaires, « glitchés » .
critique sociale s’opère souvent depuis le point de vue
des artistes. D’ores et déjà aujourd'hui, vous avez un
point de vue critique de l’intelligence artifcielle dans le
monde de l’art.
Par exemple, le projet « Hyperface » qui est une
proposition d’un artiste qui va jouer un petit peu avec ce
qui se développe avec DeepDream [5], un outil de
Google qui est une assistance pour les développeurs de
réseaux de neurones qui s’entrainent sur de la
reconnaissance d’images. Toutes les images que l’on
peut publier sur Google, tous les « selfes » que l’on
poste à tort et à travers sur les réseaux sociaux, et qui
sont fnalement utilisés pour dresser des « réseaux de
Sur « Tumblr » nous avons la démonstration que toute la
neurones convolutifs » à la base de l'IA d'aujourd'hui.
culture populaire du moment est empreinte d’algorithmes.
C’est pour ça que l’intelligence artifcielle est abreuvée
C'est une scène très intéressante d’artistes mobiles qui
des contenus des usagers ordinaires du numérique. Les
utilisent des applications mobiles plutôt créatives et vont
ingénieurs de chez Google ont développé cet outil qui
obtenir des résultats aléatoires, qu’ils ne maîtrisent pas
est un outil d’entraînement d’intelligence artifcielle et qui
toujours, mais qui sont des créations en tant que telles.
augmente la capacité de reconnaissance faciale et de
Ça c’est la façon dont il y a de l’hybridation homme-
reconnaissance visuelle. Vous avez un artiste qui a
machine, créativité humaine-intelligence artifcielle dans
développé justement un petit programme trompeur qui
les pratiques culturelles et artistiques numériques.
empêche ce type d’outil de fonctionner. Il en a
développé une sorte de masque pour éviter d’être Hacker, détourner, sortir du système

soumis à la reconnaissance faciale de diférentes Je vais vous montrer un exemple de hack parodique qui
machines. Cela montre qu’il y a déjà une sorte de est plutôt intéressant. C’est South Park [6] qui a fait une
conscience critique des problématiques que posent vidéo autour de Google Home, la proposition
l’intelligence artifcielle au quotidien, notamment vis-à-vis domotique d’Amazon. Les spectateurs qui étaient
de la reconnaissance faciale. Ce sont les premiers équipés de Google Home, en regardant South Park, ont
artistes qui s’en sont saisis en premier. eu leur propre système domotique complètement
brouillés. South Park a permis, d’une certaine façon, de
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 21/37

hacker Google Home. C'est ce qu’on appelle du « soft aux enfants. Il s’agit de « Scratch ». On avait composé
jaming ». avec les utilisateurs un petit programme et, comme il y a
Captologie citoyenne des dresseurs dans le machine learning, des « dresseurs
de robots », il peut y avoir des « algorithmistes » pour la
Il y a aussi le hack par les citoyens. J’ai co-fondé une
« citizen science », à l’usage des citoyens. Ce type
association qui s’appelle « citoyens capteurs » [7] et qui a
d'outil est destiné aux enfants mais les adultes peuvent
développé des objets connectés environnementaux « do
s'en emparer pour essayer de montrer que derrière
it yourself ». Dans les objets connectés, il y a de la data,
toutes ces boîtes noires, comme les objets connectés du
il y a de l’intelligence. Notre idée était de faire soi-même
marché, il y a du code. « L' algo literacy » c'est la
là un capteur d’électricité en temps réel. L’idée était de
capacité de pouvoir les lire ces codes, voir de les écrire
faire reconnaître par les utilisateurs des « patterns »[8] de
ou de les réécrire.
leurs consommations électriques pour réduire la facture
énergétique.
Il s'agit là de reprendre un petit peu des méthodologies
de l’intelligence artifcielle : envoyer de la donnée, la
traiter, la visualiser, et reconnaître des patterns et là il y
avait cette idée
qu’en visualisant leur
propre
consommation et
qu’en essayant de
reconnaître des
patterns ils
pouvaient agir sur
leur consommation. En dernier plan - en mode « chapeau jaune ! » -c'est
C'est un modèle qui justement va à contre-courant du pour vous montrer qu’il n’y a pas de fatalité. D’une part, il
Big Data, c’est plutôt des small data. Ce n’est pas du y a de la créativité, d’autre part il y a du hack possible. Il
« soi-quantifé » mais plutôt du « nous-quantifant ». C’est y a aussi de la recréation, les citoyens peuvent être
de l’intelligence collective et là on voit que justement, maîtres de ces technologies, peuvent se les
toutes ces technologies connectées permettent de tout réapproprier. Finalement, ça pose des questions plus
simplement augmenter l’intelligence collective. anthropologiques sur la façon dont on va se développer
Nous avons aussi utilisé justement un petit logiciel qui avec ce monde connecté – et donc ne pas forcément le
est développé par le MIT pour apprendre l’algorithmie penser en compétition avec les machines mais en bon
compagnonnage et en bonne intelligence collective.

[1] http://bot-messenger.fr
[2] https://telegram.org/blog/bot-revolution
[3] https://robotify.net/
[4] https://fint.media
[5] https://deepdreamgenerator.com
[6] Pattern (anglais)= le modèle, l'exemple
[7] https://www.dailymotion.com/video/x60wfjg
[8] https://citoyenscapteurs.net
22/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Jean-Michel LIVOWSKY
Data Protector Officer, DPO Avocat
médiateur de l'événément
Le théorème des 4 couleurs [1] règles éthiques, mais l'intention qui est derrière l'utilisation

Dans un certain nombre de cas, il y a des problèmes de l'algorithme. C’est-à-dire même si l'algorithme est

qui sont posés à la machine et que l'homme ne sait pas parfaitement défni sur un plan de sa réfexion, de sa

résoudre lui-même. Il est relativement compliqué de conception et de son encadrement, tout dépend ce que

calculer quel est le chemin optimum pour traverser toutes les autres voudront en faire. Ça revient au problème du

les villes indiquées sur une carte. Un autre exemple est couteau de cuisine : il y a des personnes qui s’en servent

celui du théorème des 4 couleurs : il suft de 4 couleurs pour découper le rôti avec les feuilles de salade, et puis

pour colorier la carte des départements avec comme d’autres qui s’en servent pour éliminer le voisin d’à côté.

consigne que 2 couleurs ne se recoupent par l'une - L’algorithme est en amont quelque chose qu’il va falloir

l'autre. 4 couleurs sufsent pour colorier n'importe quelle prendre en compte.

carte et ce problème n'a jamais été démontré. Pourtant, il Ce n'est pas toujours possible de mettre une personne
n'existe pas aujourd'hui de cartes qui nécessitent plus de derrière chaque algorithme
4 couleurs. Il y a des algorithmes dont on ne sait pas exactement
La démonstration est arrivée, il y a une dizaine comment ils vont se comporter demain, plus
d’années. Elle a été faite par un ordinateur qui a calculé particulièrement dans l’IA. Par exemple, les algorithmes
toutes les cartes possibles et a démontré qu'il sufsait de génétiques - algorithmes qui s'inspirent de l'évolution des
4 couleurs. La démonstration a ensuite été proposée à espèces dans leur cadre naturel - ne nous permettent
Scientifc America qui s'est demandé si la démonstration pas d'avoir une visibilité totale de ce qu'ils vont faire
faite par une machine de manière exhaustive et complète dans 700 milliards de cibles de calcul. On n’est pas
(la démonstration représentant un livre A4 de 1 mètre de capable de les contrôler à priori.
haut environ avec tous les cas possibles traités) pour un Propriétaire de votre identité numérique
problème aussi simple était élégante ?
Il n'est pas toujours possible de rentrer dans le cadre du
Est-ce qu'une démonstration faite par une machine pour règlement général pour la protection des données
un problème posé par l'homme est admissible en termes (RGPD). Le législateur a souhaité que « notre identité »,
de raisonnement ? Cette question a longtemps été et notamment notre identité numérique, nous appartienne
débattue et la conclusion donnée par les scientifques : « et a renforcé un certain nombre de droits, qui existaient
oui c'est admissible, mais la démonstration n'est pas depuis la loi informatique et liberté depuis 1978. Ces
élégante ! » Un prix a ensuite été créé pour toute droits - qui sont aussi des obligations des entreprises -,
personne qui voudrait refaire une démonstration plus nous en sommes propriétaires : propriétaire de notre
élégante que ces 4000 pages de démonstration qui sont identité numérique. Les entreprises peuvent les traiter, les
issues d'un ordinateur. Les spécialistes parlent d’un vendre, mais elles n’en sont pas propriétaires. Ainsi, il est
problème « subtil » et non « complexe » :-) aujourd’hui possible de demander à une entreprise de
C'est l'intention qui compte vouloir faire disparaitre toute information nous

Dans les années 2000, les règlements n'existaient pas concernant. (droit à l’oubli) [2].

pour le développement des algorithmes. Les brevets Privacy by Design et by Default [3]
déposés en IA dans la thématique du langage, même Le RGPD essaie de rendre aux citoyens cette propriété
conçus avec des verrous pour respecter un minimum de en imposant aux entreprises un ensemble de contraintes
règles éthiques, un certain nombre ont par la suite été particulièrement lourdes et au moment même de la
repris par Google. Le problème n'est pas le respect des conception des programmes, c’est ce qui est appelé le «
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 23/37

privacy by-design ». Dès sa genèse, il faut intégrer les pas une machine. Cela consiste à lui faire reconnaître un
règles fondamentales et légales de protection des panneau dans un groupe de six symboles ou à faire
données à l’intérieur de ce programme, de façon à ce cliquer sur une image. Ça peut être « cliquez dans les
que personne ne puisse le détourner à d’autres profts. Il images qui contiennent des appartements » par exemple.
en va de même pour tous les dispositifs de sécurité qui y Parmi ces images, Pourquoi des images d'
seront intégrés au départ. Toutes les entreprises de appartements? Car ce sont toutes les images que la
l’ensemble de l’Union européenne devront s'y conformer machine de Google n’a pas réussi à reconnaître. Google
à partir du 25 mai 2018. Or, aujourd'hui seules 3% des se base sur un système statistique et lorsque la machine
entreprises sont prêtes. Il devrait donc y avoir des n’a pas réussi à reconnaître le contenu, c'est l’utilisateur
sanctions. qui travaille afn d'améliorer les performances de
Le détournement de la fnalité l'algorithme statistique. Lorsque l'internaute utilise un
reCAPTCHA dans ce type d’images, il nourrit la machine
Aujourd'hui, les entreprises sont très réticentes aux
de sa propre intelligence - laquelle machine est
textes et tout particulièrement celles qui sont à la tête
initialement sensée détecter que l'internaute n'est pas une
des applications mobiles. Même initialement bien
machine. C'est un beau syllogisme...
conçues, ces applications qui sont dans nos téléphones
portables sont souvent écrites avec des outils de Plusieurs personnes ont poursuivi Google pour leur

développement qui sont plutôt "propres". Les enseignes interdire de nourrir de ce type de base de données. Il y

de la grande distribution, des voyagistes, etc. utilisent ces a eu tellement de gens qui ont cliqué sur le reCAPCHA à

programmes, les détournent afn de produire des travers le monde qu'il n'y avait fnalement plus besoin de

données collectées afn de pouvoir traquer les garder le système en place.

personnes, de stocker des informations confdentielles, Sur le plan sociologique, tout est défnitivement ouvert. Il
attenter à leur vie privée, agir sur leur situation n’y a même plus de questions à se poser de ce côté-là,
professionnelle, sur leur capacité à continuer leur ça va aller en augmentant et c’est maintenant qu’il faut
carrière, de pouvoir trouver un emploi ou plus avoir une réfexion afn de ne pas subir au moment où
simplement de demander un prêt bancaire ! C’est ainsi le cela risque de nous tomber dessus.
détournement de la fnalité initiale qui pose problème. Conclusion
Par exemple, si vous êtes obèse et que vous avez le La réglementation introduit une série de règles qui
diabète, obtenir un prêt bancaire à des taux intéressants interdisent aux algorithmes et à leurs concepteurs toute
sera beaucoup plus difcile. Il y a à ce jour énormément disposition attentatoire aux libertés individuelles.
de données de particuliers qui circulent librement chez
L’éthique et la loyauté consistent à garantir qu’ils feront
les data-brokers pour un coût variable : la valeur d’un
uniquement dans le futur ce pour quoi ils ont été
profl bien ciblé pourra se vendre jusqu’ à 75 euros,
initialement conçus. Vaste débat, que celui de tenter
selon l’importance des renseignements qu’il contient.
d’introduire une dose d’intelligence bienveillante dans
reCAPTCHA: quand l'homme travaille pour la machine
des objets mathématiques et algorithmiques qui en ont
[4]
un peu usurpé le nom :-)
reCAPCHA est un système mis en place par Google où
l'internaute est obligé de prouver à la machine qu'il n'est

[1] https://dsh.re/8f97f
[2] https://dsh.re/d392b
[3] https://dsh.re/7d26ed
[4] https://dsh.re/1967d
Table
Ronde
La table ronde a été organisée en 4 temps et en utilisant la méthode des 6 chapeaux de De Bono qui permet de
réféchir à une question en observant diférents points de vue et peut permettre d'explorer des champs de réfexion
inhabituels. Chaque question a été posée au public qui échangeait par groupe de 3 puis partageait ses réfexions de
vive voix ou par tweet.

Chapeau Noir : la critique négative
Chaque personne fait des objections en soulignant les dangers
et risques qui attendent la concrétisation de l'idée.

Chapeau Rouge : les émotions
Chaque personne rapporte ses émotions, sentiments,
intuitions et pressentiments.

Chapeau Vert : la créativité
Chaque personne provoque, recherche
des solutions de rechange.

Chapeau Jaune : la critique positive
Chaque personne admet ses rêves et
ses idées les plus folles.
26/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Chapeau NOIR
Quelles sont les risques liés à l'intelligence artificielle
et aux technologies de la donnée en général ?

Les réfexions des participants de la salle

• A-t-on la moindre chance de généraliser l'éthique ? (Tweet en réponse : Non et heureusement !)
• Est-ce que les individus accordent vraiment de l'importance à la protection de leurs données ?
• Existe-t-il un risque d'être manipulé par une intelligence artifcielle ?
• Peut-on contrôler une intelligence artifcielle, apprenante et autonome ? Ne créé-t-on pas notre propre
problème ?
• Qui vérife la qualité et exploite la qualité ?
• Quel est notre rapport d'addiction par rapport à l'intelligence artifcielle ?
• Est-ce qu'une intelligence artifcielle, chatbot, décidant de sélectionner du contenu pour nous, ne prend-il
pas le risque de nous conforter dans notre réalité et de créer un monde à notre image ?
• Est-ce qu'une intelligence artifcielle peut se retourner contre nous ?

Les tweets #noir

auditer sérieusement un algorithme signife qu'on évite @AidaRaoult Comment être sûr que les
tout traitement de données cachées, comment ? futures IA respecterons les règles établies
pour garantir un futur safe aux humains...

si chacun préférait fnir ses jours auprès
@AidaRaoult Emergence d'un nouveau
d'une IA qui prendrait bien soin de lui,
pouvoir par l'éducation technologique
dixit Laurent Alexandre sur LCI…
pour prendre des décisions pertinentes

la silicon valley veut nous faire un
scénario à la terminator? cherche t on une IA neutre ou proche
du raisonnement humain  ?
qui valide la qualité des données
qui sont utilisés dans le machine @Rubinsfatj Notation des
learning? condamnés sur leur risques de
récidives, visée bienveillante mais
"la démocratie à l'épreuve du
commanditaire dev entraîneur efets pervers (racisme, …)
traitement des fake news" @rubin
difuseur utilisateur beaucoup
d'acteur donc peux de responsable

Récupération malveillante des données : recrutement, dilution de responsabilité dans la
espionnage, suivi médical, sites de rencontre chaîne de commandement.

éthique est un engagement entre personnes bien pensantes.
a t'on la moindre chance de pouvoir généraliser l'éthique? que toutes nos traces soit enregistrées et
utilisées ( transport , communication , achat )
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 27/37

Chapeau ROUGE
Quels sont mes sentiments vis à vis de l'IA ?
Mes intuitions ? Que m'inspire l'IA?

Les réfexions des participants de la salle

• Espoir
• Vertige technophile
• Confance (x2)
• Sentiment excitant
• Emerveillement (x2)
• Amour
• Emotions infantiles
• Excitation joyeuse
• Sérénité

Les tweets #rouge #optimisme #émotion

Anxiété
Sentiments partagés en
ambivalents
Je trouve l'IA incroyable car elle pourrait
Potentielle déception
nous permettre de comprendre ce qu'est
la conscience humaine
Dangereux

excitation joyeuse , virage de la Doute
société , plein de nouveau possible

Manque de confance
en l'Homme

trop content de faire un événement
de cette importance avec le
Crainte
@LicaEurope!

Malgré mon excitation concernant l'IA,nous nous trouvons à une croisée des
chemins. N'avons-nous pas déjà choisi ce chemin ?

Comment peut-on avoir une émotion par rapport à une intelligence artifcielle ?
Alors que c'est un outil ?

Est-ce qu'on est pas limité (puissance de calcul/ qualité du résultat) par le
système binaire? Dev de l'IA prématuré.
28/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Chapeau VERT
Quelles alternatives ? Que pourrait-on imaginer comme nouvelles utilisations ?
Comment rendre les utilisations de l’IA plus « éthique » ?

Les réfexions des participants de la salle

• En 2050, si l'Homme existe, est ce que les Hommes et • L'ia serait-elle une extension de notre société ?
les ia pensent travailler en intelligence collective ? • Comment faire de belles rencontres entre machines et
• Est-ce une chance pour nous de nous défnir en tant humains ?
qu'être humain ? • Une ia pour discuter avec les animaux, avec le vivant,
• Quel sera l'avenir de l'intelligence artifcielle dans la pour discuter avec les dauphins.
santé ? • Est-ce que l'ia peut nous aider à nous faire avancer sur
• Faire avancer la recherche plus rapidement dans le la conscience ?
domaine de la santé • Une intelligence artifcielle pour .... et faire disparaître le
• Donner un corps aux intelligences artifcielles pour les travail ?
rendre plus humaines ? • Qu'est-ce qui vient après l'ia?
• A quelle moment une ia devient-elle humaine ? • Quelles sont les questions à se poser par rapport à la
• Des pays pour ia, ia pays pour ia protection des données ?
• Les intelligences artifcielles peuvent-elles devenir des • Prendre le temps de réféchir
super-héros ? • Développer des ateliers pour contribuer à l'ia au
• Avoir des technologies bienfaisantes quotidien pour des citoyens

Les tweets #vert #créativité

créativité thx 2 IA, on pourra peut-être exploiter notre temps encore mieux dans les transports
en visualisant contenus dédiés
comment appelle-t-on un psy pour IA ? L'IA forte, c'est l'IA surdouée ?
Une IA dyscalculique, ça donne quoi ?!
l'IA pour la créativité, une belle
opportunité ? les IA peuvent-elles aider les
hommes à grandir?

Création d'algorithmes parfaits Création d'une conscience numérique
pour des sites de rencontre
est ce que les IA veilleront sur
IA en bien commun sur le modèle notre sommeil?
de l'Open source

réserver l'utilisation de l'ai
Une prévision des maladies que l'on aura au uniquement à des fns collectives
cours de sa vie juste par analyse de l'ADN
Le deeplearning pourrait détecter les premiers signes de
démence / d'Alzeimer en analysant de simples échanges quotidiens.
L'intelligence artifcielle pourrait permettre de réduire
Automatisation complète de toutes les tâches humaines :
les situations de handicap et rendre de l'autonomie
plus ("plu") de travail !

L'intelligence artifcielle pourrait permettre de réduire les situations de handicap et rendre de l'autonomie
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 29/37

Chapeau JAUNE
Quelles sont les opportunités offertes par l'IA / nouvelles technologies ? Quels avantages
apportent-elles à la société, à chacun ?

Les réfexions des participants de la salle

• L'intelligence artifcielle peut nous remplacer dans des tâches répétitives, est-ce le début d'une utopie ?
• Exploration dans un monde où nous ne travaillons plus et nous nous concentrons vers un épanouissement de
l'être humain
• Retenons l'intelligence de l'intelligence artifcielle pour savoir plus, mieux, ... pour que l'être humain agisse
mieux, consomme mieux, ...
• L'intelligence artifcielle va nous permettre d'aboutir à une société plus juste pour remettre l'Homme au coeur
des préoccupations

Les tweets #jaune #optimisme

IA au service de la protection de l'environnement : économie
meilleur gestion des ressources de la planète
circulaire, efcacité énergétique, mobilité, eau

pouvoir communiquer avec des système de
stress hydrique, pollution, trafc urbain feront l'objet de
traduction permet de conserver plusieurs langue
recommandations temps réel qu'on pourra valider collectivement
"vivante"
principe 2 de l'éthique by design : la
égalité de traitement sur des diagnostiques
responsabilité > identifer l'auteur de l'algorithme
médicaux , jugement …
@rubin
IA et poésie ? poésIA ?
principe 3 de l'éthique by design :
Pas besoin de vendre notre médiateur indépendant @rubin
temps en travaillant
principe 4 de l'éthique by design :
L'immortalité ! corriger et évaluer H24 les
algorithmes de l'IA @rubin
les algorithmes sont des outils qui vont
renvoyer l'humanité à sa moralité
permet une exploration accélérée
l'ia partenaire de l'homme, de la co-ia
comme la co-robotique
libérer l'homme des taches pénibles
avec l'IA, les usines autonomes vont libérer du temps pour (physiquement ou moralement) ou dangereuses
apprendre, se former, grandir !
Déresponsabilisation de l'humain sur certaines tâches, comme
La réponse n’est pas vraiment 42 (quoi que...)
conduire (rien à voir avec le fait que je conduise mal)
Aide à la coopération et à la
replacer l'humain au coeur des préoccupations
prise de bonnes décisions

repousser les limites actuelle de anti chapeau #noir la majorité de ces problèmes
la recherche scientifque existent déjà entre humains et on s'en sort plutôt bien !
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 31/37

Remerciements
Le LICA tient à remercier chaleureusement les sponsors qui ont soutenu la réalisation de cet événement. Un grand
merci aux intervenants pour leur énergie et leur enthousiasme à la participation de cet après-midi studieuse. Merci aux
personnes présentes dans le public qui se sont prêtées au jeu des 6 chapeaux de De Bono et de la bienveillance.
Enfn, le LICA fait une spéciale dédicace à Mica pour sa classifcation automatisée des chapeaux et son aide précieuse,
ainsi qu'à Laurent Boghossian pour sa capture graphique de ce brainstorming en intelligence collective.
ANNEXES
34/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Sondage du Public
Avez-vous déjà entendu parler des algorithmes ?

Non 3
Oui 59
Oui et vous voyez précisément de quoi il s'agit 30

Sur le sujet des algorithmes, vous considérez vous comme :

Novice 33
Ayant compris les grandes lignes 35
Ayant compris le sujet de manière fne 8
Ayant compris le sujet et sachant techniquement vous en
servir 13

Vous êtes :

Etudiant 22
Professionnel 51
Autre (association, institution publiqe) 27
ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE? 35/37

Votre domaine d'études :

Design 1
Droit 2
Commerce 4
Ingénieur 10
Informatique 5
Art 1
Humanité (sociologie, philosophie) 2
Autres 4

Secteur d'activité de votre entreprise :

Banque/FInance 3
Assurance 2
Santé 5
Culture (musique, arts) 7
Communication 7
Médias 4
Internet 8
Commerce/Retaill 2
Transport 2
Energie 1
Télécommunications 3
Conseil 13
Informatique 9
Autre 10

Autre (association, institution publique)

Je travaille sur un projet utilisant de l'IA 4
Je suis simple curieux 16
Je suis dans une association 9
Je suis dans une institution publique 3
36/37 ETHIC & TECH #1 : VERS UNE INTELLIGENCE ARTIFICIELLE BIENVEILLANTE?

Programme
14:00 -14:30 : Introduction
• Présentation du LICA et du cycle Ethic & Tech
• Présentation de l'après-midi, de son déroulé et introduction au sujet « Vers une IA bienveillante ? »
• Règles de communication et des tweets

14:30 - 14:35 : Pause: Moment d'inclusion

14 : 35 - 15 : 40 - Talks des experts
• Philosophe/Ethique : Aïda Raoult
• Intelligence Aartifcielle: Benoit Favre
• Juridique : Rubin Sfadj
• Société : Laurence Allard

15:40 - 15: 55 - SYM-PAUSE: Algo art/musique

16: 00 - 17:45 : Table ronde
Table ronde ouverte organisée avec la méthode des 6 chapeaux de Bono.
• Chapeau NOIR : Quels sont les risques liés à l'IA/Nouvelles technologies ? Quels sont les risques liés à l'IA
et aux technologies de la donnée en général ?
• Chapeau ROUGE : Quels sont mes sentiments vis à vis de l'IA ? Mes intuitions ? Que m'inspire l'IA?
• Chapeau VERT : Quelles nouvelles idées ? Quelles alternatives ? Il n'y a pas de limite nous sommes dans un
monde idéal. Que pourrait-on imaginer comme nouvelle utilisations ? Comment rendre plus éthiques les
utilisations de l'IA ?
• Chapeau JAUNE : Quelles sont les opportunités ofertes par l'IA/Nouvelles technologies ? Quels avantages
apportent elles à la société, à chacun ?

17:45 – 18:00 : Conclusion

18:00 - 20:00 : Apéro time Auberge Espagnole