Académique Documents
Professionnel Documents
Culture Documents
ENQUÊTE - Depuis cinq ans, les études et initiatives consacrées aux enjeux éthiques et
à l'impact de l'intelligence artificielle se multiplient. Le futur « GIEC de l'intelligence
artificielle », annoncé début décembre par la France et le Canada, permettra-t-il d'y voir
plus clair ?
Ce n'est pas tous les jours qu’une réunion des membres du G7 se tient dans une
ancienne usine textile reconvertie en pépinière de start-up et laboratoires high-tech.
C'est là, début décembre, dans les locaux d'Element AI, au cœur d'un ancien quartier
industriel de Montréal en pleine reconversion, que Justin Trudeau a prononcé un
discours mêlant fascination et inquiétude. « Nous devons reconnaître qu'avec
l'intelligence artificielle, nous entrons dans des territoires inconnus. Aussi excitant que
cela paraisse, cela s'accompagne de nombreux défis, et c'est pour cela qu'il faut
s'attaquer aux questions éthiques que soulèvent ces technologies », mettait en garde le
Premier ministre canadien.
L'idée avait été lancée par Emmanuel Macron lors de la présentation du rapport Cédric
Villani, en mars 2018. Mais c'est à Justin Trudeau qu'est revenu l'honneur d'annoncer
officiellement la création, dès cette année, d'un groupe d'experts internationaux chargés
d'étudier les impacts de l'intelligence artificielle.
Il y avait déjà le GIEC pour le changement climatique, il y aura donc bientôt le G2IA (ou
IPAI en anglais) pour étudier les bouleversements liés à l'intelligence artificielle. Cette
nouvelle institution, dont les contours devraient être précisés d'ici à l'été, rassemblera
des représentants de la communauté scientifique, de l'industrie, des gouvernements et
de la société civile.
De la science-fiction au monde réel
Maintenant qu'elles peuvent battre les humains au jeu de go ou les radiologues pour
détecter des tumeurs, les machines risquent-elles de nous dépasser dans tous les autres
domaines ? Les algorithmes, désormais capables d'apprendre, vont-ils mettre au
chômage des bataillons de cadres, de chauffeurs routiers ou de codeurs ? Faut-il laisser
des outils aussi potentiellement dangereux que des voitures, des avions ou des armes
sous le seul contrôle de logiciels et de processeurs ?
Toutes ces questions, qui ont longtemps relevé de la science-fiction, sont désormais
discutées le plus sérieusement du monde par un nombre croissant de chercheurs en
intelligence artificielle, d'économistes, de philosophes ou de gouvernants. Ces dernières
années, les rapports, livres blancs, groupes d'études et autres initiatives sur l'intelligence
artificielle et l'éthique se sont multipliés, portés par les progrès spectaculaires des
technologies d'apprentissage automatique profond (« deep learning »).
« Ces questions se sont déplacées des coulisses vers le centre de la scène », résume
Joëlle Pineau, professeur à l’université McGill et directriece du laboratoire d’IA de
Facebook (FAIR) à Montréal, qui donnait une conférence sur la robustesse des
algorithmes dans le cadre de la conférence NeurIPS. « Les technologies arrivent à un
niveau de maturité qui fait qu'elles vont être déployées dans le monde réel, donc il
devient de plus en plus important d'intégrer l'éthique dans les projets de recherche. »
[…]
Si l'Europe et le Canada se mobilisent sur l'éthique, c'est aussi parce qu'ils y voient une
chance de se distinguer dans un secteur où les Etats-Unis et la Chine ont une très
grande longueur d'avance. En effet, les Américains ne sont pas insensibles aux
questions éthiques (dans un récent sondage, 82 % estimaient que l'IA devait être
manipulée avec précaution) mais misent avant tout sur l'autorégulation des entreprises ;
les Chinois, eux, considèrent l'IA avant tout comme un moyen d'augmenter leur
puissance.
D'où la mise en avant d'une « troisième voie ». Reste que le G2IA, voulu par la France
et le Canada, va très vite devoir relever un premier défi de taille : pour devenir une
autorité mondiale aussi importante que le GIEC, il lui faudra attirer des chercheurs et
des institutions bien au-delà de ses deux pays fondateurs...
Pionnier du Big Data, ce chercheur américain souligne les défis à la fois éthiques et techniques
de sa discipline.
Les concepts de big data et de « machine learning » sont-ils une mode, comme il y en a eu
souvent en sciences, ou sont-ils annonciateurs de changements profonds ?
Ils sont annonciateurs de changements très profonds qui vont arriver au cours du prochain siècle.
Avant le big data, nous avions des données collectives qui permettaient de cerner une population.
Nous avons désormais des données sur tous les individus, donc précisément sur chacun d’entre
eux. Prenons l’exemple d’un moteur de recherche. Jusqu’à présent, une requête comme « Je veux
un billet d’avion pour aller à Paris » engendrait une réponse similaire pour tous. Avec le big data,
la réponse va s’adapter à la personne qui la demande, à son profil, à son histoire personnelle.
Pour la première fois dans l’Histoire, des produits, des services, donc des marchés adaptés à
chacun d’entre nous vont être créés. On voit déjà émerger, par exemple, une médecine prédictive :
en fonction de notre génome, on va pouvoir calculer la probabilité d’avoir telle ou telle maladie.
[…]
Gartner Group vient d’annoncer que d’ici à 2020, 2 millions d’Américains devront partager
leurs données de santé pour pouvoir trouver un emploi. De nombreux DRH fantasment sur
les données personnelles pour mieux recruter et gérer leurs salariés. Faut-il calmer le jeu ?
Comment la société va-t-elle devoir s’organiser ?
Cette effervescence montre que nous aurons besoin d’un siècle au moins pour appréhender ces
nouvelles problématiques qui sont tout à la fois scientifiques, technologiques, sociétales,
juridiques. Nous sommes nous-mêmes ambigus face à l’utilisation des données personnelles.
Nous pouvons percevoir leur utilisation comme une intrusion dans notre vie privée. Tout en nous
réjouissant, dans un autre contexte, des 20 % de réduction que l’on va nous proposer dans notre
restaurant préféré, justement grâce à l’analyse de ces mêmes données.
Dans le domaine médical, par exemple, nous ne voyons pas d’un bon œil l’utilisation de nos
données personnelles par un groupe d’assurance. Mais sommes prêts à les communiquer si cela
peut permettre à quelqu’un de notre famille de savoir s’il risque de développer certaines maladies.
On voit bien que l’acceptation sociétale dépend du contexte, et il va falloir que le système
juridique s’adapte à cette nouvelle donne. Mais les mathématiciens et les informaticiens peuvent
aussi y contribuer.
De quelle manière ?
Mes travaux, et d’autres, depuis dix ans, ont montré qu’il est possible d’interroger des bases de
données sans pour autant avoir accès directement aux données individuelles. C’est ce que l’on
appelle la « differential privacy ». Cela revient à analyser la vie privée tout en la protégeant !
Nous avons en outre développé des techniques qui permettent d’ajuster un paramètre afin de
libérer plus ou moins l’accès à des données sensibles. Mais ce n’est que le début de l’histoire !
Des données sensibles, biomédicales et comportementales sont désormais propriétés de
sociétés privées. Ne faut-il pas aussi imaginer de nouveaux cadres éthiques pour encadrer
les recherches ?
Je ne suis pas expert juridique, mais bien sûr, une réflexion doit avoir lieu. Et tous les acteurs de
la société doivent y participer. Ce n’est ni aux experts en technologie ni au marché de dicter seuls
les règles. Les entreprises telles que Google ou Facebook connaissent de toute façon leur fragilité.
Les consommateurs ont un pouvoir, celui de se détourner d’une entreprise qui est allé trop loin
dans l’utilisation des données ou le non-respect de la vie privée. Regardez My Space. Cette
entreprise a disparu car les consommateurs se sont détournés de leurs services.
Comment aider justement les citoyens à comprendre ? N’y a-t-il pas une responsabilité,
notamment des scientifiques, pour vulgariser cette complexité actuelle ?
Nous avons en effet une responsabilité sociale. A l’université, nous sommes chercheurs et
enseignants, une double casquette particulièrement nécessaire actuellement.
Nous venons d’ailleurs de lancer, en octobre à Berkeley, un cours pilote pour les étudiants de
première année intitulé « Databears ». C’est un cours transversal destiné à tous, quel que soit leur
discipline. L’objectif est d’augmenter leur culture générale sur la statistique et les données. Il y a
des cours d’informatique, des conférences sur l’éthique, la propriété des données, les aspects
artistiques… Tout le monde doit avoir suffisamment de connaissances pour pouvoir participer au
débat sociétal, devenir un consommateur averti qui puisse également prendre des décisions en
connaissance de cause dans sa vie personnelle.
Nous sommes les premiers à le faire au niveau des très jeunes étudiants, mais toutes les universités
se rendent compte que cette approche est nécessaire. […]
Propos recueillis par David Larousserie et Laure Belot, publié le 16/11/2015, Le Monde.
UN NEZ QUI FAIT SENS - L’odorat est souvent considéré comme un sens
secondaire, et pourtant notre cerveau peut difficilement s’en passer. Les nez les
plus développés peuvent détecter jusqu’à 300-400 odeurs différentes. La perte
de l’odorat est a contrario une perte de contact avec le monde extérieur. L’odorat
peut aussi aider le cerveau, comme avec l’olfactothérapie.
16 sept. 2017, LCI