Académique Documents
Professionnel Documents
Culture Documents
Cela touche tous les domaines de la vie. Qui on veut rencontrer, le taux d’emprunt… de la
sphère politique jusqu’à la sphère juridique et éducationnelle.
Ces décisions déterminent la qualité de notre vie et donc l’IA va déterminer la qualité de
notre vie.
Par conséquent nous avons raison de nous intéresser aux aspects éthiques de l’IA
Nous sommes au point d’inflexion. Soudainement des données, la science informatique (les
algorithmes) sont accessibles. Nous sommes arrivés au point dont nous avons rêvé. L’IA peut
aujourd’hui prendre en charge des travaux (processus) très spécifiques : traduire, conduire
une voiture, reconnaissance faciale….
Si cela est en train de devenir un outil doué d’ubiquité (surpuissance) alors nous devons
explicitement informé les populations de ce qui est en train de se passer.
Il y a tellement de préoccupations qu’il est urgent de décider le type d’IA que nous
souhaitons développer. Nous devons consacrer le plus de temps possible à l’éducation sur
ces sujets.
L’IA utilise une masse astronomique de données afin d’identifier des modèles qui sont
corrélés à des résultats signifiants.
Ces données nous mettent en face de possibilités de mauvaise utilisation (nous expose à des
dérapages)
Donc nous devons être prudent quant la nature des données aux informations que nous
collectons.
Les données peuvent être mauvaises car erronément libellées, et inappropriées et altérées
par des préjugés
Cas typiques de détournements : utiliser des algorithmes pour prendre des décisions
concernant la croyance des prisonniers. Si vous avez assez de point de données, vous serez
en mesure de juger si une personne est encline à commettre des crimes
Si vous tenez compte de données détournées alors vous ouvrez la porte à un système
judiciaire qui traitera différemment les classes sociales, qui donnera la préférence à la classe
moyenne blanche tandis qu’il sera néfaste à la défense des populations minoritaires noires.
Il arrive souvent qu’un algorithme lui-même ne soit pas explicitement nourri avec des
données de nature raciste. Un code postale ne nous dit rien sur la nature raciale d’une
personne.
Ce que la machine apprend est que les personnes habitant dans cette agglomération sont
plus enclins à la délinquance alors qu’en fait cela signifie qu’il y a plus de chance à ce qu’ils
soient noirs ou pauvres ou toute autre catégorie qui génère justement des détournements.
Le risque est de voir la technologie des algorithmes et de L’IA renforcer les aspects les plus
sombres as de notre société.
Les machines ne sont ni racistes, ni sexistes, ni ségrégationnistes. Ce sont les humains qui le
sont.
Le risque est de voir ce type de dérive pas seulement intégrée dans un type de programme
mais de s’étendre largement.
Silicon Valley a agi comme un aimant pour attirer les meilleurs mais est aussi dominé par les
mâles blancs.
Qui concevra les systèmes et avec quelles données les nourrira-t-on est le problème crucial
de l’IA
Ce que je constate c’est que la génération actuelle prend des décisions basées sur les
instructions venant de leurs téléphones, tablettes que ce soit pour choisir un restaurant ou
même qui épouser.
Et tout cela à partir d’un algorithme dont on ne sait rien.
Qui est derrière l’écran (motivations) qui a construit l’appareil, qui a conçu les algorithmes,
qui est derrière l’interface
Les gens ne pensent plus même à se poser ces questions tant l’utilisation est confortable.
Cette capacité de prédiction a modifié notre comportement sans que l’on sache pourquoi ou
comment.
Si tu veux qu’une machine se comporte éthiquement, nous devons savoir comment elle agit
et pourquoi elle agit de cette manière.
La transparence implique de pouvoir expliquer les étapes qui ont conduit à pouvoir faire une
recommandation.
Quand nous voulons apprendre à une machine ce qu’est un chat, nous la nourrissons avec
des millions d’images de chat. On ne lui explique pas ce qu’est un chat ni pourquoi. On se
contente de lui faire digérer des millions d’images de chat et la machine se met à identifier
par elle-même ce qui est un chat et ce qui ne l’est pas. Nous ignorons en fait comment le
système informatique arrive à ce type particulier de conclusions. Dire qu’un hot dog est ou
pas un hot dog reste marrant. Ca l’est moins lorsqu’il s’agit d’un missile.
La nature particulière de la technologie qui a été employée est si complexe et implique une
telle quantité de types de données que le fonctionnement de l’algorithme dépasse de loin la
capacité de ses concepteurs à le comprendre.
Et ce serait peut-être une partie de la réglementation qui devrait être adoptée concernant
l’IA. Si vous ne pouvez pas expliquer ce qu’un programme va faire, il ne devrait pas pouvoir
être mis à disposition ou utilisé par l’être humain.
Nous allons être confrontés à des choses auxquelles l’humanité n’a jamais pensé.
La notion que fait que puissiez être en interaction avec un robot sur internet peut influencer
la manière dont allez voter est un grand danger pour la démocratie.
Les drones équipés avec des algorithmes intelligents peuvent devenir des armes
extrêmement dangereuses.
Il est légitime de craindre que la puissance des algorithmes rend encore ceux qui sont
puissants encore plus puissants.
Une idée populaire est de dire que d’ici 20 ans tous les emplois auront disparus.
La question n’est pas leur disparition mais la manière dont ils auront changé.
Nous sommes au début de la création de la bulle. L’IA prendra de plus en plus d’importance
et impactera de plus en plus nos vies. Que ce soit pour aller dans les étoiles, au fond de la
mer ou guérir le cancer, réparer le climat.
Le meilleur scénario est que cette technologie va résoudre tous nos problèmes, le pire est
que cela peut détruire l’humanité.
OUR RESPONSABILITY
Nous devons développer des pratiques responsables et sécurisantes avant que la puissance
de l’IA artificielle devienne incontrôlable pour qui nous sommes.
Qui est responsable de cela, les entreprises, les gouvernements ou la sociétés civile.
Le nouveau Manhattan Project n’est pas de créer l’IA mais de créer l’IA sûre.
Plus les machines en apprennent sur les caractéristiques cognitives de l’être humain au plus
notre responsabilité en tant que créateur et formateur est engagée.
.Nous devons être en vigilance permanente et nous demander comment faire notre job de
créateur et de formateur.
La technologie n’est jamais en elle-même bonne ou mauvaise.
Si l’intelligence artificielle est bien faite elle fera de nous de meilleurs êtres humains.