Vous êtes sur la page 1sur 5

1

AI : fichier de travail


Je me disais aussi que l'on pourrait diviser le sujet de l'IA en trois sous-thèmes :
1. collecte d'infos, lesquelles et pour en faire quoi
2. Robot, robot, retombées dans la vie privée et professionnelles
3. Impact du développement de l'IA sur l'intelligence humaine

VIDEO HP : MORAL CODE, THE ETHICS OF AI

Il ne faut pas confondre le hardware, les robots, et le software, l’IA.

IA = systèmes qui reproduisent et parfois dépassent notre capacité à concevoir et à mettre


en œuvre des processus liés à des informations.

Cela touche tous les domaines de la vie. Qui on veut rencontrer, le taux d’emprunt… de la
sphère politique jusqu’à la sphère juridique et éducationnelle.

TOUT SERA IMPACTE

Ces décisions déterminent la qualité de notre vie et donc l’IA va déterminer la qualité de
notre vie.

Par conséquent nous avons raison de nous intéresser aux aspects éthiques de l’IA

CODE MORAL : l’éthique de l’IA

Nous sommes au point d’inflexion. Soudainement des données, la science informatique (les
algorithmes) sont accessibles. Nous sommes arrivés au point dont nous avons rêvé. L’IA peut
aujourd’hui prendre en charge des travaux (processus) très spécifiques : traduire, conduire
une voiture, reconnaissance faciale….

Si cela est en train de devenir un outil doué d’ubiquité (surpuissance) alors nous devons
explicitement informé les populations de ce qui est en train de se passer.

Il y a tellement de préoccupations qu’il est urgent de décider le type d’IA que nous
souhaitons développer. Nous devons consacrer le plus de temps possible à l’éducation sur
ces sujets.

THE IMPACT OF BIASES (détournements)

L’IA utilise une masse astronomique de données afin d’identifier des modèles qui sont
corrélés à des résultats signifiants.

AI : fichier de travail


2

Ces données nous mettent en face de possibilités de mauvaise utilisation (nous expose à des
dérapages)

Donc nous devons être prudent quant la nature des données aux informations que nous
collectons.

Les données peuvent être mauvaises car erronément libellées, et inappropriées et altérées
par des préjugés

Cas typiques de détournements : utiliser des algorithmes pour prendre des décisions
concernant la croyance des prisonniers. Si vous avez assez de point de données, vous serez
en mesure de juger si une personne est encline à commettre des crimes

Si vous tenez compte de données détournées alors vous ouvrez la porte à un système
judiciaire qui traitera différemment les classes sociales, qui donnera la préférence à la classe
moyenne blanche tandis qu’il sera néfaste à la défense des populations minoritaires noires.

Il arrive souvent qu’un algorithme lui-même ne soit pas explicitement nourri avec des
données de nature raciste. Un code postale ne nous dit rien sur la nature raciale d’une
personne.
Ce que la machine apprend est que les personnes habitant dans cette agglomération sont
plus enclins à la délinquance alors qu’en fait cela signifie qu’il y a plus de chance à ce qu’ils
soient noirs ou pauvres ou toute autre catégorie qui génère justement des détournements.

Le risque est de voir la technologie des algorithmes et de L’IA renforcer les aspects les plus
sombres as de notre société.

C’est une tragédie car cette technologie a le potentiel de faire l’inverse.

Les machines ne sont ni racistes, ni sexistes, ni ségrégationnistes. Ce sont les humains qui le
sont.

Le risque est de voir ce type de dérive pas seulement intégrée dans un type de programme
mais de s’étendre largement.

Silicon Valley a agi comme un aimant pour attirer les meilleurs mais est aussi dominé par les
mâles blancs.

L’IA est le problème de l’homme blanc.

Il est crucial d’intégrer la diversité humaine dans le développement de l’IA

Qui concevra les systèmes et avec quelles données les nourrira-t-on est le problème crucial
de l’IA

THE NEED FOR TRANSPARENCY

AI : fichier de travail


3

Ce que je constate c’est que la génération actuelle prend des décisions basées sur les
instructions venant de leurs téléphones, tablettes que ce soit pour choisir un restaurant ou
même qui épouser.
Et tout cela à partir d’un algorithme dont on ne sait rien.
Qui est derrière l’écran (motivations) qui a construit l’appareil, qui a conçu les algorithmes,
qui est derrière l’interface

Les gens ne pensent plus même à se poser ces questions tant l’utilisation est confortable.
Cette capacité de prédiction a modifié notre comportement sans que l’on sache pourquoi ou
comment.

Si tu veux qu’une machine se comporte éthiquement, nous devons savoir comment elle agit
et pourquoi elle agit de cette manière.

La transparence implique de pouvoir expliquer les étapes qui ont conduit à pouvoir faire une
recommandation.

Quand nous voulons apprendre à une machine ce qu’est un chat, nous la nourrissons avec
des millions d’images de chat. On ne lui explique pas ce qu’est un chat ni pourquoi. On se
contente de lui faire digérer des millions d’images de chat et la machine se met à identifier
par elle-même ce qui est un chat et ce qui ne l’est pas. Nous ignorons en fait comment le
système informatique arrive à ce type particulier de conclusions. Dire qu’un hot dog est ou
pas un hot dog reste marrant. Ca l’est moins lorsqu’il s’agit d’un missile.

La nature particulière de la technologie qui a été employée est si complexe et implique une
telle quantité de types de données que le fonctionnement de l’algorithme dépasse de loin la
capacité de ses concepteurs à le comprendre.

Et ce serait peut-être une partie de la réglementation qui devrait être adoptée concernant
l’IA. Si vous ne pouvez pas expliquer ce qu’un programme va faire, il ne devrait pas pouvoir
être mis à disposition ou utilisé par l’être humain.

Et un mouvement réunissant de plus en plus de gens revendique la nécessité d’auditer et


d’être capable de comprendre ce qui se passe.

THE TIP OF THE ICEBERG

Nous allons être confrontés à des choses auxquelles l’humanité n’a jamais pensé.

La notion que fait que puissiez être en interaction avec un robot sur internet peut influencer
la manière dont allez voter est un grand danger pour la démocratie.

Les robots tueurs représentent une terrible menace.

Les drones équipés avec des algorithmes intelligents peuvent devenir des armes
extrêmement dangereuses.

AI : fichier de travail


4

Il est légitime de craindre que la puissance des algorithmes rend encore ceux qui sont
puissants encore plus puissants.

On va la donner aux riches car ils savent se la payer.

Une idée populaire est de dire que d’ici 20 ans tous les emplois auront disparus.

La question n’est pas leur disparition mais la manière dont ils auront changé.

Nous sommes au début de la création de la bulle. L’IA prendra de plus en plus d’importance
et impactera de plus en plus nos vies. Que ce soit pour aller dans les étoiles, au fond de la
mer ou guérir le cancer, réparer le climat.

Le monde devient meilleur et cette technologie y contribue.

Le meilleur scénario est que cette technologie va résoudre tous nos problèmes, le pire est
que cela peut détruire l’humanité.

OUR RESPONSABILITY

Nous devons développer des pratiques responsables et sécurisantes avant que la puissance
de l’IA artificielle devienne incontrôlable pour qui nous sommes.

Qui est responsable de cela, les entreprises, les gouvernements ou la sociétés civile.

En fait, c’est notre responsabilité à tous.

Aucun scientifique et techniciens ne laissera aucune considération le bloquer dans sa


recherche nous monde dans lequel nous vivons. C’est à nous de décider si c’est le monde
dans lequel nous voulons vivre.

Human responsability for human power.

Vous ne devez nous laisser dicter les règles.

Le nouveau Manhattan Project n’est pas de créer l’IA mais de créer l’IA sûre.

Plus les machines en apprennent sur les caractéristiques cognitives de l’être humain au plus
notre responsabilité en tant que créateur et formateur est engagée.

.Nous devons être en vigilance permanente et nous demander comment faire notre job de
créateur et de formateur.
La technologie n’est jamais en elle-même bonne ou mauvaise.

Si l’intelligence artificielle est bien faite elle fera de nous de meilleurs êtres humains.

AI : fichier de travail


5

Les choix des êtres humains définiront le futur de l’IA.

Aidez-nous à réaliser ce futur de manière responsable.


QUI COLLECTE les données ?

Prise de pouvoir des sociétés privées sur le politique.


Attention, les gouvernements sont élus et destituables. Par contre, les sociétés privées !

AI : fichier de travail

Vous aimerez peut-être aussi