Académique Documents
Professionnel Documents
Culture Documents
Claire Richard
2018/3 N° 11 | pages 68 à 85
ISSN 2428-4068
ISBN 9782348040726
DOI 10.3917/crieu.011.0068
Article disponible en ligne à l'adresse :
--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-du-crieur-2018-3-page-68.htm
--------------------------------------------------------------------------------------------------------------------
représentations ils propagent – afin d’éviter que observer la société et non intervenir dessus.
les écarts sociaux ne se creusent inlassablement Dans les années 1980, avec le tournant néoli-
et que les dominations à l’œuvre ne se perpé- béral, elle s’est progressivement transformée en
tuent aveuglément. outil visant à « conduire les conduites », fixer des
objectifs et modifier des comportements. Au
La « culture algorithmique » début des années 2000, de nouveaux dispositifs
Un algorithme, c’est une simple séquence de capture et de récolte des données, plus précis,
de commandes à effectuer afin d’obtenir un plus sophistiqués, ont fait exploser la quantité
résultat déterminé. On le compare souvent d’informations disponibles. Il est devenu pos-
à une recette de cuisine : en suivant à la lettre sible de recueillir très rapidement des quantités
toutes les étapes, on obtient le plat désiré. Le phénoménales de données sur des phénomènes
terme « algorithme » vient du mathématicien de plus en plus divers et de plus en plus fins,
perse al-Khwârizmî, qui a établi, au ixe siècle, moyennant un coût de stockage toujours plus
une classification des algorithmes existants. faible. Par ailleurs, l’augmentation continue
Les algorithmes sont en effet utilisés depuis de la puissance des ordinateurs a permis d’ex-
l’Antiquité : on en trouve des exemples gravés ploiter ce matériau comme jamais auparavant.
sur des tablettes d’argile babyloniennes. « Voici Car les données brutes ne disent rien : ce sont
à peu près soixante-dix ans que les informaticiens les algorithmes qui les font parler, y trouvent
s’intéressent aux algorithmes : la notion est l’un des du sens et leur confèrent de la valeur, y compris
quatre grands concepts de l’informatique. Mais financière. Le chercheur Tarleton Gillespie,
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
C’est ce qui ressort, par exemple, des note aussi O’Neil, reflète un autre biais social :
études critiques menées sur le logiciel amé- elle omet la criminalité « en col blanc » dans sa
ricain PredPol, qui dit « prédire où et quand carte du crime.
des crimes sont susceptibles d’être commis ». Or,
explique le sociologue Bilel Benbouzid 8, Pre- Les biais algorithmiques
dpol calcule les risques à partir des statistiques Predpol illustre ce que la critique appelle
issues des dépôts de plainte, qui diffèrent les « biais algorithmiques ». Le journaliste Surya
grandement selon les territoires. « On sait très Mattu, qui enquête sur les biais des machines
bien que certaines populations, notamment dans pour le site d’investigation américain ProPu-
certains quartiers, ont tendance à moins porter blica, les définit comme « un ensemble de règles
plainte. La police va donc être plus présente dans implémentées dans un input [ données entrantes ]
les zones où l’on porte le plus plainte, au détri- et qui produisent, en output [ données sortantes ],
ment de celles où les habitants ont plus de réticences des conséquences différentes pour tel ou tel groupe
à aller voir la police. Ce que l’on est en train de de personnes 9 ». Julia Angwin, Jeff Larson,
créer, c’est une offre de sécurité minimale, avec une Lauren Kirchner et Surya Mattu ont révélé
police protégeant ceux qui portent le plus plainte. » l’un des exemples de biais les plus discutés de
Cathy O’Neil, dans son livre Weapons of Math ces dernières années : celui du logiciel Compas
Destruction ( Armes de destruction math-ives ), ( Correctional Offender Management Profiling
souligne aussi l’importance du paramétrage du for Alternative Sanctions ) développé par l’en-
logiciel : les policiers peuvent choisir de faire treprise privée Northpointe Inc et utilisé par
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
20 % des cas, parmi les prévenus noirs comme recrutement, domaine de plus en plus large-
parmi les blancs. Compas, en revanche, tend à ment automatisé. Un algorithme performant
sous-estimer la probabilité de récidive violente apprend à trier différents profils à partir de choix
des Blancs et à surestimer celle des Noirs. Le opérés par des recruteurs humains, et automa-
logiciel ne prend pourtant pas explicitement la tise ensuite le processus. Si les humains tendent
« race » en compte dans les calculs. Il exploite des à recruter moins de femmes, par exemple, l’al-
informations se trouvant dans le dossier des pré- gorithme reproduira implicitement cette ten-
venus, ainsi qu’un questionnaire qu’ils doivent dance. « Même si la donnée “ genre ” ne lui est pas
remplir en prison. Les questions portent sur fournie, il peut exister des biais liés au genre dans
leurs antécédents, leurs relations sociales, leurs des variables secondaires. L’algorithme va naturel-
opinions. Par exemple : « L’un de vos parents lement les détecter, les apprendre et les recracher. Il
a-t-il déjà été en prison ? », « Combien de vos fait son travail en automatisant un processus biaisé,
amis et connaissances consomment-ils des dro- tout en lui conférant une apparence d’objectivité. »
gues illégales ? » ou encore « Vous battiez-vous
souvent à l’école ? ». Or, selon les critiques de LES ALGORITHMES N’ONT INVENTÉ NI
Compas, ces questions portent sur des variables
qui sont corrélées à la race, dans un contexte où LES PRATIQUES D’EXPLOITATION DES
le système judiciaire américain est structurelle- PAUVRES NI LES DISCRIMINATIONS
ment biaisé en défaveur des Noirs 11 : « Si vous
considérez que le nombre de condamnations dont
RACIALES. MAIS ILS PEUVENT
LES REPRODUIRE OU LES INTENSIFIER.
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
autrement : Google devenait raciste parce que ses Les algorithmes sont aujourd’hui des
utilisateurs racistes l’entraînaient à l’être 12 », objets mathématiques d’une grande complexité.
commentait sur son blog la chercheuse amé- Les algorithmes font appel à un nombre gigan-
ricaine en culture numérique danah boyd, tesque de variables ( plus de cent mille pour celui
ancienne spécialiste des usages numériques des de Facebook ) dont la pondération peut varier
ados qui s’intéresse désormais aux implications en temps réel. « L’algorithme » lui-même est
sociales de l’âge des données. Très engagée souvent composé d’un ensemble d’algorithmes
dans la critique de l’utilisation aveugle des effectuant chacun des tâches précises. Surtout,
algorithmes, boyd a ainsi décrit en 2016 l’im- un nombre croissant d’entre eux utilise des
pact des « scheduling software », logiciels utilisés modèles d’intelligence artificielle générative
afin de composer les emplois du temps des dont le fonctionnement précis est incompris
salariés d’une entreprise. Ceux-ci sont conçus même des chercheurs qui les ont créés. Ainsi,
par des programmeurs qui ont pour mission de en radiologie, les algorithmes sont en train de
maximiser l’efficacité des forces de vente sur un devenir plus performants que les radiologues
maximum de temps de vente possible. Leurs dans la détection des fractures – sans que per-
calculs créent des situations intenables pour sonne ne puisse précisément expliquer pourquoi.
certains employés, dont le bien-être n’est pas
pris en compte dans la conception du logiciel. À ces difficultés techniques se superposent
Les emplois du temps deviennent chaotiques, des obstacles légaux. La plupart des algorithmes
certains travailleurs enchaînent les services sans privés sont protégés par le secret commercial.
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
Diagramme réalisé par Diakopoulos montrant les termes censurés par les autosuggestions de Bing et Google
françaises de 2017. YouTube a reconnu l’exac- réduire à une configuration algorithmique. J’ai
titude de leurs résultats. Puis ajouté que les tes- envie de répondre : “ Vous pensez que cette personne
teurs d’AlgoTransparency avaient mené cette pense comme un ordinateur, parce que vous essayez
expérience sur un ordinateur vierge de tout his- de deviner ce qu’elle pense à travers un ordinateur. ”
torique de navigation sur YouTube – ce qui ne Mais il est impossible de comprendre la complexité
correspond à aucun comportement réel. ou la richesse de ce monde si vous le regardez à tra-
vers un écran. »
C’est une grande limite de la rétro-ingé-
nierie. En fonction des besoins de l’expérience, L’algorithme dans ses pratiques
celle-ci crée des comportements souvent très C’est pourquoi de plus en plus de cher-
différents des conditions réelles d’exercice des cheurs approchent les algorithmes comme des
algorithmes. Afin de comprendre ce que fait objets sociaux, produits par des acteurs, pris
effectivement un algorithme, il faudrait pou- dans des faisceaux de pratiques. Cette approche
voir le tester sur des données personnelles propre aux sciences humaines permet de « défé-
fournies par les entreprises. Le programme tichiser » l’algorithme et d’éclairer autrement
NosSystèmes, de la Fondation internet nou- son fonctionnement. Quand il a voulu étu-
velle génération ( Fing ), souhaitait étudier par dier PageRank, Dominique Cardon n’a même
rétro-ingénierie divers algorithmes. Il s’est vite pas cherché à contacter Google. « Je savais
heurté à des obstacles : « Nous avons eu beaucoup qu’ils ne me donneraient rien. » Il a abordé l’al-
de mal à trouver des entreprises prêtes à collaborer gorithme par la bande, en lisant la littérature
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
préliminaires permettent de relativiser l’impact qui habitent les programmeurs, souvent sincè-
de ces scores : ils montrent qu’en règle générale, rement passionnés par l’idée de faire découvrir
juges et procureurs font très peu confiance à ces de la nouvelle musique aux internautes, et les
outils. S’ils sont effectivement versés au dossier, ingénieurs, qui comparent leur tâche de créa-
ils sont peu mobilisés, rarement mentionnés et tion d’un espace musical personnalisé par un
servent surtout dans la négociation des peines algorithme à un travail de « plombier », de « fer-
avec les avocats. mier » ou encore de « jardinier ».
Ces approches d’enquête propres aux L’approche est aussi passionnante que
sciences humaines remettent en perspective le vertigineuse. Car dans cet assemblage diffus et
rôle que jouent réellement certains algorithmes, hétérogène, où doit porter la critique ? À tant
en les envisageant comme des objets, pris dans déplier l’algorithme, ne risque-t-on pas de le dis-
un tissu de pratiques sociales et humaines, et soudre dans un réseau d’acteurs et de pratiques ?
constamment négociés et modifiés. « Le sys- « Je comprends cette inquiétude, et je la partage
tème algorithmique est composé de l’algorithme, ses comme beaucoup de gens dans le monde des sciences
données et des gens qui travaillent avec. Je pense sociales », répond Seaver. « Nous avons besoin que
que distinguer l’algorithme de ses concepteurs n’a l’algorithme soit un objet concret, pour que nous
pas beaucoup de sens, car ceux-ci peuvent le modi- puissions agir dessus. Et cela peut être utile dans cer-
fier quand ils veulent », affirme Nick Seaver, qui tains contextes, comme celui de la régulation. »
propose de définir les algorithmes comme des
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
Un peu partout, les appels à la « trans- se prennent des décisions injustes – alors que nous ne
parence » des algorithmes, à la création d’al- savons même pas comment définir la fairness ( la
gorithmes « équitables » ( fair ), « ouverts » ou justice, l’équité ). Est-il plus équitable de donner
« justes »… se heurtent dans la pratique à un les mêmes opportunités à tout le monde ou de
chantier définitionnel énorme. « Quand on lutter contre l’inégalité ? Vaut-il mieux que tout le
parle d’algorithmes responsables, c’est par rapport monde puisse avoir accès aux contenus partagés par
à quoi ? Ça dépend des cas d’usage, du référentiel ses amis ou bien censurer les discours de haine ? Et
que l’on prend. On peut définir la responsabilité qui doit prendre cette décision ? Nous avons devant
par rapport au respect des règles légales et éthiques. nous un dur travail de définition, bien différent de
Mais celles-ci sont très subjectives et dépendent celui qu’il faudra fournir pour comprendre ensuite
des règles d’une communauté », explique Nozha par quels processus algorithmiques incarner ces
Boujemaa. Créé en vue de fournir au législateur valeurs “ dans ” ces termes. Si nous arrivons à les
des outils d’évaluation de situations données, définir, nous pourrons accomplir beaucoup plus. »
TransAlgo réunit des juristes, des informa-
ticiens, des sociologues… qui ont chacun L’IDÉE N’EST DONC PAS
des conceptions différentes des termes clé
du débat : « discrimination », « loyauté », « neu- D’ÉLIMINER LES BIAIS, MAIS DE
tralité », « transparence », « redevabilité », « res- LES EXPLICITER. ET C’EST UNE
ponsabilité », « éthique »… « On ne peut avoir
QUESTION ÉTHIQUE AVANT D’ÊTRE
d’algorithme neutre sans une notion normative
UNE QUESTION TECHNIQUE.
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)
1. L’expression est de Malte Ziewitz, 8. J. Hourdeaux, « Police prédictive : deux 1er novembre 2015,
chercheur en sciences de l’information chercheurs démontent l’algorithme », <www.nouvelobs.com/rue89/rue89-
© La Découverte | Téléchargé le 07/02/2022 sur www.cairn.info (IP: 109.0.235.234)