Vous êtes sur la page 1sur 3

07/10/2019 Biais algorithmique — Wikipédia

Biais algorithmique
Un biais algorithmique se produit lorsque les données utilisées pour
entraîner un système d'apprentissage automatique reflètent les valeurs
implicites des humains impliqués dans la collecte, la sélection, ou
1
l'utilisation de ces données . Les biais algorithmiques ont été identifiés et
2
critiqués pour leur impact sur les résultats des moteurs de recherche , les
3 4
services de réseautage social , le respect de la vie privée , et le profilage
5
racial . Dans les résultats de recherche, ce biais peut créer des résultats
reflétant des biais racistes, sexistes ou d'autres biais sociaux, malgré la
6
neutralité présumée des données . Un exemple concret est celui des
traducteurs en ligne qui traduisent systématiquement le terme anglais Les biais cognitifs.
"nurse" (neutre) en "infirmière" (féminin) et le terme "doctor" (neutre) en
"docteur" (masculin). L'étude des biais algorithmiques s'intéresse
7
particulièrement aux algorithmes qui reflètent une discrimination « systématique et injuste » .

Le biais algorithmique n'est pas une volonté réelle du concepteur de l'algorithme de tromper son public. Il est
d'autant plus important d'en avoir conscience que l'utilisation d'un algorithme biaisé que l'on suppose objectif peut
fortement influencer l'opinion. Cette problématique pose la question du manque de rétrocontrôle des concepteurs
8
d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes sur Internet .

Sommaire
Définitions
Causes
Lutte contre le biais algorithmique
Les biais éthiques de la reconnaissance faciale
Biais sexistes
Biais racistes
Régulations
États-Unis
Références

Définitions
Un algorithme est un ensemble de règles qui, appliquées à l'informatique, définissent un programme permettant de
réaliser une tâche. Les appareils informatiques comme les ordinateurs ou les smartphones sont fondés en grande
partie sur les algorithmes dans leur fonctionnement.

Causes
Le phénomène de biais algorithmique est dû à l'apprentissage automatique (machine learning) : c'est le fait que
l'algorithme soit nourri par les données, devenant ainsi de plus en plus intelligent mais les données dont il se nourrit
9
peuvent contenir des biais que l'on retrouve par conséquent dans le fonctionnement de l'algorithme .

https://fr.wikipedia.org/wiki/Biais_algorithmique 1/3
07/10/2019 Biais algorithmique — Wikipédia

Lutte contre le biais algorithmique


Il existe plusieurs possibilités pour lutter contre le biais algorithmique. Selon TechCrunch il faudrait créer des bases de
données partagées et règlementées qui empêcheraient les individus de manipuler les données. En effet, les
algorithmes ne sont pas encore assez intelligents pour se corriger eux-mêmes, en attendant qu'ils en soient capables il
faut donc que les humains les contrôlent afin d'éviter qu'ils n'augmentent les orientations négatives résultant des
10
données biaisées par lesquelles ils sont nourris .

Les biais éthiques de la reconnaissance faciale


L'émergence de l'intelligence artificielle interroge la dimension éthique. En effet, les algorithmes peuvent avoir un
comportement sexiste et ou raciste. Les algorithmes de reconnaissance faciale ont tendance à être plus efficaces pour
les hommes blancs. Afin qu'ils puissent distinguer diverses caractéristiques, les ingénieurs soumettent des milliers de
photographies aux algorithmes. Les biais éthiques sont le résultat de la responsabilité humaine des ingénieurs qui
effectuent des choix partiels.

Biais sexistes
Les femmes sont moins facilement reconnues par les algorithmes. Selon une étude du MIT en février 2018, les
logiciels des trois entreprises IBM, Microsoft et Face ++ ont été plus efficaces pour reconnaître les hommes sur 127O
portraits officiels de personnalités politiques qui leur ont été soumis. Par exemple, Face ++ a vu juste pour 99,3% des
hommes, mais seulement 78,7% des femmes. Ainsi, 95,9% des erreurs de l'entreprise concernaient des femmes.

Biais racistes

Régulations

États-Unis
Les États-Unis n'ont pas de législation d'ensemble qui régule le contrôle des biais algorithmiques. Le traitement de
cette question peut se faire à l'échelle fédérale ou fédérée, et varie selon les secteurs, l'utilisation et l'industrie. En
2017, la ville de New York a voté une loi mettant en place un groupe de travail pour contrôler l'utilisation des
11
algorithmes dans la ville.

Références
1. (en) Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3, mars 2001, p. 120–
119 (DOI 10.1109/2.910905 (http://dx.doi.org/10.1109%2F2.910905), lire en ligne (https://www.nyu.edu/projects/ni
ssenbaum/papers/embodyvalues.pdf), consulté le 17 novembre 2017)
2. (en) Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33,
no 1, 2000, p. 54–62 (DOI 10.1109/2.816269 (http://dx.doi.org/10.1109%2F2.816269), lire en ligne (http://www.nyu.
edu/projects/nissenbaum/papers/Defining%20the%20Web.pdf), consulté le 17 novembre 2017)
3. (en) Kate Crawford, « Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics », Science,
Technology, & Human Values, vol. 41, no 1, 24 juin 2015, p. 77–92
(DOI 10.1177/0162243915589635 (http://dx.doi.org/10.1177%2F0162243915589635))
4. (en) Zeynep Tufekci, « Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational
Agency », Colorado Technology Law Journal Symposium Essays, vol. 13, 2015, p. 203–216 (lire en ligne (http://he
inonline.org/HOL/LandingPage?handle=hein.journals/jtelhtel13&div=18&id=&page=), consulté le
17 novembre 2017)
5. (en) Lisa Nakamura, The new media of surveillance, London, Routledge, 2009, 149–162 p.
(ISBN 9780415568128)

https://fr.wikipedia.org/wiki/Biais_algorithmique 2/3
07/10/2019 Biais algorithmique — Wikipédia

6. (en) Laura Sydell, « Can Computers Be Racist? The Human-Like Bias Of Algorithms » (https://www.npr.org/2016/
03/14/470427605/can-computers-be-racist-the-human-like-bias-of-algorithms), sur NPR.org, National Public Radio
/ All Things Considered (consulté le 17 novembre 2017)
7. (en) Batya Friedman et Helen Nissenbaum, « Bias in Computer Systems », ACM Transactions on Information
Systems, vol. 14, no 3, juillet 1996, p. 330–347 (lire en ligne (http://www.nyu.edu/projects/nissenbaum/papers/biasi
ncomputers.pdf))
8. (en) Paul Lewis, « ‘Our minds can be hijacked’: the tech insiders who fear a smartphone dystopia », Daily, 2017
9. Aurélie Marmu, « https://rslnmag.fr/innovation/intelligence-artificielle-algorithmes-biais-comment-lutter/ », RSLN,
2016
10. « Comment lutter contre les biais algorithmiques ? » (https://rslnmag.fr/innovation/intelligence-artificielle-algorithm
es-biais-comment-lutter/), sur Microsoft RSLN, 18 novembre 2016 (consulté le 16 février 2018)
11. (en) Julia Powles, « New York City’s Bold, Flawed Attempt to Make Algorithms Accountable », The New Yorker,
21 décembre 2017 (ISSN 0028-792X (http://worldcat.org/issn/0028-792X&lang=fr), lire en ligne (https://www.newy
orker.com/tech/elements/new-york-citys-bold-flawed-attempt-to-make-algorithms-accountable), consulté le
16 février 2018)

Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Biais_algorithmique&oldid=161432692 ».

La dernière modification de cette page a été faite le 31 juillet 2019 à 17:59.

Droit d'auteur : les textes sont disponibles sous licence Creative Commons attribution, partage dans les mêmes
conditions ; d’autres conditions peuvent s’appliquer. Voyez les conditions d’utilisation pour plus de détails, ainsi que
les crédits graphiques. En cas de réutilisation des textes de cette page, voyez comment citer les auteurs et
mentionner la licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc., organisation de bienfaisance régie par le
paragraphe 501(c)(3) du code fiscal des États-Unis.

https://fr.wikipedia.org/wiki/Biais_algorithmique 3/3

Vous aimerez peut-être aussi