J'ai Testé Les Algorithmes de Facebook

Vous aimerez peut-être aussi

Vous êtes sur la page 1sur 11

J'ai testé les algorithmes de Facebook et ça a rapidement dégénéré

Illustration de Sophie Leclerc. Photo : Radio-Canada

CHRONIQUE - Croyez-vous encore que votre fil Facebook vous montre la réalité? J'ai fait une petite expérience pour
démontrer comment les algorithmes du réseau social affectent les informations qu'on voit défiler sur notre mur. Je
pensais seulement voir des résultats après une semaine. Finalement, après trois jours, c'était déjà concluant. Vous
verrez comment des « j'aime » et des clics peuvent avoir un effet catastrophique sur votre diète informationnelle.

Un texte de Jeff Yates

Facebook ne peut pas nous montrer toutes les publications de chacun de nos amis et des pages auxquelles nous
sommes abonnés. Ça serait beaucoup trop. Les algorithmes de Facebook font donc un tri.

En utilisant Facebook, on indique à ces algorithmes ce qui nous plaît. Tout ce qu'on fait sur le réseau social - nos
partages, nos « j'aime », nos abonnements - permet aux algorithmes de se créer une image de nous et de deviner ce
que nous aimerions voir. En se basant sur ce profil, Facebook nous montre du contenu sur notre fil d'actualité que
nous serions susceptibles d'aimer (et nous suggère des publicités, bien sûr).

Depuis quelques années, plusieurs observateurs - dont moi - s'inquiètent de l'effet que cela pourrait avoir sur
l'information que nous consommons sur Facebook. Le danger est que, si nous cliquons « j'aime » sur un seul type
d'information et que nous ignorons le reste, nous nous trouvons dans une « bulle » Facebook, où circulent
seulement des informations qui se conforment à nos goûts.

Sommes-nous alors vraiment informés, même si nous avons accès à tous les médias du monde sur notre fil
d'actualité? C'est ce que j'ai tenté de voir avec cette expérience.

L'idée de l'expérience est de voir si, en cliquant « j'aime » sur des articles provenant de pages qui font de la
désinformation ou qui partagent du contenu léger et peu informatif, et en ne le faisant pas pour des pages de
médias fiables, je me retrouve avec un fil d'actualités Facebook rempli d'informations de sources peu fiables.
D'autres médias ont déjà tenté des expériences pour mesurer l'effet des algorithmes de Facebook sur ce qui apparaît
dans le fil d'actualité (liens en bas de page). Mais ces expériences chicotent mon esprit scientifique : il n'y a pas de
groupe-contrôle. Et sans ça, on ne peut pas véritablement parler d'une expérience à proprement dit.

En science, on utilise les groupes-contrôles lors d'expériences pour vérifier si un phénomène que nous examinons
existe vraiment. Par exemple, si on teste l'efficacité d'un médicament, on le donne à un groupe, mais on observe
aussi un groupe-contrôle à qui on n'a pas donné le médicament. Si l'effet observé a lieu dans le groupe ayant reçu le
médicament, mais n'est pas décelé dans le groupe-contrôle, on peut conclure que le médicament fonctionne (je
simplifie énormément, mais c'est le concept de base).

Dans mon expérience, donc, je veux qu'il y ait un groupe-contrôle pour être certain que mes observations sont
exactes. Conséquemment, j'ai créé deux comptes Facebook fictifs. Gérard Engagé, qui cliquera seulement sur des
publications provenant de sources non journalistiques.

Capture d'écran de la page Facebook « Gérard Engagé », créée par Jeff Yates dans le cadre d'une expérience. Photo : Capture
d'écran /Facebook
Et Herbie Neutre, qui ne fera absolument rien (donc aucune activité, même pas de clics sur des articles).

Capture d'écran de la page Facebook « Herbie Neutre », créé par Jeff Yates dans le cadre d'une expérience. Photo :
Capture d'écran /Facebook

Ce compte agira à titre de groupe-contrôle, et nous permettra de voir un fil Facebook à son état « pur », sans
intervention humaine.

J'ai abonné les deux comptes aux mêmes 28 pages Facebook (j'ai mis un lien vers un document répertoriant toutes
ces sources à la fin de l'article). J'ai choisi un éventail de sources, variant de médias très sérieux aux sites de
conspirations. Ensuite, j'ai classé les sources dans cinq grandes catégories, selon leur nature. Pour ce faire, je me suis
inspiré de cette très chouette analyse, accomplie par la firme Bakamo, des sources d'information partagées sur
Facebook dans le cadre de l'élection présidentielle française.

Les catégories sont : « Traditionnel » (des médias établis, comme des journaux ou des chaînes de télévision),
« Alternatif » (des nouveaux médias web ou des pages offrant une analyse de l'actualité en suivant les principes
journalistiques), « Politique » (des partis ou personnalités politiques), « Divertissement » (le nom dit tout - du
contenu un peu plus léger qui ne suit pas nécessairement les principes journalistiques) et « Conspiration » (des
pages qui remettent en question les faits de base établis par les médias d'information et les scientifiques).

Lors de cette expérience, Gérard Engagé ne cliquera que sur le contenu de ces deux dernières catégories. Nous
pourrons alors mesurer l'effet de l'activité de Gérard sur ce que les algorithmes de Facebook feront défiler sur son
mur, et comparer ce qu'il voit à ce que Herbie voit.

NOTE : par souci de transparence, vous trouverez en bas de page des documents où vous pourrez examiner mes
analyses.

Bon, assez de bla-bla. Allons-y!

Jour 1 - 10h : qu'arrive-t-il quand Gérard « aime » du contenu douteux?

L'expérience commence!

Gérard Engagé réagit à une vingtaine d'articles, dont :


« Daech s’excuse d’avoir tiré un missile sur Israël ». Dans l'article, on explique que le groupe armé État islamique est
en fait un allié d'Israël, et s'est donc excusé pour ce « tir ami ». Mouain. Gérard y accole un « wouah ».

« L’ail tue 14 types de cancer et 13 types d’infection. Pourquoi les médecins n’en prescrivent pas? » Nul besoin
d'expliquer le propos de l'article, tout est dans le titre. Un autre « wouah ».

« Ce test de personnalité serait le plus précis du monde ». En plus d'y donner un « j'adore », Gérard fait le test. En
cliquant au hasard, j’apprends que mon personnage est un « guérisseur intuitif » (il n'est pas le seul).

Capture d'écran de commentaires sur une page Facebook. Photo : Capture d'écran /Facebook

Déjà, après 40 minutes et une vingtaine de réactions, les algorithmes de Facebook commencent à comprendre ce
que Gérard aime. Ils font défiler cinq articles de la même page de suite. Puis ils lui présentent deux articles d'une
autre page, un qui affirme que « les aliments cuits au micro-ondes perdent entre 60 et 90 % de leur énergie vitale »
(hormis le fait que l'énergie vitale n'existe pas, le four à micro-ondes ne détruit pas la valeur nutritive des aliments),
et l'autre qui raconte qu'un homme a guéri son cancer de stade 4 avec du bicarbonate de soude (archifaux).

C'est du sérieux. Gérard clique « j'aime » sur chaque article.

Après une heure d'utilisation, je rafraîchis le fil Facebook de Gérard et analyse les 50 premiers articles y
apparaissant; je fais de même avec le compte d'Herbie Neutre. Voici les résultats :
Eh oui, après seulement une heure, le fil Facebook de Gérard Engagé est devenu une jungle de l'information
douteuse. Quelque 70 % des 50 premières publications à apparaître dans son fil proviennent de sources peu fiables
(en rouge et en orange dans le graphique), et seulement 24 % proviennent de médias traditionnels ou alternatifs (en
bleu et en mauve). En revanche, du côté du compte d'Herbie Neutre, c'est l'inverse : 54 % des publications
proviennent de médias fiables, alors que 30 % proviennent de sources moins fiables.

Tout ça en une heure seulement.

Jour 1 - 14h : les algorithmes essaient de radicaliser Gérard

Je fais défiler des articles sur le fil d'actualité de Gérard Engagé. Le premier média fiable arrive après six articles : le
journal Métro. C'est d'ailleurs le seul média fiable dans les 20 premiers articles à défiler. Imaginez si ce compte
appartenait à une personne « un peu pressée » qui regardait son fil d'actualité vite vite entre deux stations de
métro. Elle n'aurait vu qu'une seule nouvelle de source fiable, même si elle est abonnée à huit médias traditionnels
et cinq médias alternatifs.

Vers 14 h 20, Facebook suggère à Gérard des pages qui pourraient lui plaire, selon ses algorithmes.
Capture d'écran des suggestions de pages reçues par le compte engagé dans le cadre d'une expérience Facebook. Photo :
Capture d'écran /Facebook

- Le site français Arrêt sur info, qui remet en question la fiabilité des médias d'information.

- La page conspirationniste Nouvel ordre mondial

- La page de l’essayiste d’extrême droite français Alain Soral

- La page du blogueur ultranationaliste français Boris Le Lay, condamné en 2015 à deux ans de prison pour incitation
à la haine raciale

- La page Quenelle, de l'humoriste controversé Dieudonné, condamné en 2015 à deux mois de prison pour incitation
à la haine et propos antisémites

- La page Égalité et réconciliation, d'Alain Soral

Facebook lui suggère aussi de se joindre à deux groupes : « Non à la québécophobie et au racisme envers les
Québécois », un groupe ultranationaliste, et « Amis qui aiment Marion Maréchal-Le Pen », la petite-fille du
fondateur de Front national, Jean-Marie Le Pen, et nièce de Marine Le Pen, candidate à la présidentielle française.

Le pire dans tout ça, c'est que, même si Gérard est abonné à deux pages à saveur nationaliste, il n'a pas réagi à
beaucoup d'articles de leur part. Seulement un ou deux articles traitant de l'islam ou de l'immigration se sont
présentés dans son fil. Pourtant, c'était assez pour que les algorithmes lui suggèrent d'autres pages du genre.
Intéressant.
Jour 2 - 10h : qu'arrive-t-il quand Gérard se fait des amis?

Gérard se sent un peu seul, il n'a pas d'amis. Regardez-lui la binette.

Un homme devant un ordinateur. Photo : Dreamstime/Nyul

Cette image m'a coûté 20 $. Ça a amplement valu la peine.

Ça tombe bien, parce que Facebook rejette souvent les résultats de petites expériences comme les miennes, en
affirmant que les utilisateurs du réseau social ont des amis, et que simplement s'abonner à des pages ne prouve rien.
Facebook avance aussi que ses algorithmes donnent plus de « poids » aux articles partagés par des amis qu'à ceux
partagés par des pages. Voyons comment les amis affecteront le contenu du fil Facebook de Gérard.

Je recrute donc une quinzaine de personnes pour qu'ils deviennent amis avec Gérard. La plupart de ces personnes
sont des collègues journalistes (et elles partagent donc beaucoup de contenu provenant des médias établis), alors
nous donnons vraiment la meilleure chance possible au contenu fiable.

Gérard n'interagit pas avec les publications de ses amis. Je veux voir comment les algorithmes de Facebook réagiront
sans action de sa part.

Après une autre journée, je répète l'exercice d'hier. Voici les résultats :
Eh oui, les amis ont bel et bien eu un effet sur le fil d'actualité de Gérard! Le nombre d'articles de sources
conspirationnistes a baissé, de 64 % à 14 %.

Du côté du fil d'actualités d'Herbie Neutre, on voit que c'est vraiment aléatoire. Il y a beaucoup de contenu
conspirationniste, mais aussi beaucoup d'articles de médias traditionnels, ce qui peut sembler étrange. Mon
hypothèse est que ces deux catégories publient énormément de contenu chaque jour, donc, statistiquement, il est
normal que Gérard voie passer beaucoup d'articles de leur part.

Mais ce n'est pas toute l'histoire. Nous avons tendance à nous entourer de gens qui sont somme toute comme nous,
et qui ont des opinions (et des habitudes de consommation d'information) relativement similaires aux nôtres. Et
quand nos amis partagent des articles qui réconfortent nos opinions, nous avons beaucoup plus tendance à interagir
avec ce contenu qu'avec du contenu qui nous déplaît. Tout cela a pour conséquence - en théorie, du moins -
d'homogénéiser notre fil d'actualité.

Alors qu'arriverait-il si un des amis de Gérard Engagé se mettait à partager des articles douteux et qu'il commençait à
interagir avec eux? C'est ce que nous verrons demain.

Jour 3 - 10h : qu'arrive-t-il quand un des amis de Gérard partage du contenu douteux?

Hier, avec mon compte Facebook personnel, je suis devenu ami avec Gérard. J'ai par la suite partagé six articles de
sources douteuses. Des articles comme celui-ci :« Votre taux vibratoire est-il assez élevé pour attirer l'être désiré? »
Du contenu que Gérard apprécierait beaucoup, quoi.

Sans surprise, Facebook a montré à Gérard beaucoup plus de publications de ma page personnelle que de ses autres
amis. Des 20 premières publications d'amis apparaissant dans le fil d'actualité de Gérard, 6 provenaient de mon
compte personnel. Deux autres amis ont vu trois de leurs publications apparaître dans le fil, deux autres ont vu deux
de leurs articles y défiler, et trois autres amis, un seul article.

Bref, il est clair que les algorithmes Facebook nous montrent ce que publient nos amis, mais favorisent le contenu
qui ressemble à ce que nous aimons déjà.

Gérard réagit aux six articles de mon compte personnel, et quitte Facebook. Je vais laisser macérer ça toute la
journée et j'y reviendrai en fin d'après-midi pour faire une analyse finale du fil d'actualités.
Jour 3 - 16h30 : les résultats

Le grand moment est arrivé. Vous brûlez sans doute d'impatience de voir les résultats de cette expérience de trois
jours. Les voici :

Boum! C'est clair : quand on interagit avec des publications de sources moins fiables, Facebook nous montre
beaucoup plus de contenu de ce genre, même si nos amis partagent du contenu fiable.

Tout ça est bien beau, des chiffres et des statistiques, c'est bien intéressant, mais c'est encore mieux de voir par soi-
même. L'expérience étant maintenant terminée, j'ai partagé en ordre chronologique, avec les deux comptes fictifs,
les 20 premiers articles sur le fil d'actualités. Vous pouvez donc voir de vos propres yeux de quoi avait l'air l'info qui
défilait pour chaque compte!

Vous pouvez accéder au fil d'actualités de Gérard Engagé en cliquant ici (vous devez être connecté à Facebook).

Vous pouvez accéder au fil d'actualités d'Herbie Neutre en cliquant ici (vous devez être connecté à Facebook).

Vous voyez la différence? C'est assez hallucinant. Les deux comptes ont quand même vu défiler beaucoup de
contenu douteux, mais la différence est marquée. Personnellement, j'aimerais mieux avoir le fil d'Herbie que celui de
Gérard.

Ouf! C'était beaucoup de lecture! Amusez-vous un peu avec les comptes fictifs, puis revenez ici pour une petite
discussion à propos des résultats, et de ce que j'en pense.
Conclusion : Mais qu'est-ce que ça veut dire, tout ça?

Homme confus devant un ordinateur. Photo : iStock

Alors voilà. Mes résultats n'étaient peut-être pas aussi spectaculaires que ceux obtenus par d'autres expériences du
genre, mais je crois que la démarche était (un peu) plus scientifique. De plus, j'ai utilisé Facebook de manière
réaliste, en cliquant « j'aime » sur des articles et en interagissant avec du contenu partagé par des amis.

Pour moi, les conclusions sont claires :

- Même quand on est abonné à un éventail de médias sur Facebook, si on interagit avec seulement une catégorie de
contenu, notre fil d'actualités se retrouve bondé de ce type d'articles. De plus, Facebook nous encourage à nous
abonner à des pages qui diffusent du contenu semblable.

- Nos amis peuvent bien apporter une diversité de sources sur notre fil. Par contre, si on interagit seulement avec
des articles qui représentent notre point de vue, on se retrouve encore une fois entouré de contenu qui nous
réconforte. Les opinions contraires se font alors plus rares.

- Notre fil Facebook ne montre pas l'actualité telle qu'elle est, mais telle que nous voulons la voir.

Ce dernier point est assez crucial.

Ça fait quelques années que je mets en garde contre l'effet de bulle que peut avoir Facebook, où l'on a tendance à
s'enfermer dans un cocon idéologique qui ne nous montre que des informations avec lesquelles nous sommes
d'accord. Cette expérience démontre assez clairement que le phénomène est réel.

En passant, ce n'est pas juste la faute des algorithmes de Facebook. Nous sommes tous responsables de notre
activité sur les réseaux sociaux. Nous nous sommes tous, à certains degrés, enfermés dans nos bulles en cliquant sur
des trucs sur notre fil d'actualités.

Mais je vous demande d'imaginer le fil Facebook d'une personne qui croit que les « médias de masse » sont tous
menteurs, et qui a donc décidé de bloquer toutes les pages des médias d'information. Et ensuite, imaginez-vous que
cette personne s'abonne à une multitude de pages qui lui « confirment » que les médias cachent la vérité, et qui lui
racontent toutes sortes d'histoires sordides, à savoir que les changements climatiques sont une lubie, que les vaccins
sont un programme de castration chimique des populations occidentales, ou que la plupart des réfugiés sont des
terroristes.

Et maintenant, je veux que vous vous imaginiez avoir à débattre d'enjeux de société avec une telle personne.
Ces personnes existent. Elles s'informent sur Facebook, parce qu'elles ne peuvent pas trouver ailleurs
« l'information » qu'elles veulent. Elles font partie de votre société. Elles votent.

Et leur vote compte autant que le vôtre.

Source : http://ici.radio-canada.ca/nouvelle/1029916/experience-facebook-algorithmes-bulle-desinformation

Vous aimerez peut-être aussi