Académique Documents
Professionnel Documents
Culture Documents
Plusieurs études ont indiqué que les infox se répandent plus rapidement en ligne que les
informations vérifiées. Le MIT a par exemple démontré que la vérité mettait six fois plus
de temps que les fausses informations pour atteindre 1.500 personnes. Mais la viralité a
aussi souvent du bon !
▪ Viralité
Ce type de modèle en entonnoir semble avoir été fait pour les médias sociaux dont le
mécanisme de base est le partage instantané à des groupes souvent très nombreux et
actifs. D’informations vraies ou fausses. Sauf que les fausses sont souvent plus alléchantes,
étonnantes, susceptibles de faire le buzz… Toujours selon le MIT, une fake news a 70% de
chances de plus qu’une information vérifiée d’être retweetée.
Plus encore depuis la Covid et la création début 2020 du terme d’Infodémie par
l’Organisation mondiale de la santé, certains assimilent la propagation d’infox à la
propagation de virus, et empruntent pour leur analyse à l’épidémiologie, en s'articulant en
particulier sur les métaphores et analogies suivantes :
- L’assimilation des infox à des agents pathogènes
- Le taux de reproduction de l’infox
- La courbe de contamination
- La vitesse de contamination
- Les notions de contagion, et d’infection
- Les variants d’une infox initiale
- Les facteurs de vulnérabilité
- La quête d’immunité
- …
- Et les gestes barrières pour s’en protéger !
L’OMS a demandé la création d’une nouvelle discipline basée sur ce modèle biopolitique,
l’Infodémiologie, consacrée à la gestion et la prévention des infodémies. Une discipline au
sens fort du terme, destinée à produire à la fois de la connaissance et des actions.
L’infodémiologie a ainsi pour objectif de cartographier les acteurs et les agents pathogènes
et proposer des mesures prophylactiques et curatives au niveau mondial.
L’infodémiologie concerne bien évidemment le domaine de la santé, mais peut s’appliquer à
tous les champs qui seraient l’objet “d’épidémies de fake news”.
Les algorithmes de tri, utilisés notamment par les moteurs de recherche tout comme les
algorithmes de recommandations utilisés par les médias sociaux, ne se contentent pas de
proposer à une personne des contenus personnalisés censés correspondre à ses goûts. Ils
ont aussi une fâcheuse tendance à mettre les infox en avant.
Or les moteurs de recherche, les médias sociaux et les plateformes vidéo représentent une
part toujours croissante de sources d’information - et de désinformation.
Des enquêtes menées en 2022 par le projet Crossover ont ainsi montré que :
- l’auto-complétion de Google quand on tapait des mots comme “Donbass” à une
certaine période menait vers des sites complotistes
- les vidéos suggérées par YouTube aux internautes font la part belle aux infox
- les # les plus tendances sur Twitter ou Facebook sont souvent liés à de la
désinformation
Robots sociaux
Les robots sociaux utilisent l’Intelligence artificielle pour simuler le comportement
humain sur les réseaux sociaux. Très utilisés sous forme d’assistants virtuels, comme à
la SNCF, ils peuvent aussi servir à des fins de désinformation et propagande, non
seulement pour diffuser massivement des messages, mais pour « discuter » en live avec
des internautes.
Actuellement le tout nouveau Chatbot GPT 3, doté d’une Intelligence Artificielle
générative de haut niveau, inquiète tout particulièrement. Cet assistant capable de
répondre à quasiment toutes les questions et de produire des articles, des tutoriels ou
des résumés, utilise en effet comme base de données (Big Data), sans les vérifier, les
informations qu’il extrait du web…. donc une part non négligeable d’infox qu’il participe
à diffuser à grande échelle.