Vous êtes sur la page 1sur 2

Page -1

HAINE EN LIGNE, MANIPULATIONS, RUMEURS…. QUE FONT LES PLATEFORMES ?

Elles font des choses… comme supprimer le compte d’un certain Président américain
récemment. Ou, côté hébergeur, refuser l’accès à un réseau social jugé extrémiste.
Certains estiment qu’elles n’en font pas assez. D’autres qu’elles en font trop et censurent.
Et si le véritable débat était plutôt : qui doit régule les discours de haine, les infox, etc sur les
médias sociaux ? Les instances républicaines ou les plateformes et hébergeurs privés ?

 ENCADREMENT DES PLATEFORMES

En Europe, les plateformes sont encadrées de la façon suivante :

 Elles sont régies en partie par la Directive « Services des Médias Audiovisuels » de
2018 qui assimile les médias sociaux à l’audiovisuel, avec un certain nombre
d’obligations en terme de retraits de contenus illicites.
 Le plan d’action européen lequel ?, toujours le SMA ? a ainsi contraint les médias
sociaux à mettre en place un certain nombre de règles concernant la lutte contre la
désinformation : transparence, affichage des publicités payantes, archives accessibles
à un large public, etc.
 La loi sur les services numériques (Digital Services Act) date ? réitère le statut
d’hébergeur des plates-formes, avec une responsabilité limitée. Elle intensifie la lutte
contre les contenus illicites sur Internet, avec des obligations plus contraignantes
pour les « très grandes plates-formes » (plus de 10 % des 450 millions de
consommateurs en Europe), dont la mise en place d’outils de signalement de
contenus illicites.
Elle entérine par ailleurs l’importance de certains usagers dans le dialogue, comme
les « modérateurs de confiance » disposant d’une capacité de signalement légitimée
– typiquement des représentants d’associations. Afin de contrecarrer les risques de
censure, la loi prévoit la possibilité pour les usagers de contester les décisions prises
par les modérateurs sur les plates-formes. Elle prévoit aussi de la transparence en
matière de modération et d’utilisation d’algorithmes dans le cadre de la publicité
ciblée. Enfin, la loi prévoit d’encadrer les contrôleurs d’accès qui sont devenus des
passages obligés pour tous les acteurs et usagers, comme Apple, Google ou Amazon

 TRUMP « BANNI » DES MEDIAS SOCIAUX, QUE S’EST-IL PASSÉ ?

Dès lors où l’actualité américaine influence directement notre politique et nos usages en
matière de médias sociaux, nous vous proposons un petit tour vers la récente actualité
américaine. Qui aura par ailleurs démontré les conséquences bien réelles des mobilisations
virtuelles. Les rumeurs en ligne peuvent « tuer pour de vrai ».

Quelles leçons tirer des sanctions a posteriori (suppression de comptes) des principales
plateformes américaines vis-à-vis d’un Président qui a attisé la violence que l’on sait au
Capitole ?
 Elles sous-estiment en général les conséquences des infox qui circulent dans leurs
services
 Tirant partie de leur statut d’hébergeurs aux US et de leur poids médiatique, elles
oscillent entre discours commerciaux (application de leurs conditions générales
d’utilisation-CGU) et discours politiques (respect de la suprématie de la sécurité
nationale sur la liberté d’expression dans le cas présent)
 Maitresses de leurs CGU, elles n’ont pas encore systématiquement inclus la
désinformation comme cause d’exclusion de service, au contraire de l’incitation à
la violence, et bien évidement les risques à la sureté d’Etat.
 Dans une logique d’entreprise, elles respectent la loi et assument à leur façon
(minimaliste) le rôle de « censeur » qui leur est de facto dévolu, et dont elles se
passeraient bien.

 Compte tenu des conséquences des infox, il est urgent que les US régulent de
façon plus claire en matière de responsabilité des plateformes
En tant qu’usagers des GAFAM, les européens ne peuvent que bénéficier de
ces évolutions nécessaires

Source : The Conversation, article Divina Frau-Meigs : Médias sociaux : après l'exclusion de
Trump, la question de la censure et l'impératif d'évoluer (theconversation.com)

❖ QUELLE MODERATION SUR LES PLATEFORMES ?


Modérer, c’est plus qu’appliquer la loi, c’est interpréter les messages dans le contexte de
leur publication et de leur diffusion. La modération est donc une question culturelle, une
pratique de bonne volonté qui implique des personnels invisibles.

Avec des millions de messages qui transitent tous les joueur, une pression toujours plus
forte de la société et des politiques, des règles qu’il convient d’interpréter au cas par cas, et
des contenus parfois difficiles à confronter, la modération est une activité complexe pour les
femmes et les hommes qui en sont chargés. Plongée dans le quotidien des modérateurs
Facebook avec Envoyé Spécial. > On garde ce chapitre et cette vidéo ? Je trouve intéressant
mais c’est discutable

https://www.youtube.com/watch?v=DnoH7nYkLZo
Page -2

 CE QUE FONT CONCRETEMENT LES MEDIAS SOCIAUX EN FRANCE

Les opérateurs de plateforme en ligne soumis au devoir de coopération prévu par le titre III
de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information se
sont livrés pour la première année à l’exercice de déclaration au CSA des moyens mis en
œuvre, en 2019, afin de lutter contre la diffusion de fausses informations. Voici le bilan de
leurs réponses

Points clés

1) Dispositifs de signalement de fausses informations susceptibles de troubler l'ordre public


ou d'altérer la sincérité d'un scrutin
Tous les opérateurs, sauf un, ont mise en place de tels dispositif
La qualité de l’ergonomie de ces dispositifs varie toutefois (majorité de boutons de
signalement, mais encore quelques formulaires)
Tous n’ont pas encore créer une catégorie « infox » et les traitent dans la catégorie « autre »

2. Transparence des algorithmes :


À deux exceptions près, les opérateurs utilisent des algorithmes afin d’ordonner, référencer
et sélectionner les contenus mais aussi de lutter contre les comptes propageant
massivement des fausses informations, détecter et traiter les fausses informations et
augmenter ou réduire la visibilité de certains contenus.
Les utilisateurs peuvent, sur certains services, personnaliser les contenus qui leur sont
proposés et obtenir des informations sur les algorithmes utilisés, mais cette transparence
est limitée.

3. Promotion des contenus issus d'entreprises et d'agences de presse et de services de


communication audiovisuelle (EAP-SCA)
La lutte contre les fausses informations passe également par la valorisation de contenus
fiables. La plupart des opérateurs identifient ces contenus par un signe visuel et certains
permettent à l’utilisateur d’obtenir plus d’informations sur leur provenance. Certains
opérateurs procèdent, de façon algorithmique, à une remontée des contenus considérés
comme issus de sources fiables et/ou à une dégradation de la visibilité de ceux susceptibles
de ne pas l’être.
En revanche, si l’importance des fact-checkers dans la lutte contre les fausses informations
est globalement reconnue, les opérateurs y font appel et mettent en avant leur travail de
façon variable. Certains ont recours aux fact-checkers directement ou par l’intermédiaire
d’un module téléchargeable, tandis que d’autres exercent une vérification de l’information
au sein de leurs équipes. D’autres encore invoquent la nature de leur service ou la mise en
place d’une politique éditoriale pour justifier leur choix de ne pas y recourir.

4. Lutte contre les comptes propageant massivement des fausses informations


Ces comptes sont détectés grâce des moyens automatisés et/ou humains. Plusieurs types
de mesures peuvent être prises à leur encontre, de la suppression du contenu au blocage
temporaire, voire définitif du compte. Certains opérateurs font état d’une vigilance accrue
vis-à-vis des comptes étatiques, mesure parfois documentée avec précision dans les
déclarations. Les utilisateurs peuvent accéder aux informations dans les centres d’aide et
politiques de confidentialité mais ne sont pas toujours informés des conséquences de la
création de tels comptes.

5. Information des utilisateurs sur la nature, l'origine, les modalités de diffusion des
contenus et l’identité des personnes versant des rémunérations en contrepartie de la
promotion des contenus d’information (contenus sponsorisés)
L’ensemble des acteurs concernés identifient les contenus sponsorisés et certains
permettent aux utilisateurs de comprendre pourquoi ils sont exposés à ces contenus.
Certains opérateurs disposent d’un outil de signalement propre aux contenus sponsorisés,
Les opérateurs ont mis en place des politiques publicitaires, qui peuvent consister en la
validation des contenus publicitaires ou en l’interdiction de certains contenus.
L’approche des contenus d’information se rattachant à un débat d’intérêt général diffère
selon les opérateurs. Certains interdisent leur promotion soit de façon permanente, soit en
période électorale ; d’autres procèdent à un contrôle particulier des annonceurs concernés,
réduisent leurs possibilités de ciblage publicitaire ou encore les identifient spécifiquement.

6. Education aux médias et à l’information


Une partie des opérateurs mènent des actions d’EMI.
Certaines sont développées en partenariat avec des institutions publiques et des
associations. Elles permettent aux publics tant de maîtriser l’utilisation des plateformes que
de développer leur esprit critique.
Les opérateurs de plateformes en ligne apportent aussi un soutien financier à plusieurs types
d’initiatives et certains font état de liens avec le monde de la recherche, essentiellement par
des aides financières.

Source : https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Lutte-contre-les-
infox-le-CSA-publie-son-premier-bilan

Vous aimerez peut-être aussi