Vous êtes sur la page 1sur 1

 CENSURE SUR LES MEDIAS SOCIAUX ?

Entreprises américaines, les plateformes de médias sociaux


sont longtemps passées sous le radar de la législation
française et ont pu opérées de façon totalement autonome,
en se basant uniquement sur leurs Conditions Générales
d’Utilisations (CGU) et la loi américaine avec son célèbre
Premier Amendement de la constitution qui garantit une
totale liberté d’expression aux citoyens.

Si les internautes étaient responsables au regard de leurs


publications des lois du pays dans lequel ils publiaient, les
plateformes, elles, ne pouvaient être incriminées. Si vous
publiez un message négationniste sur Facebook, par
exemple, vous pouviez être poursuivi en France, mais
Facebook n’était pas concerné.

Certaines plateformes comme Twitter étaient plus libérales


que d’autres en termes politiques, d’autres comme
Facebook étaient connues pour des politiques strictes
concernant sexe et autres nudités… bref, la suppression de
compte et contenu était affaire de ligne éditoriale, de
modèle économique et de moyens humains pour faire
respecter les règles.

Depuis la loi SMA de 2018, les plateformes sont considérées


comme des médias. La « censure » procède donc à la fois de
la loi et des CGU.

Ce qui a changé
En Europe, les plateformes de médias sociaux sont encadrées de diverses façons
- Théoriquement, elles doivent de façon générale, comme tous les médias – puisqu’elles sont
désormais considérées comme telles - tenir compte du code législatif en vigueur, et donc
respecter les limites à la liberté d’expression, sanctionner le discours de haine, respecter la
vie privée et le droit à l’image, etc.
- La loi « Services des Médias Audiovisuels » de 2018 qui assimile les médias sociaux à
l’audiovisuel, a contraint les médias sociaux à mettre en place un certain nombre de règles
concernant la lutte contre la désinformation : transparence, affichage des publicités
payantes, archives accessibles à un large public, etc.
- Sera prochainement traduit en droit français du Digital Service Act , qui réitère le statut
d’hébergeur des plates-formes, avec une responsabilité limitée. Elle intensifie la lutte contre
les contenus illicites sur Internet, avec des obligations plus contraignantes pour les « très
grandes plates-formes » (plus de 10 % des 450 millions de consommateurs en Europe), dont
la mise en place d’outils de signalement de contenus illicites. Elle entérine par ailleurs
l’importance de certains usagers dans le dialogue, comme les « modérateurs de confiance »
disposant d’une capacité de signalement légitimée – typiquement des représentants
d’associations. Afin de contrecarrer les risques de censure, la loi prévoit la possibilité pour les
usagers de contester les décisions prises par les modérateurs sur les plates-formes. Elle
prévoit aussi de la transparence en matière de modération et d’utilisation d’algorithmes dans
le cadre de la publicité ciblée. Enfin, la loi prévoit d’encadrer les contrôleurs d’accès qui sont
devenus des passages obligés pour tous les acteurs et usagers, comme Apple, Google ou
Amazon

La modération des réseaux sociaux au vu de ces nouveaux dispositifs

 Un peu de lecture

https://www.ladn.eu/media-mutants/2021-reseaux-sociaux-se-sont-mis-a-la-moderation-de-masse/
o Avec l’internet de masse, nécessité d’une modération de masse
o Délégation de la censure aux plateformes centralisées
o Nécessité de transparence dans les processus de modération
pour éviter la censure
o Utilisation des fonctionnalités de signalement par certains internautes pour censurer leurs
opposants
o Difficulté pour les internautes de faire appel de retraits ou blocages de comptes jugés abusifs

 Et un autre point de vue, en vidéo :


« Pourquoi la modération fonctionne si mal ? »

https://www.youtube.com/watch?v=QC7UCVEuOIM

Vous aimerez peut-être aussi