Publication supprimée ? Signalement sans effet ? Les internautes européens peuvent désormais contester les décisions de modération des réseaux sociaux

Date:

Un organisme indépendant, dont la création a été imposée par la réglementation, tranchera les litiges entre internautes et dans un premier temps YouTube, Facebook et TikTok. Il est opérationnel à partir de ce jeudi 14 novembre.

Les internautes peuvent désormais contester les décisions de modération de TikTok, YouTube et Facebook. À partir du 14 novembre, une «cour d’appel» européenne (Appeals Center Europe) est chargée de recueillir leurs demandes. Sa création a été imposée par le Règlement sur les services numériques (Digital Services Act), entré en vigueur en août 2023. Désinformation, harcèlement, deepfake, haine en ligne, droits des mineurs… Le champ d’action de cet organisme privé, qui se revendique « indépendant et impartial », est large. « C’est l’occasion pour les utilisateurs de reprendre le pouvoir sur le contenu qu’ils postent et d’exercer une forme de contrôle sur l’écosystème des réseaux sociaux, estime Thomas Hughes, qui dirige ce Appeals Center Europe (ACE), basé à Dublin. Il s’agit d’une révolution silencieuse ».

Si le champ d’action de cette cour d’appel est pour l’instant limité à trois plateformes, il devrait être étendu dès l’an prochain. Même chose pour les langues. L’ACE va traiter au départ les litiges portant sur des contenus en français, en anglais, en espagnol, en italien, en allemand et en néerlandais. «Seule une approche paneuropéenne a du sens aujourd’hui, martèle Thomas Hughes, pour éviter une balkanisation d’Internet ».

Cinq euros à avancer

Concrètement, un utilisateur qui n’est pas d’accord avec la décision d’une plateforme de supprimer ou de laisser un contenu peut faire appel. Pour éviter les démarches abusives, il doit payer 5 euros, une somme qui lui sera remboursée s’il obtient gain de cause. 

L’utilisateur doit d’abord faire sa demande auprès de la plateforme puis remplir un formulaire sur le site du Appeals Centre. Le DSA impose à la plateforme d’envoyer au Centre une déclaration dans laquelle elle justifie sa décision. « Nous évaluerons alors le contenu et communiquerons notre décision à l’utilisateur, idéalement en l’espace de quelques jours, indique Thomas Hughes. Ce sera dans l’intérêt de la plateforme d’appliquer notre décision, même si la loi ne l’y contraint pas. Si elle ne le fait pas, elle devra se justifier auprès du régulateur », c’est à dire de la Commission européenne.

Les données, anonymisées, seront aussi accessibles aux 27 régulateurs européens du numériques, parmi lesquels l’Arcom, qui ont été régulièrement consultés en vue de la création du Centre. Au-delà de la multitude de cas particuliers qu’il devra traiter, la vocation du Appeals Centre sera plus large. « Il nous fournira le premier aperçu du paysage de la modération en Europe, déclare Thomas Hughes. Nous aurons une vue d’ensemble du fonctionnement de ces plateformes, du type de discours qu’elles autorisent, des standards qu’il faut mettre en place… ».

Sujet sensible

Avec la possibilité d’agir en cas de « risques systémiques ». « Dans certains cas, s’il est avéré que certains algorithmes créent des situations dangereuses, les plateformes pourront être amenées à les faire évoluer », précise Thomas Hughes. La Commission européenne devrait garder un œil attentif sur l’action du Centre. « La force de ce mécanisme est d’être rapide et peu coûteux quand les procédures judiciaires classiques peuvent durer des années. Mais il ne sera pas question pour autant de se substituer aux tribunaux », prévient Thomas Hughes. 

Le DSA oblige les plateformes à faire connaître aux internautes l’existence de ce mécanisme d’appel. Le président du Centre s’attend à ce qu’elles ne soient pas très proactives au départ. Le temps pour elles de se roder à l’exercice. 

La modération, qui est désormais effectuée majoritairement sur les plateformes par des machines, est devenue un sujet sensible. Des milliers de décisions sont contestées chaque année par des internautes. Certains réseaux sociaux comme X (ex-Twitter), qui ont réduit leurs équipes, sont accusés de faire partie des mauvais élèves. 

Financement par les plateformes

Chez Meta, l’Oversight Board, le Comité de surveillance qu’il a lui même constitué, reçoit en moyenne 200 000 appels chaque année en Europe. Des internautes avaient ainsi contesté il y a plusieurs années le retrait par Facebook de photos faisant la promotion de la lutte contre le cancer du sein. Ces images avaient, en effet, été retirées sous prétexte qu’il s’agissait de nudité féminine, en violation des principes de Facebook. « C’est l’exemple typique de photos qui doivent rester sur la plateforme, commente Thomas Hughes. Notre mission consistera notamment à repérer les erreurs dans la mise en application des politiques des plateformes ». 

Pour repérer ces erreurs, qui relèvent parfois de différences culturelles ou linguistiques, l’Appeals Centre a recruté des linguistes, des data scientists, des spécialistes d’éthique, des droits de l’homme… Au total, 25 personnes issues de différents pays européens seront embauchées d’ici à la fin de l’année. Des effectifs amenés à s’étoffer lorsque le nombre de plateformes couvertes sera étendu.

Ce centre sera financé par les plateformes. Une subvention de 15 millions de dollars lui a été accordée par Meta via son Comité de surveillance (Oversight Board). À chaque litige traité, la plateforme incriminée devra lui verser 95 dollars. Un nouveau chapitre s’ouvre pour la régulation des réseaux sociaux.

Source du contenu: www.lefigaro.fr

Share post:

Populaire

More like this
Related