AVANT-PROPOS : les articles de la rubrique « Ailleurs sur le web » ne représentent pas les positions de notre tendance, mais sont publiés à titre d’information ou pour nourrir les débats d’actualités.
SOURCE : Acrimed
Les grandes plateformes numériques ont acquis une place prépondérante dans la diffusion et la production de l’information. Elles posent de nombreuses questions pour notre critique. Ces plateformes sont-elles des médias à part entière ? Comment interviennent-elles dans le débat public ? Ont-elles une ligne éditoriale, voire politique ? Pour amorcer une réflexion critique sur le rôle des grandes plateformes dans le système médiatique, nous nous sommes entretenus avec Arthur Messaud et Benoît Piédallu de la Quadrature du Net, association de défense et de promotion des droits et liberté sur Internet.
Acrimed : On a beaucoup parlé de la suspension des comptes Twitter et Facebook de Trump suite à l’attaque du Capitole par ses partisans en janvier. Pour les commentateurs, cela pose la question du pouvoir de censure des grandes plateformes. Que vous inspirent ces débats ?
Quadrature du Net : La censure du compte de Trump est un cas très particulier. Elle a le mérite de rappeler qu’il ne faut pas attendre des grandes plateformes qu’elles soient les garantes de la liberté d’expression ou de la démocratie. Facebook ou Twitter sont certes devenus des lieux de débat, y compris politiques, mais ce sont avant tout des entreprises privées. Leur modèle économique, leur organisation est entièrement orientée vers le gain financier et les revenus publicitaires – qui représentent jusqu’à 95% du chiffre d’affaires dans le cas de Facebook. Il s’agit donc, pour elles, d’organiser la visibilité des publications de sorte à inciter les utilisateurs à rester ou à revenir. Ce qui est totalement incompatible avec ce que pourrait être un outil de débat d’intérêt public. Ces plateformes sont des espaces privés, elles ne répondent à personne ou presque et suppriment régulièrement des comptes, notamment de militants politiques.
La censure du compte Twitter de Trump est cependant un sujet tout à fait secondaire en matière de libertés sur internet, en comparaison à d’autres sujets comme le règlement « anti-terroriste », en cours d’adoption dans l’Union européenne. Les médias sont tellement frileux de se frotter à des sujets un tout petit peu compliqués… Ils préfèrent se jeter à corps perdu dans des débats faciles – et souvent inintéressants – comme c’est le cas pour la suspension du compte de Trump. Mais lorsqu’il s’agit des libertés des citoyens, avec des vrais textes qui ont des conséquences pour toutes et tous, c’est la démission totale. On a été parmi les rares à parler du texte règlement « anti-terroriste » qui pose de graves problèmes pour les libertés, pendant que les commentateurs étaient occupés à disserter sur Trump. Que son compte soit censuré par Twitter ou Facebook n’a, au fond, pas grande importance. Il n’y a pas de liberté d’expression à sauver sur Twitter et Facebook. Ces plateformes sont faites pour organiser l’expression à des fins commerciales. Ce qui ne veut pas dire qu’il n’y a pas d’enjeux à leur faire rendre des comptes.
Il est vrai qu’on a très peu entendu parler de ce règlement anti-terroriste. Pourriez-vous nous en dire deux mots ?
En deux mots, il s’agit de donner à toutes les polices européennes le pouvoir, sans l’intervention d’un juge, de demander à n’importe quel hébergeur de retirer en une heure un contenu, du moment qu’elle le considère comme relever du terrorisme. Ça veut dire que si la police hongroise contacte un média français et exige de retirer un contenu de son forum, celui-ci doit s’exécuter en une heure sous peine de sanctions économiques ou même de sanctions pénales. Je parle de la police hongroise, mais c’est aussi valable a fortiori pour la police française. Ces dispositions sont similaires à celles de la loi Avia qui avait été censurées en 2020 par le Conseil constitutionnel, heureusement, mais qui reviennent au niveau européen. C’est vraiment la loi de censure la pire qu’on ait vu depuis dix ans… mais là encore, personne n’en parle, les grands médias s’en contrefichent.
En termes de censure en ligne, de mise en visibilité ou d’invisibilisation de contenus et propos, les plateformes semblent jouer un rôle de plus en plus important. Comment justifient-elles ce rôle d’organisation du débat, et peut-on dire qu’elles suivent une forme de « ligne éditoriale » ?
Il faut bien voir que les grandes plateformes revendiquent de faire de la censure et d’avoir une ligne éditoriale. Ce n’est pas quelque chose de caché. Par exemple, la Commission européenne a signé de nombreux accords et d’engagements de lutte contre le terrorisme avec Facebook, Google, Twitter ou Microsoft qui se montrent extrêmement pro-actifs et volontaires. Au point que ce sont eux qui vont susciter des initiatives pour déployer des dispositifs de censure « innovants ». Ces technologies pourront par la suite être imposées et généralisées par la loi, ce qui permettra aux grandes plateformes de vendre leurs outils. En matière de lutte contre certains types de contenus de haine, c’est la même chose, ils sont très pro-actifs.
Ce n’est pas la députée Avia qui a souhaité imposer aux plateformes de faire un travail de censure, c’est l’inverse : c’est Facebook qui est venu aux politiques en leur disant : « regardez ce qu’on fait, nous, il faut généraliser ces pratiques ». Et cela représente une opportunité pour les plateformes de vendre leurs outils de censure en ligne. Lorsque le patron de Facebook, Mark Zuckerberg, a été auditionné au Parlement européen, il disait : « nous avons des responsabilités éditoriales ». Il le revendique, ce n’est pas un aveu. Ce ne sont ni des postiers, ni un réseau de télécommunications, ce sont des médias qui veulent jouer un rôle politique ; et pour avoir un pouvoir politique, il faut assumer les responsabilités qui vont avec.
Comment fonctionnent ces outils « innovants » de censure en ligne ?
Facebook tout particulièrement met en avant des outils d’intelligence artificielle censés détecter automatiquement les contenus problématiques qui contreviennent à la « charte » de la plateforme, les contenus terroristes par exemple. Avec un discours selon lequel l’intelligence artificielle va tout régler en enlevant « l’humain » de la boucle. En réalité, on sait que ça ne marche pas, ou du moins qu’il est nécessaire d’avoir des personnes en chair et en os qui travaillent derrière : pour remplir les bases de données, aider à l’apprentissage, corriger les erreurs [1]. Des métiers très difficiles par ailleurs… Quoiqu’il en soit, on est loin aujourd’hui d’avoir des outils qui fonctionnent de manière autonome. Et au-delà de cela, il y a de nombreuses questions qui se posent sur la manière dont fonctionnent les algorithmes de modération, et sur leur incapacité par exemple à saisir ce qui relève de l’humour, ou du débat politique. Le risque étant de justifier la censure : « c’est la machine qui a pris la décision ».
Outre cette dimension automatisée, les mécanismes de modération recourent également à la dénonciation des contenus par les utilisateurs. Au bout d’un certain nombre de signalements, il y a un événement qui est déclenché au sein de la plateforme : soit la suppression automatique du compte et on voit ce qui se passe, si la personne se plaint ou pas ; soit un ou une employée qui va regarder si oui ou non le signalement est justifié. Un des problèmes étant celui des recours : il est très difficile d’avoir une réponse des plateformes une fois la décision prise – si ce n’est un message automatique et générique. On l’a dit, il y a l’exemple de nombreux militants, notamment de militantes LGBT, dont le compte a été suspendu sur Twitter pour des propos politiques ou le recours à des termes jugés insultants [2]. Il y a également l’exemple du média « Rapport de forces », très présent sur Facebook, qui a vu les mentions et les liens vers ses pages censurés. Ils ont eu énormément de difficulté à obtenir une réponse de Facebook, ils ont dû prendre un avocat et menacer la plateforme de poursuite pour pouvoir récupérer l’usage de leur page et la possibilité de republier.
Il faut bien comprendre que ce sont ces mécanismes de modération qui sont promus à travers la loi Avia ou le règlement « anti-terroriste ». Les outils à base d’intelligence artificielle sont mis en avant par les gouvernements en disant : « ils sont capables de faire ça, on peut demander la suppression automatisée des contenus en une heure ». Outre la question des errements d’une telle modération, cela pose un autre problème : il n’y a que les grandes plateformes qui seront capables de tenir de telles contraintes. Ce qui pose un coût à l’entrée très important pour les nouvelles plateformes sociales, qui seront contraintes d’acheter un service à Facebook par exemple à défaut de pouvoir se conformer à la loi.
La frontière n’est-elle pas parfois ténue entre ce travail de modération et une forme de censure politique ?
Il y a une modération qui est nécessaire, et mise en oeuvre à juste titre. Mais il y a aussi une modération qui s’apparente à une censure politique. Pendant la crise des gilets jaunes, il y a eu des centaines de comptes et de pages qui ont été fermés. Et on peut redouter que Facebook ait un peu tiré sur la corde, sur ses conditions générales d’utilisation (CGU), pour bien être vu du gouvernement. Et ça, quand on est attaqué de toute part en matière de protection des données, c’est assez malin. Du côté des gouvernements, quand on voit le règlement « anti-terroriste », on voit bien qu’il y a une tentation d’instrumentaliser la modération à des fins de censure politique. On a déjà vu de telles mesures être mises en œuvre contre des militants d’extrême-gauche dont les comportements ont été qualifiés par la police comme relevant du terrorisme pour bénéficier de pouvoirs de censure exceptionnels. Donc ça a déjà été fait, et s’ils veulent étendre possibilités, c’est pour lutter contre Daesh certes, mais aussi contre l’extrême-gauche. Historiquement, les lois de censure ou lois scélérates ont été mises en œuvre pour réprimer les mouvements anarchistes.
Les plateformes et les gouvernements sont-ils main dans la main en matière de censure en ligne ?
Il y a vraiment une rupture en 2015, les attentats en France ont été un déclencheur. Avant cette date, dans les rapports de transparence de Facebook, la France était le pays qui faisait le plus de demandes de retraits de contenu de la part de la police, bien devant l’Inde, par exemple. Après 2015, c’est devenu presque zéro, il n’y avait pratiquement plus de signalements faits par la police, parce que Facebook a pris en interne toutes les demandes : la plateforme faisait elle-même le travail de détection des contenus terroristes. Ce qui révèle bien l’évolution.
Il faut voir que, entre les plateformes et le gouvernement, tout le monde a à y gagner dans ce jeu-là : d’un côté les plateformes gagnent en légitimité, ce qui est bon pour les affaires… et leur permet également de continuer à enfreindre la loi en matière de protection des données personnelles et de publicité sans être jamais inquiétées, parce qu’elles font le sale boulot de la censure du Web pour le compte de l’État. Aujourd’hui, s’il n’y a pas quotidiennement des scandales, des affaires d’harcèlement qui conduisent au suicide, c’est aussi parce que Facebook et Google font le travail que ne fait pas la justice parce qu’elle n’est pas du tout équipée. Et ça les gouvernements en ont parfaitement conscience. Laetitia Avia l’a dit, elle considère Facebook comme un exemple de ce qu’il faudrait faire en termes de modération. Le gouvernement est très reconnaissant vis-à-vis des grandes plateformes. En échange, il n’est pas du tout regardant en matière de protection des données personnelles, et c’est notamment pour ça que le Règlement général sur la protection des données (RGPD) n’a jamais été réellement appliqué à ces entreprises depuis deux ans. Entre elles et les gouvernements, tout le monde est gagnant. Et tant que ces gigantesques plateformes existeront ce système perdurera parce que leur fonctionnement même pose problème en soi, et parce que la justice n’aura jamais les moyens de faire le travail de modération que font Facebook et Google.
Pour revenir à la « ligne éditoriale » des plateformes évoquée précédemment, en quoi celle-ci peut-elle être synonyme de ligne politique ? En d’autres termes, les plateformes sont-elles partisanes, peuvent-elles favoriser telle ou telle ligne politique, voire personnalité politique ?
Google et Facebook sont des publicitaires, leur métier consiste à mettre en avant des messages. S’ils sentent que leurs partenaires ont le vent dans le dos, qu’ils sont puissants, et qu’ils leur demandent de faire ceci ou cela, ils le feront volontiers, et de manière pro-active. Dans le cas des États-Unis, s’ils sentent que ce sera Biden qui va gagner les élections, ils suivront le vent et s’en prendront à Trump. Mais lorsque Trump était au pouvoir, ils se sont bien gardés de le faire. Ils sont là pour faire des affaires, pas pour être un service public, pour rendre service à l’humanité. La seule cause, c’est celle du plus offrant. Demain, vous arrivez avec des mallettes de billets pour promouvoir vos avions, vos 4×4 ultrapolluants, ils mettront votre publicité en premier – quitte à ce que cela contribue à détruire la planète.
Comment faire pour rompre avec le système de ces grandes plateformes ? Faut-il les démanteler ?
Pour nous, ces plateformes ne devraient pas exister. Nous ne défendons pas forcément l’idée d’un démantèlement de type antimonopolistique ; par contre il est clair que si on appliquait vraiment les mesures de protection des données personnelles, elles ne seraient plus en mesure d’être rentables, de fonctionner. Aujourd’hui, elles font des bénéfices uniquement parce qu’elles enfreignent la loi. Une application réelle du RGPD aurait donc potentiellement pour conséquence un démantèlement de fait.
Au-delà de la question de la protection des données, nous considérons qu’il faut limiter le pouvoir et le caractère central de ces plateformes. Il devrait y avoir une limite de taille à partir de laquelle on considère qu’une plateforme est géante et on lui impose une obligation d’interopérabilité. C’est-à-dire, obliger ces plateformes à ouvrir leur réseau aux autres plateformes, de sorte qu’il soit possible de partir de ces réseaux tout en conservant la possibilité d’interagir avec les utilisateurs de la plateforme : envoyer un message, suivre un fil, etc. C’est typiquement le fonctionnement du mail : on peut avoir des logiciels ou serveurs de mail différents, mais ils sont tous capables de fonctionner en interopérabilité. Idem pour le Web : il existe un nombre très différent de navigateurs et de serveurs qui permettent d’afficher des pages Web. Cette obligation d’interopérabilité pourrait s’appliquer aux messageries instantanées comme Whatsapp, Telegram, Signal ou encore Messenger : il suffirait d’un logiciel de messagerie pour échanger avec les utilisateurs de toutes ces applications.
Là encore, l’obligation d’interopérabilité pourrait conduire à un démantèlement de fait des grandes plateformes. Ou du moins, une réduction de leur taille, en favorisant le développement d’une myriade de nouveaux outils de réseaux sociaux, vers lesquels les gens iraient plus facilement. Ce principe d’interopérabilité progresse dans les esprits. Cela fait deux ans que le patron de Twitter évoque l’idée d’un protocole dont Twitter serait un client – devenant ainsi une plateforme parmi d’autres au sein d’un plus grand réseau. Une manière, peut-être, d’anticiper les évolutions réglementaires dans un contexte où le principe d’interopérabilité est de plus en plus discuté dans différentes instances.
Au-delà des initiatives réglementaires ou des anticipations des industriels, des alternatives ont déjà été mises en place par des bénévoles et militants. Ces outils de réseaux sociaux interopérables constituent le Fediverse, l’univers de toutes les plateformes fédérées et interconnectées par le protocole de communication ouvert ActivityPub, publié par l’organisme de normalisation du Web (W3C). Nous y contribuons à travers notre propre instance du réseau social Mastodon. Tout ceci montre bien qu’il ne s’agit pas d’utopie, mais d’alternatives nécessaires face à la mainmise des grandes plateformes.
Propos recueillis par Frédéric Lemaire, Pauline Perrenot et Mathias Reymond
[1] Voir à ce sujet l’interview d’une travailleuse qui a oeuvré pour l’amélioration de l’algorithme d’intelligence artificielle de l’assistant vocal de Microsoft, Cortana.
[2] Un article de Mediapart relayait à cet égard les inquiétudes des activistes LGBT français à propos de suppressions de comptes et de messages sur Twitter et Facebook.