Analyse de la deuxième année d’activité du conseil de surveillance de META : L’évolution en demi-teinte d’une cour suprême qui peine à en mériter le nom
L’étude des décisions rendues par le Conseil de surveillance de Meta en 2022 met une nouvelle fois en lumière tout à la fois son rôle et ses limites. Destiné à contrôler les décisions de modération prises par l’entreprise et ainsi protéger la liberté d’expression sur Facebook et Instagram à l’appui de normes relevant du droit international, le Conseil de surveillance s’est illustré par la sensibilité des sujets qu’il a eu à traiter, et des solutions qu’il a dégagées aussi bien pour les utilisateurs que pour l’entreprise. Il apparaît en définitive qu’il accorde une protection conséquente à la liberté d’expression et émet des critiques pertinentes à l’égard de Meta, bien que son influence doive être relativisée tant son champ d’action reste limité. Le risque de privatisation de la justice, lui, ne peut être tout à fait écarté, de même que la non-conformité partielle de ce mécanisme aux impératifs prévus par le Digital Services Act.
Par Baptiste Charvin, doctorant contractuel à l’université Paris Panthéon-Assas, Centre de Droit Public Comparé (CDPC EA7320).
En 2018, le projet de création du Conseil de surveillance de Meta (Oversight Board) était enclenché après les multiples scandales au cœur desquels l’entreprise s’est retrouvée (l’utilisation des données personnelles dans le cadre d’élections ou encore la prolifération de discours de haine et de désinformation). Sous pression, Marc Zuckerberg avait choisi de mettre en place une « cour suprême » destinée à résoudre les litiges nés des décisions de modération prises par Meta sur Facebook et Instagram, soulevant par là-même un très grand nombre de critiques[1]. D’aucuns ont en effet considéré qu’il s’agissait d’un moyen pour l’entreprise de fuir ses responsabilités tout en gardant le pouvoir de modération entre ses mains par l’intermédiaire d’un organe placé sous son influence tandis que d’autres ont salué un effort de démocratisation[2]. C’est donc sur des bases fragiles que le Conseil de surveillance fut installé en 2020, d’autant que sa création et son évolution s’inscrivent dans un climat particulier de remise en cause par les pouvoirs publics du rôle joué par les plateformes, notamment sur l’exercice de la liberté d’expression en ligne dont les dérives ont pu avoir de graves conséquences dans la réalité. En France, les tentatives d’encadrement des réseaux sociaux sont nombreuses[3] mais c’est surtout au niveau européen que les efforts sont les plus fournis, notamment avec le Digital Services Act qui devrait faire son entrée en vigueur dans les semaines à venir pour les très grandes plateformes en ligne[4] et dont l’article 20 prévoit l’obligation de mettre en place un système interne de traitement des réclamations, auquel pourrait partiellement correspondre le Conseil de surveillance de Meta[5]. Ce dernier a d’ailleurs bien pris en compte le texte européen, dont l’application lui permettrait selon lui de devenir plus puissant[6].
Composé actuellement de vingt-deux membres, il est chargé de protéger la liberté d’expression en analysant les décisions de modération prises par Meta, qu’il se soit agi de supprimer du contenu ou de le maintenir en ligne sur Facebook ou Instagram. Il peut être saisi en appel après épuisement des voies de recours en interne aussi bien par les utilisateurs que par l’entreprise elle-même, qui peut par ailleurs lui demander des avis consultatifs sur des questions spécifiques. Son rôle est de trancher des litiges portant sur des affaires « qui ont le plus grand potentiel pour guider les décisions et politiques futures »[7]. Pour se faire, le Conseil s’appuie sur de nombreux textes internationaux comme le Pacte International Relatif aux Droits Civils et Politiques (PIDCP) ou les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme pour interpréter les standards de la communauté de Facebook et d’Instagram. Il peut dans ce cadre émettre des recommandations (notamment sur l’utilisation des algorithmes[8]) et prendre des décisions contraignantes pour l’entreprise.
Quelques mois seulement après son installation, le Conseil de surveillance fut confronté à un cas sans précédent qui a eu le mérite de le placer au cœur du débat public : la suspension par Meta de l’ancien Président des États-Unis Donald Trump sur Facebook et Instagram[9]. Après application de son test de proportionnalité, le Conseil de surveillance avait alors confirmé la décision de suspension, tout en précisant qu’elle devait être limitée dans le temps[10]. De moindre envergure, les autres décisions rendues par le Conseil durant l’année ont toutes porté sur des problématiques majeures. Le rapport publié par le Conseil pour l’année 2021 est à ce titre riche d’enseignements. Tout d’abord, sur les limites matérielles et humaines du Conseil dont l’office a été surchargé. Ce sont en effet plus d’un 1,5 million de cas qui lui ont été soumis en l’espace d’un an, soit plus de 2600 par jour[11]. Vingt décisions ont finalement été rendues[12]. Entre octobre 2020 et décembre 2022, ce sont au total plus de 2,5 millions d’appels qui ont été effectués auprès du Conseil[13]. De même le bilan révèle une disparité géographique très importante. Alors que les violations des droits humains sont nombreuses en Asie ou encore au Moyen-Orient et en Afrique et que les réseaux sociaux y sont cruciaux pour s’informer en l’absence d’organes de presse libres et indépendants, les chiffres nous apprennent que 2/3 des cas qui ont été soumis provenaient des États-Unis, du Canada et de l’Europe. Pour autant, plus de la moitié des décisions rendues par le Conseil portait sur des pays du Sud, ce qui témoigne malgré tout une volonté de prendre en compte tous les continents[14].
L’étude des décisions rendues par le Conseil de surveillance en 2022 révèle qu’il a su s’affirmer progressivement et effectivement, établir une jurisprudence cohérente qu’il a su ériger au premier rang de ses sources d’autorités. Il est à cet égard intéressant de noter que le Conseil a opéré un changement terminologique dans ses décisions[15], qui l’a conduit à faire figurer au premier rang de ce sources avant même les standards de la communauté, les décisions qu’il a rendues par le passé. Le Conseil fut une nouvelle fois confronté à des cas hautement difficiles en cette deuxième année. Si les sujets sont variés, il est possible de catégoriser les décisions selon leur portée et le contexte de l’affaire. Il apparaît que le Conseil revêt un rôle d’aiguilleur (I) tandis que son influence à l’égard de Meta ne semble s’être que relativement renforcée (II).
I. Le rôle d’aiguilleur du Conseil de surveillance s’agissant des règles de modérations
C’est dans deux domaines en particulier que le Conseil de surveillance s’est illustré. Ses décisions sont venues apporter des précisions sur les règles à appliquer en temps de crise (A) et ont contribué à la lutte contre les discriminations (B).
A. Un éclaircissement nécessaire en périodes de graves crises politiques et sociales
1. Le rappel nécessaire du rôle crucial des réseaux sociaux dans des contextes difficiles
Il ne fait aucun doute que les réseaux sociaux sont devenus le champ de bataille d’une lutte informationnelle majeure à laquelle participent les utilisateurs[16]. Déjà perceptible en circonstances ordinaires, ce phénomène l’est encore plus en périodes de conflits. Ainsi que l’écrit le Conseil de surveillance : « dans les contextes de guerre ou de troubles politiques, les contenus violents et explicites seront de plus en plus nombreux à être capturés par les utilisateurs et partagés sur la plateforme dans le but de sensibiliser aux infractions ou d’en attester »[17]. Pour preuve, l’invasion de l’Ukraine par la Fédération de Russie en février 2022 a donné lieu à un afflux spectaculaire d’informations et de contenus, parfois violents et partagés à une vitesse fulgurante. Ce « premier conflit majeur à l’ère du numérique »[18] a rendu nécessaire le réexamen par Meta de sa politique, à tel point que dès le début de l’offensive, l’entreprise avait indiqué à ses modérateurs autoriser temporairement « des formes d’expression politique qui seraient normalement contraires à nos règles d’utilisation », de telle sorte que si « les appels à la violence contre les civils russes » n’étaient pas autorisés, il était toutefois permis d’appeler à la mort de leurs dirigeants dès lors que les violences n’étaient pas susceptibles de se concrétiser[19]. Cette « décision temporaire prise dans des circonstances extraordinaires et sans précédent » selon les propres termes de Nick Clegg ne s’appliquait toutefois qu’aux utilisateurs ukrainiens. Cette décision était justifiée par la volonté de Meta de permettre aux Ukrainiens d’exprimer leur résistance et de condamner l’envahisseur par des contenus qui en temps normal seraient supprimés[20]. C’est dans ce contexte si particulier comme dans tant d’autres que le Conseil de surveillance a dû s’interroger sur la conciliation à opérer entre la liberté d’expression (et son corollaire, le droit à l’information) avec les règles relatives aux contenus violents et explicites ou encore aux contenus incitant à la haine ou à la violence. Qu’il s’agisse de la propagande en temps de guerre ou de servir les intérêts d’un pouvoir en place, comme ce fut le cas dans les décisions du 4 octobre[21] et du 16 novembre 2022[22] relatives à la guerre en Ukraine et le conflit en Tigré ; qu’il s’agisse d’alerter sur des événements en lien avec l’actualité et qui soulèvent des problématiques fondamentales telles que les violences policières[23] ou des manifestations[24], la protection des mineurs et le rôle de la justice[25] ou encore le terrorisme[26], les décisions du Conseil de surveillance rendues cette année sont venues dessiner les contours de ce qui doit être jugé admissible en temps de guerre et de vives tensions, à défaut de l’être en temps de paix.
C’est en effet à des analyses in concreto que le Conseil de surveillance a recours. Le contexte entourant la publication du contenu revêt une importance capitale, ainsi qu’il avait déjà pu l’affirmer dès ses débuts, de même que l’intérêt public des questions soulevées[27]. Il avait ainsi affirmé que « l’approche franche et décontextualisée de Meta peut limiter la liberté d’expression de manière disproportionnée »[28]. C’est ainsi qu’à l’appui de sa décision relative à la suppression d’un contenu représentant un individu souffrant d’une blessure à la tête au Soudan dans un contexte de coup d’État, le Conseil a relevé les difficultés d’accès à l’Internet, restreint à plusieurs reprises par l’armée[29] pour justifier l’importance qu’il revêtait. Et le Conseil de souligner que la vidéo concernée « a été prise dans un contexte de protestations généralisées et de réelles inquiétudes quant à la liberté de la presse au Soudan ». Après avoir été supprimé pour avoir enfreint la politique de Facebook relative au contenu violent, le contenu avait été finalement restauré après application de l’intérêt médiatique[30]. C’est également à partir du contexte que le Conseil de surveillance va affirmer que lors « d’un conflit armé, marqué par une histoire de violence sectaire et de violations du droit international, les valeurs de dignité et de sécurité prévalent dans ce cas pour protéger les utilisateurs de contenus qui présentent un risque accru de violence », et ce, surtout lorsque l’utilisateur a de l’influence[31]. Le Conseil note en effet que dans pareille situation, « l’entreprise a également la responsabilité d’établir un système de modération du contenu fondé sur des principes et transparent lorsqu’il existe une probabilité raisonnable que le contenu parvienne à inciter à la violence ». Meta doit ainsi prendre des décisions rapidement et ne peut laisser prospérer en ligne un contenu susceptible d’avoir de graves conséquences dans le monde réel. Le Conseil a pu préciser que les « les plateformes de Meta jouent un rôle prépondérant dans les conflits et les situations de crise dans le monde entier et l’entreprise doit être prête à réagir rapidement et systématiquement pour éviter toute erreur ». Meta ne saurait pas non plus hiérarchiser les conflits. A cet égard il est intéressant de constater que le Conseil note une différence de traitement, de telle sorte par exemple que la guerre opposant la Russie à l’Ukraine a donné lieu à des mesures rapides, ce qui n’est pas le cas dans tous les contextes et dans tous les pays.
2. Le Conseil de surveillance et l’effort de modération en temps de guerre : un renfort nécessaire
Le Conseil de surveillance s’est dans ce cadre retrouvé confronté à un contenu publié par un utilisateur letton ayant publié sur Facebook la photo d’un cadavre à Boutcha. La photo était accompagnée d’un texte comparant l’armée russe à l’armée nazie pendant la Seconde guerre mondiale et comportant un extrait d’un poème intitulé « Kill him ». Considérant que le contenu violait le standard de la communauté relatif aux discours haineux, le contenu avait été supprimé après examen manuel, solution confirmée en appel. Ce n’est qu’après saisine du Conseil par l’utilisateur que Meta admit son erreur, restaura le contenu et appliqua un écran d’avertissement[32]. Selon une « jurisprudence » constante du Conseil, la restauration du contenu par Meta n’implique pas que le Conseil se dessaisisse, de sorte qu’il lui revient d’apprécier la pertinence de la décision initiale de suppression. A l’issue de son contrôle de proportionnalité, le Conseil de surveillance a estimé que l’utilisateur souhaitait non pas inciter à la violence mais informer sur les actions commises par l’armée. De même, ce sont les soldats à raison de leur qualité et non de leur nationalité qui étaient visés. Conformément à la position du Comité des droits de l’homme des Nations-Unies[33], le Conseil de surveillance déduit que si protéger les Russes constitue un objectif légitime, tel n’est pas le cas de la protection des soldats et de l’armée. La suppression n’était ainsi pas justifiée, ceci d’autant plus qu’elle n’était pas « susceptible de contribuer de manière significative à l’exacerbation des violences ». Le contenu devait en définitive être analysé différemment dans ces circonstances, dès lors que le droit international autorise le recours à la violence comme elle est permise contre une armée lors d’une invasion. Le contenu doit également être analysé différemment dès lors qu’une personne qui a de l’influence en est à l’origine, dans la droite ligne de l’affaire Trump[34]. Cette interprétation soulève bien des difficultés. D’abord parce que faire la distinction entre un contenu visant les soldats russes, a contrario des civils russes n’est pas chose aisée, a fortiori dans un contexte de traitement automatisé de modération. Il faudrait alors recourir à un examen manuel, ce que l’on imagine compliqué. Le risque d’erreur est donc très élevé. Ensuite, parce que si l’on peut condamner l’invasion de l’Ukraine par la Russie, l’on peut également s’interroger sur la nécessité de vilipender une telle armée, constituée selon les modalités que l’on connaît.
3. Une protection renforcée du droit à l’information par le Conseil de surveillance
Au fil de ses décisions, le Conseil de surveillance a consacré un droit conséquent à l’information et accordé une importance capitale à la liberté d’expression dès lors que l’objectif est d’informer et sensibiliser les populations et qu’il y a un intérêt public à alerter sur certaines questions. C’est sur ce fondement que le Conseil a annulé la décision de Meta de supprimer un contenu publié par un journaliste portant sur le laxisme de la justice suédoise et sur les violences sexuelles sur mineurs, alors estimé contraire aux standards sur l’exploitation sexuelle, la maltraitance et la nudité d’enfants[35]. Il en va de même pour la dénonciation des violences policières en Colombie, qui est une « question d’intérêt public majeur et prioritaire » mais que Meta avait supprimé sur le fondement des standards relatifs aux personnes et organisations dangereuses[36]. Et le Conseil de préciser une nouvelle fois s’agissant du partage d’une vidéo sur laquelle apparaissent des victimes d’une attaque terroriste au Nigéria, que « les utilisateurs doivent impérativement être en mesure de sensibiliser l’opinion sur les développements récents, de documenter les violations des droits humains et de promouvoir la responsabilité des auteurs d’atrocités » et ce, même si les images publiées sont choquantes[37]. Là encore, il ne s’agit que de ce qu’avait déjà affirmé le Conseil par le passé, considérant que « la suppression de contenu qui sert le public et est relatif à une question d’intérêt public nécessite des arguments particulièrement probants pour être proportionnée »[38]. Ceci est vrai autant lorsqu’il s’agit d’informer sur un conflit en cours, que sur le sort et la condition de certaines minorités.
B. Les apports du Conseil de surveillance dans la lutte contre les discriminations
1. La protection des utilisateurs à raison de leur genre ou de leur orientation sexuelle
Les réseaux sociaux sont également le lieu où les utilisateurs peuvent alerter sur la condition sociale des minorités et les dangers qu’elles encourent dans des pays et situations donnés. C’est en tout cas la position du Conseil de surveillance, qui affirme « que les espaces de discussion en ligne sont particulièrement importants pour les groupes qui font l’objet de persécutions, et les médias sociaux doivent prêter une attention toute particulière pour protéger les droits de ces groupes »[39]. Ceci est particulièrement vrai pour les membres de la communauté LGBT, qui, « dans les pays restreignant leur liberté d’expression, ne disposent souvent que des médias sociaux pour s’exprimer en toute liberté »[40].
Une nouvelle fois, les affaires soumises à l’examen du Conseil ont soulevé des problématiques complexes. En premier lieu, il s’est agi de se prononcer sur la suppression d’un contenu comportant des termes en arabes employés pour dénigrer les hommes aux comportements efféminés dans le monde arabophone. L’utilisateur concerné avait publié ces mots sur Instagram après avoir été victime de ces insultes. Faisant nommément référence à la décision Toonen c. Australie du Comité des droits de l’homme de 1992[41], le Conseil de surveillance affirme que la protection des droits d’autrui à l’égalité et à la protection contre la violence et la discrimination basées sur l’orientation sexuelle et l’identité de genre constituait bel et un bien objectif légitime mais que la suppression du contenu n’était pour autant pas proportionnée, notamment parce que c’est le carrousel[42] entier qui fut supprimé, non pas la seule photo concernée. Le choix de recourir à la jurisprudence du Comité des droits de l’homme fait évidemment sens au regard des normes que le Conseil est en charge d’appliquer mais il ne peut que surprendre tant de telles références sont peu nombreuses dans ses décisions. Ce choix pourrait être justifié aussi bien par une volonté d’éclairer la décision rendue au cas d’espèce que par la volonté de l’orienter à dessein dans le sens souhaité à l’aide d’un argument d’autorité.
Le Conseil de surveillance a également mis son examen au profit des Dalits, des femmes indiennes victimes d’une ségrégation sociale et d’une marginalisation économique dans le pays. Le contenu, une vidéo montrant une femme se faire agresser par un groupe d’hommes avait été supprimée au motif que le contenu était explicite. Le contenu a finalement été restauré avec apposition d’un écran d’avertissement. Mettant en balance le droit à la vie privée avec la nécessité de sensibiliser à la violence contre les groupes marginalisés, le Conseil de surveillance a donc confirmé la décision de Meta de le remettre en ligne.
2. La protection des utilisateurs à raison de leurs handicaps ou problèmes de santé
Enfin, ce sont les personnes souffrant d’un handicap que le Conseil de surveillance est venu protéger. Un utilisateur porteur d’un trouble du déficit de l’attention avec ou sans hyperactivité (TDAH) avait demandé sur un groupe Facebook comment aborder la question de l’Adderall à son médecin et se faire prescrire le médicament sur ordonnance[43]. Après examen manuel, il avait été considéré que le contenu allait à l’encontre des standards relatifs aux biens et services restreints. Effectuant son test classique de proportionnalité, le Conseil a conclu que la décision initiale de supprimer le contenu n’était pas justifiée. Outre le fait que les standards n’étaient pas suffisamment clairs, fautes d’avoir été mis à jour ailleurs qu’aux États-Unis, le Conseil relève que la distinction entre « médicaments non médicaux » et les « produits pharmaceutiques », qui aurait permis au contenu d’être maintenu en ligne, n’existait pas au moment des faits. Il est sur ce point regrettable que le Conseil ne se prononce pas davantage sur la rétroactivité des standards de la communauté dès lors qu’ils deviennent plus souples. Un contenu supprimé sous l’empire des standards anciens aurait perduré s’il avait été publié sous l’empire des standards nouveaux. Ceci pose question dès lors que le contenu n’est pas remis en ligne après la mise à jour des règles. En définitive, cette décision fut l’occasion pour le Conseil de rappeler que « les personnes souffrant de TDAH ou d’autres problèmes de santé qui demandent des conseils sur des produits pharmaceutiques peuvent être affectées de manière disproportionnée par des erreurs de mise en application de la liberté d’expression ». Chose assez rare pour être soulignée, le Conseil fait directement référence à un commentaire public pour apprécier le choix de Meta. Ces décisions et celles qui sont mentionnées infra ont contribué à consolider en apparence la relation qui oppose le Conseil de surveillance à Meta et d’affermir son pouvoir, sans pour autant en faire un organe très puissant, de sorte qu’il faut une nouvelle fois relativiser son influence. Il ne faut à ce stade pas oublier que si les décisions rendues par le Conseil sont réputées avoir un poids important, elles ne s’appliquent qu’au cas d’espèce, de sorte que la politique de modération demeure bel et bien entre les mains de l’entreprise[44].
II. Une influence en trompe l’œil sur le fonctionnement de Meta
Les critiques émises par le Conseil de surveillance à l’égard de Meta sont légion. Il faut les distinguer selon qu’elles concernent les processus de modération, soit les mécanismes antérieurs à la prise de décision (A) ou les décisions elles-mêmes et leurs conséquences potentielles (B).
A. Une remise en cause nuancée des processus de modération
Étudier l’ensemble des procédés de modération nécessiterait des développements qui dépassent le cadre de cette étude. Seuls certains d’entre eux ont retenu notre attention : le rôle et le nombre des modérateurs ; le rôle des autorités publiques et le traitement automatisé des signalements, notamment via les banques d’images. L’une des décisions les plus motivées porte sur un contenu relatif à de la musique Drill publié sur Instagram[45]. Le contenu avait été supprimé à la demande de la police britannique à raison du rôle que joue ce type de musique dans la criminalité puis remis en ligne par erreur, avant d’être une nouvelle fois supprimé à l’occasion d’un rappel effectué par les autorités. C’est ici la transparence de Meta qui pose question lorsque ce sont des acteurs étatiques qui demandent à l’entreprise de supprimer du contenu. Dans des contextes différents, le traitement des demandes par des autorités publiques avait déjà posé problème s’agissant d’une requête effectuée par l’État d’Israël à Meta. Ce fut l’occasion pour le Conseil d’inviter l’entreprise à résister « aux pressions exercées par les gouvernements pour faire taire leur opposition politique »[46]. En l’espèce, le Conseil reproche à Meta d’avoir fait primer la sécurité sur la liberté d’expression et de manquer une nouvelle fois de transparence et pointe des failles importantes puisque les demandes effectuées par les autorités le sont par l’intermédiaires de mécanismes fermés et extérieurs à la plateforme. Ils relèvent en définitive « d’un niveau d’accès privilégié de la police aux équipes interne chargées de la mise en application de la loi ». Et le Conseil de préciser que : « L’entreprise ne peut pas permettre que sa coopération avec la police soit opaque au point d’empêcher les utilisateurs d’accéder à des recours en cas de violations potentielles des droits de l’homme ». En définitive, la suppression du contenu n’était pas justifiée car il n’était pas susceptible d’avoir des conséquences néfastes dans le monde réel. Par cette décision, le Conseil ne s’est pas seulement opposé à l’entreprise mais aux aussi forces de police britannique, laquelle a par ailleurs coopéré dans l’affaire. Bien entendu, ce positionnement peut poser problème puisque comme cela a été souligné, le Conseil de surveillance s’est ici érigé en véritable juge, estimant que les preuves fournies par l’entreprise et par la police britannique n’étaient pas suffisantes[47].
L’un des nombreux problèmes bien connus porte sur le nombre et la formation des modérateurs. A cet égard, le Conseil note non seulement que les informations qui leur sont transmises ne sont pas claires[48] de même que la traduction des standards et les informations fournies en anglais[49]. En l’absence de moyens humains suffisamment conséquents, le traitement des signalements se fait de manière automatisée, avec le risque d’arbitraire que cela implique. Cela transparaît clairement en ce qui concerne les banques d’images. Elles permettent une fois qu’une photo ou une vidéo est ajoutée par un utilisateur sur Facebook ou Instagram de la supprimer dès lors qu’elle correspond à une image située dans une banque de données et marquée comme portant atteinte aux standards de la communauté. Nombre de décisions automatiques prises sur le fondement de ces banques de données ont conduit à une interprétation erronée qui a nécessité un réexamen manuel. Par exemple, le Conseil note que « 215 utilisateurs ont fait appel des suppressions et 98% de ces appels ont abouti ». Ce titre n’est qu’indicatif, Meta ayant par ailleurs refusé de divulguer le taux d’erreurs[50]. Ces critiques ne sont pas exhaustives et portent aussi sur les décisions elles-mêmes et leurs conséquences.
B. Une remise en cause frontale des décisions de modération dénuée de réelles conséquences
1. Le constat d’un manque flagrant de transparence
Sans revenir ici non plus en détails sur l’intégralité des éléments contestables qui résident dans les décisions de modération, certains méritent d’être soulignés. En premier lieu, il faut songer aux conséquences des choix de modération opérés par Meta. Il faut d’abord souligner une continuité jurisprudentielle indéniable, notamment s’agissant du principe de légalité, lequel n’est dans la quasi-totalité des cas pas respecté. Le Conseil fait en effet appel à des principes qu’il avait lui-même dégagés. Il en va ainsi du principe selon lequel les standards de la communauté Facebook doivent s’appliquer de la même manière sur Instagram[51] mais dont la portée est à nuancer puisque le Conseil a été dans l’obligation de pointer l’insuffisance de Meta en la matière. Le non-respect du principe de légalité est sans aucun doute le plus problématique et transparaît clairement dans un élément nouveau invoqué par Meta pour justifier une décision de modération. Pour supprimer une vidéo comparant les Serbes à des rats, en lien avec le conflit ayant eu lieu en Yougoslavie, Meta s’était fondée non pas sur la lettre de la politique de l’entreprise, mais son « esprit »[52]. Une telle interprétation ouvre voie à l’arbitraire eu égard à la part massive de subjectivité qu’elle est susceptible de laisser. Ce recours à un supposé esprit de la politique de l’entreprise est paradoxal à double titre. D’abord, cela va à l’encontre des consignes données aux modérateurs, puisque ceux-ci doivent « appliquer la lettre de la politique, et non d’évaluer son intention, afin d’éviter toute subjectivité et d’appliquer les standards Facebook de manière cohérente ». Ensuite, la lettre des standards aurait tout à fait pu être appliquée en l’espèce, sans qu’il ne soit besoin de se référer à un quelconque esprit, de telle sorte que Meta même interprète mal les règles qu’elle a pourtant écrites. Le Conseil ne pouvait donc que naturellement dénoncer la « confusion qui a régné tout au long du processus de modération ». De manière plus étonnante, l’on apprend sous la plume du Conseil que Meta ne conserve pas trace des motivations des décisions prises par les modérateurs, de sorte que l’on n’a que très peu d’explication sur leurs actions[53], l’entreprise elle-même n’étant pas en mesure de fournir des précisions au Conseil[54]. Il existe donc toujours un problème conséquent de transparence que le Conseil ne peut d’évidence tout seul régler. Il faut ici rappeler que l’article 12 du DSA prévoit précisément que ces plateformes doivent indiquer « dans leurs conditions générales les renseignements relatifs aux éventuelles restrictions qu’ils imposent. […] Ils sont énoncés clairement et sans ambiguïté et sont publiquement disponibles dans un format facilement accessible »[55]. Sur ce point donc, il appartiendra aux autorités publiques de faire en sorte que ce principe soit respecté, car il est de l’essence même du principe de légalité de permettre aux citoyens « de régler leur conduite et de bénéficier d’une protection adéquate » [56]. Nul doute sur ce point que les recommandations faites par le Conseil sauront les guider.
Précisément, à la lecture des décisions rendues, l’on s’aperçoit que les erreurs de modération, et notamment les faux positifs[57], sont très nombreuses. Comme nous l’avions déjà souligné à l’image du Conseil, les erreurs sont inévitables, dès lors qu’il s’agit de « modérer du contenu à grande échelle »[58] et surtout lorsque qu’il existe « une pression temporelle »[59]. Cela implique nécessairement que les règles et les sanctions appliquées soient suffisamment claires. Si une certaine marge de tolérance est laissée à Meta, elle ne saurait être absolue puisque des règles vagues invitent « à une application arbitraire » qui ne « permet pas d’assurer un équilibre adéquat des droits concernés lors de la modération du contenu ». L’on ne peut à cet égard que regretter que le Conseil ne fasse pas preuve de plus de sévérité, étant entendu que ce sont des critiques qu’il a déjà eu l’occasion de formuler[60].
2. L’impact considérable des décisions de modération prises par Meta sur la liberté d’expression
Plus que les décisions elles-mêmes qui sont très souvent jugées disproportionnées, ce sont surtout « les conséquences négatives désastreuses »[61] qui peuvent poser problème puisqu’elles risquent de « priver un certain nombre d’utilisateurs de Facebook de l’accès à des informations sur des questions d’importance mondiale et ont empêché un média d’exercer sa fonction journalistique d’information au public ». C’est ainsi que la politique de Meta est accusée d’encourager l’autocensure et d’empêcher les journalistes de faire leur métier. Sur ce point une nouvelle fois, l’on ne peut que constater l’impuissance du Conseil, qui au-delà des mots, ne dispose pas du pouvoir nécessaire pour contraindre Meta à prendre de véritables mesures. Malgré le fait que ses recommandations soient en majorité suivies, « de graves préoccupations subsistent » quant à l’opacité des règles appliquées et les sanctions[62]. Comme il l’avait déjà fait en 2021 dans un rapport, le Conseil de surveillance s’étonne d’apprendre certains éléments par voie de presse. Et le Conseil de parler de « défaillance systémique »[63] et de « zones d’ombre » ainsi que de faire part à de nombreuses reprises de son inquiétude et son incompréhension, sans pour autant que cela ait pour le moment des conséquences notables, au moins sur l’entreprise elle-même. Il appartiendra donc en dernier lieu aux autorités nationales de faire le nécessaire.
Conclusion
A la lumière des décisions rendues en 2022 par le Conseil de surveillance, il est permis d’affirmer que ce dernier a gagné en confiance. Les décisions sont davantage motivées et ses membres ont bâti un vrai socle de jurisprudence. Le Conseil a d’ailleurs émis une feuille de route, faisant état de sept priorités et compte nommer de nouveau membres[64]. Toutefois, la nature des critiques émises à l’encontre de l’entreprise et les pouvoirs dont bénéficie le Conseil pour les concrétiser interrogent encore et toujours sur sa capacité à avoir une vraie influence sur les politiques de modération de Meta. Il faut donc encore attendre avant que le Conseil ne devienne un organe incontournable, si tant est qu’il le devienne un jour. A notre connaissance, aucune décision prise par le Conseil de surveillance n’a été mentionnée par une quelconque juridiction mais cela pourrait changer. Meta fait en effet l’objet d’une action en justice enclenchée par deux éthiopiens pour le rôle joué par l’entreprise dans la guerre au Tigré du fait de ses algorithmes et du contenu qu’elle a laissé prospérer[65]. Le Conseil de surveillance a justement rendu une décision dans ce cadre. Ses décisions sauront peut-être aiguiller les juges, à défaut d’avoir vocation à s’y substituer. Au demeurant, si le DSA prévoit qu’un tel système puisse être instauré, il faudra veiller à ce que les conditions prévues par le texte soient respectées. A cet égard, l’article 17 prévoit que « les plateformes en ligne traitent les réclamations soumises par l’intermédiaire de leurs systèmes internes de traitement des réclamations en temps opportun, de manière diligente et objective ».
Sur ce point, l’on ne peut que douter du respect du règlement européen compte tenu des moyens dont bénéficie le Conseil et qui ne lui permettent pas de répondre dans des délais satisfaisants aux recours qui lui sont soumis, pas plus d’ailleurs qu’ils ne lui permettent de faire face à la masse contentieuse. A cet égard, le rapport annuel pour l’année 2022 paru en juin 2023 fait état de ce que plus d’un million deux-cent mille affaires lui ont été soumises, soit une affaire toutes les 24 secondes[66]. Dans sa dernière étude annuelle, le Conseil d’État a pointé le risque que faisait peser le Conseil de surveillance sur une privatisation de la justice et a conclu que cette voie « pouvait difficilement être envisagée comme un modèle »[67]. Nous souscrivions à ce constat par le passé et notre point de vue n’a pas changé.
[1] Pour des études françaises sur le sujet, v. V. Ndior, « Le Conseil de surveillance de Facebook, service après-vente de la liberté d’expression ? », D., 2020, p. 1474. Du même auteur, v. « Le Conseil de surveillance de Facebook et la protection des libertés », RDLF, chron. n° 23, 2022. V. également V. Ndior et C. Lequesne Roth, « Réseaux sociaux et contre-pouvoirs : penser les nouveaux modes de régulation », D., n° 20, 2021. V. enfin V. J. Heymann, « La nature juridique de la “Cour suprême de Facebook” », in. M.-A. Frison-Roche (dir.), La juridictionnalisation de la compliance, Paris, Dalloz, 2023, pp. 151-168. L’on se permet également de renvoyer à notre analyse de l’ensemble des décisions rendues en 2021 par le Conseil de surveillance, in. « Le Conseil de surveillance de Facebook. Un modèle d’avenir pour la régulation de la liberté d’expression sur les réseaux sociaux ? », RDP, n° 4, pp. 1115-1141.
[2] A. Lemert, « Facebook’s Corporate Law Paradox », Va. Law Bus. Rev, vol. 17, no. 1, 2022, pp. 248-249.
[3] L’on songe ici à la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet (censurée en quasi-totalité par le Conseil constitutionnel, v. Décision n° 2020-801 DC du 18 juin 2020) ou encore à la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. Plus récemment, la Première ministre a annoncé un nouveau projet de loi visant à « assurer l’ordre public dans le numérique ».
[4] Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (DSA). Sur ce point, V. E. Dubout, « Modérer la modération : le Digital Services Act ou la civilisation du numérique », RTD Eur., n°1, 2023, pp. 37-36.
[5] E. Dubout, « Les conflits de droit fondamentaux à l’ère du numérique », in. Bertrand, B. (dir.), La politique européenne du numérique, 1e édition, Bruxelles, Bruylant, 2022, p. 145.
[6] S. Levy, « Inside Meta’s Oversight Board: 2 Years of Pushing Limits », Wired.com, 8 nov. 2022, URL : https://www.wired.com/story/inside-metas-oversight-board-two-years-of-pushing-limits/
[7] Charte du Conseil de surveillance, art. 2.1.
[8] E. L. Pickup, « The Oversight Board’s Dormant Power to Review Facebook’s Algorithms », JREG Bulletin, n° 39, 2021, pp. 1-22.
[9] V. F. G’sell, Le conseil de surveillance de Facebook et l’affaire Trump. Les limites du concept de « tribunal d’entreprises » : JCP G 2021, act. 566.
[10] Conseil de surveillance, 5 mai 2021, Décision n° 2021-001-FB-FBR, « Suspension de l’ancien Président Trump ». Donald Trump a depuis fait son retour sur Facebook et Instagram à la suite d’une décision unilatérale prise par Meta en janvier 2023. L’ancien Président avait été suspendu deux ans. URL : https://oversightboard.com/news/6274494105946760-oversight-board-response-to-meta-s-announcement-on-former-president-trump/.
[11] Conseil de surveillance, « Rapport annuel 2021 », 2022, p. 14.
[12] Idem, p. 22.
[13] Conseil de surveillance, « Oversight Board Q4 2022 transparency report », 2023, p. 3.
[14] Ibid.
[15] Le Conseil parlait autrefois de « standards pertinents ».
[16] C. Marange, M. Quessard (dirs.), Les guerres de l’information à l’ère numérique, Paris, PUF, 2021.
[17] Cons. surveil., 4 oct. 2022, décision n° 2022-006-FB-MR, « Bureau des affaires de communication du Tigré ».
[18] D. Colon, « L’information au risque de la guerre », Esprit, n° 9, 2022, p. 98.
[19] « Facebook allows posts urging violence against Russian invaders », Reuters.com, 11 mars 2022, URL : https://www.reuters.com/world/europe/exclusive-facebook-instagram-temporarily-allow-calls-violence-against-russians-2022-03-10/
[20] « Meta’s Ongoing Efforts Regarding Russia’s Invasion of Ukraine », aboutfb.com, 26 févr. 2022, URL: https://about.fb.com/news/2022/02/metas-ongoing-efforts-regarding-russias-invasion-of-ukraine/. Il faut ici souligner que Meta avait saisi le Conseil de surveillance pour une demande d’orientation stratégique concernant les décisions de modération liées à la guerre en Ukraine avant de se rétracter pour des raisons de sécurité sans que davantage de précisions ne soient données, au grand regret du Conseil. V. https://transparency.fb.com/fr-fr/oversight/oversight-board-cases/ukraine-russia-pao/ et https://oversightboard.com/news/382264103827624-protecting-freedom-of-expression-and-human-rights-in-ukraine-and-russia/
[21] Décision n° 2022-006-FB-MR.
[22] Cons. surveil., 16 nov. 2022, décision n° 2022-008-FB-UA, « Poème russe ».
[23] Cons. surveil., 15 sept. 2022, décision n° 2022-004-FB-UA, « Dessin représentant la police colombienne ».
[24] Cons. surveil., 13 juin 2022, décision n° 2022-002-FB-MR, « Vidéo explicite au Soudan ».
[25] Cons. surveil., 1er févr. 2022, décision n° 2021-016-FB-FBR, « Un journaliste suédois dénonce des violences sexuelles sur mineurs ».
[26] Cons. surveil., 14 déc. 2022, décision n° 2022-011-IG-UA, « Vidéo après l’attaque d’une église au Nigéria ».
[27] Cons. surveil., décision sur le cas 2021-003-FB-UA, n° FB-H6OZKDS3, 29 avril 2021 ; Conseil de Surveillance, décision sur le cas 2020-003-FB-UA, n° FB-H6OZKDS3, 29 avril 2021 ; Conseil de Surveillance, décision sur le cas 2020-005-FB-UA, n° FB-RZL57QHJ, 20 mai 2021.
[28] Décision sur le cas 2021-004-FB-UA.
[29] Décision n° 2022-002-FB-MR.
[30] L’intérêt médiatique est appliqué lorsque le contenu en question revêt un intérêt public. Un tel contenu bénéficie d’un contrôle renforcé et d’une protection accrue.
[31] Décision n° 2022-006-FB-MR.
[32] Sur ce point il faut noter qu’en 2022, le Conseil de surveillance a obtenu la possibilité d’enjoindre Meta à apposer un écran d’avertissement sur un contenu. Cette possibilité est une alternative intéressante à la suppression.
[33] A/RES/ES-11/1.
[34] Dans l’affaire du Tigré, il s’agissait d’une page officielle d’un organe régional.
[35] Décision n° 2021-016-FB-FBR. Sur ce point précis, il faut tout de même souligner que le contenu fut supprimé seize mois après sa publication, certes par erreur, mais ce délai est excessivement long. La suppression était consécutive à la mise à jour d’une banque d’images. On peut dès lors raisonnablement estimer qu’un contenu illicite ou enfreignant véritablement les standards de la communauté aurait pu perdurer aussi longtemps.
[36] Décision n° 2022-004-FB-UA.
[37] Décision n° 2022-011-IG-UA.
[38] Décision sur le cas 2021-005-FB-UA.
[39] Cons. surveil, 13 juin 2022, décision n° 2022-003-IG-UA, « Réappropriation de mots arabes ».
[40] Idem.
[41] Toonen v. Australia, Communication, n° 488/1992, U.N. Doc CCPR/C/50/D/488/1992 (1994).
[42] Cela correspond à « une seule publication Instagram pouvant contenir jusqu’à dix images décrites par une seule légende », in. décision n° 2022-011-IG-UA.
[43] Cons. surveil, 1er févr. 2022, décision n° 2021-015-FB-UA, « Demande d’Adderall ».
[44] S. Ross, « Speech Governance Is an Autocracy : The Case for Democratizing Facebook », UCLA Journal of Law and Technology, vol. 27, n° 1, 2022, p. 23.
[45] Cons. surveil, 22 nov. 2022, décision n° 2022-007-IG-UA, « Musique drill britannique ».
[46] Décision n° 2021-001-FB-FBR.
[47] C. Saillant, « Modération en ligne à la demande de la police londonienne : le Conseil de surveillance de Meta s’improvise régulateur et juge », Dalloz actualité, 15 déc. 2022, URL : https://www.dalloz-actualite.fr/flash/moderation-en-ligne-demande-de-police-londonienne-conseil-de-surveillance-de-meta-s-improvise-.
[48] Décision n° 2022-003-IG-UA.
[49] Décision n° 2022-011-IG-UA.
[50] Cons. surveil, 15 sept. 2022, décision n° 2022-005-FB-UA, « Mention des talibans dans les informations d’actualité ».
[51] Décision 2020-004-IG-UA citée dans 2020-006-IG-UA.
[52] Cons. surveil, 17 juin 2022, décision n° 2022-001-FB-UA, « dessin animé de Knin ».
[53] Idem.
[54] Décision n° 2022-005-FB-UA.
[55] Nous soulignons.
[56] CEDH, 4 février 2019, n° 58170/13, 62322/14 et 24960/15, Big Brother Watch et Autres c. Royaume-Uni, §403.
[57] Idem.
[58] Idem.
[59] Décision n° 2022-007-IG-UA.
[60] Décision sur le cas 2020-002-FB-UA ; Décision sur le cas 2021-003-FB-UA.
[61] Décision n° 2021-015-FB-UA.
[62] Décision n° 2022-005-FB-UA.
[63] Décision n° 022-001-FB-UA.
[64] Conseil de surveillance, « Le Conseil de surveillance annonce sept priorités stratégiques », Oct. 2022, URL : https://oversightboard.com/news/543066014298093-oversight-board-announces-seven-strategic-priorities/.
[65] N. Hoché-Bodin, « Deux Ethiopiens contre Facebook devant la justice kényane », Lemonde.fr, 19 avr. 2023, URL : https://www.lemonde.fr/afrique/article/2023/04/19/deux-ethiopiens-contre-facebook-devant-la-justice-kenyane_6170147_3212.html.
[66] Oversight Board, « Annual report. 2022 », 2023, p. 30.
[67] Conseil d’État, Étude annuelle 2022, Les réseaux sociaux : enjeux et opportunités pour la puissance publique, Paris, La Documentation Française, 2022, p. 174. Il est sur ce point à noter que le dernier rapport du Conseil de surveillance précité précise une nouvelle fois sa volonté d’inspirer d’autres entreprises afin qu’elles optent pour un tel modèle.