Le Conseil de surveillance de Facebook et la protection des libertés
Le Conseil de surveillance de Facebook est un mécanisme de recours accessible aux utilisateurs qui entendent contester les décisions adoptées par la plateforme en matière de modération. A première vue, seuls les standards privés, rendus opposables aux utilisateurs par l’entreprise, peuvent être invoqués pour soumettre une requête au Conseil et permettre à celui-ci d’évaluer l’adéquation des décisions de modération. En pratique toutefois, le Conseil de surveillance emploie une variété de référentiels issus du droit international des droits de l’homme pour critiquer les pratiques commerciales et techniques de l’entreprise qui l’a engendré.
Par Valère Ndior, professeur de droit public, Université de Bretagne occidentale
Les réseaux sociaux sont à la fois des espaces de promotion des droits et des libertés et des outils susceptibles d’entraîner leur dilution numérique. Initialement, ces plateformes de communication en ligne ont été créées par des entreprises, pour l’essentiel établies aux Etats-Unis, afin d’offrir des canaux d’interaction entre individus sur internet. Dotées alors d’une vocation principalement récréative ou informative, elles ont progressivement acquis un rôle décisif en tant qu’espaces de mobilisation de la société civile, notamment dans le contexte des Printemps arabes, ou de dénonciation de régimes peu respectueux des droits fondamentaux[1]. Elles sont aujourd’hui devenues incontournables : près de trois milliards d’utilisateurs emploient quotidiennement les services offerts par Facebook, Twitter, Snapchat ou TikTok. Toutefois, les publications qu’ils effectuent à flux constant (textes, images, vidéos, sons…) engendrent de nombreuses dérives que seuls les mécanismes dits de « modération » permettent de contenir par la suppression de contenus, le marquage de ceux-ci (étiquettes, labels, avertissements) ou l’éviction d’utilisateurs. Les propos discriminatoires, appels à la haine ou à la violence, dénigrements, diffamations, atteintes à la vie privée ou opérations de désinformation font partie des comportements nocifs que les plateformes doivent réguler en temps réel. L’enjeu pour les entreprises administrant les réseaux sociaux est à la fois de protéger leur modèle économique en conservant l’essentiel de leur audience sur les plateformes et d’éviter de s’exposer aux sanctions que pourraient leur infliger les autorités en cas de défaillance.
Deux des nombreuses difficultés d’ordre juridique et technique suscitées par la modération de contenus publiés sur les réseaux sociaux seront ici soulignées aux fins de contextualisation. La première est que la modération de contenus est effectuée par les entreprises sur le fondement de standards spécifiques qui ne se conforment pas aux lois et règlements, notamment en matière de droits de l’homme, et qui sont appliquées à l’échelle internationale sans s’adapter aux contextes culturels locaux. La seconde est que, lorsqu’elle n’est pas automatisée, la fonction de modération est confiée à des salariés ou des sous-traitants parfois situés dans des pays en développement et généralement peu armés pour déterminer (dans des délais contraints) l’adéquation des contenus[2]. Ces deux facteurs peuvent entraîner des pratiques de modération zélée ou hâtive, susceptibles de constituer une atteinte à la liberté d’expression et généralement animées par la crainte de sanctions juridictionnelles ou administratives – l’entreprise préfère trop modérer, à titre préventif. A l’inverse, certains contenus qui mériteraient d’être modérés en raison des atteintes qu’ils portent aux droits des individus, à l’ordre public ou aux processus démocratiques demeurent en ligne à la suite de décisions éminemment commerciales destinées à satisfaire différentes catégories de parties prenantes.
Bien que certaines jurisprudences nationales se saisissent des pratiques de modération des réseaux sociaux, l’on peut douter de la capacité des juridictions à traiter les requêtes potentielles de millions d’utilisateurs dépendant de leur ressort. Même dans l’affirmative, il n’est peut-être pas opportun qu’elles se saisissent d’un contentieux aussi dense et hétéroclite, englobant à la fois la suppression de photos de loisirs portant atteinte aux bonnes mœurs et le retrait des publications émanant de personnalités ou de gouvernements. La mise en œuvre de la modération repose donc pour l’essentiel sur les choix d’entreprises dont les centres de décision se situent sur un territoire distinct de ceux dont leurs utilisateurs sont ressortissants.
Dans ce contexte, la création du Conseil de surveillance de Facebook offre une perspective de réflexion intéressante sur l’existence de moyens alternatifs de protéger les droits de l’homme face aux atteintes suscitées par la modération de contenus. Cette entité créée par Facebook en 2020 prend la forme d’un mécanisme de recours accessible aux utilisateurs qui contestent les décisions adoptées par cette dernière en matière de modération. A première vue, seuls les standards privés, rendus opposables aux utilisateurs par l’entreprise, peuvent être invoqués pour soumettre une requête au Conseil et permettre à celui-ci de déterminer l’adéquation des décisions de modération[3]. L’invocation par les requérants d’instruments issus de leurs droits nationaux ou du droit international étant exclue, la pratique du Conseil pourrait être considérée comme anecdotique et excessivement sélective d’un point de vue matériel (I). En pratique toutefois, le Conseil de surveillance démontre décision après décision sa capacité à mobiliser des référentiels issus du droit international des droits de l’homme grâce aux instruments statutaires gouvernant son fonctionnement et celui de la société-mère de Facebook, Meta (II). Malgré les faiblesses structurelles susceptibles d’affecter son indépendance à long terme, le Conseil critique abondamment l’entreprise qui l’a engendré et dénonce des pratiques commerciales contraires aux droits des utilisateurs (III).
I. Un mécanisme de protection de la liberté d’expression
Le Conseil de surveillance a été installé en 2020 à la suite de l’engagement pris par le dirigeant de Facebook, Mark Zuckerberg, de créer un cadre à la fois rigoureux et proportionné de modération des contenus publiés sur la plateforme. Celui-ci avait invoqué, dans une série de communiqués et interventions médiatiques, des risques d’atteinte à la liberté d’expression des utilisateurs en l’absence de supervision ou de contrôle des activités de modération[4]. Sa préoccupation était d’autant plus prévisible que le Premier amendement à la Constitution des Etats-Unis fonde un régime étendu de protection de la liberté d’expression, lequel imprègne le fonctionnement des plateformes numériques[5]. C’est la raison pour laquelle avait été annoncée la création d’une « Cour suprême » dont la mission serait d’évaluer de façon indépendante l’adéquation de décisions de modération à la demande d’utilisateurs mécontents. La mission du Conseil de surveillance est, selon ses Statuts, de « protéger la liberté d’expression en prenant des décisions indépendantes et fondées sur des principes concernant des éléments de contenu importants, et en émettant des avis consultatifs sur les politiques en matière de contenu de Facebook »[6]. Le mécanisme, réputé indépendant, permet aux utilisateurs de Facebook et Instagram, estimant que leurs publications ont été censurées à tort, ou au contraire qu’une publication aurait dû être censurée, de faire appel de la décision de modération auprès du Conseil de surveillance. Le Conseil peut adopter des décisions contraignantes, annulant ou confirmant les mesures prises par les équipes de modération de Facebook, ainsi que des recommandations visant à améliorer les pratiques de l’entreprise.
Le mandat du Conseil de surveillance et ses procédures sont définis par plusieurs instruments : une Charte décrivant sa structure et ses pouvoirs, des Statuts fixant ses procédures, un Code de conduite énonçant les obligations de ses membres et un Règlement intérieur. Des modifications ont été apportés aux règles de procédure gouvernant le fonctionnement du Conseil en avril 2021 afin de rendre recevables les requêtes visant un contenu n’ayant pas été modéré (il n’était à l’origine pas possible de saisir le Conseil pour contester une décision de maintien d’un contenu signalé comme violant les standards de Facebook). Le Conseil de surveillance est actuellement composé de vingt-trois membres issus de la société civile dont trois ont été nommés en mai 2022, près de deux ans après les vingt premiers membres.
Fort d’une vingtaine de décisions portant sur des questions extrêmement variées (discours incitant à la haine, apologie du terrorisme, nudité, violence et incitation à la violence, etc.), le Conseil évolue dans les zones grises des qualifications juridiques. Il présente en effet les traits d’un organe de contrôle de conformité des activités d’une entreprise (à mi-chemin entre la compliance et l’audit), utilise certaines méthodes de travail d’un ombudsman et s’appuie sur une terminologie d’essence juridictionnelle. Il est doté à la fois du pouvoir d’adopter des décisions obligatoires à l’encontre de Facebook (sans disposer des moyens de faire exécuter la décision) et de celui de formuler des recommandations qu’il tend à insérer… dans les paragraphes de ses décisions à caractère obligatoire. Ses membres ne sont, pour la majorité, pas juristes de formation mais sont amenés à manier des raisonnements syllogistiques. Rappelons enfin que le fondement même des requêtes dénote par sa nature : une décision de modération émanant d’une entreprise à vocation commerciale et susceptible d’être invalidée pour avoir porté une atteinte disproportionnée aux droits des utilisateurs. L’intérêt significatif qui doit être accordé au Conseil est par ailleurs démontré par les statistiques de son activité. Entre le début de ses activités en octobre 2020 et la fin de l’année 2021, les utilisateurs de Facebook et Instagram ont soumis près de 600.000 requêtes tandis que l’entreprise, habilitée à soumettre des cas au Panel, en a déposé près d’une quarantaine[7]. Sur ces centaines milliers de requêtes émanant principalement de l’Europe et de l’Amérique du nord, le Conseil de surveillance a sélectionné une vingtaine de cas sur lesquels il a statué[8], émis une cinquantaine de recommandations et reçu une dizaine de milliers de commentaires émanant du public. L’une des décisions les plus médiatisées du Conseil est relative à la suspension du compte de Donald Trump. Par une décision du 5 mai 2021, le Conseil a estimé que le réseau social a à juste titre suspendu l’ancien président à la suite de l’Assaut du Capitole le 6 janvier 2021 en raison de risques d’amplification des contestations électorales, de pratiques systématiques de désinformation et d’appels à la violence, tout en déplorant le manque de transparence de Facebook sur ses critères de modération des publications de dirigeants politiques[9].
Si les mécanismes de réclamation et de médiation existent en abondance dans le milieu des entreprises, la sophistication du processus ici créé rivalise avec celle de nombre de mécanismes judiciaires d’origine publique. Outre leur longueur (entre dix et vingt pages), les décisions disponibles à ce jour s’illustrent par la technicité des raisonnements parfois suivis. Alors que les annonces médiatiques ayant précédé la création du Conseil de surveillance avaient suscité une certaine circonspection au sein de la doctrine[10], il semble que le mécanisme ait, par ses premières décisions, entendu démontrer sa capacité à manier une variété d’instruments juridiques. De manière notable, des instruments internationaux de protection des droits de l’homme sont considérés comme des référentiels du contrôle de conformité qui est opéré.
II. Le recours aux standards internationaux de protection des droits de l’homme
L’accroissement significatif du volume de requêtes et d’affaires traitées durant les premiers mois d’activité du Conseil de surveillance va de pair avec l’augmentation du nombre de références à des instruments internationaux de protection de droit de l’homme. En effet, comme le démontre le rapport d’activité du Conseil de surveillance publié à la fin de l’année 2021, le Conseil s’appuie sur une variété d’instruments, conventionnels ou non, ainsi que sur la pratique d’organes de traités, pour adopter ses décisions. Les deux Pactes internationaux de 1966, la Convention sur l’élimination de toutes les formes de discrimination raciale ou la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes font partie des textes ayant été cités à l’appui de décisions validant ou annulant les choix de modération opérés par Facebook[11]. Pour ce faire, le Conseil s’appuie à la fois sur ses textes statutaires ainsi que sur les engagements adoptés par Facebook-Meta en matière de droits de l’homme. Concernant d’abord ses textes statutaires, rappelons que l’article 2.2 de la Charte décrivant les pouvoirs du Conseil l’autorise à accorder une « attention particulière » aux règles pertinentes en matière de liberté d’expression, dans la continuité du Préambule de celle-ci qui lui confie explicitement une mission de protection de la liberté d’expression. La liberté d’expression est d’ailleurs présentée à plusieurs reprises comme un « droit humain fondamental » par les textes statutaires du Conseil. Bien que la Charte ne précise pas la nature des règles pouvant être invoquées par les utilisateurs en matière de liberté d’expression, elle exclut de façon nette l’application des droits nationaux (art. 7 de la Charte : « le Conseil ne prétendra pas appliquer la législation locale ») et limite la marge de manœuvre du Conseil au mandat qui lui a été confié (art. 1.4 : « Le Conseil n’aura aucune autorité ni aucun pouvoir au-delà de ceux expressément définis par la présente charte »). Concernant ensuite les engagements pris par Facebook-Meta, l’entreprise a adopté en mars 2021 le Corporate Human Rights Policy, un instrument interne décrivant les principes et standards qu’elle s’engage à respecter dans le cadre de ses activités. En préambule de ce document de six pages, Facebook-Meta exprime les engagements suivants :
« Nous nous engageons à respecter les droits de l’homme tels qu’ils sont énoncés dans les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme (…). Cet engagement englobe les droits de l’homme internationalement reconnus tels que définis par la Charte internationale des droits de l’homme – qui comprend la Déclaration universelle des droits de l’homme, le Pacte international relatif aux droits civils et politiques et le Pacte international relatif aux droits économiques, sociaux et culturels, ainsi que la Déclaration de l’Organisation internationale du travail relative aux principes et droits fondamentaux au travail. Selon les circonstances, nous utilisons également d’autres instruments internationaux relatifs aux droits de l’homme largement acceptés, notamment la Convention internationale sur l’élimination de toutes les formes de discrimination raciale ; la Convention sur l’élimination de toutes les formes de discrimination à l’égard des femmes, la Convention relative aux droits de l’enfant, la Convention sur les droits des personnes handicapées, la Charte des droits fondamentaux de l’Union européenne et la Convention américaine relative aux droits de l’homme »[12].
Grâce à un appui systématique sur cet engagement volontaire, lu en conjonction avec sa Charte, le Conseil de surveillance est en mesure d’interpréter les standards d’utilisation de Facebook et Instagram à la lumière d’instruments internationaux et de rapports d’experts. Le recours au Corporate Human Rights Policy n’explique cependant pas tout sur les méthodes de travail employées par le Conseil. En effet, cet instrument n’a été adopté dans sa version actuelle qu’en mars 2021 alors que les cinq premières décisions du Conseil de surveillance ont été publiées le 28 janvier 2021. Or, le Conseil appliquait déjà dans ces dernières des standards et instruments internationaux de protection des droits de l’homme incluant le Pacte international relatif aux droits civils et politiques (celui-ci est fréquemment mobilisé, notamment les articles 2 et 19), les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme, la pratique du Comité des droits de l’homme des Nations Unies (notamment l’Observation générale n° 34[13]) et les travaux du Rapporteur spécial des Nations Unies sur la promotion et la protection de liberté d’opinion et d’expression. Dans chacune des premières affaires, le Conseil s’inspirait même des tests développés par différents organes de protection des droits de l’homme (analyse de critères de légalité, de but légitime, de nécessité et de proportionnalité) pour déterminer l’adéquation des restrictions à la liberté d’expression résultant de décisions de modération. Pour fonder ce recours au droit international des droits de l’homme, le Conseil expliquait, dans un cas relatif aux publications encourageant le recours à l’hydroxychloroquine, être assimilable à un mécanisme de réclamation non judiciaire :
« En vertu des Principes directeurs des Nations Unies (PDNU), les entreprises devraient « respecter les droits de l’homme. Cela signifie qu’elles devraient éviter de porter atteinte aux droits de l’homme d’autrui et remédier aux incidences négatives sur les droits de l’homme dans lesquelles elles ont une part » (…) De plus, les PDNU précisent que les mécanismes de réclamation non judiciaires (tels que le Conseil de surveillance) doivent produire des résultats conformes aux droits de l’homme internationalement reconnus (…). En expliquant les raisons qui l’ont poussé à supprimer le contenu, Facebook a reconnu l’applicabilité des PDNU et du PIDCP à sa décision de modération du contenu »[14].
Il faut en déduire qu’avant même l’adoption du Corporate Human Rights Policy, le Conseil entendait s’affirmer en tant que mécanisme habilité à soumettre l’entreprise aux droits de l’homme, notamment pour encadrer ses pratiques de modération. L’adoption du Corporate Human Rights Policy quelques semaines après la publication de ces décisions pourrait alors être interprétée soit comme un moyen d’entériner la pratique émergente du Conseil pour la légitimer ex post (le Conseil est d’ailleurs mentionné dans le document), soit comme la simple formalisation d’un engagement préexistant en matière de droits de l’homme, lequel pouvait déjà être décelé dans la pratique de Facebook-Meta. En tout état de cause, le Conseil de surveillance a persisté dans sa démarche de mobilisation du droit international des droits de l’homme et s’est même autorisé à mentionner la jurisprudence de la Cour européenne des droits de l’homme dans une décision intéressant des publications relatives à la Turquie et au génocide arménien[15]. Nul doute que si elle se confirme, cette tendance contribuera à renouveler la question de l’applicabilité des droits de l’homme aux entreprises multinationales. Paradoxalement, ce renouvellement s’opérerait sous l’angle d’une privatisation et d’une sectorialisation de la protection accordée.
III. Vers une privatisation de la protection des droits de l’homme ?
Le Conseil de surveillance n’est pas une juridiction et ne semble pas avoir été pensé comme tel malgré des références troublantes, au stade de sa conception, au projet d’installer une « Cour suprême » de Facebook. Le Conseil lui-même se qualifie dans ses décisions de mécanisme de réclamation non judiciaire et ses membres ne semblent pas prétendre se substituer aux organes étatiques ou régionaux. Il aurait d’ailleurs vocation à intégrer la catégorie des mécanismes de réclamation « ne relevant pas de l’Etat » au sens du point n° 28 des Principes directeurs des Nations Unies, à savoir « les mécanismes administrés par une entreprise à titre individuel ou avec des parties prenantes, par une association professionnelle ou un groupe multipartite. Ils sont non judiciaires, mais peuvent faire appel à des procédures judiciaires, fondés sur le dialogue ou d’autres processus culturellement adaptés et compatibles avec les droits »[16]. A ce titre, il faut reconnaître que le Conseil a été créé par une entreprise au « niveau opérationnel »[17] et n’est soumis qu’à la seule exigence d’agir de façon compatible avec le droit inscrite au sens du Principe n° 28 (et non pas une exigence d’application de celui-ci). La lecture conjointe des décisions du Conseil et des Principes directeurs qui y sont abondamment cités permet de mieux comprendre la position des experts qui y siègent sur la qualification juridique dont ils se réclament, a fortiori compte tenu des modalités de sa création : un trust a été créé par Facebook, l’Oversight Board LLC, pour assurer le financement, la gestion et la supervision des activités du Conseil en toute indépendance[18]. Il s’agit donc bien d’un mécanisme privé de protection de la liberté d’expression en ligne, lequel présente la particularité d’intégrer des membres de la société civile.
Au-delà des inéluctables débats sur sa qualification juridique, le Conseil de surveillance suscite l’intérêt en raison de sa capacité à faire publiquement pression sur l’entreprise qui l’a créé. Il est à l’heure actuelle l’un des rares mécanismes ayant contraint cette dernière à faire preuve de plus de transparence concernant les processus techniques appliqués en matière de modération, comme l’ont montré de modestes efforts de clarification sur les standards de modération en matière politique après la décision relative à la suspension de Donald Trump. Dès ses premières décisions, et de façon constante, le Conseil a dénoncé l’opacité des standards et techniques de modération, déploré l’absence de définitions de notions clés (discours de haine, intérêt public, contexte, danger imminent, etc.) et constaté le caractère disproportionné de certaines décisions (suppression de contenus sans motivation apparente, sans supervision humaine adéquate ou sans tenir compte du contexte de la publication), ces défaillances suscitent des atteintes à la liberté d’expression des utilisateurs de la plateforme. Enfin, le Conseil pratique une forme insolite d’activisme qui contribue à le distinguer d’autres mécanismes du genre. De façon notable, il a publié en octobre 2021 un communiqué critiquant le manque de transparence de Meta à la suite des révélations dites des « Facebook Files » et rencontré la lanceuse d’alerte qui en était à l’origine, Frances Haugen. A cette occasion, le Conseil formulait l’engagement suivant :
« En tant que Conseil, nous continuerons à poser des questions difficiles à Facebook et à inciter l’entreprise à s’engager pour une transparence, une responsabilité et une équité plus grandes. En fin de compte, il s’agit de la seule façon de garantir aux utilisateurs et aux utilisatrices un traitement équitable ».
Le volume des recommandations et demandes de transparence émanant du Conseil est tel que l’entreprise Meta elle-même reconnaissait fin 2021 ne pas être en mesure de suivre la cadence imposée par son mécanisme de contrôle[19]. Dans l’hypothèse où le suivi opéré se poursuivait de façon soutenue dans les années à venir, le Conseil pourrait devenir un acteur crucial doté du pouvoir de faire connaître au grand public les lacunes de Meta en matière de transparence et apte à légitimer les enquêtes ou sanctions subséquentes des autorités publiques.
[1] Z. Tufekci, Twitter and tear gas: the power and fragility of networked protests, Yale Univ. Press, 2017, 360 p.
[2] R. Casilli, En attendant les robots, Seuil, 2019, 400 p. ; S.T. Roberts, Derrière les écrans, La Découverte, 2020, 264 p.
[3] Charte du Conseil de surveillance, sept. 2019, art. 7 : « le Conseil ne prétendra pas appliquer la législation locale ».
[4] Communiqués de M. Zuckerberg, « Preparing for Elections », 13 sept. 2018 ; « A Blueprint for Content Governance and Enforcement », 15 nov. 2018.
[5] J. Kosseff, The twenty-six words that created Internet, Cornell Univ. Press, 2019, 328 p.
[6] Oversight Board Bylaws, oct. 2021, Introduction, p. 5 ; Charte du Conseil de surveillance, Préambule.
[7] Oversight Board Q3 transparency report, déc. 2021, 27 p.
[8] Le Conseil n’est amené à sélectionner que les cas « significatifs » ou « complexes » (Statuts, art. 2.1.1), à savoir les « cas les plus susceptibles d’orienter les décisions et les politiques futures » du Conseil et de Facebook (Charte, art. 2.1).
[9] 2021-001-FB-FBR.
[10] Dont l’auteur de ces lignes : V. Ndior, « Le Conseil de surveillance de Facebook, « service après-vente » de la liberté d’expression ? », Recueil Dalloz, N° 26, 2020, p. 1474
[11] Ibid., pp. 13-15.
[12] Notre traduction.
[13] Obs. générale n° 34, Comité des droits de l’homme, 12 sept. 2011.
[14] Décision 2020-006-FB-FBR, pt. 8.3, 28 janv. 2021.
[15] Décision 2021-005-FB-UA, 20 mai 2021, pt. 8.3, III, se référant à CourEDH, Dink c. Turquie, 14 sept. 2010.
[16] HR/PUB/11/4, 2011.
[17] Principe 29.
[18] Limited Liability Company Agreement, Oversight Board LLC, effective as of October 17, 2019.
[19] Cnet, « Facebook says it can’t keep up with oversight board’s recommendations », 9 nov. 2021, https://www.cnet.com/news/oversight-board-says-facebook-wasnt-forthcoming-on-cross-check-program/