Expérimentation technojuridique, ou l’art de stabiliser les dispositifs de surveillance
Par Rebecca Mignot-Mahdavi, École de Droit, Sciences Po Paris
L’angle antiterroriste, et plus généralement sécuritaire est une porte d’entrée privilégiée pour la mise en place et la généralisation de dispositifs de surveillance. Ces dispositifs sont bien souvent déployés par le prisme d’expérimentations technojuridiques, concept désignant la rencontre entre outils technologiques et processus de justification de ces derniers par des interprétations bien souvent extensives des normes ou, plus largement, par des narratifs juridiques.[1] Ce cadre conceptuel nous permet d’interroger les mécanismes qui légitiment et normalisent l’intégration de ces technologies dans notre paysage juridique, bien au-delà du caractère prétendument temporaire que suggère la notion d’expérimentation. Les justifications de l’expérimentation technojuridique reposent sur une dialectique bien rodée entre nécessité sécuritaire et caractère temporaire des restrictions.[2] Pourtant, comme l’illustre le cas de la vidéosurveillance algorithmique, ces restrictions tendent à devenir structurelles, confirmant l’hypothèse d’une normalisation progressive des dispositifs sécuritaires.
En utilisant l’exemple de ladite expérimentation entourant l’usage de la vidéosurveillance aux Jeux Olympiques, nous verrons comment le prisme du laboratoire et le champ de l’expérimentation sont autant de techniques de normalisation et de scientifisation de ces appareils d’observation et de contrôle. En effet, la notion de laboratoire d’expérimentation comprend non seulement l’idée que si l’expérience est concluante, le système mis en place sera validé et pourra être pérennisé,[3] mais elle teinte aussi de scientificité le processus de mise en place du dispositif de surveillance et, ce faisant, le dispositif lui-même.
Dans son ensemble, cette contribution propose d’aller au-delà de la binarité norme/exception en invitant à cesser de nourrir l’idée, devenue mythe, que droit commun et droit d’exception sont deux créatures normatives opposées. Le langage de l’exception est précisément ce qui stabilise et il le fait d’autant plus lorsqu’il mobilise l’imaginaire de la rationalité, de la méthode et de l’objectivité communément associés à la science. Partant, bien loin du caractère temporaire implicite dans la notion d’expérimentation, ces techniques discursives persistent à donner une coloration d’exception ou de singularité à ce qui constitue en fait une méthode de stabilisation de pratiques sécuritaires extensives qui affectent les corps, les comportements et les sociétés.
Les systèmes de vidéosurveillance algorithmique ont été formellement introduits en France « à titre expérimental » par la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024,[4] dont l’article 10 autorisant l’utilisation de la vidéosurveillance algorithmique a été jugé conforme à la constitution par le Conseil Constitutionnel.[5] Conçus officiellement pour détecter les comportements dits anormaux en temps réel, ces systèmes excluent, en principe, la reconnaissance biométrique.[6] L’analyse algorithmique a donc vocation dans ce cadre à identifier des personnes, sans connaître leur identité, en prévention du risque qu’elles pourraient poser. Cette approche d’anticipation marque déjà un glissement significatif dans la logique sécuritaire, passant de la réaction à des actes constatés à la prévention basée sur des comportements jugés suspects selon des critères préétablis.[7]
Bien que le terme « détecter des événements suspects » ait été régulièrement employé lors des débats parlementaires précédant l’adoption de la loi du 19 mai 2023, l’objectif réel de ces systèmes va bien au-delà. Sous l’impulsion de l’objectif d’anticipation, il ne s’agit pas simplement d’identifier des événements suspects mais bien de massivement analyser et catégoriser des comportements humains à l’échelle d’une société. Cette nuance est fondamentale car elle révèle l’envergure de la logique d’anticipation qui anime ces dispositifs, les dissociant d’une simple détection d’infractions ou d’actes violents en cours. Nous assistons ainsi à l’extension des pratiques sécuritaires, orientées autour de l’identification préventive de comportements jugés anormaux ou suspects selon des critères algorithmiques préétablis, à des populations entières. Cela est d’autant plus le cas que la logique de prévention est matérialisée de manière exacerbée par les systèmes algorithmiques.
Le champ d’application temporel de cette expérimentation permise par la loi de 2023 est révélateur d’intentions de pérennisation sous-jacentes. Les systèmes de surveillance algorithmique ont été déployés dès l’entrée en vigueur de la loi, le 19 mai 2023, soit plus d’un an avant les Jeux Olympiques et Paralympiques, et l’expérimentation avait vocation à se poursuivre jusqu’au 31 mars 2025, une extension considérable au-delà de la fin des événements sportifs en septembre 2024. Ce décalage temporel soulève d’emblée des questions sur la proportionnalité et la véritable nature et portée de l’expérimentation. D’ailleurs, dès le début de l’expérimentation, les systèmes ont pu être déployés en vue d’assurer la sécurité d’un éventail large de manifestations, bien au-delà du strict cadre olympique. La loi mentionne les manifestations « sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ».[8] Le champ spatial est donc tout aussi extensif que le cadre temporel, englobant non seulement les lieux accueillant ces manifestations mais également leurs abords, les véhicules et emprises de transport public ainsi que les voies qui les desservent.[9] Cette formulation ouvrait alors potentiellement la voie à une surveillance généralisée dans des espaces publics avec un champ spatiotemporel extensif.
Notre analyse se déploiera en deux temps : nous examinerons d’abord comment l’expérimentation devient un outil de normalisation et de scientifisation des dispositifs de surveillance (I), avant de révéler qu’une autre expérimentation, celle-ci juridique, se déroule simultanément voire principalement dans ces « laboratoires » (II).
I. L’expérimentation : technique de normalisation et de scientifisation des appareils d’observation et de contrôle
L’expérimentation comme technique de normalisation et de scientifisation opère à travers un double mécanisme. Si l’expérimentation s’appuie d’abord sur un arsenal de justifications sécuritaires visant à légitimer le déploiement de dispositifs de surveillance (A), sa force réside également dans sa capacité à dissimuler l’ampleur des possibilités technologiques qu’elle autorise (B). Cette articulation entre justification explicite et dissimulation implicite dans la fabrique de la loi organisant l’expérimentation constitue le cœur de la stratégie de normalisation à l’œuvre.
A. Justifications de l’expérimentation par les prétendues nécessités de sécurité
Le narratif de légitimation mobilisé pour légitimer ces dispositifs de surveillance s’appuie systématiquement sur l’exceptionnalité de l’événement ou de la situation qui justifie l’expérimentation et l’impératif sécuritaire. Cette stratégie de normalisation par l’expérimentation rejoint les outils conceptuels et analyses proposés par d’autres travaux récents, notamment ceux qui décrivent la mise en place d’une « technopolice » comme une démarche visant à inscrire durablement des dispositifs de surveillance dans l’espace public sous couvert de sécurité publique.[10] Dans le cas qui nous intéresse, et comme l’illustre l’intervention de Mme Anne Le Hénaff lors des débats parlementaires, l’ampleur des Jeux Olympiques – « 16 000 athlètes », « soixante-douze collectivités territoriales impliquées », « 13 millions de billets en vente » – est présentée comme justifiant nécessairement un renforcement des mesures de surveillance.[11] Cette rhétorique au cœur de la création législative établit une corrélation directe entre l’importance de l’événement et la nécessité de dispositifs technologiques avancés, présentés comme seuls garants d’une « réussite complète ».
La notion de situation anormale ou extraordinaire devient alors centrale dans ce discours de légitimation. D’ailleurs, les exemples cités par la députée comme reflétant une anomalie – « un objet déposé, un véhicule stationné indûment, un regroupement susceptible de porter atteinte à l’ordre public » –[12] restent délibérément vagues et extensibles, permettant une interprétation large des comportements pouvant déclencher une alerte algorithmique. Cette imprécision constitue un levier puissant pour normaliser progressivement l’usage de ces technologies dans des contextes toujours plus nombreux.
Cette technique de justification révèle pleinement son potentiel lorsqu’on observe les appels à la généralisation de l’expérimentation à des événements de moindre ampleur comme l’a publiquement suggéré le Préfet de police de Paris.[13] Ainsi, l’ambition est clairement de pérenniser et d’élargir l’usage de ces technologies au-delà de leur cadre initial, une fois socialement atténué le besoin de recourir à la justification initiale fondée sur l’ampleur et le caractère exceptionnel de l’événement. Ce glissement progressif d’un usage exceptionnel vers une normalisation constitue précisément l’essence du processus que nous décrivons : l’expérimentation n’est pas conçue comme une démarche évaluative aux résultats incertains, mais comme une étape transitoire vers une généralisation prédéterminée.
B. Dissimulation de l’ampleur des possibilités technologiques ouvertes par la loi organisant l’expérimentation
Un aspect particulièrement préoccupant de cette expérimentation réside dans la dissimulation de l’étendue réelle des possibilités technologiques qu’elle autorise. Si les débats se sont principalement concentrés sur la surveillance visuelle, le texte législatif lui-même se révèle beaucoup plus ambigu. Comme mentionné lors des débats parlementaires, rien dans le texte adopté n’exclut explicitement la captation et le traitement algorithmique de données sonores.[14] En effet, la loi remplace les termes spécifiques « transmission et l’enregistrement d’images » par la formulation plus générale « systèmes de vidéoprotection ». Cette substitution terminologique ouvre potentiellement la voie à une interprétation extensive permettant d’inclure d’autres formes de captation, notamment sonore. Cette préoccupation est d’autant plus fondée que le cadre juridique antérieur limitait explicitement la vidéosurveillance aux images, restriction que la nouvelle formulation pourrait contourner.
Les échanges parlementaires sur ce point sont révélateurs d’une certaine ambiguïté institutionnelle. Lorsque questionné sur ce sujet, le président de la commission des lois a répondu que la captation du son n’était pas « autorisée à ce stade », formulation relevée immédiatement par des députés pour son caractère provisoire.[15] De même, l’engagement du ministre de l’Intérieur de ne pas inclure la captation sonore dans les décrets d’application repose uniquement sur sa parole, sans garantie juridique inscrite dans le texte. Cette absence de garanties formelles, dans un cadre légal qui autorise et organise la définition par décret d’application des outils technologiques et cas d’usages, laisse la porte grande ouverte à l’extension des capacités de surveillance sous couvert de simples modifications réglementaires.[16] Cette ambiguïté délibérée dans la rédaction législative, associée à la voie réglementaire ouverte pour étendre les usages de la vidéosurveillance algorithmique, constitue une stratégie technojuridique permettant d’établir un cadre suffisamment souple pour accommoder des évolutions technologiques futures sans nécessiter de nouveau débat démocratique. Elle illustre parfaitement comment le champ de l’expérimentation sert non pas à tester des technologies dans un cadre strictement délimité, mais à introduire progressivement des mécanismes de surveillance dont l’ampleur reste partiellement dissimulée.
Au-delà de cette dissimulation organisée par le texte législatif, il convient de souligner que l’élaboration des cadres législatifs et réglementaires dédiés à l’expérimentation technojuridique s’accompagne d’une apparence de permissivité et de suffisance juridique. Ce cadre, présenté comme nécessaire pour opérer une prétendue expérimentation, masque en réalité la préexistence illégale de dispositifs de surveillance algorithmique déjà déployés sur le territoire. L’expérimentation, qui suppose par définition une certaine nouveauté, perd toute crédibilité dès lors que ces systèmes sont déjà en place. En ce sens, l’apparence d’un cadre législatif légitime contribue à rendre presque invisible – du moins dans le débat public et le paysage médiatique – l’existence de tels systèmes déployés en violation flagrante des normes juridiques en vigueur. Cette coexistence est illustrée par la condamnation récente de dispositifs de surveillance déployés sans base légale, comme l’a révélé la décision du tribunal administratif de Grenoble du 24 janvier 2025.[17] Les juges ont décidé d’annuler la décision du maire de Moirans de mettre en œuvre le logiciel BriefCam, capable de détecter et d’identifier des individus, d’analyser leurs traits physiques, de suivre leurs déplacements via plusieurs caméras et de produire des statistiques sur les foules, et permettant, notamment, la reconnaissance faciale, en dehors de tout cadre légal, suite à une procédure initiée par La Quadrature du Net. Cette décision met en lumière une réalité troublante : des systèmes de surveillance algorithmique étaient déjà opérationnels sur le territoire français, bien avant l’entrée en vigueur de la loi relative aux Jeux Olympiques.
Ainsi, une double mascarade est à l’œuvre à travers le prisme de l’expérimentation inscrit dans la loi ici analysée. D’une part, le cadre législatif dédié aux Jeux Olympiques dissimule son véritable objectif : étendre la surveillance algorithmique bien au-delà du champ spatiotemporel des Jeux. D’autre part, il masque le fait que des dispositifs de surveillance algorithmique ont déjà été déployés en dehors de tout cadre légal, coexistant avec cette prétendue expérimentation technologique. Cette situation remet en question la sincérité même de l’expérimentation annoncée. Les technologies expérimentées dans le cadre des Jeux Olympiques ne sont ni nouvelles ni limitées à cet événement. Plus encore, elles posent une question majeure : la loi Jeux Olympiques, en son article 10, avait-elle véritablement vocation à permettre la conduite d’une expérimentation technologique ? Il est possible d’en douter fortement eu égard aux résultats peu concluants obtenus dans le cadre de cette prétendue expérimentation technologique[18] ; résultats qu’il convient de mettre en lumière avec l’existence de technologies tout à fait performantes, et donc plus intrusives encore, déjà à l’œuvre et déployées illégalement comme celles proposées par BriefCam. En effet, les rapports font état d’un grand nombre de faux positifs, révélant une immaturité technologique qui contraste avec ces dernières. Par exemple, les algorithmes utilisés pour détecter des feux ou des chutes se sont fréquemment trompés, prenant des devantures de magasin ou des phares de voiture pour des incendies.[19] Par conséquent, il apparaît que l’expérimentation technologique mise en avant n’a pas réellement eu lieu ; cette hypothèse est largement corroborée par le fait que des systèmes plus intrusifs et déjà opérationnels ont été déployés en parallèle.
Cette réflexion invite à examiner le véritable enjeu de cette prétendue expérimentation. Loin de se limiter à, voire de viser, une évaluation technologique, comme cela est officiellement présenté, c’est en réalité plutôt une expérimentation juridique visant à tester et à consolider de nouveaux cadres normatifs qui est à l’œuvre. Ces cadres ont pour but de légitimer des pratiques sécuritaires dont certaines sont déjà en place, bien que souvent illégales, et de préparer leur généralisation. En ce sens, l’expérimentation technologique n’est qu’un prétexte, un écran de fumée masquant une dynamique plus profonde de transformation normative et technojuridique.
II. Une expérimentation peut en cacher une autre : une expérimentation juridique à l’œuvre dans les laboratoires d’expérimentations
Si l’expérimentation technologique est mise en avant comme le cœur du processus de déploiement des dispositifs de surveillance, elle masque en réalité une autre dynamique à l’œuvre : une expérimentation juridique qui coexiste en parallèle, voire s’opère en lieu et place de l’expérimentation technologique promise. Ce qui se joue ici n’est pas tant une évaluation technologique qu’une normalisation progressive opérée par le droit lui-même. Cette expérimentation juridique teste les limites de ce que le droit peut légitimer tout en simulant un cadre protecteur. Elle repose, d’une part, sur la fabrique d’une légitimité juridique à travers des standards rigoureux et des enchevêtrements normatifs (A), et d’autre part, sur la dissimulation stratégique des exemptions qui affaiblissent ces garanties apparentes (B). Cette double dynamique révèle comment le droit est un outil central dans le processus de normalisation des dispositifs de surveillance.
A. La fabrique d’une légitimité juridique : standards rigoureux et enchevêtrements normatifs
L’exemple du triple test de proportionnalité est particulièrement révélateur de la construction discursive et normative d’une façade de légitimité juridique qui s’opère au sein même des laboratoires d’expérimentation. La coexistence d’un cadre juridique formellement exigeant – solidifié et enrichi par les juridictions nationales et la jurisprudence de la CEDH [20]– avec une pratique marquée par la rareté des recours contentieux, ne doit pas être lue comme une simple défaillance du contrôle juridictionnel. Elle participe plus fondamentalement à la construction d’une apparence de rigueur qui légitime le déploiement massif des dispositifs de surveillance. Le triple test, en définissant des critères d’apparence stricts (adapté, nécessaire, proportionné), contribue ainsi à stabiliser ces dispositifs en les inscrivant dans un cadre juridique qui semble protecteur des libertés fondamentales. Cette dynamique est d’autant plus significative dans le contexte des expérimentations technologiques, où l’existence d’un arsenal juridique sophistiqué permet de présenter les innovations comme étant sous contrôle permanent. La multiplication des références aux standards juridiques, loin d’entraver le déploiement des dispositifs de surveillance, participe paradoxalement à leur acceptabilité sociale et juridique en suggérant l’existence d’un cadre protecteur.[21] L’expérimentation technologique devient ainsi le théâtre d’une autre forme d’expérimentation : celle d’un droit qui, tout en affichant sa rigueur protectrice, facilite l’introduction et la pérennisation de dispositifs de surveillance toujours plus invasifs.
La justification de ces dispositifs de surveillance s’appuie également sur un enchevêtrement complexe de normes juridiques créant l’illusion d’un encadrement rigoureux. Lors des débats parlementaires, plusieurs députés ont ainsi légitimé l’expérimentation en invoquant sa prétendue conformité avec le Règlement Général sur la Protection des Données (RGPD) et l’Acte sur l’Intelligence Artificielle de l’Union européenne. Comme l’a soutenu le député Philippe Latombe, l’article concerné viserait même à « accroître la protection » des citoyens en soumettant les systèmes de vidéoprotection au régime du RGPD. Cette référence aux normes supranationales est présentée comme un gage de sécurité juridique et de protection des libertés individuelles. Le raisonnement suggère implicitement que si l’expérimentation s’inscrit dans un cadre juridique européen reconnu et applaudi comme étant particulièrement protecteur à l’échelle mondiale, les préoccupations concernant son impact sur les droits fondamentaux s’en trouvent automatiquement atténuées. Ce mécanisme de légitimation par conformité procédurale constitue un puissant levier pour normaliser des pratiques autour desquelles les préoccupations persistent.
Pourtant, comme nous le verrons ci-après, cette mise en conformité procédurale dissimule souvent une démarche purement formelle qui n’adresse pas les problématiques substantielles posées par ces technologies. L’effet principal de cet enchevêtrement normatif est de créer une impression de sécurité juridique tout en occultant les questions fondamentales liées à la nécessité et à la proportionnalité de tels dispositifs dans une société démocratique. Nous assistons ainsi à une forme d’expérimentation juridique qui teste les limites de ce que le droit peut légitimer sous couvert de conformité aux cadres existants.
A. La fabrique d’une légitimité juridique : quand des cadres normatifs ambitieux masquent des exemptions permissives
La référence aux normes européennes comme le RGPD ou l’Acte sur l’IA dissimule un aspect crucial : ces textes contiennent eux-mêmes des exemptions significatives dans les domaines de la sécurité et du maintien de l’ordre. L’Acte sur l’IA, entré en vigueur le 13 juin 2024, illustre parfaitement cette problématique. Bien qu’il qualifie explicitement de « haut risque » l’utilisation de l’IA dans des contextes sensibles comme la migration, l’asile ou la gestion des frontières, il prévoit simultanément des exemptions substantielles pour les autorités de sécurité.
Ces exemptions sont particulièrement préoccupantes car elles concernent précisément les garanties essentielles de transparence et de contrôle humain.[22] Ainsi, contrairement à d’autres secteurs, les fournisseurs et utilisateurs de systèmes d’IA à haut risque dans le domaine de la sécurité sont exemptés de l’obligation d’enregistrement dans la base de données publique de l’UE. Cette exception, qui n’était pas présente dans la proposition initiale de la Commission, a été introduite lors des négociations politiques, révélant l’influence des États membres soucieux de préserver leur marge de manœuvre en matière de sécurité. De même, le fameux « principe des quatre yeux » – exigeant que les données de reconnaissance biométrique soient « vérifiées et confirmées séparément par au moins deux personnes physiques » – ne s’applique pas aux systèmes d’IA utilisés à des fins d’application de la loi, de migration ou de contrôle des frontières. Cette exemption également absente de la proposition initiale, illustre la façon dont les garanties sont systématiquement affaiblies précisément là où elles sont le plus nécessaires.
La troisième exemption concerne l’application extraterritoriale de l’Acte sur l’IA. Si le règlement s’applique en principe à tous les fournisseurs et utilisateurs dont les systèmes produisent des résultats utilisés dans l’UE, il exclut de son champ d’application les autorités publiques des pays tiers agissant dans le cadre d’accords internationaux pour l’application de la loi. Cette exception crée une faille potentielle permettant de contourner les protections européennes via des partenariats internationaux. In fine, c’est précisément dans les domaines où l’IA a les impacts les plus significatifs sur les droits fondamentaux que les garanties juridiques sont les plus affaiblies. Bien que des exceptions aux mécanismes de responsabilité aient toujours existé dans le domaine de la sécurité, il n’existe pas de justification convaincante pour exclure ces mesures réglementaires fondamentales. Ces exemptions ne compromettent pas la protection de la sécurité nationale mais privent les citoyens de la protection que l’Acte sur l’IA prétend garantir.
Un autre exemple révélateur de cette dynamique de dissimulation par le droit se trouve dans le Règlement Général sur la Protection des Données (RGPD), souvent présenté comme une référence mondiale en matière de protection des données personnelles. Bien que largement applaudi pour ses contraintes strictes sur l’utilisation des dispositifs de surveillance, le RGPD contient en son sein des exemptions significatives qui, tout comme celles prévues par l’Acte sur l’IA de l’Union européenne, affaiblissent les garanties qu’il prétend offrir. L’article 23 du RGPD, par exemple, autorise les États membres à limiter la portée des droits fondamentaux qu’il protège – tels que le droit d’opposition ou le droit d’accès – dès lors que ces limitations sont justifiées par des motifs présentés comme nécessaires dans une société démocratique, tels que la sécurité nationale, la défense ou la sécurité publique.[23]
Ces exemptions, bien qu’encadrées par des conditions de proportionnalité et de nécessité, ouvrent une brèche importante dans la protection des libertés fondamentales. Elles permettent aux États de contourner les garanties du RGPD par des mesures législatives nationales, souvent adoptées dans des contextes d’urgence ou sous la pression de justifications sécuritaires. Cela rejoint directement les exemptions prévues par l’Acte sur l’IA, qui autorise des dérogations substantielles pour les autorités de sécurité, notamment en matière de transparence et de contrôle humain. Dans les deux cas, ces régimes d’exception, dissimulés derrière des cadres juridiques sophistiqués, créent une illusion de protection renforcée tout en permettant une extension significative des pratiques de surveillance.
Ce parallèle entre le RGPD et l’Acte sur l’IA illustre une stratégie juridique commune et plus large : celle de construire un cadre normatif affichant des garanties rigoureuses, tout en introduisant discrètement des mécanismes d’exemption qui affaiblissent ces garanties précisément dans les domaines où elles sont les plus nécessaires. Cette dynamique est particulièrement préoccupante lorsqu’elle est mobilisée pour légitimer des dispositifs de surveillance expérimentaux. Sous couvert de conformité à des standards européens réputés protecteurs, ces dispositifs échappent souvent à un véritable contrôle démocratique et juridique. Ils s’inscrivent ainsi dans une logique de normalisation progressive, où le droit, loin de limiter les expérimentations technologiques, devient un outil pour les stabiliser et les pérenniser. En définitive, le RGPD et l’Acte sur l’IA, bien qu’apparaissant comme des instruments de protection des droits fondamentaux, participent à cette fabrique d’une légitimité juridique qui dissimule les enjeux réels des dispositifs de surveillance. En mobilisant des cadres juridiques complexes et des standards perçus comme protecteurs, ces textes contribuent à légitimer des pratiques qui, dans les faits, repoussent les limites de ce que le droit peut encadrer.
Réflexions conclusives
Cette analyse des mécanismes de légitimation des dispositifs technojuridiques de surveillance révèle comment le prisme de l’expérimentation sert à normaliser et à scientifiser des pratiques qui restreignent les libertés individuelles et collectives. Bien loin du caractère temporaire que suggère la notion d’expérimentation, ces dispositifs s’inscrivent dans une stratégie de pérennisation progressive, marquée par des extensions constantes de leur champ d’application spatial, temporel et technologique. Le décalage flagrant entre la fin des Jeux Olympiques et la durée prévue de l’expérimentation trahissait déjà cette intention de stabilisation des dispositifs sécuritaires. L’analyse a permis de démontrer que la dialectique rodée entre nécessité sécuritaire et caractère prétendument limité des restrictions masque une ambition structurelle qui confirme notre hypothèse initiale.
Le recours à l’imaginaire du « laboratoire » et de la méthode scientifique confère une apparente neutralité technique à des dispositifs profondément politiques. Cette stratégie discursive teinte de rationalité et d’objectivité des choix qui, fondamentalement, redéfinissent les rapports entre l’État et les citoyens. L’enchevêtrement complexe des normes juridiques comme le RGPD et l’Acte sur l’IA crée simultanément l’illusion d’un cadre protecteur tout en permettant, par le jeu des exemptions savamment dissimulées, une extension considérable des pratiques de surveillance. De même, révélant encore un autre rôle du droit, le triple test de proportionnalité, souvent invoqué, opère moins comme un garde-fou que comme un rituel de légitimation qui participe à cette normalisation graduelle.
Ce faisant, la présente analyse confirme la nécessité de dépasser la binarité norme/exception identifiée dès l’introduction. Le langage de l’exception, mobilisé pour justifier ces dispositifs de surveillance, constitue paradoxalement le principal vecteur de leur normalisation. Cette dissolution des frontières conceptuelles s’étend également à d’autres distinctions fondamentales : entre pouvoirs publics et privés, comme l’illustre l’accès aux données par la SNCF ou la RATP ; entre police administrative et judiciaire ; entre temps de paix et état d’exception. La multiplicité des destinataires des données collectées – services de police nationale et gendarmerie, services d’incendie et secours, polices municipales, et même services internes de sécurité de la SNCF et de la RATP – illustre parfaitement cette dissolution des frontières traditionnelles. Cette dilution des distinctions entre pouvoirs publics et pouvoirs privés, entre logique de police administrative et droit pénal, entre criminel et ennemi, entre guerre et paix, constitue le symptôme le plus visible d’une transformation profonde de nos écosystèmes normatifs. Surtout, cette hybridation normative, caractéristique des dispositifs technojuridiques contemporains, révèle que la rencontre entre outils technologiques et processus de justification juridiques ne se limite pas à un simple encadrement, mais participe activement à la co-construction et à la légitimation des technologies de surveillance.
La véritable expérimentation n’est d’ailleurs pas tant technologique que juridique, c’est là l’apport principal de la présente analyse. D’abord les manipulations sémantiques permises par le droit, comme le glissement de « vidéosurveillance » vers « vidéoprotection » souligné lors des débats parlementaires précédant l’adoption de la loi de 2023, et l’affaiblissement des sanctions dans les cas d’utilisation non autorisée de ces dispositifs révèlent une stratégie d’acclimatation progressive du corps social à des technologies toujours plus intrusives. Cette expérimentation juridique pose un défi majeur. Lorsque l’exception devient progressivement la règle sans débat démocratique approfondi, c’est la nature même des mécanismes de contrôle ainsi que l’accessibilité des voies de contestation qui se trouvent reconfigurées silencieusement. C’est particulièrement vrai à l’aune de la surveillance algorithmique qui, en catégorisant et en analysant les comportements à grande échelle, introduit une asymétrie informationnelle entre les détenteurs de ces technologies et les citoyens qui en sont les sujets, fragilisant les contre-pouvoirs traditionnels.
Face à cette dynamique d’extension et de normalisation, des formes de résistance émergent malgré tout dans le paysage juridique. La décision du tribunal administratif de Grenoble annulant l’utilisation illégale du logiciel BriefCam révèle que le contrôle juridictionnel, bien que tardif et limité, peut constituer un contre-pouvoir efficace. Plus encore, l’action provenant d’organisations de la société civile comme La Quadrature du Net démontre également l’importance cruciale de la vigilance citoyenne et des contre-conduites éclairées, déterminées à emprunter toutes les voies de contestation disponibles, y compris les voies judiciaires, bien que la permissivité croissante des cadres juridiques suggère une stabilisation inquiétante vers des pratiques de surveillance massive. En définitive, l’expérimentation technojuridique, telle que nous l’avons analysée à travers le cas emblématique de la vidéosurveillance algorithmique, n’est ni neutre ni temporaire : elle constitue une méthode privilégiée pour stabiliser des dispositifs de surveillance qui affectent durablement les corps, les comportements et les sociétés.
[1] Pour une conceptualisation plus approfondie de la notion de technojuridicité, voir, Rebecca Mignot-Mahdavi, Drones and International Law : A Techno-Legal Machinery, Cambridge University Press, 2023.
[2] Pour un aperçu de l’approche récurrente à la temporalité de l’exception ou du temporaire, où la restriction des libertés est présentée comme une nécessité temporaire, alors même que l’histoire récente montre une tendance à leur pérennisation, voir Déclaration sur les grandes orientations du projet de loi prorogeant l’état d’urgence et modernisant le régime d’exception de la loi du 3 avril 1955, Assemblée nationale, 19 novembre 2015 : « La sécurité est la première des libertés. C’est pour cette raison que d’autres libertés ont été ou peuvent être temporairement limitées. »
[3] Yannick Falt, « Le gouvernement envisage de généraliser la vidéosurveillance algorithmique expérimentée pendant les JO », 2 octobre 2024, FranceInfo, https://www.francetvinfo.fr/faits-divers/police/info-franceinfo-la-videosurveillance-algorithmique-experimentee-pendant-les-jo-va-etre-generalisee-par-le-gouvernement-barnier_6812678.html.
[4] LOI n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions.
[5] Cons. const. 17 mai 2023, n° 2023-850 DC, pts 26 à 49. Cécile Crichton, « Vidéosurveillance intelligente aux JO : validation sous réserve par le Conseil constitutionnel », Dalloz Actualité, 24 mai 2023.
[6] Loi du 19 mai 2023, article 10, §IV : « Les traitements mentionnés au I du présent article n’utilisent aucun système d’identification biométrique, ne traitent aucune donnée biométrique et ne mettent en œuvre aucune technique de reconnaissance faciale. Ils ne peuvent procéder à aucun rapprochement, à aucune interconnexion ni à aucune mise en relation automatisée avec d’autres traitements de données à caractère personnel. »
[7] Olivier Cahn, « “Cet ennemi intérieur, nous devons le combattre”. Le dispositif antiterroriste français, une manifestation du droit pénal de l’ennemi ». Archives de politique criminelle, 2016/1 n° 38, 2016. p.89-121. Julie Alix et Olivier Cahn, « Mutations de l’antiterrorisme et émergence d’un droit répressif de la sécurité nationale ». Revue de science criminelle et de droit pénal comparé, 2017/4 N° 4, 2017. p.845-868. Pascal Beauvais, David Chilstein et Emmanuel Dreyer (dir.), Le droit pénal de l’avenir, Dalloz, 2024 : l’ouvrage explore les transformations du droit pénal face aux nouvelles technologies. Il aborde notamment le développement de mesures de sûreté visant à neutraliser les individus considérés dangereux, soulignant une évolution vers un droit pénal davantage préventif. Voir aussi, Laure Laref et Michael Laref (dir.), Surveillance, Dalloz, novembre 2024. La même tendance se dessine en droit administratif. Voir, par exemple, Colloque « Vers un juge administratif préventif ? », Colloque organisé par Maxime Lei, Enseignant-chercheur à l’Université Bretagne Sud et Raphaël Reneau, Maître de conférences à l’Université Bretagne Sud, avril 2021.
[8] Loi du 19 mai 2023, article 10.
[9] Idem.
[10] Robin Medard Inghilterra, « L’instauration d’une « technopolice » administrative en milieu urbain : les droits et libertés sur un fil », La Revue des droits de l’homme, 26 | 2024, 17 octobre 2024, http://journals.openedition.org/revdh/20912. Félix Tréguer, Technopolice : La surveillance policière à l’ère de l’intelligence artificielle, Éditions Divergences, 2024.
[11] XVIe législature, Session ordinaire de 2022-2023, Séance du mercredi 22 mars 2023, 3. Jeux olympiques et paralympiques de 2024, https://www.assemblee-nationale.fr/dyn/16/comptes-rendus/seance/session-ordinaire-de-2022-2023/premiere-seance-du-mercredi-22-mars-2023#3059926.
[12] Idem.
[13] Philippe Le Cœur, « Le préfet de police de Paris « favorable » à une prolongation du recours à la vidéosurveillance algorithmique expérimentée pendant les JO », Le Monde, 25 septembre 2024, https://www.lemonde.fr/societe/article/2024/09/25/le-prefet-de-police-de-paris-se-dit-favorable-a-une-prolongation-du-recours-a-la-videosurveillance-algorithmique_6333125_3224.html.
[14] XVIe législature, Session ordinaire de 2022-2023, Séance du mercredi 22 mars 2023, 3. Jeux olympiques et paralympiques de 2024, intervention du député Aurélien Saintoul, https://www.assemblee-nationale.fr/dyn/16/comptes-rendus/seance/session-ordinaire-de-2022-2023/premiere-seance-du-mercredi-22-mars-2023#3059926.
[15] Idem.
[16] Loi du 19 mai 2023, article 10, §5 : ce paragraphe de l’article 10, par dérogation à la loi Informatique et Libertés, dispose que l’utilisation de certains traitements est autorisée par décret, après avis de la CNIL et éventuellement une consultation publique en ligne. Ce décret précise les caractéristiques essentielles du traitement, notamment les événements à signaler, les situations justifiant son usage, les services impliqués, leurs éventuelles contributions financières, ainsi que les conditions d’habilitation et de formation des agents y accédant. Il désigne également l’autorité chargée d’examiner la conformité du dispositif.
[17] Jugement du tribunal administratif de Grenoble du 24 janvier 2025, N° 2105328, https://grenoble.tribunal-administratif.fr/decisions-de-justice/dernieres-decisions/la-mise-en-aeuvre-par-la-commune-de-moirans-du-logiciel-briefcam-censuree-par-le-tribunal.
[18] Florian Reynaud, « Vidéosurveillance algorithmique : le rapport d’évaluation s’interroge sur l’efficacité du dispositif », 15 janvier 2025, Le Monde, https://www.lemonde.fr/pixels/article/2025/01/15/videosurveillance-algorithmique-le-rapport-d-evaluation-s-interroge-sur-l-efficacite-du-dispositif_6498666_4408996.html. Jean-Marc Manach, « Aux JO de Paris, la vidéosurveillance algorithmique n’a servi à (presque) rien », Next, 16 janvier 2025, https://next.ink/165699/aux-jo-de-paris-la-videosurveillance-algorithmique-na-servi-a-presque-rien/.
[19] Florian Reynaud, op.cit.
[20] Voir entre autres, Décision n° 94-352 DC du 18 janvier 1995 (loi d’orientation et de programmation relative à la sécurité) ; Arrêt Daoudi (CE, 23 décembre 2011) ; Article 4, 3° de la loi n° 78-17 du 6 janvier 1978 (LIL) ; Affaire Handyside c. Royaume-Uni (CEDH, 7 décembre 1976) ; Affaire Klass et autres c. Allemagne (CEDH, 6 septembre 1978) ; Affaire S. et Marper c. Royaume-Uni (CEDH, 4 décembre 2008) ; Affaire A. et autres c. Royaume-Uni (CEDH, 19 février 2009). Et très récemment, sur le logiciel BriefCam d’analyse algorithmique d’images de télésurveillance sur le territoire de la commune de Moirans, jugement du TA de Grenoble du 24 janvier 2025, N° 2105328.
[21] Si Robin Medard Inghilterra souligne le “contraste saisissant » entre les standards juridiques clairs du triple test et l’absence de contrôles effectifs des outils de la technopolice administrative (Robin Medard Inghilterra, op.cit., La Revue des droits de l’homme, 26, 2024), notre analyse suggère que cette tension apparente entre théorie et pratique masque en réalité leur indissociabilité : c’est précisément l’existence même d’un cadre juridique d’apparence rigoureux qui, combinée à la rareté des recours, permet de légitimer le déploiement de ces dispositifs de surveillance.
[22] Voir pour une analyse détaillée, Dimitri van den Meerssche et Rebecca Mignot-Mahdavi, « Failing where it matters most? The EU AI Act and the legalized opacity of security tech», The Digital Constitutionalist, 22 December 2022, https://digi-con.org/failing-where-it-matters-most/.
[23] Art. 23 du RGPD : « Le droit de l’Union ou le droit de l’État membre auquel le responsable du traitement ou le sous-traitant est soumis peuvent, par la voie de mesures législatives, limiter la portée » du droit d’opposition « lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique pour garantir : a) la sécurité nationale ; b) la défense nationale ; c) la sécurité publique ; d) la prévention et la détection d’infractions pénales, ainsi que les enquêtes et les poursuites en la matière ou l’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces ».