Le coup de data permanent : la loi des algorithmes
Les multinationales du web, dont les services sont devenus indispensables à la vie en société, sont à l’origine d’une régulation technologique qui menace le libre-arbitre de chacun. Leurs algorithmes emportent des effets normatifs redoutables bien que plutôt imperceptibles. Leur performativité et les prophéties auto-réalisatrices qu’ils génèrent sont telles que, de fait, la technologie choisit pour l’humain qui s’en remet assez aveuglément à elle. Ce « coup de data permanent » enferme les individus dans des silos de comportement, de consommation, mais aussi de pensée. Cela porte atteinte à la liberté d’opinion et au pluralisme des courants d’idées. Se pose dès lors la question de la capacité de la société numérique à être une société démocratique et ouverte davantage qu’une société tyrannique et fermée.
Boris Barraud, Laboratoire interdisciplinaire droit, médias et mutations sociales (LID2MS), Université d’Aix-Marseille
Une norme (ou règle) est la signification d’un énoncé servant de modèle de comportement. Elle est un « outil mental » servant à tracer les lignes directrices des conduites des individus. L’important est la signification de devoir-être de l’énoncé. Aussi une proposition contient-elle une norme dès lors qu’elle impose, permet, conseille ou interdit d’adopter un certain comportement dans une certaine situation, quels que soient sa source, son objet et son degré de généralité et d’abstraction. Une norme est donc la signification d’un énoncé à l’aune de laquelle le destinataire comprend qu’il peut, qu’il ne peut pas, qu’il devrait ou qu’il doit faire quelque-chose. La norme a pour objet de donner la mesure des possibilités d’agir, d’imposer ou de proposer à un ou plusieurs individus un comportement ou une attitude, une action ou une abstention. La norme est par conséquent un indicateur des devoirs et des interdits, des possibles et des impossibles. Toute signification d’un énoncé qui est une description, une déclaration ou une évaluation, qui n’indique aucune attitude à adopter à quiconque dans un quelconque contexte, n’est pas une norme 1.
Par suite, les normes peuvent être juridiques ou non. Le juriste moderne, foncièrement stato-centré, ne trouvera du droit que dans les normes législatives, règlementaires et jurisprudentielles produites par les organes de l’État. Le panjuridiste, lui, verra de la juridicité dans toutes les formes de normativité. Ces lignes ne sont toutefois pas le lieu où revenir sur la question la plus essentielle posée à la théorie juridique : « Qu’est-ce que le droit ? ». Reste que, pour étudier en tant que juriste de nouvelles formes de normativité, encore faut-il leur accorder une quelconque qualité juridique. Les manuels d’introduction au droit listent généralement trois sources (formelles) du droit : la loi, la jurisprudence et la coutume. Au XXIe s., et dès lors qu’on souhaite étudier, par exemple, la « loi des algorithmes », on préfèrera se placer dans les pas des théories pragmatiques du droit. Celles-ci, érigeant l’effectivité des normes en critère ultime de leur juridicité, permettent au scientifique du droit de s’intéresser aux phénomènes de « guerre des normes », de concurrence des normativités, de plurinormativité, d’internormativité, aux normes qui émergent de la pratique, à tous ces nouveaux objets normatifs que sont les codes privés, les chartes, les usages, les conditions générales d’utilisation, les contrats-types, les normes comptables, les normes managériales, les normes techniques, mais aussi les modes alternatifs de résolution des conflits, les labels, les standards, les protocoles, les meilleures pratiques, les statistiques, les sondages, les indicateurs de performance, les rankings, les nudges etc. — ainsi que les algorithmes.
Avec la numérisation des sociétés, des économies, des hommes et des vies, les algorithmes prennent de plus en plus de place, à tel point qu’ils sont aujourd’hui omniprésents et inévitables bien qu’invisibles 2. Ils sont en particulier au cœur des services du web et des applications pour smartphones — bien que leur usage soit loin de s’y limiter : il se trouve des algorithmes jusque dans les feux tricolores de signalisation. Or nul n’ignore le rôle cardinal que le web et les applications pour smartphones jouent désormais, combien les sociétés, les économies, les hommes et les vies sont chaque jour un peu plus des sociétés, des économies, des hommes et des vies en ligne. Les algorithmes vont jusqu’à envahir l’univers juridique, jusqu’à gouverner ou, du moins, aider à gouverner, jusqu’à rendre la justice ou, du moins, aider à rendre la justice 3. Les LegalTechs sont ainsi en passe de révolutionner profondément les métiers du droit et de la justice 4.
En outre, profitant d’une sorte de « coup de data permanent », les algorithmes produisent des normes, sont sources de droit, font la loi loin de l’appareil étatique et des juristes 5. Cela interroge jusqu’aux droits et libertés fondamentaux, car s’affirme insidieusement et progressivement la dictature des algorithmes, soit une régulation technologique mettant en péril le libre-arbitre de chacun 6. Bien sûr, en posant la question de la place des algorithmes dans le droit, dans les modes de régulation, dans les formes de normativité, c’est plus généralement la question de la place des algorithmes dans les sociétés contemporaines qui est posée. Et c’est là un débat essentiel, d’autant plus que les algorithmes ne sont pas neutres ni objectifs mais, au contraire, très politiques et orientés.
Un algorithme est une suite de formules mathématiques, d’opérations informatiques et de traitements statistiques dont l’application permet de résoudre des problèmes, d’exécuter des tâches ou d’obtenir des résultats à partir de grandes masses de données et en un temps record. Il fonctionne avec des « entrées » (les données initiales qu’il traite) et aboutit à des « sorties » (les résultats) en suivant différentes étapes qui requièrent des calculs, des opérations logiques, des comparaisons ou des analogies. Les algorithmes sont à la base de l’informatique. Ils s’expriment le plus souvent dans des programmes exécutables par ordinateur. Souvent assimilés à des « formules magiques », les plus connus sont ceux des moteurs de recherche du web qui permettent, en fonction des mots-clés saisis par l’utilisateur et d’autres paramètres tels que la géolocalisation ou l’historique des recherches, d’accéder aux contenus supposément les plus pertinents.
Aujourd’hui, les algorithmes produisent des résultats de plus en plus précis et satisfaisants grâce au data mining (ensemble d’outils d’exploration et d’analyse des données visant à en extraire les informations les plus significatives), aux progrès du traitement du langage naturel et à l’apprentissage automatique (machine learning et techniques d’apprentissage profond inspirées de la biologie et des réseaux neuronaux interconnectés). Ainsi les algorithmes peuvent-ils se perfectionner par eux-mêmes au fur et à mesure qu’ils sont utilisés, sans intervention humaine. En résumé, plus ils répondent à des questions et tirent les conséquences de leurs éventuelles erreurs, moins ils se tromperont à l’avenir. En permanence, ils ajustent les paramètres de leurs modèles à l’aune des opérations précédentes. Ils apprennent par rapprochements successifs, en dégageant des corrélations. Le qualitatif suit ainsi le quantitatif.
Ensuite, si les algorithmes sont de plus en plus omniprésents, ce phénomène va de pair avec l’expansion du big data, avec l’explosion de la production de données 7. Une donnée est une information qui a été enregistrée, sauvegardée, qui pourra donc être réutilisée ; et une donnée numérique est une information qui a été recueillie dans un format numérique. Les données sont le « nouvel or noir », puisé notamment au moyen de cookies. Élaborer le premier un algorithme très efficace dans un domaine donné est comme découvrir un gisement de pétrole. Il faut collecter, enrichir et affiner les données, au service des algorithmes. Le pouvoir, dans toutes ses dimensions, dépend aujourd’hui beaucoup de la maîtrise des données et de la possession d’algorithmes sophistiqués et efficaces.
Ce pouvoir est en particulier détenu par ceux que l’on a pris l’habitude d’appeler « réseaux sociaux » et par les GAFA (Google, Apple, Facebook, Amazon). Ces derniers connaissent parfaitement chacun de leurs utilisateurs puisque ceux-ci leur communiquent directement leurs noms, âges, préférences etc., mais aussi indirectement d’innombrables indications relatives à leurs goûts et habitudes de comportement à travers leurs « j’aime », « je n’aime pas », « retweets » et autres formes de partage ou de publication, abonnements, jeux etc. Grâce à leurs savants algorithmes, les réseaux sociaux et les GAFA sont ensuite capables d’analyser ces sommes faramineuses de données pour orienter, modeler les conduites de leurs utilisateurs au profit de leurs annonceurs, donc édicter des normes qui, si elles sont bien plus insensibles que, par exemple, l’obligation de s’arrêter à un feu rouge, n’en revêtent pas moins une normativité très forte.
Ce sont les algorithmes qui régissent les activités sur les plateformes numériques ; or quelles activités se déroulent aujourd’hui encore loin de toute plateforme numérique ? Si les données personnelles sont le nouvel Eldorado, leur exploitation par des algorithmes hypersophistiqués et non désintéressés idéologiquement ne risque-t-il pas d’aboutir à la constitution de formes postmodernes d’esclavagisme ou, du moins, de téléguidage des comportements collectifs et individuels ? De plus en plus, apparaissent de nouveaux besoins et de nouvelles dépendances. Par exemple, aucun étudiant ne peut se passer aujourd’hui d’un compte Facebook, celui-ci étant devenu indispensable y compris dans le cadre pédagogique. Et d’aucuns d’observer que « nous sommes devenus de la chair à algorithmes, victimes de la plus formidable extorsion de valeurs des temps modernes » 8.
Alors que partout l’on parle d’intelligence artificielle, la problématique semble bien être celle-là : les nouvelles technologies de l’information vont-elles servir les hommes ou les asservir 9 ? Ou bien vont-elles permettre à certains hommes d’asservir les autres ? Ce n’est rien d’autre qu’un nouveau projet de société dont il est question. Il s’en faut de beaucoup que tout ce qui est nouveau soit ipso facto bon et bénéfique. C’est pourquoi il importe de conserver un regard critique sur les mutations alentour. Or ces mouvements, d’une part, touchent y compris le droit et, d’autre part, doivent être saisis et maîtrisés par le droit. Quant à l’aspect droit des technologies, beaucoup réfléchissent à ce que devrait être un « droit des robots » 10, ou encore aux nouvelles orientations à donner au droit des données personnelles afin d’éviter qu’il ne sombre dans l’archaïsme 11. C’est en partie au droit qu’il appartient de délimiter le champ des possibles de l’automatisation du monde en cours. Quant à l’aspect technologies du droit, au-delà du phénomène récent mais potentiellement très disruptif des LegalTechs, il convient de s’intéresser à ces outils technologiques capables de dicter les conduites. Et tel est en premier lieu le cas des algorithmes.
Il n’est pas certain que l’ « homme augmenté » le soit y compris dans sa capacité juridique. Sur le plan du droit, il pourrait être davantage un « homme diminué », réduit en données, écrasé par son ombre numérique et soumis à la loi de ses objets connectés. Croyant encore opérer librement des choix, il n’agirait en réalité qu’en raison d’un savant formatage opéré depuis l’enfance. Et ce pilotage automatique des existences serait nécessairement façonné par des normes, d’un genre nouveau sans doute, mais qui n’en seraient pas moins des normes.
Dans le futur, les relations entre les personnes et les décisions de chacun dépendront-elles essentiellement du code informatique ? Ce code prédéterminera-t-il et contrôlera-t-il les usages et les comportements ? Si la fonction première du droit est de réguler les rapports inter-individuels, n’est-il pas temps de réguler les rapports entre les individus et les algorithmes, justement afin d’éviter que le droit technologique n’écrase par trop le droit humain ? Si la loi et, à travers elle, la démocratie représentative sont actuellement l’objet d’une théorie du déclin et subissent une grave crise de confiance — qui se traduit notamment dans l’essor des CivilTechs —, est-il pour autant possible de leur préférer la loi des algorithmes et son absence de transparence ? Certes, les algorithmes utilisés dans le cadre public, avec l’algorithmisation de l’administration et du gouvernement, visent à moderniser et, par là, à renforcer l’État. Mais les algorithmes privés, dont il sera question dans ce texte, ne tendent pas à compléter ou assister l’État ; ils le concurrencent et le remplacent.
Cette loi des algorithmes est une réalité dont il faut prendre conscience (I) ; et il faut prendre conscience de ses caractéristiques très particulières (II) et de son caractère éminemment politique, loin de toute objectivité et de toute neutralité (III), ainsi que des menaces potentielles qu’elle véhicule (IV). Les nouvelles technologies de communication et spécialement les algorithmes traversent tous les pans du droit et n’en épargnent aucun. L’ensemble des branches du droit et des branches de la recherche juridique est affecté. L’enseignant, l’étudiant, l’avocat, le magistrat et tous les juristes doivent s’adapter à ces mouvements, ne pas les laisser passer en les ignorant, sous peine de se couper de la réalité des phénomènes normatifs. Ce n’est peut-être pas autre chose que l’avenir de l’État et de la modernité juridique qui est en jeu. Si les normativités alternatives telles que la normativité algorithmique venaient à prendre excessivement le pas sur la loi et la jurisprudence, il deviendrait ô combien difficile de continuer à penser, enseigner et pratiquer le droit sans opérer un saut quantique. Droit et technologie convergeant, l’heure du technodroit (jus ex machina, machina ex lege) et des technojuristes a-t-elle sonnée ?
I- La réalité de la loi des algorithmes
Les algorithmes permettent des progrès considérables. Qu’on songe ne serait-ce qu’aux moteurs de recherche du web qui permettent d’accéder en une fraction de seconde à des documents avec une pertinence dont il faut continuer jour après jour à mesurer le caractère exceptionnel. Il ne s’agit pas, en ces lignes, de procéder à un bilan coûts/avantages mais uniquement de s’intéresser aux effets normatifs des algorithmes. Sous cet angle, si les algorithmes facilitent la vie et sont synonymes de gains de temps et de productivité, ils en profitent pour, dans un même mouvement, orienter largement cette vie. Les résultats fournis par les moteurs de recherche du web — et en même temps le référencement des pages web — ne sont pas autre chose que des devoir-être, comme les contenus mis en avant sur les réseaux sociaux ou les suggestions d’achat sur les sites d’e-commerce. Et, lorsque des algorithmes servent à filtrer des contenus, à censurer des messages ou des images, à afficher des publicités ciblées, à optimiser le calcul du prix d’un service (par exemple d’un billet de train ou d’avion), à piloter automatiquement des avions mais aussi des voitures, à réserver une automobile avec chauffeur, à passer des ordres financiers sur les marchés, à effectuer des diagnostics médicaux, à mener des opérations militaires, à écrire des dépêches de journaux, à afficher des fils d’actualité — le rédacteur en chef de Google News n’est autre qu’un algorithme —, à traduire des textes, à classer des documents, à crypter et décrypter des informations, ou encore à calculer le montant d’un impôt ou d’un crédit, à affecter des étudiants dans les établissements d’enseignement supérieur, à attribuer un logement social etc., ce sont autant de normes ou semi-normes plus ou moins directes, plus ou moins impératives mais souvent performatives, qui sont produites. De facto, l’algorithme choisit pour l’humain qui s’en remet à lui ; l’homme suit le robot. Le choix de regarder, d’aimer, de partager, de commenter et de prolonger son expérience n’est que de façade, car les recommandations sont un redoutable outil de fidélisation qui guide largement les parcours en ligne des internautes.
Pour poursuivre sur l’exemple des moteurs de recherche, ceux-ci deviennent les nouveaux centres névralgiques des systèmes informationnels — alors qu’on aurait pu croire à une véritable décentralisation de la diffusion de l’information ; mais il n’en est rien. Google, puisque c’est essentiellement de lui dont il s’agit, s’est forgé un quasi-monopole sur le marché de la recherche en ligne et envahit nombre de marchés annexes tels que celui de la cartographie avec Google Maps ou celui de la vidéo avec YouTube. Il est si ce n’est impossible du moins difficile de naviguer sur le web en contournant l’empire Google. Dans un monde massivement connecté, l’effet réseau favorise la constitution d’entités gigantesques à visée monopolistique. Les nouveaux géants prospèrent grâce à leur capacité à prendre appui sur la multitude pour créer et concentrer la valeur. Par suite, leur position leur permet d’imposer des normes parfois très strictes à leurs utilisateurs qui n’ont d’autre choix que de les accepter, que ce soit à travers les conditions générales d’utilisation — qui sont de véritables règlements à portée générale et impersonnelle bien plus que des contrats — ou, de manière bien plus insidieuse, à travers leurs algorithmes et en fonction des données emmagasinées. Le moteur de recherche de Google est un algorithme conçu pour intégrer de nombreux critères (dont beaucoup à caractère personnel : âge, sexe, géolocalisation, historique des recherches etc.) afin de donner des résultats satisfaisant à la fois les utilisateurs et les annonceurs. La pertinence des résultats — et les internautes cliqueront généralement sur les premiers d’entre eux, qui s’affichent sur la première page — n’est pas que le fruit de calculs mathématiques et logiques ; elle dépend aussi d’orientations décidées en opportunité par la multinationale du web.
Un autre exemple très significatif est celui des tendances de Twitter. À l’observation, il s’avère que l’algorithme qui gère l’affichage de ces tendances est porté à favoriser les sujets people ou banals et à laisser en retrait les sujets plus sérieux, notamment politiques. La conséquence est que les « twittos » seront naturellement portés à s’intéresser aux sujets people ou banals qu’on leur met sous les yeux plutôt qu’aux sujets plus sérieux, notamment politiques. De cette manière, l’algorithme de Twitter décide de ce qui est « chaud » et de ce qui ne l’est pas, de ce dont on parle et de ce dont on ne parle pas. Il ne s’agit pas pour autant de censure ; juste d’une dynamique particulière qui est celle de l’algorithme qui ne mesure pas la popularité d’un sujet mais se base sur l’accélération de l’utilisation des termes. Or un tel mode de fonctionnement — décidé en toute connaissance de cause — profite aux sujets people et banals, qui s’imposent (et disparaissent) soudainement dans l’actualité, et est défavorable aux sujets sérieux, notamment politiques, qui se propagent plus progressivement et sur un temps long. Le résultat n’en est pas moins que l’algorithme de Twitter impose certains sujets de discussion au détriment d’autres.
On pourrait multiplier les exemples 12. Toutes les plateformes en ligne utilisent des algorithmes qui emportent de forts effets normatifs. Cependant, la normativité entre algorithmes et utilisateurs des services est souvent bilatérale et non unilatérale. Lorsqu’un algorithme incite les clients d’un site d’e-commerce à acheter certains biens ou services particuliers, ce n’est que parce qu’il tire les conséquences de leurs habitudes, lesquelles possèdent donc un effet normatif à son égard. L’effet normatif est même parfois unilatéral, mais en ce que ce sont les utilisateurs qui imposent leurs choix aux algorithmes. Ainsi, quand Amazon développe une intelligence artificielle capable d’envoyer des livres à ses clients avant même qu’ils les aient commandés, l’effet normatif ne va que de l’utilisateur à l’algorithme. Toujours est-il que connaître si parfaitement les utilisateurs d’un service afin de pouvoir anticiper à l’avance toutes leurs décisions sans interférer dans celles-ci semble être une lubie et que le pouvoir le plus remarquable n’est pas ici celui de l’homme sur la machine mais celui de la machine sur l’homme.
Les humains construisent des algorithmes qui, en retour, construisent les humains. Les mécanismes de filtrage des réseaux sociaux, alimentés en continu par les préférences exprimées par les internautes, finissent par les enfermer dans une certaine vision du monde qui s’auto-entretient et donc se renforce, sans possibilité d’être confronté à quelque contradiction. Alors qu’internet devait offrir un accès formidable à la diversité et à l’infinité du monde, les algorithmes des GAFA et autres services de réseautage social, à la recherche de toujours plus de clics, enferment les individus sur eux-mêmes. Par exemple, EdgeRank, l’algorithme de Facebook qui détermine quels contenus de quels amis doivent être affichés en priorité, aboutit à une hyper-personnalisation faisant que, en permanence, les textes, les images, les vidéos, les liens et les publicités s’affichant vont dans le sens des choix habituels des utilisateurs. Cette « autopropagande invisible » 13 favorise notamment les phénomènes de radicalisation. Le pluralisme des courants de pensée et d’opinion et, par suite, la liberté d’opinion sont mis en danger. Où revient la dictature des algorithmes, dont les effets normatifs ne répondent guère aux exigences démocratiques. Les algorithmes œuvrent à cadrer les conduites, à formater les esprits, à décider des désirs, à standardiser les besoins, donc à favoriser le suivisme, le panurgisme, et à éliminer au maximum les envies et les modes de vie alternatifs — ceux-ci étant trop peu monétisables. Les utilisateurs se retrouvent donc placés dans des silos de comportement et de consommation tracés par les algorithmes. Quand la normalité devient normativité.
Plus généralement, en décidant dans une large mesure à la place des utilisateurs des réseaux sociaux et GAFA, les algorithmes font loi. Une loi qui peut aussi avoir des répercussions économiques graves. De nombreux services d’e-commerce sont entièrement dépendants de leur référencement par l’algorithme de Google et une modification de celui-ci peut les conduire à la perte ou, au contraire, à la gloire. Et nombre de petits sites, dont les budgets sont trop faibles, ne peuvent investir dans des prestations de référencement et de « réputation numérique » devenues pourtant indispensables.
Surtout, le gouvernement algorithmique a pour objectif d’anticiper les comportements et d’agir sur eux — ce qui est le propre de toute forme de gouvernement. Les algorithmes influent sur les décisions de chacun, sur les relations sociales et, ainsi, en viennent à façonner le monde à leur image — l’image de la Silicon Valley 14. Ils asseyent des légitimités nouvelles, déterminent les goûts, décident des succès et des échecs. Plus encore, ils décident de ce qui est « bien » et de ce qui est « mal ». Ils fondent le projet de société de demain. De là à penser que les hommes n’auraient plus leur destin entre leurs mains, il n’y a qu’un pas. Seulement, s’ils s’abandonnent aux algorithmes, c’est à la fois par choix et par obligation et tout n’est pas regrettable dans ce gouvernement algorithmique. Reste, comme le relève le Conseil d’État dans sa dernière étude annuelle, que « la puissance acquise par les principaux réseaux sociaux et les plus grandes plateformes de partage de contenus leur confère un pouvoir de prescription majeur qui soulève des questions essentielles au regard de la protection des libertés fondamentales » 15. Car il s’agit bien de puissance ; une puissance concurrente à la puissance étatique, une autre souveraineté, technologique et économique, à la place de la souveraineté politique.
Par ailleurs, il y a aussi tous les algorithmes développés par les LegalTechs qui, comme les algorithmes des GAFA et des réseaux sociaux, peuvent constituer des sources privées de normes mais qui, en revanche, visent explicitement et non insidieusement à participer à la modélisation du monde juridique 16. Avec les LegalTechs, le droit devient l’objet même des traitements algorithmiques ; il ne peut qu’en ressortir largement reformaté, algorithmisé, réduit en formules magiques « if this…, then that… » 17. Certaines LegalTechs cherchent sans détour à façonner les contours d’une nouvelle forme de justice — quand d’autres, avec les algorithmes dits de « justice prédictive », se bornent à moderniser et assister la justice étatique existante. Par exemple, le logiciel ODR Modria solutionne pour eBay près de trente millions de petits litiges chaque année, sans intervention humaine. Et les effets normatifs des algorithmes des LegalTechs sont eux-aussi puissants : lorsqu’ils invitent les « juristes augmentés » à retenir une solution plutôt qu’une autre, ceux-ci suivront très souvent cette préconisation dès lors qu’ils ne comprennent guère les processus et les méthodes des algorithmes et que leur capacité de calcul est très inférieure à la leur. Cela oblige ces juristes à avoir une confiance a priori et assez aveugle dans ces algorithmes qui, en théorie, doivent constituer un enrichissement fort au service d’un droit plus juste et plus rationnel. Le pouvoir performatif des algorithmes est réel y compris dans le cadre des LegalTechs 18. Les technologies sont plus que jamais capables de générer des « prophéties autoréalisatrices ». En termes de normativité, on ne saurait mieux faire.
Pour toutes ces raisons, il semble bel et bien que l’algorithme devienne un mode de gouvernance à part entière et très original. Plus globalement, la technologie tend à subroger la politique dans son rôle de vecteur de l’association des individus entre eux et d’organisation de leur coexistence pacifique. Est à l’œuvre un processus de désymbolisation et de resymbolisation : désymbolisation de la justice et du droit modernes-étatiques, resymbolisation en leur substituant la (pseudo-) logique et la (pseudo-) objectivité des algorithmes des multinationales du numérique, mais aussi des LegalTechs 19 — qui pour leur part sont le fait de legal start-up. Pour certains, la justice et le droit modernes-étatiques pourraient prochainement ne plus apparaître que tels des pis-allers historiques laissant leurs places à des modes de régulation scientifiques. S’il s’agit peut-être de science-fiction, la normativité algorithmique, elle, est aujourd’hui une réalité dont les caractéristiques détonnent et étonnent, une réalité fort iconoclaste et disruptive aux yeux de la plupart des juristes qui, logiquement, refuseront d’y voir du droit et refuseront même d’y voir de la normativité.
II- Les caractéristiques de la loi des algorithmes
« Code is law » est devenu la devise des crypto-anarchistes. Mais ne faut-il pas reconnaître également d’un point de vue plus scientifique que les algorithmes imposent leur « loi » ? Cette loi est incomparable à celle que les députés et sénateurs adoptent au Parlement. Il s’agit bien sûr d’une loi au sens large, d’une analogie visant à susciter la réaction du lecteur — peut-être même son indignation. Et puis il s’agit de montrer combien les juristes devraient regarder de plus près ces phénomènes normatifs originaux. Peut-on raisonnablement considérer comme des règles de droit, par exemple, les normes du droit d’auteur et du copyright applicables aux photographies et autres illustrations accessibles en ligne, alors que tout le monde les réutilise en commettant des contrefaçons qui restent impunies et qui, de ce fait, contribuent à déjuridiciser ces normes, et en même temps ignorer ces nouveaux phénomènes normatifs dont l’ampleur, déjà importante, ne cesse de croître ? Sans sombrer dans le défaitisme, on peut au moins s’intéresser aux unes et aux autres, éventuellement afin de les comparer.
D’ailleurs, les effets de la loi des parlementaires et ceux de la loi des algorithmes sont souvent comparables. La seconde est peut-être même plus efficace, dans l’ensemble, que la première. Cela pourrait autoriser les juristes à l’étudier tant l’effectivité des normes, à mesure que se développent les théories panjuridistes et les théories pragmatistes du droit, tend à devenir un critère de juridicité à part entière — au même titre que la validité dans un ordre juridique ou que la conformité à un quelconque idéal de « droit naturel », par exemple. Avec l’effectivité, la force juridique ne dépend plus des émetteurs des normes mais de leurs récepteurs, de leurs destinataires. Or la confiance dans les algorithmes des GAFA et autres services de réseautage social qui anime leurs utilisateurs fait que la loi des algorithmes est très largement acceptée — d’autant plus qu’elle est souvent peu perceptible.
Ensuite, la loi des algorithmes est significative du glissement du gouvernement politique délibéré et vertical vers la gouvernance mathématique automatique et horizontale 20. Cette automaticité et cette horizontalité proviennent du fait qu’il ne s’agit plus d’imposer des devoir-être à des être ; au contraire, les être s’imposent aux devoir-être, les faits s’imposent aux normes, deviennent normes. Telle est la conséquence de la généralisation des pratiques statistiques et de la multiplication des corrélations de données. La loi des algorithmes est donc symptomatique de la factualisation du juridique 21. C’est ainsi que la « loi de Hume » et l’idée d’une séparation nette entre être et devoir-être, entre fait et droit — peut-être contestable d’ailleurs, car que vaut le droit détaché des faits et des pratiques qu’il est supposé saisir ? — perd toute force didactique à l’épreuve de la loi des algorithmes. Et cette factualisation du droit concerne y compris les LegalTechs : pour elles, les textes de droit (règlements, jurisprudences etc.) sont des faits, comme le sont les caractéristiques d’un dossier. Les LegalTechs ne se basent pas sur un droit positif général et abstrait mais sur des données concrètes, statistiques. Ainsi, avec elles et plus généralement avec la loi des algorithmes, le droit passe de la causalité normative à la corrélation pratique 22. Le droit positif n’est plus considéré autrement que telle une donnée factuelle. La réalité des faits l’emporte sur la fiction des textes. Ces derniers sont, au mieux, une information dont il faut tenir compte parmi beaucoup d’autres. D’ailleurs, s’agissant des algorithmes des GAFA et des réseaux sociaux, ils imposent leur loi loin de tout texte, si ce n’est les conditions générales d’utilisation.
La loi des algorithmes rejoint sous cet angle les usages et toutes ces normativités immanentes et spontanées, qui ne s’imposent pas de l’extérieur mais de l’intérieur, loin de toute discussion, de toute délibération et de toute évaluation. Il faut rappeler combien la loi des algorithmes repose sur un jeu d’échanges et d’interactions entre l’utilisateur et l’algorithme : l’utilisateur, par son comportement, influence l’algorithme, lequel en retour, par ses informations, influence l’utilisateur etc. L’algorithme « auto-apprenant » par rapprochements successifs, en dégageant des corrélations, fait émerger des normes à partir des régularités et des coïncidences qu’il identifie. De telles normes n’ont évidemment rien à voir avec les dispositions à portée générale, dénuées de toute discrimination, décidées au sein des hémicycles, qui ne prennent que très peu en compte, par soucis d’égalité et d’impartialité, les situations particulières de chacun de leurs destinataires. La loi des algorithmes correspond par conséquent à un mouvement d’individualisation des règles de droit.
Est en cause, pour reprendre les mots d’Antoinette Rouvroy et Thomas Berns, une « gouvernementalité algorithmique » dont le sujet est « saisi par le “pouvoir”, non pas à travers son corps physique, ni à travers sa conscience morale (prises traditionnelles du pouvoir dans sa forme juridico-discursive) mais à travers les multiples “profils” qui lui sont assignés, souvent de manière automatique sur la base des traces numérisées de son existence et de ses trajectoires quotidiennes » 23. Autrement dit, le nouveau droit qui jaillit des algorithmes ne serait que le reflet de la synthèse des faits sociaux dans des données décontextualisées. Ce droit, malgré sa forte individualisation, ne semble donc qu’un peu moins coupé des réalités et coupé de ses destinataires que celui qui résulte des processus de démocratie représentative. Cela pose la question de son acceptabilité et, par suite, de sa viabilité sur le long terme, une fois que l’effet de surprise technologique — allant de pair avec un état de grâce technologique — sera passé. Déjà bien des auteurs de science fiction ont imaginé des hommes se révoltant contre les robots. Les hommes s’élèveront-ils bientôt contre la « loi des algorithmes » ? Depuis la Révolution française de 1789, le légalisme (fait de réduire le droit à la loi du Parlement) fait que les individus sont soumis à des normes générales et abstraites de comportement évitant qu’ils soient enfermés dans des dépendances personnelles, caractéristiques des rapports inégaux de l’Ancien Régime. Or l’hyper-personnalisation par les algorithmes tend à recréer de telles dépendances.
En outre, la programmation du droit que la loi des algorithmes permet, anticipant les faits à venir en même temps qu’elle contribue à les faire advenir, s’oppose à la caractéristique du droit moderne qui normalement s’élabore à partir de motifs de fait préexistants. Surtout, l’humanité du droit disparaît. Or un droit robotisé n’est-il pas un droit appauvri ? Le droit peut-il remplir son rôle s’il se désolidarise de ses symboles ancestraux ? Des normes appliquées sans mise en balance réflexive peuvent-elles longtemps demeurer acceptables et acceptées ? Ne faut-il pas s’alarmer face à des modes de normativité qui substituent au raisonnement juridique une simple déduction tirée de flux de données ? Les juristes ne doivent-ils pas s’émouvoir devant ces évolutions sourdes mais néanmoins profondes du paysage des normativités et, de ce fait, se saisir au plus vite de ces sujets ?
« Corrélation n’est pas causalité » : cette formule pourrait servir de slogan à ceux, de plus en plus nombreux, qui tentent de s’opposer à ces algorithmes qui capturent et régissent les vies et les sociétés. Car une corrélation peut résulter — et résulte bien souvent — du simple hasard. Or est-il raisonnable d’abandonner le droit au hasard ? Avec le gouvernement algorithmique, la méfiance à l’égard des effets de corrélation est en train de s’effacer, tout simplement parce que ces effets de corrélation sont de moins en moins perceptibles, ce qui leur évite d’être mis en doute. Il semble pourtant important de vérifier, notamment, qu’une corrélation ne traduit pas une injustice et n’est pas, par suite, le facteur d’une discrimination. Et puis une politique publique, qui s’exprime à travers des textes de droit, a normalement vocation à agir a priori et non à réagir a posteriori. Elle est supposée refuser de prendre en considération des corrélations. Partant, la loi des algorithmes exprime peut-être une tendance du droit à être de moins en moins un outil au service de l’interventionnisme et de plus en plus un outil au service du réactionnisme.
Cependant, le système jus-algorithmique ne saurait évidemment remplacer totalement le système jus-étatique tant les mathématiques et la logique ne peuvent permettre de remplir toutes les fonctions du droit ni d’envisager toutes les nuances de la rhétorique juridique. Pour l’heure, la loi des algorithmes n’est d’ailleurs toujours qu’une forme de normativité alternative. Mais son développement croissant et son potentiel présumé doivent amener à interroger la place qu’elle pourrait et qu’elle devrait occuper dans le droit de demain. En premier lieu, il convient de souligner son caractère politique. Si elle dépend de formules mathématiques et de programmes informatiques, ceux-ci ne sont pas nécessairement neutres.
III. Les aspects politiques de la loi des algorithmes
Une autre caractéristique de la loi des algorithmes est qu’elle est un des vecteurs de l’américanisation du droit européen, phénomène observé depuis longtemps et qui semble se poursuivre actuellement. À travers cette « loi », c’est une vision particulière de l’homme et de la société — et donc du droit qui les accompagne — qui se propage. Elle contribue à la colonisation numérique de l’Europe par les États-Unis et, en cela, présente déjà un aspect politique. D’ailleurs, les diverses initiatives récentes des institutions de l’Union européenne afin de contrer ou, du moins, limiter ce mouvement attestent de sa réalité. La Californie est le lieu où s’imaginent un autre modèle de société et un nouvel imaginaire politique. Cette nouvelle approche, reposant — de prime abord du moins — sur la collaboration et le partage, valorisant l’innovation, l’entrepreneuriat et l’association, ne manque pas d’imprégner les algorithmes des GAFA et des réseaux sociaux 24. Toutefois, ceux-ci répondent également à bien d’autres objectifs dont certains sont économiques — par exemple lorsque l’intelligence artificielle opère une disqualification du jugement subjectif au profit d’un « management algorithmique tendant à l’efficacité maximale » 25 —, d’autres sont politiques, d’autres encore sont à la fois économiques et politiques.
Une décision prise par un algorithme ou avec l’assistance d’un algorithme présente l’avantage de sembler a priori plus équitable et plus juste qu’une décision humaine éventuellement orientée politiquement et en tout cas soumise à une subjectivité. La rigueur mathématique et la logique de l’algorithme jouent à première vue en sa faveur. L’algorithme ne pourrait pas être corrompu ou autrement influencé. On ne prête aux robots ni intentions ni opinions ; ils obéiraient simplement à une froide objectivité. Les nouvelles pratiques de gouvernement algorithmique assoient leur légitimité sur cette objectivité. On consent à ce que des algorithmes gouvernent les vies en raison de leur neutralité semble-t-il implacable. Or cette neutralité n’est bien souvent que de façade ; ou plutôt l’outil est en soi neutre mais non l’usage qui en est fait 26.
Un algorithme est une construction humaine : des entrepreneurs en ont l’idée, des ingénieurs le paramètrent, des programmeurs le codent, des éditeurs fabriquent des logiciels qui rétroagissent avec lui, des sous-traitants imposent des conditions qui l’influencent, des dirigeants prennent des décisions stratégiques qui se répercutent sur lui etc. Ce sont autant de personnes qui, d’une manière ou d’une autre, possèdent un pouvoir à l’égard de l’algorithme et qui peuvent éventuellement lui conférer un aspect politique. Les critères, les paramètres et les données qui font qu’un algorithme produit certains résultats plutôt que d’autres sont déterminés par des hommes et il est largement possible de faire dire à l’algorithme certaines choses plutôt que d’autres. C’est pourquoi il semble que les algorithmes informatiques réellement neutres soient rares. Un algorithme peut être — et est souvent — conçu afin de permettre à certaines valeurs de dominer. Et, même lorsque ses concepteurs souhaitent en faire un outil parfaitement objectif, les valeurs qu’ils portent ne peuvent que transparaître dans l’instrument créé 27.
Plus encore, le code informatique lui-même est politique. Les algorithmes ne sont-ils pas des opinions exprimées dans du code ? Et l’architecture technologique et le design sont des actes politiques. Ils dessinent les contours d’un nouveau monde différent de celui d’hier. Par exemple, ils peuvent optimiser les systèmes financiers ou bien développer les communs et mettre en retrait la propriété privée, autant de cadres pour les sociétés de demain qui ne vont pas de soi et que la technologie contribue à forger, souvent de manière silencieuse mais peut-être irrévocable.
L’algorithme procède à un travail de systématisation de données à partir d’instructions porteuses de valeurs prédéterminées par l’homme. Ainsi va-t-il, par exemple, censurer automatiquement les propos ou images des personnes portées vers les pires travers de la pensée humaine — ce dont il faudrait a priori se réjouir. Cependant, se pose la question de la légitimité de ce pouvoir qui porte atteinte à la liberté d’expression, liberté fondamentale consacrée par tous les textes relatifs aux droits de l’homme. Car ce sont aussi tous les contenus violents, racistes, blasphématoires ou haineux qui sont filtrés. Or la violence des uns n’est pas celle des autres, le racisme des uns n’est pas celui des autres etc. Et puis les idées dangereuses ne doivent-elles pas être combattues plutôt qu’effacées et donc ignorées ?
Les algorithmes procèdent à un travail de pondération dont les intentions et les conséquences prennent un tour inévitablement politique. Quand ils décident de ce qui est « tendance », de ce qui est « plus populaire », plus généralement de ce qui doit s’afficher sur l’écran de l’utilisateur et de ce qui doit demeurer caché, ainsi que par leur manière d’agencer les informations d’une façon particulière, ils jouent un rôle prescripteur qui peut aller jusqu’à influencer le résultat des élections — sans d’ailleurs que cela soit nécessairement la volonté du service. En outre, lorsque, par exemple, Twitter « nettoie » ses listes de tendances en supprimant les gros mots, les obscénités, mais aussi les publicités déguisées, il s’agit d’actes qui ne sont pas neutres ; car encore faut-il définir les limites entre ce qui relève de la catégorie des gros mots et ce qui n’en relève pas, ce qui constitue une obscénité et ce qui n’en constitue pas une, ce qui est une publicité déguisée et ce qui n’en est pas une. Les start-up de la Silicon Valley devenues multinationales du net semblent devoir être nécessairement animées par des racines iconoclastes et par un état d’esprit hyper-tolérant et ouvert, associé à la contre-culture de la Valley. En réalité, cela cache des convictions et intentions bien plus conservatrices qu’en apparence. Ainsi les algorithmes de Facebook, Twitter ou Google appliquent-ils bien souvent des normes assez pudibondes — sortes d’anachronismes postmodernes —, lesquelles s’imposent subrepticement à des milliards d’utilisateurs à travers la planète.
Par exemple, l’algorithme de Facebook, appliquant les conditions générales d’utilisation du service, bloquera les comptes de ceux qui chercheront à publier des représentations de nus (même très partiels). Aussi est-il impossible de mettre en ligne sur Facebook — qui pourtant s’assigne comme mission de « rendre le monde plus ouvert » — L’origine du monde de Gustave Courbet, la photographie iconique de la « petite fille au napalm » qui, nue, fuit les bombes en hurlant, une illustration montrant les seins d’Eve dans le jardin d’Eden ou même une vidéo informative sur l’allaitement maternel. Quant à un ouvrage intitulé Vagin, l’algorithme de l’iBookstore d’Apple va le transformer en V***n. D’autres exemples peuvent être trouvés dans ces mots qui n’apparaissent pas lorsqu’on utilise la fonction de saisie automatique des moteurs de recherche (qui fait que les résultats s’auto-complètent au fur et à mesure qu’on entre des lettres) ou dans ces pages web qui n’apparaissent pas ou qui apparaissent très lointainement dans les pages de résultats 28. Les multinationales de la communication numérique limitent ainsi la possibilité d’utiliser librement des termes ou des images pourtant déjà largement diffusés, si ce n’est légitimés.
Les algorithmes déterminent de la sorte l’étendue et les limites de ce qui est culturellement acceptable. Ils font passer les termes les plus courants pour des termes honteux et des chefs d’œuvre pour des obscénités. La Silicon Valley reflète moins les normes sociales en vigueur qu’elle les façonne à sa guise. Et les algorithmes deviennent les nouveaux gardiens du temple, en remplacement des philosophes, journalistes, éditeurs etc. En faisant la loi sur des services qui sont, dans le monde d’aujourd’hui, au cœur de toutes les activités sociales, politiques et économiques, les algorithmes — et ceux qui les conçoivent et les règlent — jouissent d’une puissance gigantesque qui n’a peut-être rien à envier à celle des États. Les programmeurs disposent d’un pouvoir de plus en plus grand à mesure que les algorithmes deviennent des outils indispensables dans les processus de prise de décision. Certes, il est encore difficile de trouver les mots justes pour comprendre et expliquer la politique induite par les algorithmes. Cette politique n’en paraît pas moins constituer une réalité forte et une donnée incontournable pour qui souhaite comprendre le monde d’aujourd’hui et de demain.
Quant aux conditions générales d’utilisation des GAFA et réseaux sociaux, elles ne sont guère contractuelles, bien qu’elles doivent être acceptées individuellement par chaque utilisateur. Ce sont plutôt des règlements unilatéraux à portée impersonnelle (visant tous les utilisateurs) qui, associés à la loi des algorithmes, permettent à ces services d’imposer leur droit et, en même temps, une certaine philosophie politique, une certaine vision du monde, une certaine vision de l’économie, une certaine vision de l’acceptable et du choquant, une certaine vision de la puritanerie, une certaine vision des droits humains, une certaine vision de la protection des données personnelles etc. Elles sont en réalité les conditions imposées à qui veut avoir accès à des services qui sont devenus essentiels dans le mode de vie actuel. Il ne s’agit donc guère de dispositifs contractuels mais bien plutôt de la loi autoproclamée de ces services. Celle-ci, mise en application par des algorithmes intransigeants et incorruptibles, oblige les utilisateurs à accepter a priori des règles les amenant à conformer leurs discours et images au monde lissé que les grands acteurs de la communication numérique modèlent.
Dans des sociétés démocratiques et libérales, la puissance de Facebook ou Google, qui s’exprime normativement, ne peut laisser indifférent, même lorsque ces multinationales peuvent être animées par les meilleures intentions. Car le fait qu’une liberté fondamentale telle que la liberté d’expression ne soit plus régie par les textes à valeur constitutionnelle et autres lois votées par les représentants du peuple mais par des entreprises privées, à travers leurs propres règlements et propres instruments d’application, est peut-être significatif d’une migration du pouvoir politique dont il faudrait s’alarmer.
En même temps, cette façon d’agir sur les comportements et de les standardiser sans faire appel à la loi du Parlement ni, plus généralement, à l’État est caractéristique d’une époque de défiance à l’égard des institutions publiques. Ainsi la loi des algorithmes témoigne-t-elle de profonds bouleversements dans le paysages des sources du droit : explosion des sources privées concomitant à une crise des sources publiques — d’autant plus que les sources internationales, à l’ère de la mondialisation numérique, ne parviennent pas à prendre le relai des sources nationales.
Aussi, face à la loi des algorithmes, semble-t-il indispensable de faire preuve de prudence et de conserver une distance critique, de garder à l’esprit combien des biais de programmation peuvent emporter des conséquences insatisfaisantes et parfois même injustes ou autrement inacceptables.
IV. Les dangers de la loi des algorithmes
Si la loi des algorithmes semble constituer une réalité, cette réalité appelle déjà la méfiance en raison du fait que seule une faible partie de ceux dont les conduites sont régies par cette « loi » en ont conscience et, par suite, peuvent poser sur elle un regard critique et sur leurs choix et comportements un regard réflexif. En la matière, il est difficile de se prévaloir de la maxime « nul n’est censé ignorer la loi ». Ou plutôt nul n’ignore la « loi » dans le sens où la plupart de ses destinataires s’y conforment ; mais beaucoup de monde ignore la « loi » en ce que beaucoup de monde ignore qu’il s’agit d’une loi, ignore qu’il s’agit de normes, de devoir-être.
Derrière l’apparente complexité de la technologie et du code, les objectifs des algorithmes ne sont que peu originaux : il s’agit de centraliser le pouvoir au sein de structures ordonnées et cohérentes, à l’image des bureaucraties, à tel point que certains en viennent à comparer les GAFA à des États 29. À l’image des bureaucraties, les algorithmes — nouvelle forme de technocratie — sont conçus pour être impénétrables. La loi des algorithmes, ensemble de normes tacites, inexprimées, formalisées seulement dans du code, est donc associée à une opacité peu satisfaisante, quel que soit le contenu et la portée des normes en cause. Et cela a fortiori dès lors que l’effectivité de ces normes dépend intimement de la confiance quasi-aveugle que les utilisateurs des services font aux algorithmes. Comme les bureaucraties, les algorithmes refusent la transparence afin de préserver leur fonctionnalité. De Facebook à Google, on justifie le secret des algorithmes par le besoin de préserver des secrets industriels et technologiques, ainsi que le secret des affaires 30 ; mais l’enjeu est aussi de masquer les lacunes et défauts et d’éviter les contestations. On forge savamment, à grand renfort de communication, une image d’infaillibilité et de superpuissance afin d’éviter que le public n’ai ne serait-ce que l’idée d’émettre une quelconque critique. Cela aboutit à des « boîtes noires » qui enregistrent les données et les traitent, dont on peut observer et subir les effets, mais sans en comprendre le fonctionnement 31.
Ensuite, les algorithmes peuvent produire des résultats imparfaits s’ils ont été mal conçus et s’ils fonctionnent mal, mais aussi s’ils sont nourris par des données inexactes, approximatives. Or seuls les services qui mettent en œuvre les algorithmes maîtrisent leur fonctionnement et les données qui leur sont fournies. L’interrelation des données entre elles et des systèmes entre eux peut aboutir à créer des biais qui se renforcent les uns les autres. Ces systèmes créent des boucles de rétroaction qui aggravent ce qu’ils prétendent mesurer objectivement. Les normes constitutives de la loi des algorithmes, bien que fortement individualisées, peuvent ne pas être du tout adaptées et même nocives pour certaines personnes — qui, par exemple, se verraient refuser un prêt ou un emploi parce qu’un moteur de recherche ou un réseau social aurait affiché certaines informations, éventuellement erronées, plutôt que d’autres.
Quant à l’automaticité de l’application des normes, elle ne peut qu’interpeller. Les algorithmes rassurent par leur logique mathématique implacable. Mais le droit peut-il raisonnablement répondre à une logique mathématique implacable 32 ? Un droit robotisé, sans tribunaux, sans subjectivité permettant de pondérer ses conséquences en fonction de chaque cas spécifique, n’est-il pas un droit sensiblement affaibli et peut-être dangereux 33 ? Et l’humanité du droit n’est-elle pas essentielle afin de lui permettre de conserver son aura, sa solennité et son prestige, donc son autorité ? Parfois, il est bon que la morale, forme de droit souple, tempère le droit dur 34. Or il est beaucoup plus délicat d’apprendre à des algorithmes le droit souple que le droit dur. C’est pourquoi le juge-humain ne saurait laisser sa place à un juge-robot — et aussi pourquoi le juge et le législateur publics ne sauraient laisser leurs places à un législateur et à un juge privés.
Cela d’autant plus que la situation est paradoxale : en même temps, loin de toute « égalité devant la loi », la loi des algorithmes produit par principe des discriminations puisque l’objet même des algorithmes est de traiter différemment chaque utilisateur, de lui fournir des contenus personnalisés qui vont l’amener à adopter une conduite particulière. Ainsi l’automaticité et la rigidité s’associent-elles à la personnalisation ; et ce mélange peut potentiellement produire des résultats insatisfaisants qui ne seront l’objet d’aucun contrôle. En France, l’article 225-1 du Code pénal incrimine toute forme de discrimination fondée notamment sur l’origine, le sexe, la situation de famille, l’apparence physique, le patronyme ou le lieu de résidence. Il semble pourtant que le principe même de la loi des algorithmes soit d’opérer des discriminations fondées sur l’origine, le sexe, la situation de famille, l’apparence physique, le patronyme ou le lieu de résidence. Dans les faits, les algorithmes n’ont de cesse de discriminer les utilisateurs des services sur la base de critères illicites 35.
Face à la puissance prescriptive des algorithmes, des garde-fous existent. C’est ainsi que la loi Informatique et libertés dispose qu’ « aucune décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité » 36. Seulement, cela vaut à l’égard de l’administration et des institutions publiques — l’approche moderne-étatiste de la juridicité faisant que l’adjectif « juridique » est ici réservé aux seules sources publiques de normes. Or les mastodontes de l’économie numérique prennent aussi des décisions produisant des effets considérables à l’égard d’une personne sur le seul fondement d’un traitement automatisé de données destiné à définir son profil ou à évaluer certains aspects de sa personnalité. Et ces décisions, à portée juridique ou non, n’impactent pas moins de façon redoutable les vies des personnes qu’elles visent.
Enfin, la loi des algorithmes, dès lors qu’elle est associée à des services tels que les réseaux sociaux, peut poser des difficultés au pluralisme des courants de pensée et d’opinion, à la liberté d’entreprendre, au droit de la concurrence, au droit d’auteur, ou encore au droit à la sûreté et à la lutte contre la délinquance et la criminalité 37. Surtout, elle agit comme une force centripète à l’égard de nombreux droits et libertés. En premier lieu, elle interroge fortement le droit au respect de la vie privée et la protection des données à caractère personnel — si certaines des informations que les algorithmes traitent ne sont pas confidentielles, beaucoup le sont. Cette loi des algorithmes est bien moins contraignante que la plupart des lois étatiques en matière de collecte, de conservation et d’utilisation des données personnelles. Face au foisonnement des données disponibles et aux possibilités de filtrage et d’agrégation, le consentement par défaut et obligatoire des utilisateurs ne peut qu’être remis en cause. Or la loi des algorithmes n’existerait pas sans recueil massif de données personnelles — a fortiori si les données comportementales doivent s’analyser telles des données personnelles.
Dans tous les cas, la question du consentement individuel semble pouvoir difficilement être posée de façon pertinente : comment consentir à des procédés dont on ne saisit ni les tenants ni les aboutissants ? Le droit (étatique) des données personnelles n’est pas le mieux adapté aux usages des algorithmes : il repose sur un principe du consentement théorique au traitement de ses données qui est un écran de fumée dès lors qu’il est aujourd’hui impossible d’utiliser pleinement un smartphone ou le web sans accepter d’être tracé et connu en détails par les éditeurs des services, dès lors que l’usage de la technologie est soumis à l’abandon de la maîtrise de ses informations personnelles. Il ne s’agit toutefois pas d’un phénomène tyrannique : les individus donnent très volontiers leur accord au moment où ils acceptent les conditions générales d’utilisation des services ; mais ils ne le font guère de manière éclairée. On se prête au jeu d’un gouvernement des conduites reposant sur la connaissance intime de chacun, façon 1984 de Georges Orwell, mais sans s’en rendre véritablement compte. C’est bien d’un abandon volontaire du contrôle de ses informations personnelles dont il est question ; la difficulté est que celui-ci s’effectue dans un cadre très peu transparent. Aussi davantage de contrôle citoyen serait-il un bon moyen de répondre à ces écueils 38.
C’est pourquoi, durant l’année 2017, la CNIL a mené un vaste débat public sur les enjeux éthiques et les questions de société liés à l’utilisation des algorithmes. Il s’agissait, notamment, de mieux comprendre et expliquer le fonctionnement des algorithmes et de mettre en perspective les dangers, progrès et avancées technologiques liés à leur développement exponentiel. Alimenter continuellement la réflexion sur le sujet permettrait au moins de garder à l’esprit la réalité de la loi des algorithmes et la réalité de ses effets, ainsi que de prévenir certains risques de dérive, d’avancer suivant la méthode des petits pas — chère aux start-up — vers un droit des algorithmes plus clair, mieux connu et davantage protecteur du libre-arbitre de chacun. Il faut insister sur les vertus du débat public pour sensibiliser la société dans son ensemble et le monde politique en particulier aux problématiques nouvelles que l’intelligence artificielle fait émerger.
Lorsque des multinationales de la communication numérique recourent à des algorithmes afin d’orienter et guider les utilisateurs de leurs services, il n’est guère possible d’exiger d’elles clarté et transparence quant au mode de fonctionnement de ces algorithmes, aux données qu’ils traitent et aux usages qui en sont faits. Ces entreprises pourront à leur guise se retrancher derrière divers droits au secret afin de préserver l’opacité entourant leurs outils algorithmiques. Or, si ceux-ci produisent de forts effets normatifs, l’obscurité qui les accompagne ne peut qu’être regrettée et dénoncée.
Face à cette situation, on en vient à exiger que l’utilisation des algorithmes soit soumise à une obligation de transparence : les personnes concernées devraient pouvoir comprendre comment les algorithmes fonctionnent, sur quels raisonnements ils s’appuient, quels sont leurs paramètres et quelles conséquences ils engendrent. Les États démocratiques, États de droit, devraient s’atteler à l’élaboration d’une règlementation relative à pareille transparence des algorithmes. En présence de multinationales transnationales et d’enjeux économiques — y compris pour ces États — gigantesques, la tâche s’avère toutefois délicate à accomplir. Il serait pourtant essentiel que les GAFA et autres services de réseautage social expliquent clairement au public ce que font leurs algorithmes, quels présupposés ils suivent et en quoi ils influencent les comportements. Mais, alors que les algorithmes ont été, à grand renfort de savante communication, élevés au rang de mythes, jamais ces entreprises ne sauraient s’engager dans cette voie de leur propre initiative. En France, néanmoins — et à défaut d’une telle initiative prise au niveau, plus pertinent, de l’Union européenne —, la loi Pour une République numérique 39 a souhaité imposer une obligation de transparence aux plateformes en ligne. Ainsi l’article L. 111-7 du Code de la consommation dispose-t-il désormais que « tout opérateur de plateforme en ligne est tenu de délivrer au consommateur une information loyale, claire et transparente sur […] les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels ce service permet d’accéder ».
Conclusion
Les algorithmes régissent chaque jour un peu plus les vies des hommes connectés. La loi qu’ils produisent et appliquent s’oppose à la loi du Parlement en ce qu’elle n’est pas, comme cette dernière, issue d’une délibération, mode de décision supposant de prendre le temps de la réflexion et de peser les divers arguments en présence, et laissant une place importante aux compromis politiques et aux exigences politiciennes 40 — une humanité qui est peut-être indispensable à l’élaboration des règles régissant les conduites et relations sociales. Cela pose la question de la capacité de la société numérique à être une société démocratique et ouverte. La loi des algorithmes ne favorise-t-elle pas plutôt une société numérique tyrannique et fermée ? Alors que les hommes et les sociétés, assez paradoxalement, sont pris à la fois dans un mouvement de division et de désunion et dans un mouvement de standardisation qui peuvent l’un et l’autre laisser craindre le pire, le fonctionnement de nombre de plateformes numériques fait redouter une large érosion du pouvoir de ces hommes et de ces sociétés sur leurs destins individuels et collectifs 41.
La loi des algorithmes requiert un cadre politique véritable mais, pour l’heure, elle en est largement dépourvue. N’est-il pas temps de politiser les débats sur la place des algorithmes dans la société ? Alors que les géants du web peuvent être tentés d’aliéner les libertés en plaçant leurs utilisateurs dans des silos comportementaux, il revient à chacun de mesurer les enjeux et de reprendre la main sur soi-même. La loi des algorithmes dépend uniquement de sa forte effectivité — elle n’est ni valide dans un ordre juridique, ni conforme à quelques réquisits de droit naturel, ni associée à des normes de sanction, ni appliquée par les tribunaux. Par conséquent, cette dépendance à l’égard de son effectivité la rend plutôt fragile et, surtout, fait qu’elle est entièrement dépendante de sa réception par ses destinataires, qui ont donc son sort entre leurs mains — contrairement aux apparences.
Reste que, si le droit est ce qui modèle effectivement les comportements des hommes en société, les algorithmes doivent s’analyser tels des sources de droit. Ils produisent des effets normatifs qui n’ont rien à envier à ceux induits par certaines lois ou certains règlements. Cela invite à repenser le droit, loin des sentiers battus du droit moderne du XXe s., quand, en théorie et en pratique, « droit » rimait avec « État ». Au-delà du cas des algorithmes, les multinationales telles que les GAFA donnent lieu à des objets normatifs ou semi-normatifs plus ou moins bien identifiés. Les juristes ne semblent pas pouvoir les ignorer, sous peine d’étudier un droit qui n’aurait plus grand chose à voir avec la réalité des cadres normatifs en vigueur — concernant certaines activités du moins, telles que les activités de communication numérique 42.
La loi des algorithmes n’est pas le moins extraordinaire de ces nouveaux phénomènes normatifs. Elle témoigne du fait qu’un autre langage du droit est en train de s’élaborer et qu’il est urgent que les juristes scientifiques créent une pierre de Rosette adaptée afin de le déchiffrer. Les fondements et les caractéristiques de la normativité juridique, dont les lieux et les acteurs se multiplient, changent à une vitesse croissante et dans des proportions chaque jour un peu plus importantes. La loi des algorithmes montre que la normativité descendante, provenant d’une autorité en surplomb, est concurrencée par une normativité immanente issue des outils technologiques ; tandis que la normativité à prétention universelle, composée de normes générales et impersonnelles, est mise en ballotage par une normativité individualisée permise par la collecte et l’analyse algorithmique des données personnelles ; et alors que la normativité publique, transparente et consciente est subrogée par une normativité privée, opaque et inconsciente. L’automaticité du traitement des données et donc de la loi des algorithmes serait un signe non anecdotique de profonds changements dans la manière de créer, d’interpréter et d’appliquer le droit. Elle pourrait même refléter la tendance du droit à se passer de l’humain, à se robotiser 43.
Le risque n’est-il pas, en ignorant ou en feignant d’ignorer ces mouvements, de devenir comme ces individus par trop conservateurs que décrivait Jean-Jacques Rousseau, « devenus pauvres sans avoir rien perdu, simplement parce que tout changeait autour d’eux et qu’eux n’avaient point changé » 44?
Notes:
- Appartiennent à l’ordre du prescriptif — par opposition à ce qui relève de l’ordre du descriptif — l’obligatoire, l’impératif, le prohibitif, mais aussi le permissif, l’incitatif, le recommandatoire, le suggestif, l’habilitatif et l’attributif. ↩
- Cf. S. Abiteboul, G. Dowek, Le temps des algorithmes, Le Pommier, coll. Essais, 2017 ; K. Schwab, La quatrième révolution industrielle, Dunod, 2017. Pour 80 % des français, les algorithmes sont actuellement présents dans la vie de tous les jours (IFOP, « Notoriété et attentes vis-à-vis des algorithmes », janv. 2017). Pour 72 % des français, les algorithmes sont un enjeu de société (ibid.). Pour 64 % des français, les algorithmes représentent une menace en raison de l’accumulation de données personnelles sur les choix, les goûts et les comportements de chacun (ibid.). ↩
- Cf., not., B. Dondero, Droit 2.0 – Apprendre et pratiquer le droit au XXIe siècle, LGDJ, coll. Forum, 2016. ↩
- Cf., not., O. McGinnis, R. Pearce, « The Great Disruption: How Machine Intelligence Will Transform the Role of Lawyers in the Delivery of Legal Services », Fordham Law Review 2014, n° 82, p. 3041 s. ; J. Goodman, « Legaltech: Innovation and Legacy IT », The Law Society Gazette 13 juin 2016 ; R. Susskind, Tomorrow’s Lawyers – An Introduction to your Future, Oxford University Press, 2013 ; R. Susskind, The End of Lawyers – Rethinking the Nature of Legal Services, Oxford University Press, 2010. ↩
- En ce sens, par exemple, G. Conti, W. Hartzog, J. Nelson, L. A. Shay, « Do Robots Dream of Electric Laws? An Experiment in the Law as Algorithm », in R. Calo, M. Froomkin, I. Kerr, dir., Robot Law, Edward Elgar, 2016, p. 274 s. ↩
- En ce sens, par exemple, M. Dugain, Ch. Labbé, L’homme nu – La dictature invisible du numérique, Plon, 2016. ↩
- Le volume des données produites dans le monde double tous les 18 à 24 mois. Tous les deux jours, l’humanité produit autant d’informations qu’entre l’aube de l’humanité et 2003. Et plus de 90 % des données disponibles aujourd’hui ont été produites au cours des deux dernières années. ↩
- C. Koening, « Nous ne voulons pas être de la chair à algorithmes ! », Lesechos.fr, 17 janv. 2016. ↩
- Cf., not., R. Chatila, « Intelligence artificielle et robotique : un état des lieux en perspective avec le droit », Dalloz IP/IT 2016, p. 284 s. ↩
- ar exemple, A. Bensoussan, Droit des robots, Larcier, 2015 ; A. Bensamoun, dir., Les robots – Objets scientifiques, objets de droits, Mare et Martin, 2016 ; A. Bensoussan, « Droit des robots : science-fiction ou anticipation ? », D. 2015, p. 1640 s. ; M. Bourgeois, G. Loiseau, « Du robot en droit à un droit des robots », JCP G 2014, p. 1231 s. ; G. Loiseau, « Des robots et des hommes », D. 2015, p. 2369 s. ↩
- Au-delà des nombreux travaux de la doctrine, le Conseil d’État, en 2014, a produit une étude sur « Le numérique et les droits fondamentaux » dans laquelle il insiste sur la nécessité de définir un droit des algorithmes. En mai 2016, la Maison-Blanche a publié un rapport intitulé « On Algorithmic Systems: Opportunity and Civil Rights ». Et le 15 décembre 2016, la Secrétaire d’État au numérique et à l’innovation a publié les recommandations du rapport du Conseil général de l’économie concernant les « Modalités de régulation des algorithmes de traitement des contenus ». ↩
- Quant à Facebook, il utilise divers algorithmes qui modèlent largement les usages de ses utilisateurs, dans le cadre du service mais aussi en-dehors. Certains notamment, dits « lookalike audience », agrègent les données concernant un groupe d’acheteurs d’un produit donné et repèrent les profils similaires susceptibles d’être intéressés par ce produit. Le réseau social au milliard d’utilisateurs s’est même associé à des géants de la data qui agrègent les données recueillies par exemple grâce aux cartes de fidélité des supermarchés. Ensuite, des publicités très ciblées peuvent être proposées et, lorsque cela est suivi d’un acte d’achat, l’effet normatif a parfaitement joué. Or il est possible, grâce à Facebook, de réaliser une campagne publicitaire ne s’adressant qu’aux hommes célibataires, âgés de plus ou moins 30 ans, vivant à Paris, aimant le sport et les films d’action et adeptent des sorties nocturnes, par exemple. ↩
- E. Pariser, The Filter Bubble – What the Internet is Hiding from You, Penguin Books, 2011. À titre d’exemple, l’auteur prend le cas de deux personnes aux convictions politiques opposées qui recherchent sur Google des informations concernant la compagnie pétrolière BP. La personne de « droite » voit s’afficher des résultats se rapportant aux chiffres financiers de l’entreprise, alors que celle de « gauche » obtient des résultats relatifs à la dernière marée noire causée par BP. En affichant en priorité des éléments allant dans le sens de ce que les internautes aiment et pensent déjà, le moteur de recherche les emprisonne dans des « bulles cognitives ». ↩
- Par exemple, N. Katyal, « Disruptive Technologies and the Law », Georgetown Law Journal 2014, n° 102, p. 1685 s. ↩
- Conseil d’État, Puissance publique et plateformes numériques : accompagner l’ « ubérisation », La documentation française, 2017, p. 17. ↩
- Il faut également mentionner les algorithmes intégrés à certains objets ou à l’environnement physique et qui eux-aussi visent à normer les conduites et à se passer des décisions humaines. Par exemple, des algorithmes obligent à respecter les limites de vitesse dans les véhicules autonomes. ↩
- Cf., par exemple, J.-B. Duclercq, « Les effets de la multiplication des algorithmes informatiques sur l’ordonnancement juridique », Comm. com. électr. 2015, n° 11, p. 2 s. ↩
- Cf., not., S. Chassagnard-Pinet, « Les usages des algorithmes en droit : prédire ou dire le droit ? », Dalloz IP/IT 2017, p. 495 s. ↩
- Cf., plus généralement, M. Bernard, « L’innovation technologique dans le droit : vers une révolution des pratiques ? », LPA 2016, n° 187, p. 4 s. ↩
- Cf., plus généralement, A. Mendoza-Caminade, « Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ? », D. 2016, p. 445 s. ↩
- En ce sens, H. Croze, « La factualisation du droit », JCP G 2017, p. 174 s. ↩
- Cf., not., L. Baby, « L’algorithme de l’informaticien et le syllogisme du juriste », Dalloz IP/IT 2016, p. 311 s. ↩
- Th. Berns, A. Rouvroy, « Gouvernementalité algorithmique et perspective d’émancipation – Le disparate comme condition d’individualisation par la relation », Réseaux 2013, n° 117, p. 174-175. ↩
- Cf., not., M. Dagnaud, Le modèle californien – Comment l’esprit collaboratif change le monde, Odile Jacob, 2016. ↩
- E. Sadin, La siliconisation du monde, L’Échappée, 2016, p. 116. ↩
- En ce sens, par exemple, S. De Silguy, « Doit-on se méfier davantage des algorithmes ? », RLDC 2017, n° 146, p. 32 s. ↩
- Par ailleurs, les algorithmes auto-apprenants peuvent en venir à fabriquer leurs propres systèmes de valeurs à mesure qu’ils s’auto-dirigent dans une certaine voie, cela sans que leurs concepteurs l’aient voulu. ↩
- En 2010, le magazine Hacker 2600 avait publié une liste noire des mots que Google ignore volontairement. Le moteur de recherche ne propose ainsi aucune saisie automatique pour « Croix gammée » ou même « Lolita » — ce n’est pas que Nabokov soit détesté à Moutain View, mais l’algorithme ne parvient pas à séparer l’amateur de romans et l’amateur de pédopornographie. ↩
- Par exemple, J.-B. Duclercq, « Les effets de la multiplication des algorithmes informatiques sur l’ordonnancement juridique »,Comm. com. électr. 2015, n° 11, p. 15 s. ↩
- L’article 39 de la loi Informatique et libertés(L. n° 78-17, 6 janv. 1978, Relative à l’informatique, aux fichiers et aux libertés) prévoit un droit d’accès aux traitements de données à caractère personnel. Il permet à une personne dont les données font l’objet d’un traitement de demander au responsable de ce traitement : les données traitées et leurs sources ; les finalités du traitement et ses destinataires ; les éventuels transferts de données hors de l’Union européenne ; les informations permettant de comprendre et de contester la logique qui sous-tend l’algorithme. Cependant, il n’est pas possible de se prévaloir de cet article lorsqu’il y a un risque de porter atteinte à un secret protégé par la loi tel que le secret industriel ou le secret des affaires. Cela protège la confidentialité des algorithmes des GAFA et autres réseaux sociaux. ↩
- F. Pasquale, The Black Box Society – The Secret Algorithms That Control Money and Information, Harvard University Press, 2015. ↩
- Par exemple, H. Croze, « Comment être artificiellement intelligent en droit ? », JCP G 2017, p. 882 s. ↩
- Cf., not., G. Loiseau, « La production d’une valeur juridique ajoutée, antidote à l’automatisation des prestations en droit »,Comm. com. électr. 2017, n° 3, p. 26 s. ↩
- Les magistrats, au moment de juger, se fondent sur la loi et la jurisprudence, mais aussi sur l’éthique et autres formes de droit non officiel qui permettent d’adapter les décisions aux particularités de chaque cas. En témoigne l’exemple des « délits altruistes », ces infractions commises dans l’intérêt général (par exemple par les lanceurs d’alerte) et non afin d’en retirer un profit personnel. ↩
- Plus généralement, cf. O. Itéanu, Quand le digital défie l’État de droit, Eyrolles, 2016. ↩
- >L. n° 78-17, 6 janv. 1978,Relative à l’informatique, aux fichiers et aux libertés, art. 10, al. 2. Le règlement européen sur la protection des données personnelles, qui entrera en vigueur le 25 mai 2018, reprend cette interdiction à son article 22. ↩
- Cf., not., S. Larrière, « Confier le droit à l’intelligence artificielle : le droit dans le mur ? », RLDI 2017, n° 134, p. 38 s. ↩
- Mais d’autres voies seraient aussi à explorer, telles que celle de la reconnaissance de droits de l’homme numérique (droits à l’anonymat, de posséder plusieurs identités numériques, de créer des avatars etc.). Des géants du numérique, dont Microsoft, Facebook, Google et Amazon, affichent leur sensibilisation quant aux questions éthiques soulevées par la normativité algorithmique. En octobre 2016, ces sociétés ont scellé un partenariat portant sur de « bonnes pratiques des algorithmes » (Partnership on AI). Le Future of Life Institute, qui rassemble de nombreux scientifiques de renom dont Stephen Hawkins, a, quant à lui, publié en janvier 2017 les « Asilomar AI principles », soit vingt-trois principes directeurs pour une utilisation raisonnée et éthique de l’intelligence artificielle. ↩
- L. n° 2016-1321, 7 oct. 2016. ↩
- G. Chantepie, « Le droit en algorithmes ou la fin de la norme délibérée ? », Dalloz IP/IT 2017, p. 522. ↩
- >En ce sens, Ch.-É. Bouée,La chute de l’empire humain – Mémoires d’un robot, Grasset, 2017. ↩
- En ce sens, par exemple, M. Mekki, « If Code is Law, then Code is Justice? Droits et algorithmes », Gaz. Pal. 27 juin 2017, n° 24, p. 10 s. ↩
- Il devient notamment possible d’élaborer des règles étant l’objet d’un contrôle automatisé ou étant intégrées directement dans des robots ou dans l’environnement afin de les rendre inviolables ou systématiquement sanctionnées. Les algorithmes implémentés dans les objets peuvent sanctionner immédiatement ou dicter directement des conduites. Par exemple, les règles du Code de la route, suffisamment précises et claires, semblent pouvoir être appliquées automatiquement par des voitures autonomes. ↩
- J.-J. Rousseau, « Discours sur l’inégalité », in Œuvres complètes, Le Seuil, 1971, p. 228. ↩