Essai - 8 min
La surveillance algorithmique et les droits fondamentaux
Les algorithmes de surveillance se multiplient en Europe, des systemes de reconnaissance faciale aux outils de scoring predictif. La regulation peine a suivre le rythme de leur deploiement.
Marie-Helene Tessier
10 novembre 2025
La surveillance algorithmique est devenue en quelques annees l’un des enjeux politiques les plus sensibles du continent europeen. Non pas parce que la surveillance serait un phenomene nouveau - elle accompagne les Etats modernes depuis leur fondation - mais parce que les capacites techniques dont disposent aujourd’hui les autorites publiques et les acteurs prives ont atteint une echelle qualitativement differente.
Une technologie qui precede le droit
Le deploiement des systemes de reconnaissance faciale dans l’espace public illustre parfaitement cette asymetrie entre innovation technologique et cadre juridique. En France, des villes comme Nice et Marseille ont experimente ces outils lors d’evenements sportifs, s’appuyant sur des interpretations extensives de textes qui ne les mentionnaient pas explicitement. La CNIL, saisie de nombreuses plaintes, a rappele a plusieurs reprises l’absence de base legale suffisante - sans que ces rappels produisent d’effets immediats sur les pratiques.
Ce decalage entre la vitesse de deploiement technique et la lenteur des processus normatifs n’est pas accidentel. Il reflete une strategie deliberee de certains acteurs - industriels de la securite, responsables politiques soucieux d’afficher leur modernite technologique - qui savent que l’installation d’un dispositif cree des habitudes, des dependances et des expectatives qui rendent ensuite son retrait politiquement couteux.
Le scoring predictif: une epistemologie du soupcon
Moins visible que la reconnaissance faciale mais peut-etre plus envahissant dans ses effets, le scoring predictif s’est impose dans de nombreux secteurs. La police preditive, inspiree du modele americain, est experimontee dans plusieurs pays europeens. Elle consiste a identifier, par analyse de donnees historiques et de variables socio-demographiques, les zones ou les populations les plus susceptibles d’etre impliquees dans des actes criminels.
La critique de ces outils est double. D’abord une critique epistemologique: ils reposent sur un raisonnement circulaire, puisque les donnees historiques qu’ils exploitent refletent des pratiques de surveillance et d’arrestation deja biaisees socialement. Un algorithme entraine sur des donnees qui surrepresentent la surveillance de certains quartiers produira inevitablement des predictions qui justifient de surveiller davantage ces memes quartiers.
Ensuite une critique politique: le scoring predictif introduit une presumption de dangerosité qui rompt avec le principe fondamental de la presomption d’innocence. On ne repond plus a un acte commis mais a une probabilite calculee - ce qui redefinit en profondeur les relations entre les individus et les institutions.
Le Reglement europeen sur l’IA: une regulation ambitieuse?
Adopte en 2024, le Reglement europeen sur l’intelligence artificielle tente de repondre a ces inquietudes en classifiant les systemes d’IA selon leur niveau de risque. Les systemes de reconnaissance faciale en temps reel dans l’espace public sont en principe interdits, sauf exceptions limitees pour des finalites de securite nationale.
Ces exceptions sont precisement le probleme. La notion de securite nationale fait l’objet d’interpretations tres larges, et les Etats membres ont conserve des marges considerables d’appreciation. Les outils de scoring predictif utilises par la police ne sont pas categoriquement interdits mais soumis a des exigences de transparence et d’evaluation dont l’effectivite reste a prouver.
Surtout, le reglement s’applique aux systemes commerciaux mais couvre moins bien les developpements internes aux services de securite nationale. Or c’est precisement dans ce secteur que les capacites de surveillance les plus intrusives sont deployees.
La vie privee comme enjeu politique
Il serait simpliste de reduire la question de la surveillance a un debat technique sur les algorithmes. Ce qui est en jeu, c’est la configuration des espaces de liberte dans la societe. La surveillance generalise modifie les comportements par anticipation: on ne circule plus, on ne manifeste plus, on ne s’associe plus de la meme facon lorsqu’on sait - ou seulement qu’on souponne - etre observe.
Cette transformation n’affecte pas tous les individus de la meme facon. Les populations les plus exposees a la surveillance algorithmique sont celles qui le sont deja a la surveillance ordinaire: les habitants des quartiers populaires, les personnes racisees, les militants politiques, les etrangers en situation precaire. La surveillance algorithmique n’invente pas les discriminations - elle les automatise et les amplifie.
La resistance a la surveillance algorithmique est donc d’abord une affaire de citoyennete. Elle suppose que les societes europeennes decidont collectivement quelles valeurs elles veulent proteger et a quel prix. La technologie est neutre dans sa forme; elle ne l’est jamais dans son usage ni dans ses effets sociaux.