Pour une informatique libre, sociale et solidaire
Vous êtes ici : Accueil » Éducation populaire » Prises de position » La vidéo-surveillance algorithmique, un outil de contrôle au service de la (...)

La vidéo-surveillance algorithmique, un outil de contrôle au service de la fuite en avant sécuritaire

D 19 avril 2023


Sous couvert de « protéger les jeux olympiques », l’Assemblée Nationale vient de voter l’utilisation de la vidéo-surveillance algorithmique, à large échelle pour des « manifestations sportives, récréatives ou culturelles »

La vidéo-surveillance algorithmique est devenue l’un des outils préférés de gouvernements, de plus en plus nombreux, pour imposer leur politique de sécurité et de contrôle sur les populations. Les caméras installées dans les rues, les gares, les aéroports ou les centres commerciaux ne sont plus simplement des outils de surveillance, elles sont désormais équipées d’algorithmes sophistiqués qui leur permettent de détecter automatiquement les comportements suspects ou anormaux. Mais qu’est-ce que la norme ? Qui la définit ? Cette technologie ne sert pas à protéger les populations, elle sert à les contrôler.

La vidéo-surveillance est un leurre, une illusion de sécurité. Selon différentes études, elle ne permet pas de prévenir les actes terroristes ou de réduire la délinquance [1]. Elle permet rarement d’identifier les sources des incidents (1 à 3 % [2] des enquêtes sur la voie publique par exemple). Elle souhaite rassurer les populations en leur donnant l’impression que quelque chose est fait pour leur sécurité. Mais en réalité, elle ne fait que renforcer un sentiment de méfiance en créant une ambiance anxiogène où chacun est potentiellement suspect.

La vidéo-surveillance algorithmique ne vise pas seulement à capter des images, elle les analyse en temps réel avec des algorithmes d’« intelligence artificielle » issus d’« apprentissages profonds ». Ces algorithmes, de par leur conception initiale, ne peuvent être vérifiés ni par les citoyens ni même par leurs concepteurs. Ils échappent donc forcément à tout contrôle éthique.

On sait déjà que la vidéo-surveillance algorithmique entretient des biais racistes [3], et d’autres dispositifs basés sur ces technologies entretiennent des biais sexistes [4] ou transphobes [5]. C’est facile à expliquer : les algorithmes utilisés ont été entraînés sur des données humaines qui reflètent les biais des personnes (majoritairement des hommes blancs, cisgenres, de classes supérieures) qui les ont produits : ils vont discriminer certaines populations. On peut donc légitimement penser que ces IA seront susceptibles de réponses homophobes, classistes (basés sur le milieu d’origine de la personne), etc.

Ces IA définissent un usage « normal » de l’espace public (comme se déplacer d’un point A à un point B), et ciblent de fait les personnes qui en ont un usage différent. Qui sont celles et ceux qui y passent le plus de temps ou l’occupent d’une manière différente ? Un SDF, trop statique ? « zou, anormal ! ». Trans non-binaire ? Pas identifiable femme ou homme ? « zou anormal·e » ! Alcoolisé·e ou en train de prendre une pause dans l’espace public ? Encore là, anormal·e... Les personnes les plus précaires, les minorités et les migrants seront les premières victimes de cette technologie.

La dégradation de nos libertés est telle que le ministre de l’Intérieur a éprouvé le besoin d’énoncer 28 garanties pour encadrer son projet de loi. Un article de David Libeau [6] détaille pourquoi ça ne tient pas : ces garanties ne sont pas clairement définies, ou floues (à définir dans des décrets qui n’existent pas à l’heure actuelle), elles reprennent des dispositions déjà en vigueur du RGPD (elles-mêmes pas toujours appliquées), ou irréalisables (les institutions exerçant ces garanties ont des budgets sous-dotés).

L’argument de l’usage expérimental de cette mesure semble peu fiable dans la mesure où, dans l’histoire récente, des dispositions dites exceptionnelles ont été intégrées au droit commun. On peut citer le fichage génétique, au départ réservé aux délinquants sexuels, et qui peut maintenant toucher n’importe quel manifestant interpelé. Des dispositions autoritaires de l’état d’urgence sanitaire ont aussi été intégré de la même manière.

La vidéo-surveillance algorithmique est un exemple de solutionnisme technologique. Quelques décideurs [7] dépensent des millions d’euros dans des équipements au lieu d’investir l’humain. C’est également une idée stupide d’un point de vue écologique [8]. Il serait plus sain d’utiliser ces budgets pour renforcer les liens sociaux, améliorer les conditions de vie des populations, favoriser la prévention et la réduction des inégalités.

La vidéo-surveillance algorithmique est une nouvelle étape des virages autoritaires pris année après année. Les gouvernements ont laissé les entreprises privées développer et utiliser ces technologies sans le consentement de la population. Or, le code des algorithmes de surveillance est opaque et ne fait l’objet d’aucun contrôle démocratique. Quand nous déciderons-nous à reprendre le contrôle de notre vie privée et des décisions qui nous concernent et nous impactent ?
D’autres pays d’Europe comme la Suisse ont refusé la surveillance algorithmique [9]. Il est temps pour nous aussi de nous opposer fermement à cette dérive et de défendre nos libertés individuelles et collectives.


[7Les députés ayant voté l’article de loi ont montré voire assumé leur incompétence sur le sujet.

[8Pour donner une idée approximative de l’empreinte carbone d’une intelligence artificielle, elle correspond à 125 vols New-York → Pékin, rien que pour l’énergie nécessaire à la phase d’apprentissage d’un modèle de langage naturel. On ne compte pas ici ni la fabrication des machines (serveurs, terminaux…) qui pose d’énormes soucis environnementaux au-delà des émissions carbone, ni le traitement ultérieurs des flux vidéos, qui consomme aussi une énergie importante. cf. Emma Strubell, Ananya Ganesh, Andrew McCallum : Energy and Policy Considerations for Deep Learning in NLP.