« Il ne faut pas que la focalisation sur les outils numériques masque, sous une définition un peu technique de la surveillance, les enjeux sociaux, économiques et politiques relatifs aux évolutions contemporaines de la sécurité »
Myrtille Picaud est sociologue, chargée de recherches au CNRS et rattachée au Cresppa-CSU. Ses travaux actuels portent sur les politiques de sécurité urbaine en lien avec le numérique et les grands événements.
Vous travaillez sur le déploiement des outils numériques dans le domaine de la sécurité urbaine. Comment avez-vous rencontré les algorithmes sur vos terrains ? De quels types de dispositifs s’agit-il, concrètement ?
Au départ, mes recherches portaient principalement sur la sécurité des grands événements. Mais en explorant ce terrain, je me suis rapidement rendu compte que de nombreuses entreprises proposaient des logiciels s’inscrivant en réalité dans un champ plus large : celui de la sécurité urbaine. C’est un constat intéressant d’ailleurs, parce que la sécurité est traditionnellement perçue comme un domaine éminemment public, incarnant l’idée d’un État seul détenteur du monopole de la violence légitime. Pourtant, dans le cas des dispositifs numériques, leur développement est largement assuré par des entreprises privées – à l’exception du cas assez particulier de la Gendarmerie nationale, qui a davantage l’habitude de développer ses propres outils en interne. Aujourd’hui, c’est précisément sur ces outils numériques dédiés à la sécurité urbaine que je travaille.
On peut distinguer plusieurs types de dispositifs intégrant l’intelligence artificielle – ou, qui du moins, pour un certain nombre d’entre eux, revendiquent l’utiliser. Les premiers à avoir été diffusés sont des outils cartographiques du type « PredPol »1, Ils devaient permettre d’observer la récurrence dans l’espace urbain de certains événements, comme des crimes, à partir de l’analyse d’ensembles de données. Il s’agissait de prédire les lieux, les horaires ou les types d’événements susceptibles de se produire. Ce sont des outils qui reposent sur la numérisation croissante du travail policier ; parce que c’est cela, ce qu’il y a derrière, en fait : on assiste aujourd’hui à une production massive de données issues de différentes sources, dont le croisement est censé révéler de nouveaux phénomènes qui permettraient d’« expliquer » la délinquance.
Un second pôle s’est aussi fortement développé ces dernières années, avec l’amélioration de l’efficacité technique de l’analyse algorithmique d’images : celui de la vidéosurveillance. Les caméras se transforment de façon croissante en capteurs visuels, qui servent à fournir des données et à proposer des analyses « intelligentes » destinées à améliorer la sécurité urbaine. C’est le cas, par exemple, des dispositifs de comptage de flux, fondés sur la reconnaissance de formes, qui permettent de dénombrer des voitures ou des vélos, ou qui visent à déclencher des alertes en présence d’événements jugés indésirables. La reconnaissance faciale s’inscrit dans cette famille d’outils, même si dans les faits, en France, son usage reste pour l’instant très limité en matière de sécurité – elle est à l’inverse bien plus développée au Royaume-Uni, aussi bien par certaines forces de police que par des acteurs privés comme des chaînes de supermarchés ou des boîtes de nuit, pour repérer des personnes qui y sont interdites d’accès.
Comment faites-vous, en pratique, pour saisir les algorithmes et pour enquêter sur ce genre d’objet ?
C’est toujours difficile de définir ce qu’est vraiment un algorithme. Dans la pratique, on observe un écart significatif entre les discours qui entourent ces technologies et la réalité technique des systèmes développés – on trouve des algorithmes dits « prédictifs » qui ne reposent pas sur une véritable analyse de données, par exemple. Dans ma recherche, j’ai fait le choix de ne pas m’engager directement dans cette catégorisation des algorithmes, de ne pas participer à cette entreprise de définition, pour plutôt suivre les acteurs qui mobilisent cette notion et gravitent autour de ces objets. Je réalise des entretiens avec les ingénieur·es dans les entreprises conceptrices, avec des acteurs publics qui les utilisent, ou souhaitent le faire, comme les forces de l’ordre, les financeurs, les élu·es ou agent·es administratif·ves de municipalités…
Cela dit, accéder concrètement à ces objets reste complexe. D’abord, parce qu’ils sont souvent couverts par le secret des affaires, mais aussi en raison d’une certaine opacité de l’administration à ce sujet. L’enquête que j’ai menée autour du déploiement expérimental de la vidéosurveillance automatisée à l’occasion des Jeux olympiques et paralympiques de Paris 2024 illustre bien cette difficulté : mes demandes d’accès au terrain auprès d’utilisateurs divers pour observer le fonctionnement de ces systèmes et la façon dont ils étaient utilisés ont été ignorées. Je n’ai pu faire que des entretiens a posteriori. Je rencontre des difficultés pour accéder aux espaces où sont déployés les algorithmes, aux services où ils seraient concrètement mis en œuvre par des fonctionnaires ou par divers professionnel·es. Peut-être, aussi, parce qu’en pratique, il y a plus de discours autour de ces dispositifs que d’usages réels…
Vous avez réalisé des terrains comparatifs à l’étranger, est-ce que vous y avez rencontré cette même opacité autour des dispositifs algorithmiques ?
En effet, j’ai également enquêté sur le déploiement de dispositifs numériques pour la sécurité urbaine au Royaume-Uni. Et, de façon surprenante, je ne me suis pas du tout heurtée aux mêmes difficultés sur ce terrain, où l’accès à l’information sur le déploiement des algorithmes dans la sécurité est plus transparent. C’est presque paradoxal, parce que le déploiement des algorithmes y est aussi beaucoup plus largement répandu, notamment pour la reconnaissance faciale, ce qui ferait, je pense, l’objet de plus fortes oppositions en France. Finalement, il y a quelque chose de très (néo)libéral, à la fois dans l’acceptation sociale dont les algorithmes font l’objet, et dont l’administration communique à leur sujet. À l’inverse, en France, l’administration semble entretenir l’opacité sur ces usages, mais dans le même temps, on y trouve aussi des fonctionnaires très attaché·es à une certaine idée du service public, du bien public, et peu aligné·es avec le développement de ces algorithmes. J’ai ainsi été assez surprise, par exemple, d’être invitée à plusieurs reprises à présenter mes recherches, même assez critiques, dans des espaces administratifs, par des agents publics elles et eux-mêmes réticent·es face au déploiement des outils de surveillance automatisés…
Pour revenir au terrain, vous dites qu’il y a en France sans doute davantage de discours entourant ces outils que d’usages réels, pourquoi ?
Au fil de mon enquête, j’ai eu l’impression que dans un certain nombre de cas, ces outils sont surtout portés par la demande politique de certain·es élu·es, de certaines directions de police municipale ou par des ministères, mais sans être forcément utilisés tant que ça en réalité. D’une part, parce que ces logiciels sont difficilement compatibles avec les modes de fonctionnement des agents de terrain. Un certain nombre de métiers de la sécurité ont, par exemple, un mode de fonctionnement relativement réactif en matière de gestion de l’espace public : il y a un problème, on vous appelle, vous intervenez. Dans ce cadre, avoir des alertes préventives faites par des algorithmes, ce n’est pas nécessairement adapté au travail quotidien des agents. Ces outils techniques peuvent aussi se transformer en objets de lutte entre différentes catégories de professionnel·les de la sécurité, par exemple entre polices nationale et municipale.
D’autre part, ces algorithmes sont encore loin d’être fiables, et leur utilisation peut donc au contraire provoquer une intensification très forte du travail, notamment lorsqu’ils envoient des alertes à répétition qui risquent de submerger les agents. Et même si l’on imaginait une version « idéale » de ces outils – parfaitement opérationnels, couvrant l’ensemble des caméras, générant des alertes pertinentes en temps réel – encore faudrait-il que la puissance publique ait des moyens adaptés pour y répondre. Aujourd’hui, dans la grande majorité des cas, il n’y aurait tout simplement personne pour intervenir… Il faudrait alors automatiser l’amende, ce qui ouvre tout un ensemble d’autres questions, et qui n’est bien sûr pas envisageable dans tous les cas de figure. Par ailleurs, ces outils ciblent très souvent des délits et crimes ayant lieu dans la rue (et donc certaines populations derrière), ce qui ne représente qu’une infime partie de ce que recouvre la « sécurité ». Finalement, ce sont des dispositifs qui, même s’ils fonctionnaient correctement, intensifieraient en réalité énormément le travail. D’ailleurs, certains travaux, comme ceux de Sarah Brayne sur les policier·es aux Etats-Unis, montrent que les agents sur le terrain se sont mobilisé·es contre le recours à ce type d’outils, qui leur apparaissait surtout comme un moyen de « fliquer » leur activité.
Comment expliquez-vous alors que les dispositifs algorithmiques soient tout de même plébiscités et déployés à grande échelle, bien qu’ils fassent l’objet d’importantes critiques et que leur utilité soit loin d’être démontrée ?
J’ai l’impression qu’en matière de sécurité, comme disent mes enquêté·es : « qui peut le plus peut le moins ». Ce que j’en retire, c’est que c’est un domaine de la promesse, sous-tendu par le fait qu’il n’existe jamais de « risque zéro ». Dès lors, ce qui compte, c’est de pouvoir montrer que tous les moyens disponibles ont été mobilisés, et s’il y a un problème, on dira : « Oui, on avait mis en place tout ça, et on n’a pas pu faire autrement, c’est quand même arrivé ». A l’inverse, ne pas avoir déployé certains dispositifs qui auraient pu l’être peut exposer à des accusations de négligence Je pense qu’il y a aussi une difficulté, même pour ceux qui savent que ces outils ne marchent pas très bien, à reculer là-dessus, en raison de la pression très forte, de la politisation élevée de la sécurité, qui traverse l’ensemble du spectre politique. On remarque que la gauche elle-même s’est convertie au sujet de la sécurité, qui constituait avant un important marqueur partisan. A l’heure où la sécurité s’est imposée comme mot d’ordre (inter)national, refuser ces outils peut exposer à un coût politique, qui semble favoriser l’investissement d’argent public dans ces promesses.
À cela s’ajoute une autre dynamique : celle de vouloir rentabiliser les investissements déjà réalisés, notamment en ce qui concerne le parc de caméras vidéosurveillance. Ces dernières années, on a assisté à une généralisation de leur déploiement, qui concerne aujourd’hui presque toutes les collectivités, y compris parmi des plus petites. Pourtant, les enquêtes réalisées montrent que ces équipements sont globalement peu efficaces au regard des objectifs affichés, en particulier parce que les communes n’ont absolument pas les moyens, la plupart du temps, d’exploiter les images. Dans les petites villes, les agents municipaux ne peuvent pas être affecté·es uniquement à cette tâche ; et même avec 3 000 caméras et six personnes dans un service dédié, il est impossible d’assurer une surveillance continue, pour agir en temps réel. Or, ce sont des centaines de milliers d’euros d’argent public qui y sont consacrés chaque année. Donc c’est là que la rhétorique sur les algorithmes entre en jeu : ils permettraient, théoriquement, de compenser les limites humaines et de valoriser un parc de caméras largement sous-exploité – faire mieux avec moins.
Enfin, il ne faut pas négliger la dimension économique du déploiement de ces outils. Il y a clairement une volonté politique nationale de soutenir des innovations qui pourraient représenter un nouveau marché émergent. Il y a cette idée que la France ne peut pas se permettre d’être en retard, notamment par rapport à d’autres pays extra-européens. J’observe sur le terrain l’arrivée croissante de discours issus du champ économique, déconnectés des enjeux sécuritaires, et qui légitiment le développement de ces dispositifs au nom de la compétitivité et de la souveraineté nationale. Beaucoup d’argent circule autour de ces dispositifs, et les acteurs finissent par s’en saisir pour obtenir des budgets, même si c’est pour finalement les affecter ailleurs, comme on le voit au Royaume-Uni.
Comment analysez-vous les effets du déploiement de ces outils pour les citoyen·nes ?
C’est assez difficile d’obtenir des informations fiables à ce sujet, mais il me semble que les effets directs pour les citoyen·nes sont pour l’instant limités. Si l’on compare avec l’usage traditionnel de la force, les interventions humaines sont, de fait, souvent beaucoup plus violentes que le contrôle exercé à distance via des outils algorithmiques… Par contre, il ne faut pas perdre de vue qu’il s’agit tout de même d’un fléchage d’argent public qui n’est pas alloué ailleurs, ce qui impacte indirectement la vie des citoyen·nes.
Par ailleurs, la vidéosurveillance algorithmique conduit à sur-focaliser l’attention sécuritaire sur certaines formes d’illégalismes, particulièrement visibles dans l’espace public, comme les illégalismes de rue. Ce ciblage produit un effet performatif : on concentre l’attention sur certains phénomènes, alors que d’autres types d’illégalismes, tout aussi préoccupants, ne sont pas couverts par ces dispositifs, et nécessiteraient peut-être des formes d’intervention plus importantes. Pour donner un exemple, les violences de genre s’exercent le plus souvent dans l’espace privé. C’est aussi le cas des illégalismes financiers, qui représentent beaucoup d’argent et se déroulent également en dehors de l’espace public. J’observe d’ailleurs que les dispositifs numériques sont surtout déployés dans les centres-villes économiques, plutôt aisés : cela témoigne aussi de ce qui est conçu comme devant être protégé. Il me semble que pour penser de façon critique le déploiement de ces outils, il faut les analyser dans le cadre plus global de politiques sécuritaires nationales. Se focaliser sur la vidéosurveillance algorithmique peut contribuer à invisibiliser le fait que la violence, lorsqu’elle est exercée par l’État, existe indépendamment des algorithmes. Cela oriente le regard vers ces espaces centraux, alors même que les violences policières les plus marquées se concentrent dans les quartiers périphériques, où la surveillance est plus humaine que numérique, même si bien sûr, les deux peuvent se conjuguer.
C’est pourquoi, même s’il me semble crucial de mettre en débat le recours public aux algorithmes, il reste que cette thématisation élude la façon dont ces algorithmes s’inscrivent dans une politique globale de surveillance et de sécurité urbaine. Ces technologies s’inscrivent dans une longue histoire de dispositifs visant à standardiser la connaissance et le contrôle des populations… À mon sens, le débat devrait davantage porter sur les politiques de sécurité, leurs formes, leurs cibles et les outils qu’elles mobilisent, même si on peut arguer que la prise des algorithmes est une façon indirecte de le faire, à l’heure où la sécurité est devenue un mot d’ordre difficilement discutable. Mais en tout cas, il me semble essentiel que la focalisation sur les outils numériques ne masque pas, sous une appréciation un peu technique de la surveillance, les enjeux sociaux, économiques et politiques relatifs aux évolutions contemporaines de la sécurité et le fait que la matérialité de la violence demeure (pour l’instant) largement humaine.
Pour aller plus loin
- Le dossier de la revue Réseaux sur les dispositifs numériques de sécurité urbaine ⤤ co-coordonné par Myrtille Picaud avec Florent Castagnino et Raphaël Challier.
- Cet article de Myrtille Picaud sur les promesses d’optimisation de la “ville intelligente” grâce aux algorithmes et aux données urbaines ⤤ .
Dans la bibliothèque de Myrtille
- L’article de Bilel Benbouzid « Quand prédire, c’est gérer » ⤤ , paru en 2018 dans la revue Réseaux.
- Le livre de Sarah Braynes, Predict and Surveil: Data, Discretion, and the Future of Policing ⤤ , paru en 2021 aux presses universitaires d’Oxford.
- L’article de Raphaël Challier, Florent Castagnino et Myrtille Picaud « De la « safe city » aux dispositifs numériques de sécurité urbaine » ⤤ paru en 2025 dans la revue Réseaux.
- Le rapport de Pete Fussay & Daragh Murray paru en 2019 : « Independent Report on the London Metropolitan Police Service’s Trial of Live Facial Recognition Technology » ⤤ .
- L’étude de Camille Gosselin « La police prédictive : enjeux soulevés par l’usage des algorithmes prédictifs en matière de sécurité publique » ⤤ publiée en 2019 par l’Institut d’aménagement et d’urbanisme de la région d’Île-de-France.
- Le livre Elodie Lemaire, L’oeil sécuritaire. Mythes et réalités de la vidéosurveillance ⤤ , paru aux éditions La découverte en 2019.
-
Le logiciel PredPol (pour « predictive policing »), déployé dans plusieurs villes étasuniennes, est un logiciel de prédiction policière utilisant des algorithmes d’apprentissage automatique pour anticiper les lieux et moments probables de crimes en se basant sur l’analyse probabiliste de données historiques. ↩︎