« Aujourd’hui, on ne peut pas comprendre le contrôle à France Travail sans comprendre les algorithmes »
Depuis plusieurs années, les sociologues Jean-Marie Pillon, Luc Sigalo Santos et Claire Vivès mènent un travail d’enquête sur le contrôle des demandeur·ses d’emploi, qu’ils et elle poursuivent depuis 2023 avec trois juristes, Laure Camaji, Claire Magord et Tristan Pellerin. Leur recherche s’intéresse à la manière dont les dispositifs de surveillance se sont transformés ces dernières années, notamment sous l’effet du déploiement croissant des outils algorithmiques, modifiant en profondeur l’accompagnement des demandeur·ses d’emploi et les finalités des politiques de lutte contre le chômage. Dans cet entretien, l’une des membres du collectif revient sur les dispositifs d’automatisation du contrôle expérimentés au sein de France Travail (ex-Pôle emploi), et sur les difficultés méthodologiques que posent des terrains administratifs opaques.
Vous travaillez depuis longtemps sur la question du contrôle des allocataires à France Travail (ex Pôle-Emploi). Comment avez-vous rencontré les algorithmes sur vos terrains ?
Notre travail sur le contrôle de la recherche d’emploi a débuté en 2020, à partir d’un constat simple : on parlait beaucoup de contrôle dans l’espace médiatique et politique, mais très peu d’enquêtes scientifiques avaient été produites sur cette question en France. C’est Vincent Dubois [sociologue auteur de l’ouvrage pionnier Contrôler les assistés ⤤ , qui a également répondu à nos questions ⤤ ] qui nous a sollicités pour participer à un ouvrage sur ce sujet. La plupart d’entre nous travaillions déjà de longue date sur le service public de l’emploi, mais nous n’avions jamais abordé le contrôle frontalement, et ce projet nous a poussé·es à ouvrir un terrain à ce sujet.
Pour commencer, il faut définir la notion de contrôle de la recherche d’emploi. Il s’agit d’une obligation légale inscrite dans le Code du travail : être considéré comme demandeur·se d’emploi requiert de s’inscrire à France Travail, mais aussi d’être en « recherche active d’emploi ». Le contrôle consiste précisément à vérifier si cette obligation est remplie. C’est une obligation qui est ancienne, mais dont le contenu et l’organisation sont en constante évolution. C’est sur cette question qu’on a commencé à enquêter, en prenant pour point d’entrée le travail des agent·es de Pôle emploi chargé·es du contrôle. Ça nous paraissait être un axe fertile pour comprendre comment ce contrôle est effectivement réalisé, et avec quels outils ; et c’est par cette porte là que nous avons commencé à croiser la question des algorithmes, sans en faire immédiatement un objet d’étude à part entière.
Est-ce que vous pouvez nous en dire un peu plus, justement, sur les algorithmes déployés à France Travail, sur leurs finalités et leurs usages ?
Au fil de l’enquête, on s’est rendu compte que plusieurs outils qu’on peut qualifier d’« algorithmiques » jouent un rôle essentiel dans la sélection et le traitement des allocataires qui vont, justement, faire l’objet d’un contrôle. Il faut d’abord préciser que le mot « algorithme » n’est pas toujours utilisé en interne : certains outils sont qualifiés de « robots », d’autres ressemblent à des documents Excel, mais ils participent tous à un processus de sélection ou de hiérarchisation automatisée des personnes inscrites sur les listes de France Travail.
De fait, aujourd’hui, les personnes inscrites à France Travail peuvent être désignées pour un contrôle via trois modalités principales : le signalement par leur conseiller ou leur conseillère, le tirage aléatoire, ou, finalement, ce qu’on appelle les « requêtes ciblées ». C’est là qu’intervient le premier véritable algorithme. Ces requêtes sélectionnent des personnes à partir de critères jugés pertinents (par exemple, une formation financée par France Travail achevée depuis plus de six mois ou une inscription dans un métier dit « en tension »). Ces critères sont définis au niveau national, puis adaptés régionalement. Ce sont des outils puissants de ciblage, qui traduisent une forme de suspicion institutionnelle : pourquoi êtes-vous encore au chômage alors que vous avez été formé récemment ; ou que vous postulez dans un métier dans lequel les employeur·ses disent manquer de main-d’œuvre ?
Un deuxième outil est récemment apparu, avec la réforme du contrôle de la recherche d’emploi entrée en vigueur au 1er janvier 2025. Pour répondre à l’objectif fixé par le gouvernement de passer de 600 000 contrôles par an à 1,5 million d’ici 2027, France Travail a introduit un « robot d’analyse des dossiers » censé permettre d’augmenter le nombre de contrôles à effectifs constants. C’est un outil qui vise à gagner du temps, en pré-classant en groupes les dossiers à contrôler. L’objectif est de déterminer si les demandeur·ses d’emploi recherchent activement un travail, à partir de critères comme la présence d’un CV sur l’espace personnel, les périodes travaillées au cours des trois derniers mois, ou encore les échanges avec France Travail. Mais déjà au niveau des critères, il y aurait beaucoup de choses à dire. Par exemple, l’usage de l’espace personnel n’est pas obligatoire : est-il donc pertinent que le robot en fasse un critère de tri ? Dans tous les cas, à ce stade, cet algorithme semble encore loin d’être opérationnel : il produit des erreurs basiques sur des informations comme les périodes travaillées, pourtant bien connues du système puisqu’elles déterminent l’indemnisation… À ce stade de notre enquête – qui n’est qu’à ses débuts sur cet aspect -, il semblerait que beaucoup d’agent·es ne l’utilisent pas, parce qu’iels considèrent qu’il leur fait perdre plus de temps qu’il n’en fait gagner. Il aurait même été suspendu le temps qu’une nouvelle version de l’outil soit déployée.
Le dernier outil que nous avons identifié récemment est encore plus opaque. Il s’agit d’un « outil d’aide à la détermination de la sanction » destiné à aider les agent·es dans l’application d’un nouveau type de sanction : la suspension du revenu de remplacement en cas de non-respect du contrat d’engagement1. Cette sanction est liée à la parution d’un décret, qui prévoit une suspension de l’indemnisation de durée et de niveau variable, en fonction des “manquements” identifiés. Pour ce faire, les agent·es utilisent un tableau Excel, non relié au système d’information de France Travail, dans lequel iels cochent dans des liste le ou les « indices de non-respect des engagements détecté(s) au cours du contrôle » d’une part, et les « contrainte(s) personnelle(s) et difficulté(s) détectées au cours du contrôle », d’autre part. L’outil attribue ensuite une « note » et propose une sanction selon trois critères : la « nature », le « pourcentage du revenu de remplacement impacté » et la « durée ». Nous ignorons absolument pour l’instant comment les différentes informations sont pondérées pour aboutir aux caractéristiques de la sanction préconisée.
Est-ce que vous identifiez déjà des effets concrets de ces outils, à la fois pour les agent·es et pour les allocataires ?
Oui, ce qui ressort de notre enquête, c’est que ces dispositifs sont susceptibles d’affecter en profondeur le travail des agent·es de contrôle. Contrairement aux promesses d’automatisation libératrice qui présentent ces outils comme permettant aux agent·es de réduire leur charge de travail et de se concentrer sur leur cœur de métier en se déchargeant des tâches répétitives, on observe, au contraire, que ces dispositifs peuvent alourdir leur activité, sans que ce processus soit forcément visible, ni évident à mesurer. En fait, on constate qu’au mieux, les algorithmes ne font pas gagner de temps, et au pire, ils en font perdre. De plus, ces outils pourraient à terme conduire à déléguer au robot le travail d’analyse, ce qui ne laisserait aux agent·es que la charge de valider une décision prise par la machine ; sur la caractérisation des sanctions par exemple, les agent·es se trouvent dépossédés par l’algorithme. Et pour l’instant, il faut bien le dire : les outils ne permettent pas d’atteindre les objectifs qui leur étaient assignés.
En parallèle, ces outils peuvent provoquer un véritable sentiment de dépossession chez les agent·es. Beaucoup ont l’impression que leur métier se transforme, que l’accompagnement est relégué au second plan au profit d’une logique de surveillance. Et ce ressenti s’inscrit dans une tendance plus générale, qu’on retrouve souvent quand on enquête sur l’administration : les réformes sont pensées à distance, sans prise en compte réelle du travail fait sur le terrain. Les algorithmes ne font qu’ajouter une couche à ce problème, en accentuant ce sentiment de perte de sens, parfois même de mépris ou au moins d’ignorance de leur expertise de la part des décideur·ses. Dans ce contexte, on peut se demander si l’acceptation des algorithmes, quand elle existe, ne tient pas surtout à une forme de résignation.
Du côté des personnes contrôlées, le principal problème, outre les effets d’une éventuelle sanction, c’est l’opacité. Les allocataires ne savent jamais pourquoi iels sont contrôlé·es. Est-ce leur conseiller·e qui les a signalé·es ? Est-ce une requête sur les métiers en tension ? Un tirage aléatoire ? Cette incertitude alimente l’incompréhension et la défiance, d’autant plus que certains critères redoublent les inégalités. Par exemple, le fait d’être inscrit·e sur un métier en tension : une telle situation atteste souvent d’autres difficultés, sociales ou de santé par exemple. Or, en 2023, plus de la moitié des contrôles ont ciblé des demandeur·ses d’emploi inscrit·es dans des métiers dits en tension. Ce ciblage pose des questions d’équité territoriale et sociale, et à ce jour, on manque encore de données pour en évaluer la pratique et les effets. C’est d’ailleurs un des risques déjà pointés par la Quadrature du Net : celui d’une logique de sur-contrôle qui s’exerce précisément sur les personnes les plus fragiles.
Vous le dites, les algorithmes que vous rencontrez sur vos terrains sont des dispositifs opaques. Quelles stratégies de recherche mettez-vous en œuvre pour enquêter à leur sujet ?
En fait, l’une des principales difficultés de notre enquête tient en réalité à une opacité structurelle de l’administration, qui dépasse largement la question algorithmique. France Travail, comme d’autres institutions administratives, reste un espace très difficile d’accès. Les autorisations sont rares, les possibilités de terrain très encadrées, et les refus fréquents, que ce soit pour les chercheur·ses ou les journalistes d’ailleurs. Nos demandes d’observations du travail réalisé sur les plateformes de contrôle, par exemple, n’ont jamais abouti. Et sur le terrain, les agent·es eux-mêmes hésitent à parler : le devoir de réserve est souvent interprété de façon erronée et fait barrière aux prises de parole. Sur les algorithmes spécifiquement, l’information est très parcellaire. La Direction générale de France Travail ne publie quasiment rien à ce sujet, le site officiel est muet sur les outils utilisés. C’est d’ailleurs quelque chose qui pose question : pourquoi est-ce que les documents internes, qui sont ceux d’une administration publique, ne sont pas diffusés en accès libre ? En tous cas, tout cela conditionne profondément notre manière de mener l’enquête, le rythme de travail et les types de matériaux mobilisables.
Dans ce contexte, les matériaux qu’on utilise sont surtout ceux qu’on réussit à obtenir : des entretiens, souvent avec des agent·es avec qui on a noué des liens sur la durée, et la collecte de documents internes, que ce soient des compte-rendu des réunions du comité social et économique ou des documents de formations internes. Ils nous sont souvent transmis par des journalistes, des associations ou par les syndicats, qui sont pour nous une ressource extrêmement précieuse, mais partielle : les syndicats sont déjà engagés dans des luttes sur une multitude d’autres sujets, et les algorithmes ne sont pas toujours leur priorité. Ils s’intéressent d’abord à ce que ces outils produisent sur les conditions de travail, moins à leur architecture ou à leur légitimité juridique, ce qui est bien normal ; c’est notamment à nous de combler ce vide. C’est pour cela que dans les prochaines étapes de l’enquête, nous allons notamment chercher à travailler sur le volet conception de ces outils : qui les commande ? Qui les paramètre ? Avec quels objectifs ? Qui les évalue ? Ce sont des points sur lesquels on a pour l’instant peu de réponses, et pour lesquels il serait intéressant de construire un dialogue interdisciplinaire avec des informaticien·nes, comme on a pu le faire à d’autres occasions avec des juristes dans nos travaux sur le contrôle.
Il y aurait aussi d’autres leviers à activer. Je pense par exemple aux demandes CADA2, qu’on n’a pas encore engagées de notre côté. Ce sont des démarches qui sont longues et techniques : il faut savoir exactement quoi demander, à qui, pour quoi faire, et surtout, sans aucune certitude sur ce qu’on va obtenir. Mais ce serait une piste à creuser. Et il y a des précédents pour Pôle emploi, des journalistes et la Quadrature du Net ont pu accéder à des données chiffrées par ce biais. De la même façon, ce serait intéressant de réfléchir aux collaborations qu’on peut avoir avec des parlementaires, parce que les députés ont des prérogatives qui leur permettent d’obtenir un certain nombre d’informations qui nous sont inaccessibles en tant qu’universitaires. En tous cas, comme dans toutes les recherches, on se confronte toujours à cette question, pour laquelle il n’existe pas de réponse définitive : jusqu’où il faut aller dans la quête d’informations, dans un domaine qui évolue en permanence ? De quoi a-t-on besoin pour produire des analyses sociologiques de fond ?
Le sujet principal, pour nous, ça reste cette question du contrôle, mais on se rend bien compte qu’aujourd’hui, on ne peut pas comprendre le contrôle sans comprendre les algorithmes. Et c’est important, parce que qu’il ne faut pas oublier que derrière les algorithmes et leur opacité, il y a des gens qui risquent de se faire suspendre une partie de leur RSA…
Pour aller plus loin :
- Le livre de Claire Vivès, Luc Sigalo Santos, Jean-Marie Pillon, Vincent Dubois et Hadrien Clouet, « Chômeurs, vos papiers ! Contrôler les chômeurs pour réduire le chômage ? » ⤤ paru aux éditions Raisons d’agir en 2023
Dans la bibliothèque du collectif :
- L’article de Maud Barret Bertelloni « La part des algorithmes Retour sur la notion d’outil de gouvernement » ⤤ paru dans la revue Multitudes, en 2025.
- Le livre de Dominique Cardon « À quoi rêvent les algorithmes ? Nos vies à l’heure du big data » ⤤ paru aux éditions du Seuil en 2015.
- Le livre de Francis Pavé « L’illusion informaticienne » ⤤ paru aux éditions l’Harmattan en 1989
- L’article d’Héléna Revil « L’informatisation du non-recours aux droits maladie en France Effets et limites de la construction des problèmes publics par l’informatique » ⤤ paru dans la revue Gouvernement et action publique en 2015.
-
Conclu entre France travail et chaque demandeur·se d’emploi, le contrat d’engagement précise les droits et devoirs de chaque allocataire en fonction de sa situation individuelle. ↩︎
-
La Commission d’accès aux documents administratifs (CADA) est une autorité administrative indépendante chargée de veiller à la liberté d’accès aux documents administratifs. Elle peut être saisie en cas de refus de communication par une administration publique de certains éléments, parmis lesquels figurent les codes source des algorithmes publics. ↩︎