Retour sur le contexte de cette mise en place et ses implications sociales.
Sous l’impulsion d’Emmanuel Macron, les contrôles réalisés par France Travail sont passés de moins de 200 000 en 2017 à plus de 600 000 en 2024. Il y a tout juste un an, l’exécutif surenchérissait et fixait à l’institution un objectif de 1,5 million de contrôles en 2027 [1].
Parallèlement était votée, en décembre 2023, la loi dite « Plein Emploi », entrée en vigueur le 1er janvier dernier. Cette dernière vient modifier en profondeur les modalités du contrôle des personnes sans-emplois via deux mesures phares. La première est l’extension du pouvoir de contrôle et de sanctions des personnes au RSA par France Travail. La seconde concerne l’obligation pour toute personne suivie par France Travail – qu’elle soit au RSA ou au chômage – de réaliser 15 « heures d’activité » hebdomadaires sous peine de sanctions.
C’est dans ce contexte que France Travail déploie actuellement une refonte de son processus de contrôle. Dénommée « Contrôle de la Recherche d’Emploi rénové » (ou « CRE rénové »), elle vise tant à « arriver à mettre en oeuvre 1,5 million de contrôles […] à l’horizon 2027 » qu’à prendre en compte les « évolutions introduites par la loi “Plein Emploi” » [2]
Automatisation et massification des contrôles
Pour atteindre l’objectif de massification des contrôles, France Travail mise sur l’automatisation [3]. Début 2025, ses dirigeant·es ont ainsi annoncé que le « CRE rénové » s’accompagnerait du déploiement de « robot[s] d’aide à l’analyse du dossier » destinés à assister la personne en charge du contrôle. L’objectif affiché est de réaliser des « gains de productivité » permettant de réduire la durée d’un contrôle pour pouvoir alors les multiplier à moindre coût [4].
Pour ce faire, ces « robots » ont pour tâche de classer les personnes ayant été sélectionnées pour un contrôle selon différents degrés de « suspicion » [5] afin de guider le travail du contrôleur ou de la contrôleuse. Concrètement, ils réalisent un profilage algorithmique de la personne contrôlée sur la base de l’analyse des données personnelles détenues par France Travail.
Ce profilage prend la forme d’une classification en trois niveaux : « clôture » (pas de suspicion), « clôture potentielle » (suspicion moyenne) ou « contrôle potentiel » (suspicion forte) [6]. Ce résultat est alors transmis, en amont du contrôle, au contrôleur ou à la contrôleuse afin de l’inciter à se concentrer sur les dossiers considérés comme suspects par l’algorithme, tout en clôturant rapidement le contrôle pour les autres.
France Travail se réfugie dans l’opacité
À travers notre campagne France Contrôle, nous avons déjà parlé de la Caisse nationale des allocations familiales (CNAF), la première à se lancer dans ce contrôle algorithmique des populations. Le fait qu’elle soit rejointe par France Travail démontre une fois de plus pourquoi il est fondamental de s’opposer, par principe, à l’usage d’algorithmes de profilage à des fins de contrôle. Mais également d’exiger la transparence autour du fonctionnement de ces algorithmes, afin de mieux pouvoir les combattre tant politiquement que juridiquement.
Dans le cas présent, cette transparence est d’autant plus importante que l’objectif d’un contrôle de la recherche d’emploi – « une appréciation globale des manquements [de la personne contrôlée] afin de sanctionner un comportement général »7 – est très flou et propice à l’arbitraire. L’analyse du code de l’algorithme pourrait aussi appuyer un combat juridique, tel que l’actuel contentieux contre la CNAF.
Mais sur le sujet des « robots » de contrôle – comme sur beaucoup d’autres [7] – la direction de France Travail se refuse à toute transparence. Son directeur est allé jusqu’à déclarer à la Commission d’accès aux documents administratifs (CADA) « qu’aucun algorithme n’est utilisé dans le cadre du « CRE rénové » […] » suite à la saisine déposée par des journalistes de Cash Investigation ayant travaillé sur ce sujet [8].
Un profilage policier
En l’absence de transparence sur le fonctionnement de ces « robots », nous ne pouvons qu’avancer quelques hypothèses sur le fonctionnement du profilage algorithmique. Côté technique, la direction de France Travail a déclaré que le « robot » n’était pas basé sur de l’intelligence artificielle, sans toutefois exclure qu’il puisse l’être à l’avenir [9]. En conséquence, le profilage serait le résultat d’opérations algorithmiques simples issues de la combinaison de différents critères construits à partir des données personnelles détenues par France Travail [10].
Quant à la nature de ces critères, des pistes sont données par un documentdistribué aux équipes de contrôle de France Travail il y a quelques mois. Assumant pleinement un discours policier, la direction de France Travail y présente une « grille d’analyse » venant préciser le « niveau d’importance » de différents « indices » permettant de caractériser les « manquements » des personnes contrôlées.
Parmi ces éléments, notons notamment l’absence de périodes récentes de travail ou de formation, l’absence de mobilisation des outils numériques mis à disposition par France Travail (offres, CV ou carte de visite en ligne), l’absence de contact avec son ou sa conseiller·ère, les résultats des derniers contrôles de recherche d’emploi, l’absence de candidatures envoyées via le site de France Travail ou encore le non-respect des 15 « heures d’activité » prévue par la loi « Plein Emploi ».
Tout indique que ce travail de rationalisation du processus de contrôle aurait servi de base à la construction du « robot » lui-même. En effet, en plus du résultat du profilage, le « robot » fait remonter au contrôleur ou à la contrôleuse une liste d’éléments issus de cette grille. Ces remontées permettent alors à la personne en charge du contrôle d’apprécier la décision de classification du « robot », sans pour autant qu’il ou elle ait accès à ses règles de fonctionnement précises.


Compléments d'info à l'article
Proposer un complément d'info