France Travail : des robots pour contrôler les chômeurs·euses et les personnes au RSA



France Travail déploie actuellement des robots visant à automatiser et massifier le contrôle des personnes inscrites à France Travail. Depuis le 1 janvier 2025, cela inclut également les personnes au RSA. Il s’agit d’une nouvelle étape du dangereux projet de gestion algorithmique des personnes sans-emplois, porté par le directeur général de France Travail, Thibaut Guilluy.

Retour sur le contexte de cette mise en place et ses implications sociales.

Sous l’impulsion d’Emmanuel Macron, les contrôles réalisés par France Travail sont passés de moins de 200 000 en 2017 à plus de 600 000 en 2024. Il y a tout juste un an, l’exécutif surenchérissait et fixait à l’institution un objectif de 1,5 million de contrôles en 2027 [1].

Parallèlement était votée, en décembre 2023, la loi dite « Plein Emploi », entrée en vigueur le 1er janvier dernier. Cette dernière vient modifier en profondeur les modalités du contrôle des personnes sans-emplois via deux mesures phares. La première est l’extension du pouvoir de contrôle et de sanctions des personnes au RSA par France Travail. La seconde concerne l’obligation pour toute personne suivie par France Travail – qu’elle soit au RSA ou au chômage – de réaliser 15 « heures d’activité » hebdomadaires sous peine de sanctions.

C’est dans ce contexte que France Travail déploie actuellement une refonte de son processus de contrôle. Dénommée « Contrôle de la Recherche d’Emploi rénové » (ou « CRE rénové »), elle vise tant à « arriver à mettre en oeuvre 1,5 million de contrôles […] à l’horizon 2027 » qu’à prendre en compte les « évolutions introduites par la loi “Plein Emploi” » [2]

Automatisation et massification des contrôles

Pour atteindre l’objectif de massification des contrôles, France Travail mise sur l’automatisation [3]. Début 2025, ses dirigeant·es ont ainsi annoncé que le « CRE rénové » s’accompagnerait du déploiement de « robot[s] d’aide à l’analyse du dossier » destinés à assister la personne en charge du contrôle. L’objectif affiché est de réaliser des « gains de productivité » permettant de réduire la durée d’un contrôle pour pouvoir alors les multiplier à moindre coût [4].

Pour ce faire, ces « robots » ont pour tâche de classer les personnes ayant été sélectionnées pour un contrôle selon différents degrés de « suspicion » [5] afin de guider le travail du contrôleur ou de la contrôleuse. Concrètement, ils réalisent un profilage algorithmique de la personne contrôlée sur la base de l’analyse des données personnelles détenues par France Travail.

Ce profilage prend la forme d’une classification en trois niveaux : « clôture » (pas de suspicion), « clôture potentielle » (suspicion moyenne) ou « contrôle potentiel » (suspicion forte) [6]. Ce résultat est alors transmis, en amont du contrôle, au contrôleur ou à la contrôleuse afin de l’inciter à se concentrer sur les dossiers considérés comme suspects par l’algorithme, tout en clôturant rapidement le contrôle pour les autres.

France Travail se réfugie dans l’opacité

À travers notre campagne France Contrôle, nous avons déjà parlé de la Caisse nationale des allocations familiales (CNAF), la première à se lancer dans ce contrôle algorithmique des populations. Le fait qu’elle soit rejointe par France Travail démontre une fois de plus pourquoi il est fondamental de s’opposer, par principe, à l’usage d’algorithmes de profilage à des fins de contrôle. Mais également d’exiger la transparence autour du fonctionnement de ces algorithmes, afin de mieux pouvoir les combattre tant politiquement que juridiquement.

Dans le cas présent, cette transparence est d’autant plus importante que l’objectif d’un contrôle de la recherche d’emploi – « une appréciation globale des manquements [de la personne contrôlée] afin de sanctionner un comportement général »7 – est très flou et propice à l’arbitraire. L’analyse du code de l’algorithme pourrait aussi appuyer un combat juridique, tel que l’actuel contentieux contre la CNAF.

Mais sur le sujet des « robots » de contrôle – comme sur beaucoup d’autres [7] – la direction de France Travail se refuse à toute transparence. Son directeur est allé jusqu’à déclarer à la Commission d’accès aux documents administratifs (CADA) « qu’aucun algorithme n’est utilisé dans le cadre du « CRE rénové » […] » suite à la saisine déposée par des journalistes de Cash Investigation ayant travaillé sur ce sujet [8].

Un profilage policier

En l’absence de transparence sur le fonctionnement de ces « robots », nous ne pouvons qu’avancer quelques hypothèses sur le fonctionnement du profilage algorithmique. Côté technique, la direction de France Travail a déclaré que le « robot » n’était pas basé sur de l’intelligence artificielle, sans toutefois exclure qu’il puisse l’être à l’avenir [9]. En conséquence, le profilage serait le résultat d’opérations algorithmiques simples issues de la combinaison de différents critères construits à partir des données personnelles détenues par France Travail [10].

Quant à la nature de ces critères, des pistes sont données par un documentdistribué aux équipes de contrôle de France Travail il y a quelques mois. Assumant pleinement un discours policier, la direction de France Travail y présente une « grille d’analyse » venant préciser le « niveau d’importance » de différents « indices » permettant de caractériser les « manquements » des personnes contrôlées.

Parmi ces éléments, notons notamment l’absence de périodes récentes de travail ou de formation, l’absence de mobilisation des outils numériques mis à disposition par France Travail (offres, CV ou carte de visite en ligne), l’absence de contact avec son ou sa conseiller·ère, les résultats des derniers contrôles de recherche d’emploi, l’absence de candidatures envoyées via le site de France Travail ou encore le non-respect des 15 « heures d’activité » prévue par la loi « Plein Emploi ».

Tout indique que ce travail de rationalisation du processus de contrôle aurait servi de base à la construction du « robot » lui-même. En effet, en plus du résultat du profilage, le « robot » fait remonter au contrôleur ou à la contrôleuse une liste d’éléments issus de cette grille. Ces remontées permettent alors à la personne en charge du contrôle d’apprécier la décision de classification du « robot », sans pour autant qu’il ou elle ait accès à ses règles de fonctionnement précises.

Automatisation et violence institutionnelle



Notes

[1Pour les chiffres de 2017, voir l’étude de Pôle Emploi « Le contrôle de la recherche d’emploi : l’impact sur le parcours des demandeurs d’emploi » disponible ici. Pour 2024, voir « Bilan du Contrôle de la recherche d’emploi » disponible ici. Pour les annonces d’Emmanuel Macron dès son arrivée au pouvoir voir cet article de 2017 et cet article de 2021. L’objectif de 1,5 million a été annnoncé par Gabriel Attal en 2024, voir cet article.

[2« Information en vue d’une consultation sur le contrôle de la recherche d’emploi rénové », Comité Social d’Entreprise Central des 9 et 10 octobre 2024, disponible ici.

[3A noter que le CRE rénové s’accompagne aussi d’une réduction des droits des personnes contrôlées afin de réduire le temps nécessaire à un contrôle. Il s’agit de mettre en place une procédure « flash » permettant de faire « l’économie de l’entretien téléphonique » et/ou de l’envoi d’un formulaire à la personne contrôlée, deux choses qui étaient systématiques jusqu’alors lors d’un CRE. En cas d’« avertissement avant sanction », la personne contrôlée disposera de 10 jours pour justifier de sa situation. Voir « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.

[4« Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central (CSEC) des 13 et 14 mars 2024, disponible ici.

[5La sélection des personnes relève d’un autre traitement algorithmique. Elles sont le fruit de requêtes ciblées (métiers en tensions…) et aléatoires, de signalements agence ou encore d’« alertes automatiques » incluant désormais certains des flux provenant de la « gestion de la liste ». Voir le document « Information sur le pilote du contrôle de la recherche d’emploi (CRE) rénové », Comité Social d’Entreprise Central des 13 et 14 mars 2024, disponible ici.

[6Ces informations se basent sur des discussions avec des équipes de France Travail ayant eu accès aux résultats des profilages réalisés par les robots. Notons aussi l’existence d’une catégorie « erreur » pour les dossiers n’ayant pas pu être traités par l’algorithme.

[7Une grande partie de nos demandes d’accès aux documents administratifs restent sans réponse. Nous reviendrons sur ce point dans un article dédié.

[8L’avis de la CADA citant le directeur de France Travail est disponible ici.

[9Propos tenus lors du CSEC de France Travail du 22 novembre 2024.

[10On pense assez naturellement à un algorithme du type « arbre de décision ».

Proposer un complément d'info

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par un administrateur du site.

Qui êtes-vous ?
Se connecter
Votre message

Pour créer des paragraphes, laissez simplement des lignes vides.

Lien hypertexte

(Si votre message se réfère à un article publié sur le Web, ou à une page fournissant plus d’informations, vous pouvez indiquer ci-après le titre de la page et son adresse.)

Ajouter un document

Articles de la même thématique : Précarités

Articles de la même thématique : Chômage

Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable

Après plus d’un an de mobilisation contre les pratiques de notation des allocataires de la CAF au côté des collectifs Stop Contrôles et Changer de Cap [1], et après avoir détaillé le fonctionnement de l’algorithme de la CAF et son cadre politique, nous publions aujourd’hui le code source de cet algorithme de notation. Nous vous invitons aussi à consulter ici notre page de présentation sur l’utilisation d’algorithmes similaires au sein d’autres administrations.