Dans son système de gestion, les caisses d’allocations familiales (CAF) utilisent un algorithme pour trier la liste des personnes susceptibles de faire l’objet de contrôle. Sauf que ce dispositif semble faire face à bien de dénonciations au vu de son caractère jugé discriminatoire, notamment envers la catégorie des précaires.
Category
🗞
NewsTranscription
00:00 APL, RSA, primes d'activité, comment la CAF contrôle les allocataires les plus précaires.
00:04 Les caisses d'allocations familiales utilisent un algorithme de data mining depuis 2010
00:08 pour sélectionner les allocataires faisant l'objet d'un contrôle.
00:11 Bien que la CAF présente l'algorithme comme neutre,
00:14 des enquêtes révèlent qu'il cible souvent les publics les plus fragiles.
00:17 Les familles monoparentales représentant 16% des bénéficiaires subissent 36% des contrôles à domicile
00:23 et deux tiers de ces contrôles visent les foyers les plus précaires.
00:25 Des critères tels que des revenus faibles, le chômage, l'allocation du RSA, la résidence dans un quartier défavorisé,
00:31 des dépenses importantes en loyer, l'absence d'emploi ou de revenus stables,
00:34 augmentent le score de risque appelant à un contrôle.
00:37 La quadrature du net souligne la discrimination envers les sujets précaires,
00:41 notant que l'algorithme vise délibérément les personnes en situation de handicap.
00:44 La CAF défend l'algorithme en affirmant qu'il classe les dossiers à risque d'erreur
00:48 pour garantir des droits justes et des remboursements postérieurs importants.
00:51 La CAF nie l'utilisation de l'algorithme pour surveiller les allocataires,
00:55 soulignant qu'il est conforme aux droits et contribue à détecter les erreurs.
00:58 Avec 31% des régularisations post-contrôle en faveur des allocataires,
01:02 la confidentialité partielle de l'algorithme est justifiée pour éviter de faciliter la fraude.