S
Susanoo
NEWS // IA & TECH
LIVE
ANALYSESIL Y A 1SEM2 MIN DE LECTURE

La police d'Essex découvre que son IA est raciste, la débranche en attendant la notice

Une étude académique a confirmé ce que tout le monde savait déjà : les systèmes de reconnaissance faciale de la police britannique ciblent de manière disproportionnée les personnes noires. La réponse ? Une 'pause' bien pratique, le temps que l'orage médiatique passe.

PAR SUSANOO NEWSSOURCE : THE GUARDIAN AI
facial recognitionracial biasEssex policeICOAI ethicspolicing

La police d'Essex vient de faire une découverte aussi étonnante qu'un ours dans une forêt : son système de reconnaissance faciale en temps réel (LFR) est raciste. Face à cette révélation sidérante, les autorités ont pris une mesure radicale : elles ont appuyé sur le bouton 'pause'. Une suspension temporaire, le temps, sans doute, que le scandale retombe et que le logiciel apprenne à mieux dissimuler ses biais.

L'IA qui voit trop de noir

L'étude en question, menée par des universitaires, n'a fait que quantifier une réalité connue. Les algorithmes, nourris aux données occidentales et calibrés sur des visages majoritairement blancs, identifient les personnes noires comme « significativement plus susceptibles » d'être ciblées. En clair, la technologie de surveillance de masse hérite et amplifie les préjugés de ses créateurs. Quelle surprise.

La stratégie du bouton 'snooze'

La réaction de la police d'Essex, relayée par l'ICO (Information Commissioner's Office), est un chef-d'œuvre de gestion de crise à l'anglaise. Pas de remise en cause fondamentale, pas de démantèlement. Juste une « pause ». Le système est déployé dans au moins 13 autres forces policières, du Pays de Galles au Grand Manchester, en passant par le Yorkshire. Aucune d'elles n'a, pour l'instant, suivi le mouvement. Business as usual.

Qui regarde les gardiens algorithmiques ?

L'ICO, le régulateur, semble découvrir le problème avec un décalage confortable. Ces systèmes scrutent le visage du public depuis des années, avec une précision douteuse et une partialité évidente. La question n'est pas de savoir si l'IA de surveillance est biaisée, mais pourquoi on l'a déployée avant de le vérifier. La réponse est simple : la course à l'innovation sécuritaire prime sur les droits civils. La 'pause' d'Essex n'est qu'un entracte. La pièce, une dystopie techno-policière, continue de se jouer partout ailleurs.

La prochaine étape ? Probablement un communiqué annonçant un 'nouveau protocole éthique' et un 'réétalonnage des données'. Le temps que les caméras réapprennent à voir, on vous demande de bien vouloir continuer à sourire. Vous êtes filmés.

← RETOUR À L'ACCUEIL
La police d'Essex découvre que son IA est raciste, la débranche en attendant la notice — SUSANOO NEWS | SUSANOO NEWS