Jennifer a cru que la reconnaissance faciale était un gadget inoffensif. Un petit test entre copines. En 2023, elle pointe son joli minois de jeune chercheuse dans un logiciel à la mode – histoire de voir si la machine serait capable de retrouver les vieilles vidéos pornos qu’elle tournait dix ans plus tôt, à 20 ans passés. Résultat : la machine a fait mieux que Google Images. Elle a vomi son passé sur l’écran. Félicitations, Jennifer, tu viens de prouver que ton visage est une carte de fidélité pour ton propre corps.
Le test de confiance – et de stupidité
Jennifer travaille pour une ONG. Elle veut un CV net, sans tache. Alors elle prend son nouveau portrait professionnel et le jette dans la gueule d’un algorithme de reconnaissance faciale. Pourquoi ? Parce qu’elle veut vérifier si la technologie est capable de fouiller son passé. C’est comme inviter un cambrioleur chez toi pour vérifier si tes serrures sont solides. La machine, évidemment, renvoie les vidéos qu’elle avait postées à l’époque où elle était jeune, fauchée et pas encore réveillée. Choc. Stupeur. Tristesse. Mais surtout : quelle idée de faire ce test ?
L’algorithme voyeur – votre visage est un QR code
La reconnaissance faciale ne fait pas de sentiment. Elle indexe, compare, crache. Les entreprises comme Amazon, Google ou Clearview AI ont transformé chaque pixel de votre tronche en marchandise. Jennifer a servi son visage sur un plateau – et la machine a simplement fait son boulot : relier une photo propre à un catalogue de vidéos coquines. Ce n’est pas un bug, c’est une fonctionnalité. Les algorithmes ne jugent pas, ils associent. Et ils s’en foutent que votre vie ait changé, que vous soyez devenue une respectable employée d’ONG. Pour eux, vous êtes toujours la même collection de pixels.
Qui se goinfre – suivez l’argent, pas les larmes
Derrière cette anecdote personnelle se cache un business juteux. Les API de reconnaissance faciale sont vendues aux régies publicitaires, aux forces de police, aux sites de rencontre, et bien sûr aux plateformes pornos. Chaque fois que vous uploadez une photo, des entreprises se font de l’argent sur votre identité. Les vidéos de Jennifer, elles, continuent de rapporter des clics à des sites qui n’ont même pas besoin de son consentement pour les monétiser. Et qui protège Jennifer ? Personne. Les législateurs européens discutent encore de l’IA Act pendant que des milliers de visages sont aspirés dans des bases de données sans contrôle. En attendant, le passé de Jennifer est devenu un actif numérique négociable.
La leçon – vous êtes une marchandise, pas une personne
Cette histoire est un avertissement. Non, le numérique n’oublie pas. Oui, votre vieux porno reviendra vous hanter si vous lui en laissez la chance. Et non, la technologie n’est pas neutre : elle est conçue pour extraire, classifier, revendre. Jennifer a appris à ses dépens que son corps ne lui appartient plus – il est stocké quelque part dans un data center, prêt à être ressorti dès qu’un algorithme le croise. Alors la prochaine fois que vous ferez un selfie, souvenez-vous : vous ne regardez pas votre reflet, vous créez une nouvelle entrée dans le grand catalogue des corps mis en vente. Bienvenue dans le monde réel.