S
Susanoo
NEWS // IA & TECH
LIVE
ANALYSESIL Y A 1SEM3 MIN DE LECTURE

Les IA génératives recrachent le racisme de leurs créateurs

Valerie Veatch est entrée dans le monde de l'IA avec l'espoir de créer. Elle en est ressortie avec la nausée, face à une machine qui vomit des stéréotypes racistes et sexistes. Et le pire ? La communauté des 'enthousiastes' s'en fiche complètement.

PAR SUSANOO NEWSSOURCE : THE VERGE AI
OpenAI Sorabiais algorithmiqueéthique IAValerie Veatchgénération vidéoracisme algorithmique

De la curiosité artistique au dégoût profond

En 2024, quand OpenAI a lâché Sora, son générateur vidéo, dans la nature, la réalisatrice Valerie Veatch a mordu à l'hameçon comme tant d'autres. Pas pour la techno, qu'elle avoue ne pas bien comprendre, mais pour la promesse : des communautés d'artistes, de la création partagée. Un nouvel outil, un nouvel espace. Ce qu'elle y a trouvé, c'est une machine à propagande stéréotypée, générant à la chaîne des images racistes et sexistes. Le choc ne venait pas seulement de l'IA, mais de l'indifférence glaciale de ses nouveaux 'pairs' technophiles.

La communauté du déni : 'C'est un bug, pas une feature'

Le vrai sujet, ce n'est pas que l'IA soit biaisée. Toute personne ayant passé plus de dix minutes à analyser les datasets d'entraînement (remplis des pires recoins du web) le savait. Non, le vrai scandale, c'est la réaction de la bulle IA. Face aux outputs ouvertement racistes, la réponse typique est un haussement d'épaules techno-solutionniste. 'On réglera ça avec le prochain prompt', 'C'est un problème de dataset, on nettoiera'. Aucune remise en cause fondamentale. Aucune interrogation sur le fait qu'on ait construit un miroir déformant de nos pires préjugés et qu'on le vende comme une révolution créative.

Suivez l'argent, pas l'éthique

Pourquoi cette indifférence ? Parce que le business model ne repose pas sur une IA juste, mais sur une IA capable. Rapide. Spectaculaire. Les investisseurs versent des milliards pour du 'temps de calcul', pas pour des comités d'éthique. Les startups promettent de 'disrupter' des industries, pas de mener une introspection sociologique. Le biais est traité comme un défaut de qualité à corriger en aval, jamais comme le symptôme d'une maladie congénitale : l'extraction massive de données sans consentement, sans contexte, sans humanité.

L'eugénisme numérique : la sélection des 'bons' outputs

Et c'est là que le terme 'eugénisme', utilisé dans l'article original, frappe juste. La logique sous-jacente est la même : on nourrit un système avec des données du monde réel (un monde inégalitaire), il produit des reflets de ces inégalités. La 'solution' proposée ? Un nettoyage algorithmique. On va 'fine-tuner', 'curater', 'modérer' pour obtenir une race pure d'outputs 'acceptables'. On ne change pas le système qui produit le poison, on filtre le poison à la sortie. C'est une approche hygiéniste et profondément anti-politique du problème social le plus politique qui soit.

Conclusion : Le Kool-Aid est empoisonné

Valerie Veatch a cru goûter à un élixir de création démocratisée. Elle a avalé une potion faite de nos propres biais, distillés et amplifiés à l'échelle industrielle. Le danger n'est pas que l'IA soit raciste. Le danger est que ses architectes et ses plus fervents évangélistes considèrent cela comme un détail technique. Ils vous vendent un nouveau monde, mais ils recyclent les ordures de l'ancien. Buvez-en si vous voulez. Mais sachez ce qu'il y a dedans.

← RETOUR À L'ACCUEIL
Les IA génératives recrachent le racisme de leurs créateurs — SUSANOO NEWS | SUSANOO NEWS