De la curiosité artistique au dégoût profond
En 2024, quand OpenAI a lâché Sora, son générateur vidéo, dans la nature, la réalisatrice Valerie Veatch a mordu à l'hameçon comme tant d'autres. Pas pour la techno, qu'elle avoue ne pas bien comprendre, mais pour la promesse : des communautés d'artistes, de la création partagée. Un nouvel outil, un nouvel espace. Ce qu'elle y a trouvé, c'est une machine à propagande stéréotypée, générant à la chaîne des images racistes et sexistes. Le choc ne venait pas seulement de l'IA, mais de l'indifférence glaciale de ses nouveaux 'pairs' technophiles.
La communauté du déni : 'C'est un bug, pas une feature'
Le vrai sujet, ce n'est pas que l'IA soit biaisée. Toute personne ayant passé plus de dix minutes à analyser les datasets d'entraînement (remplis des pires recoins du web) le savait. Non, le vrai scandale, c'est la réaction de la bulle IA. Face aux outputs ouvertement racistes, la réponse typique est un haussement d'épaules techno-solutionniste. 'On réglera ça avec le prochain prompt', 'C'est un problème de dataset, on nettoiera'. Aucune remise en cause fondamentale. Aucune interrogation sur le fait qu'on ait construit un miroir déformant de nos pires préjugés et qu'on le vende comme une révolution créative.
Suivez l'argent, pas l'éthique
Pourquoi cette indifférence ? Parce que le business model ne repose pas sur une IA juste, mais sur une IA capable. Rapide. Spectaculaire. Les investisseurs versent des milliards pour du 'temps de calcul', pas pour des comités d'éthique. Les startups promettent de 'disrupter' des industries, pas de mener une introspection sociologique. Le biais est traité comme un défaut de qualité à corriger en aval, jamais comme le symptôme d'une maladie congénitale : l'extraction massive de données sans consentement, sans contexte, sans humanité.
L'eugénisme numérique : la sélection des 'bons' outputs
Et c'est là que le terme 'eugénisme', utilisé dans l'article original, frappe juste. La logique sous-jacente est la même : on nourrit un système avec des données du monde réel (un monde inégalitaire), il produit des reflets de ces inégalités. La 'solution' proposée ? Un nettoyage algorithmique. On va 'fine-tuner', 'curater', 'modérer' pour obtenir une race pure d'outputs 'acceptables'. On ne change pas le système qui produit le poison, on filtre le poison à la sortie. C'est une approche hygiéniste et profondément anti-politique du problème social le plus politique qui soit.
Conclusion : Le Kool-Aid est empoisonné
Valerie Veatch a cru goûter à un élixir de création démocratisée. Elle a avalé une potion faite de nos propres biais, distillés et amplifiés à l'échelle industrielle. Le danger n'est pas que l'IA soit raciste. Le danger est que ses architectes et ses plus fervents évangélistes considèrent cela comme un détail technique. Ils vous vendent un nouveau monde, mais ils recyclent les ordures de l'ancien. Buvez-en si vous voulez. Mais sachez ce qu'il y a dedans.