Le grand bluff des gardiens du savoir
Alors que la fondation Wikimedia annonce pompeusement un "crackdown" sur l'utilisation de l'IA dans la rédaction d'articles, la réalité est plus proche d'une capitulation en rase campagne. Depuis l'explosion de ChatGPT en 2022, plus de 300 000 éditions suspectes ont été identifiées comme potentiellement générées par IA — et ce n'est que la partie émergée de l'iceberg. Les bénévoles modérateurs, déjà débordés, doivent désormais jouer aux détectives face à des textes de plus en plus sophistiqués.
Des politiques écrites à l'eau tiède
La nouvelle directive, aussi vague qu'ambitieuse, interdit les articles "entièrement" générés par IA. Le diable se cache dans le "entièrement" : quid des articles partiellement rédigés, relus, corrigés ? La fondation botte en touche, laissant aux communautés linguistiques le soin de définir leurs propres règles. Résultat : une mosaïque de 300 politiques différentes selon les versions linguistiques, du libéralisme absolu à la prohibition totale. Une usine à gaz qui garantit l'inefficacité.
L'argent qui manque, les outils qui défaillent
Pendant ce temps, Wikimedia dépense des millions en conférences mondiales et en communication vertueuse, mais ne déploie aucun système de détection fiable à grande échelle. Les bénévoles doivent se fier à leur intuition et à des outils tiers comme GPTZero, dont la fiabilité oscille entre 60 et 80% selon les langues. En clair : on demande à des retraités et étudiants bénévoles de faire le travail que Google et OpenAI, avec leurs milliards, n'arrivent pas à perfectionner.
Qui y gagne ? Les géants du tech, évidemment
Derrière ce théâtre d'ombres, les vrais gagnants ont des noms : OpenAI, Google, Anthropic. Chaque article Wikipedia généré par leurs modèles représente des données d'entraînement gratuites pour améliorer leurs systèmes. La boucle est vicieuse : ils fournissent les outils qui polluent la base de connaissances, puis utilisent cette pollution pour s'améliorer. Wikimedia, en refusant de prendre des mesures radicales (comme bloquer toutes les éditions depuis les IPs des services cloud majeurs), se fait complice de cette vampirisation.
La fin de l'utopie collaborative ?
Le modèle Wikipedia — des humains collaborant bénévolement — se heurte à la réalité économique de l'IA : une armée de bots pouvant générer en une seconde ce qu'un humain met des heures à vérifier. La fondation, coincée entre ses principes humanistes et son incapacité technique, choisit la pire des options : une politique molle qui légitime l'usage modéré de l'IA. Demain, "écrit avec l'aide de ChatGPT" deviendra peut-être la norme. La neutralité de point de vue, pilier de Wikipedia, sera alors définie par les biais des grands modèles de langage.
La vérité que personne n'ose dire ? Wikipedia est déjà perdue. Elle devient lentement, inexorablement, un miroir déformant de l'intelligence artificielle — avec toute ses hallucinations, ses biais et ses approximations. Les gardiens du temple jouent les vigiles pendant que les murs s'effritent.