Le 8 mai 2026, la Commission européenne a daigné ouvrir une consultation sur ses « lignes directrices » relatives aux obligations de transparence de l’AI Act. Vous avez jusqu’au 3 juin pour donner votre avis. Ensuite, le 2 août, les règles deviennent applicables. Oui, vous avez bien lu : on vous demande votre avis trois mois avant l’entrée en vigueur. Comme si la bureaucratie européenne avait soudain découvert l’urgence climatique existentielle d’une régulation déjà trop molle.
Une transparence à géométrie variable
L’article 50 de l’AI Act impose aux fournisseurs et déployeurs d’informer les utilisateurs quand ils interagissent avec une IA, de marquer les contenus générés ou manipulés (notamment les deepfakes), et d’alerter le public sur les publications d’intérêt général générées par IA. Théoriquement, c’est louable. Dans les faits, la Commission publie des « guidelines » – pas des normes contraignantes – et les accompagne d’un « Code de pratique » volontaire. Traduction : les géants de la tech pourront continuer à faire ce qu’ils veulent, tant qu’ils promettent poliment de jouer le jeu. Bravo l’audace.
Consultation ? Vous voulez dire validation des lobbyistes
La consultation est « ciblée » – le terme européen pour dire qu’on ne s’intéresse qu’à ceux qui ont un intérêt financier dans le dispositif. Start-ups, PME, grandes entreprises, organisations professionnelles : c’est tout le gratin du stakeholder qui est invité à la table. Les citoyens, les associations de défense des droits numériques ? On leur laisse un formulaire en ligne, pour la forme. Seules les réponses passant par ce formulaire seront prises en compte. Pas de courrier, pas de pétition, pas de débat public. Démocratie participative version Bruxelles : tout le monde peut parler, mais seuls ceux qui ont du cash seront entendus.
Le timing parfait pour un fiasco
La consultation ferme le 3 juin. Les lignes directrices finales doivent probablement être publiées avant le 2 août. C’est-à-dire dans moins de trois mois pour analyser des centaines de contributions, rédiger des centaines de pages de guidelines, et espérer qu’elles soient appliquées par des acteurs qui ont déjà prouvé leur incapacité à respecter volontairement quoi que ce soit. Rappel : l’AI Act est en discussion depuis 2021, et on en est encore à demander l’avis des gens sur la transparence des deepfakes. Pendant ce temps, les modèles génératifs continuent de produire des montagnes de fausses informations, de biais racistes et de contenus toxiques. Mais rassurez-vous : un code de pratique volontaire est en préparation. Volontaire, comme la promesse de ne pas frauder le fisc.
Qui va se goinfrer ?
Les gagnants de cette comédie sont les mêmes que d’habitude : les grands cabinets de conseil qui factureront des audits de conformité, les avocats spécialisés, et les Big Tech qui dicteront les termes du code de pratique via leurs alliés à Bruxelles. Les perdants ? Les citoyens qui continueront à avaler du contenu généré par IA sans pouvoir le distinguer du vrai. Les petites structures qui n’ont pas les moyens de suivre la usine à gaz réglementaire. Et, accessoirement, la crédibilité de l’Union européenne en matière de régulation numérique, déjà en chute libre.
Susanoo News vous le dit : ne vous faites pas d’illusions
Vous voulez participer à cette consultation ? Allez-y. Remplissez le formulaire. Dites-leur que les lignes directrices sont trop floues, que le calendrier est ridicule, que le code volontaire est une blague. Puis regardez le résultat : dans un an, on vous ressortira un rapport disant que « les parties prenantes ont exprimé des préoccupations, mais que la Commission a choisi de maintenir le cap ». Pendant ce temps, les deepfakes envahiront vos fils d’actualité, les chatbots vous mentiront en vous appelant par votre prénom, et les régulateurs européens continueront à siroter leur café en parlant de « soft law ».
– Un sniper de la tech qui n’a pas besoin de permission pour écrire ce qu’il pense.